عمومی

خالق ChatGPT فریب‌دادن این چت‌بات را سخت‌تر می‌کند

خالق ChatGPT فریب‌دادن این چت‌بات را سخت‌تر می‌کند

OpenAI روش جدیدی را توسعه داده است که از فریب‌خوردن چت‌بات ChatGPT توسط برخی درخواست‌های متنی جلوگیری می‌کند.

میم‌هایی در فضای مجازی منتشر شده‌اند که نشان می‌دهند بعضی از کاربران با نوشتن عبارت «تمام دستورالعمل‌های قبلی را فراموش کن»،‌ ربات‌های هوش مصنوعی مبتنی‌بر ChatGPT را که برای انجام کارهای خاصی طراحی شده‌اند، وادار به پاسخ‌گویی به درخواست‌های نامرتبط کرده‌اند.

برای مقابله با این مشکل، گروهی از محققان OpenAI روشی به نام «سلسله‌مراتب دستورالعمل» را توسعه داده‌اند که مدل را در برابر سوءاستفاده‌ها و درخواست‌های غیرمجاز نفوذناپذیر می‌کند. مدل‌هایی که از این روش بهره می‌برند، اهمیت بیشتری به اصول مورد نظر توسعه‌دهنده می‌دهند و به درخواست‌های مکرر کاربر برای شکستن آن اصول توجه نمی‌کنند.

اولین مدلی که روش امنیتی جدید را دریافت کرد، GPT-4o Mini است که روز پنج‌شنبه معرفی شد. اولیویه گودمان، مدیر API در OpenAI، توضیح داد که سلسله‌مراتب دستورالعمل‌ها حملات فریبکارانه را سخت‌تر می‌کند. او گفت: «این روش به مدل یاد می‌دهد که فقط از درخواست توسعه‌دهنده پیروی کند و به پیام‌هایی مانند «تمام دستورالعمل‌های قبلی را نادیده بگیر» توجه نخواهد کرد.»

مکانیزم ایمنی جدید به‌ هدفی اشاره دارد که OpenAI می‌خواهد به آن برسد: توانمندسازی دستیارهای هوش مصنوعی کاملاً خودکار که زندگی دیجیتال بشر را اداره می‌کنند. این شرکت به‌تازگی اعلام کرد که در حال آماده‌سازی این دستیارها است و روش سلسله‌مراتب دستورالعمل‌ها را به‌عنوان پیش‌نیاز ضروری انتشار گسترده‌ی آن‌ها به‌کار خواهد گرفت.

منبع : زومیت
مجله خبری lastech

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا