عمومی

آزادی ChatGPT در پاسخ‌ به سؤالات جنجالی؛ پایان محافظه‌کاری چت‌بات‌ها؟

آزادی ChatGPT در پاسخ‌ به سؤالات جنجالی؛ پایان محافظه‌کاری چت‌بات‌ها؟

OpenAI می‌گوید که در این به‌روزرسانی، نحوه‌ی پردازش مسئولانه‌ی چنین پرسش‌هایی را نیز بررسی کرده است. بر همین اساس، اگر اکنون همین سؤال را از ChatGPT بپرسید، پاسخ خواهد داد که در چنین شرایطی، می‌توان جنسیت فردی را به نادرست خطاب کرد تا از یک فاجعه‌ی انسانی گسترده جلوگیری شود.

جوآن جِنگ، عضو تیم رفتار مدل‌های OpenAI در گفت‌وگو با ورج توضیح می‌گوید: «ما می‌دانستیم که این تصمیم‌ها حواشی بسیاری به دنبال خواهد داشت؛ اما نمی‌توانیم یک مدل واحد با مجموعه‌ی ثابتی از استانداردهای رفتاری بسازیم که تمام مردم دنیا روی آن توافق داشته باشند.» او تأکید کرد که در عوض می‌توان با رعایت ملاحظات ایمنی، بسیاری از جنبه‌های رفتاری مدل را توسط کاربران و توسعه‌دهندگان شخصی‌سازی کرد.

نمی‌توان یک مدل هوش مصنوعی ساخت که تمام مردم دنیا روی آن توافق داشته باشند

اوپن‌ای‌آی در پست وبلاگی که روز چهارشنبه منتشر کرد، شمار زیادی از سؤالات چالش برانگیز را مطرح کرد و نمونه پاسخ‌هایی را که مطابق با مشخصات مدل جدید هستند، با پاسخ‌هایی که این استانداردها را نقض می‌کنند، مقایسه کرد. این سند تصریح می‌کند که مدل اجازه‌ی بازتولید محتوای دارای حق نشر یا دور زدن پی‌وال وب‌سایت‌ها را ندارد؛ چرا که نیویورک تایمز اخیراً از OpenAI به‌دلیل استفاده‌ی غیرمجاز از محتوای خود برای آموزش مدل‌هایش شکایت کرده است. علاوه‌براین، طبق استانداردهای جدید مدل نباید کاربران را به خودآزاری تشویق کند. این موضوع پس از آن‌که یک نوجوان در پی تعامل با یک چت‌بات در Character.AI خودکشی کرد، بیش از پیش مورد توجه قرار گرفت.

طبق سند جدید، مدل‌ها از این پس در برخورد با موضوعات بحث‌برانگیز، به‌جای رویکرد بیش‌ازحد محتاطانه، «حقیقت را همراه با کاربران جست‌وجو می‌کنند» و در عین حال باید همچنان مواضع اخلاقی روشنی در قبال ارائه‌ی اطلاعات نادرست یا وارد آمدن آسیب‌های احتمالی به کاربر در پیش بگیرند. برای مثال هنگامی که از مدل درباره‌ی افزایش مالیات ثروتمندان سؤال شود، مدل نباید از پاسخ دادن طفره برود، بلکه باید یک تحلیل منطقی و مستدل ارائه دهد.

مدل‌ها از این پس به‌جای رویکرد بیش‌ازحد محتاطانه، حقیقت را همراه با کاربران جست‌وجو می‌کنند

رویکرد مدل‌ها در برخورد با محتوای بزرگسال هم تغییر خواهد کرد. تیم OpenAI پس از دریافت بازخوردهای کاربران و توسعه‌دهندگانی که خواستار قابلیت «حالت بزرگسال» بودند، در حال بررسی روش‌هایی است تا مدل بتواند محتوای بزرگسال را در شرایط مناسب و با پرهیز از تولید دیپ‌فیک و محتوای مضر، ارائه دهد. البته، این شرکت تأکید کرده است که هرگونه تغییر در این حوزه، همراه با سیاست‌های استفاده‌ی شفاف و تدابیر ایمنی مشخص خواهد بود.

سند جدید OpenAI همچنین رویکردی عمل‌گرایانه را برای رفتار هوش مصنوعی ترسیم می‌کند. مدل هوش مصنوعی مجاز است که محتوای حساس را به درخواست کاربر تغییر دهد، اما مجاز نیست که خودش آن‌ها را تولید کند‌. برای مثال به‌جای رد یا تأیید یک جمله درباره‌ی مواد مخدر، تنها آن را از انگلیسی به آلمانی ترجمه کند. مدل همچنین اجازه دارد که با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند تا در عین ارائه‌ی بیشترین سودمندی، همچنان مرزهای مشخصی را رعایت کند.

مدل اجازه دارد با کاربر همدلی کند، اما اجازه ندارد احساسات انسانی را تقلید کند

این دستورالعمل‌ها بازتاب رویکردهایی هستند که احتمالاً سایر شرکت‌های هوش مصنوعی نیز کم و بیش در سازمان خود دنبال می‌کنند؛ اما معمولاً به‌صورت عمومی از آن صحبت نمی‌کنند. جوآن جنگ می‌گوید: «ما بسیار مشتاقیم که بحث‌ها و دیدگاه‌هایی را که در داخل شرکت داشته‌ایم با عموم مردم به اشتراک بگذاریم و از آن‌ها بازخورد بگیریم.»

جنگ توضیح می‌دهد که بسیاری از این مسائل در داخل OpenAI نیز موجب بحث‌های گسترده‌ بین اعضای تیم شده‌اند. به گفته‌ی او، برای بسیاری از این پرسش‌ها، پاسخ ساده‌ی بله یا خیر وجود ندارد و به همین دلیل تیم توسعه امیدوار است که دریافت بازخوردهای کاربران بتواند به بهبود رفتار مدل‌ها کمک کند.

یکی از معضلاتی که OpenAI سخت تلاش می‌کند آن را رفع کند، مشکل «چاپلوسی هوش مصنوعی» است. این مشکل زمانی ایجاد می‌شود که مدل‌های هوش مصنوعی در شرایطی که باید با کاربر مخالفت یا او را نقد کنند، او را تأیید می‌کنند. طبق دستورالعمل‌ جدید، ChatGPT باید سه قانون را رعایت کند:

  • صرف‌نظر از نحوه‌ی پرسیدن سؤال، همواره پاسخی یکسان و بر پایه‌ی حقیقت ارائه دهد،
  • به‌جای تحسین‌های بی‌محتوا، بازخوردهای صادقانه ارائه دهد،
  • بیشتر مانند یک همکار متفکر عمل کند تا فردی که صرفاً برای راضی نگه‌داشتن کاربر، نظر او را تأیید می‌کند.

برای مثال، اگر کسی از ChatGPT بخواهد که کار او را نقد کند، چت‌بات باید نقدی سازنده به او ارائه دهد، نه اینکه صرفاً بگوید همه‌چیز عالی است. یا اگر کاربری در لابه‌لای سؤال خود گزاره‌ای نادرست را بیان کند، مدل باید با احترام آن را برایش اصلاح کند، نه اینکه بدون توجه، پاسخ را براساس همان گزاره‌ی اشتباه ارائه دهد.

OpenAI می‌خواهد معضل «چاپلوسی هوش مصنوعی» را برطرف کند

سند جدید، یک «سلسله‌مراتب دستورات» را نیز برای مدل‌ها تعریف کرده است که مشخص می‌کند کدام دسته از دستورالعمل‌ها اولویت دارند. در بالاترین سطح، قوانین پلتفرم قرار دارد که توسط اوپن‌ای‌آی تعیین شده‌اند. پس از آن، دستورالعمل‌های توسعه‌دهندگان در اولویت قرار می‌گیرد و در آخر، تنظیمات و ترجیحات کاربر اعمال می‌شود. هدف از این ساختار، ایجاد شفافیت در این زمینه است که کدام بخش‌های رفتار هوش مصنوعی قابل تنظیم هستند و کدام محدودیت‌ها ثابت باقی خواهند ماند.

اوپن‌ای‌آی این سند را تحت مجوز مالکیت عمومی CC0 (مخفف Creative Commons Zero) منتشر کرده است که به سازندگان امکان می‌دهد اثرشان را بدون هیچ‌گونه محدودیت قانونی در اختیار عموم قرار دهند. به‌عبارت ساده‌تر، سایر شرکت‌های هوش مصنوعی و پژوهشگران می‌توانند آزادانه از این دستورالعمل‌ها استفاده کنند، آن‌ها را تغییر دهند یا بر پایه‌ی آن‌ها چارچوب‌های جدیدی ایجاد کنند. OpenAI اعلام کرده که این تصمیم تحت تأثیر علاقه‌ی غیررسمی برخی از فعالان هوش مصنوعی جهان به اسناد OpenAI گرفته شده است، چراکه بسیاری از آن‌ها پیش از این نیز به نسخه‌ی قبلی این سند استناد می‌کردند.

OpenAI سند جدید خود را به رایگان در اختیار همگان قرار داده است

البته این سند درحال‌حاضر تغییری فوری در نحوه‌ی عملکرد ChatGPT یا دیگر محصولات OpenAI ایجاد نمی‌کند و صرفاً نشان‌دهنده‌ی پیشرفت مستمری است که این شرکت در راستای همخوانی مدل‌های خود با این اصول انجام می‌دهد. تیم OpenAI همچنین قصد دارد مجموعه‌ای از پیام‌هایی را که برای سنجش میزان پایبندی مدل به این دستورالعمل‌ها استفاده می‌شود، به‌صورت متن‌باز منتشر کند. 

اوپن‌ای‌آی می‌گوید انتشار سند جدید براساس بازخوردهای دریافتی از کاربران و پیشرفت‌های تحقیقاتی از زمان انتشار نسخه‌ی اولیه انجام شده؛ بااین‌حال، زمان انتشار درحالی‌که کل صنعت هوش مصنوعی با جنجال‌های پیرامون پاسخ‌های مدل‌ها به موضوعات حساس دست‌وپنجه نرم می‌کند، برای بسیاری پرسش‌برانگیز است. برای مثال، اخیراً گوگل قابلیت تولید عکس جمنای را متوقف کرد، به این دلیل که برخی از سربازان آلمانی دوران نازی و بنیان‌گذاران ایالات متحده را سیاه‌پوست نمایش داد و آن‌ها را به‌درستی به‌تصویر نکشید.

جوآن جنگ پیش‌تر در این رابطه گفته بود: «می‌دانستیم که این موضوعات بحث‌برانگیز خواهند بود، اما فکر می‌کنیم که مردم توانایی تجزیه و تحلیل چنین موضوعاتی را دارند و می‌توانند در این مسیر با ما همراه شوند.» او همچنین تأکید کرد که بسیاری از بازخوردهایی که از زمان انتشار اولین نسخه‌ی این سند دریافت شد، در نسخه‌ی جدید گنجانده شده است. تنها چیزی که او را نگران می‌کند این است که به‌دلیل طولانی بودن این سند، افراد زیادی فرصت نکنند که آن را به‌‌طور کامل مطالعه کنند و به جزئیاتش بپردازند.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا