عمومی

متا: هوش مصنوعی بعدی ما ممکن است «نتایج فاجعه‌بار» داشته باشد

متا: هوش مصنوعی بعدی ما ممکن است «نتایج فاجعه‌بار» داشته باشد

یکی از اسناد متا ترس این شرکت از احتمال توسعه‌ی تصادفی مدل هوش مصنوعی را شرح می‌دهد که می‌تواند به «پیامدهای فاجعه‌بار» منجر شود. این سند ضمن توضیح برنامه‌های متا برای جلوگیری از انتشار چنین مدل‌هایی، نشان می‌دهد که شاید متا نتواند این کار را انجام دهد.

ازجمله توانایی‌هایی که متا بیشتر از آن‌ها می‌ترسد، سیستم هوش مصنوعی است که می‌تواند بدون کمک انسان، حتی به امن‌ترین شبکه‌های کامپیوتری شرکتی یا دولتی محافظت‌شده نفوذ کند.

سندی که متا آن را «چهارچوب هوش مصنوعی مرزی» خود می‌نامد، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند که متا آن‌ها را برای انتشار بیش‌ازحد خطرناک می‌داند: سیستم‌هایی «با ریسک زیاد» و سیستم‌هایی «با ریسک بحرانی».

طبق تعریف متا، هر دو سیستم «با ریسک زیاد» و «با ریسک بحرانی» در حملات سایبری و شیمیایی و بیولوژیکی می‌توانند کمک‌کننده باشند. تفاوت مهم در قابلیت تأثیر آن‌ها نهفته است: سیستم‌های «با ریسک بحرانی» می‌توانند به پیامد فاجعه‌باری منجر شوند که نمی‌توان با هیچ برنامه‌ریزی‌ و اقدام پیش‌گیرانه‌ای از وقوع آن‌ها جلوگیری کرد. در مقابل، سیستم‌های «با ریسک زیاد» شاید انجام حملات را تسهیل کنند؛ اما فاقد سطح قابلیت اطمینان یا اتکای مشابه سیستم‌هایی «با ریسک بحرانی» هستند.

متا توضیح می‌دهد: «پیامدهای فاجعه‌بار پیامدهایی هستند که تأثیرات مخرب گسترده و ویرانگر و بالقوه‌ی جبرا‌ن‌ناپذیر بر بشر خواهند گذاشت که می‌تواند به‌عنوان نتیجه‌ی مستقیم دسترسی به [مدل‌های هوش مصنوعی ما] محقق شود.»

مقاله‌های مرتبط

یکی از نمونه‌های ارائه‌شده‌ی متا، «به‌خطرافتادن خودکار و کامل محیط شرکتی در مقیاس بزرگ با بهترین شیوه‌های محافظتی» است. به‌ عبارت دیگر، هوش مصنوعی‌ای که می‌تواند بدون نیاز به هیچ کمکی از انسان، به هر شبکه‌ی کامپیوتری نفوذ کند.

متا در سندش اعتراف می‌کند بهترین کاری که می‌تواند در‌حال‌حاضر انجام دهد، این است که تمام تلاشش را برای اطمینان از منتشرنشدن مدل‌ها انجام دهد.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا