تکنولوژی

مدیرعامل سابق گوگل می‌گوید در شرایط خطرناک باید بتوانیم هوش مصنوعی را خاموش کنیم

مدیرعامل سابق گوگل می‌گوید در شرایط خطرناک باید بتوانیم هوش مصنوعی را خاموش کنیم

«اریک اشمیت»، مدیرعامل سابق گوگل، هشدار می‌دهد وقتی سیستمی کامپیوتری، مانند هوش مصنوعی، به نقطه‌ خطرناکی برسد که بتواند خودش را بهبود بخشد، به‌طور جدی باید به فکر خاموش‌کردن آن بیفتیم.

اریک اشمیت در مصاحبه‌ای با ABC News درباره پیشرفت سیستم‌های کامپیوتری و هوش مصنوعی گفت: «درنهایت وقتی به کامپیوتر می‌گویید: همه‌چیز را بیاموز و هر کاری را انجام بده. به نقطه‌ای خطرناک می‌رسیم: زمانی که سیستم می‌تواند خودش را بهبود ببخشد، باید جدی به فکر خاموش‌کردن آن باشیم.»

مدیرعامل سابق گوگل هشدار می‌دهد اگر سیستم‌های هوش مصنوعی بیش‌از‌حد قدرتمند شوند، ممکن است به یک کلید برای کشتن آنها نیاز داشته باشیم. به گفته اشمیت، همان‌طور که سیستم‌ها به‌صورت فزاینده خودمختار می‌شوند، می‌توانند تهدیدهای جدید و جدی‌تری برای بشریت ایجاد کنند.

نظرات مدیرعامل سابق گوگل درباره خطرات هوش مصنوعی

اشمیت پیش‌بینی می‌کند هوش مصنوعی به‌مرور از عاملی خاص مانند کوپایلت مایکروسافت به سیستم‌ پیچیده‌تری که می‌تواند به‌تنهایی تصمیم‌ بگیرد، پیشرفت خواهد کرد. به گفته او، وقتی هوش مصنوعی به آن مرحله برسد، زمانش فرا‌می‌رسد که انسان وارد عمل شود و سیستم را خاموش کند. همچنین انسان‌ها باید مطمئن شوند خود هوش مصنوعی نمی‌تواند با خاموش‌شدنش مقابله کند.

مدیرعامل سابق گوگل می‌گوید در شرایط خطرناک باید بتوانیم هوش مصنوعی را خاموش کنیم

اشمیت گفت: «به‌صورت استعاری، بهتر است کسی را داشته باشیم که دستش همیشه روی دوشاخه [هوش مصنوعی] باشد.»

اشمیت از جنبه دیگری نیز به این فناوری پیشرفته نگاه می‌کند؛ او به مجری ABC گفت هوش مصنوعی باعث می‌شود هر انسانی در جیبش چند فرد باهوش داشته باشد؛ هرکسی در این سیاره می‌تواند به‌راحتی «آلبرت اینشتین» یا «لئوناردو داوینچی» برای خودش داشته باشد تا در کارهای مختلف از آنها استفاده کند.

اشمیت بر این باور است که برای اطمینان از اینکه بشر بدون متحمل‌ شدن خسارات از این مزایا بهره ببرد، دولت‌ها باید نظارت بر هوش مصنوعی را آغاز کنند. البته فقط او نیست که چنین نظری دارد. پیش‌ازاین، «سم آلتمن»، مدیرعامل OpenAI، نیز از دولت‌ها خواسته بود «آژانسی بین‌المللی»، شبیه آژانس انرژی اتمی، تشکیل بدهند تا از ایمنی مدل‌های هوش مصنوعی مطمئن شوند.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا