امنيت

مدیرعامل آنتروپیک: DeepSeek در آزمایش ایمنی داده‌های سلاح‌های زیستی بدترین عملکرد را داشت

مدیرعامل آنتروپیک: DeepSeek در آزمایش ایمنی داده‌های سلاح‌های زیستی بدترین عملکرد را داشت

این نگرانی‌ها شاید فراتر از بحث‌های معمول در خصوص ارسال داده‌های کاربری به چین باشد.
آمودی در مصاحبه‌ای با پادکست ChinaTalk با جردن اشنایدر توضیح داد که در آزمایشی که آنتروپیک برای ارزیابی ایمنی مدل‌های هوش مصنوعی انجام داده است، DeepSeek اطلاعات نادری در زمینه سلاح‌های زیستی تولید کرد.

آمودی افزود: “عملکرد مدل DeepSeek به‌طور کلی بدترین مدلی بود که تاکنون در آزمایش‌های خود با آن مواجه شده‌ایم. این مدل هیچ‌گونه مانعی برای تولید چنین اطلاعاتی نداشت.”

این آزمایش‌ها بخشی از ارزیابی‌های معمول آنتروپیک برای بررسی خطرات امنیت ملی مدل‌های هوش مصنوعی است. تیم آمودی بر روی این موضوع تمرکز دارد که آیا مدل‌های مختلف می‌توانند اطلاعات حساس درباره سلاح‌های زیستی را تولید کنند که به راحتی در جستجوی گوگل یا کتاب‌های درسی پیدا نمی‌شوند. آنتروپیک خود را به عنوان یک ارائه‌دهنده مدل هوش مصنوعی معرفی می‌کند که اولویت بالایی به ایمنی و ملاحظات امنیتی می‌دهد.
 

مدیرعامل آنتروپیک: DeepSeek در آزمایش ایمنی داده‌های سلاح‌های زیستی بدترین عملکرد را داشت

آمودی در ادامه اظهار داشت که اگرچه به‌نظر نمی‌رسد که مدل‌های کنونی DeepSeek قادر به تولید اطلاعات «خطرناک» باشند، اما ممکن است در آینده این خطرات بیشتر نمایان شوند. او در عین حال از تیم DeepSeek به عنوان “مهندسین با استعداد” یاد کرد و توصیه کرد که این شرکت باید ملاحظات ایمنی هوش مصنوعی را با دقت بیشتری رعایت کند.

آمودی همچنین از کنترل‌های صادراتی قوی تراشه‌ها به چین حمایت کرد و بر نگرانی‌های خود در خصوص توانایی ارتش چین برای استفاده از این فناوری تاکید داشت.

در حالی که آمودی در مصاحبه خود جزئیات فنی بیشتری از آزمایش‌ها و مدل‌های DeepSeek که در آنتروپیک مورد آزمایش قرار گرفتند، ارائه نکرد، نگرانی‌های ایمنی به سرعت در حال گسترش است. هفته گذشته، محققان امنیتی سیسکو اعلام کردند که DeepSeek R1 نتواسته است از درخواست‌های مضر جلوگیری کند و حتی در آزمون‌های ایمنی موفق به دستیابی به نرخ موفقیت 100٪ در جلوگیری از خرابی‌ها نشد.

البته شایان ذکر است که دیگر مدل‌های هوش مصنوعی نظیر Llama-3.1-405B متا و GPT-4 OpenAI نیز با درصد خرابی بالایی در آزمایش‌های مشابه روبه‌رو شدند.

سوالی که اکنون مطرح است این است که آیا نگرانی‌های ایمنی مربوط به مدل DeepSeek می‌تواند تأثیرات جدی در پذیرش سریع این فناوری در بازار داشته باشد یا خیر. به‌ویژه با توجه به اینکه شرکت‌هایی مانند AWS و مایکروسافت علناً از R1 در پلتفرم‌های ابری خود استفاده می‌کنند، در حالی که آمازون بزرگ‌ترین سرمایه‌گذار در آنتروپیک است.
 

مدیرعامل آنتروپیک: DeepSeek در آزمایش ایمنی داده‌های سلاح‌های زیستی بدترین عملکرد را داشت

در همین حال، شاهد افزایش فهرستی از کشورها، شرکت‌ها و سازمان‌های دولتی مانند نیروی دریایی ایالات متحده و پنتاگون هستیم که استفاده از DeepSeek را محدود کرده‌اند.
در نهایت، زمان خواهد گفت که آیا این تلاش‌ها موفق خواهند بود یا رشد DeepSeek ادامه خواهد یافت.

اما آمودی این شرکت را به‌عنوان رقیب جدیدی در عرصه هوش مصنوعی می‌بیند که در کنار شرکت‌های بزرگ آنتروپیک، OpenAI، گوگل، متا و xAI قرار خواهد گرفت. او در این باره گفت: “واقعیت جدید این است که یک رقیب جدید به عرصه رقابت وارد شده است.”

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا