نامه ایلان ماسک برای توقف توسعه هوش مصنوعی جنجال به پا کرد

چند روز پیش نامه ای سرگشاده برای توقف توسعه هوش مصنوعی منتشر شد که توسط افرادی مانند ایلان ماسک، مدیرعامل تسلا و توییتر، و استیو وزنیاک، یکی از بنیانگذاران اپل امضا شد. البته تعداد امضاکنندگان از 1000 نفر فراتر رفت. اما اکنون تعدادی از افراد می گویند که اصلا آن را امضا نکرده اند و برخی کارشناسان استفاده از تحقیقات آنها را در چنین نامه ای محکوم کرده اند.

در این نامه پر هیاهو، فعالان فناوری از آزمایشگاه‌ها و شرکت‌های هوش مصنوعی خواستند تا توسعه سیستم‌های قدرتمندتر از مدل GPT-4 AI را متوقف کنند. تعدادی از مهندسان آمازون، دیپ مایند، گوگل، متا و مایکروسافت نیز این نامه را امضا کردند.

مدل GPT-4 هوش مصنوعی

مدل GPT-4 که ​​اخیرا توسط OpenAI معرفی شده است می تواند مکالمات انسانی ایجاد کند و حتی تصاویر را تشخیص دهد. البته این الگو کاربردهای متنوع دیگری مانند ترانه سرایی یا خلاصه سازی متون طولانی دارد. طبق ادعای فعالان دنیای فناوری، این سیستم های هوش مصنوعی می توانند خطر بزرگی برای بشریت باشند:

کارشناسان مستقل و آزمایشگاه‌های توسعه هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعه‌ای از پروتکل‌های امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند. پروتکل ها باید به شدت توسط کارشناسان خارجی بررسی و نظارت شوند.»

انتقاد از انتشار نامه ها و امضاهای جعلی

این نامه با تلاش موسسه Future of Life یا FLI نوشته شده است و در آن 12 مطالعه مختلف توسط متخصصان از جمله اساتید و مهندسان سابق OpenAI، Google و DeepMind ذکر شده است. اما اکنون به نقل از گاردین، 4 کارشناس که تحقیقات آنها در این نامه ذکر شده است، نسبت به ادعاهای مطرح شده ابراز نگرانی کرده اند.

  آموزش تغییر مکان کلیدهای صفحه کلید در ویندوز

علاوه بر این نامه منتشر شده فاقد پروتکل های تایید امضاست و اکنون مشخص شده که برخی افراد اصلا آن را امضا نکرده اند. از جمله این افراد می توان به «شی جین پینگ» و «یانگ لیکان» دانشمند ارشد هوش مصنوعی متا اشاره کرد. لیکن ج توییتر او رسما اعلام کرد که این نامه را امضا نکرده و از آن نیز حمایت نمی کند.

جان لیکان
جان لیکان

منتقدان نامه اخیر می گویند FLI که عمدتاً توسط بنیاد ماسک تامین می شود، به جای رسیدگی به مشکلات اساسی هوش مصنوعی، به سناریوهای آخرالزمانی فانتزی پرداخته است. برخی از مشکلات اصلی هوش مصنوعی عبارتند از رفتارهای نژادپرستانه و جنسی.

مارگارت میچل، یکی از مدیران سابق هوش مصنوعی گوگل و دانشمند فعلی Hugging Face که مقاله اش در نامه اخیر ذکر شده بود، از آن انتقاد کرد و گفت که منظور نویسندگان نامه از “قدرتمندتر از GPT-4” مشخص نیست.

«این نامه مجموعه‌ای از اولویت‌ها و روایت‌های هوش مصنوعی را بیان می‌کند که به نفع حامیان FLI است. نادیده گرفتن آسیب های فعلی امتیازی است که برخی از محققان از آن استفاده نمی کنند.

یکی دیگر از محققان، Shiri Dori Hakuhen، که در مورد تأثیر استفاده کنونی از سیستم‌های هوش مصنوعی بر تصمیم‌گیری‌های مربوط به تغییرات آب و هوا، جنگ هسته‌ای و سایر تهدیدات وجودی نوشته است، می‌گوید که هوش مصنوعی نیازی به افزایش چنین خطراتی ندارد. به هوش در سطح انسانی دست نمی یابد.

ماکس تگمارک، رئیس FLI در پاسخ به این انتقادات می‌گوید که خطرات بلندمدت و کوتاه‌مدت هوش مصنوعی باید جدی گرفته شود: «وقتی در نامه‌ای از شخصی نقل قول می‌کنیم، به این معناست که آن شخص تأیید می‌کند. جمله نامه مورد نظر، نه کل نامه. همچنین، نقل قول از این مرد به این معنی نیست که ما همه افکار او را تایید می کنیم.”

  ایلان ماسک: شاید بیش از 90 درصد از کاربران روزمره توییتر غیر واقعی باشند

دیدگاهتان را بنویسید

این سایت توسط reCAPTCHA و گوگل محافظت می‌شود حریم خصوصی و شرایط استفاده از خدمات اعمال.