چند روز پیش نامه ای سرگشاده برای توقف توسعه هوش مصنوعی منتشر شد که توسط افرادی مانند ایلان ماسک، مدیرعامل تسلا و توییتر، و استیو وزنیاک، یکی از بنیانگذاران اپل امضا شد. البته تعداد امضاکنندگان از 1000 نفر فراتر رفت. اما اکنون تعدادی از افراد می گویند که اصلا آن را امضا نکرده اند و برخی کارشناسان استفاده از تحقیقات آنها را در چنین نامه ای محکوم کرده اند.
در این نامه پر هیاهو، فعالان فناوری از آزمایشگاهها و شرکتهای هوش مصنوعی خواستند تا توسعه سیستمهای قدرتمندتر از مدل GPT-4 AI را متوقف کنند. تعدادی از مهندسان آمازون، دیپ مایند، گوگل، متا و مایکروسافت نیز این نامه را امضا کردند.

مدل GPT-4 که اخیرا توسط OpenAI معرفی شده است می تواند مکالمات انسانی ایجاد کند و حتی تصاویر را تشخیص دهد. البته این الگو کاربردهای متنوع دیگری مانند ترانه سرایی یا خلاصه سازی متون طولانی دارد. طبق ادعای فعالان دنیای فناوری، این سیستم های هوش مصنوعی می توانند خطر بزرگی برای بشریت باشند:
کارشناسان مستقل و آزمایشگاههای توسعه هوش مصنوعی باید از این مکث برای توسعه مشترک مجموعهای از پروتکلهای امنیتی برای توسعه و طراحی هوش مصنوعی استفاده کنند. پروتکل ها باید به شدت توسط کارشناسان خارجی بررسی و نظارت شوند.»
انتقاد از انتشار نامه ها و امضاهای جعلی
این نامه با تلاش موسسه Future of Life یا FLI نوشته شده است و در آن 12 مطالعه مختلف توسط متخصصان از جمله اساتید و مهندسان سابق OpenAI، Google و DeepMind ذکر شده است. اما اکنون به نقل از گاردین، 4 کارشناس که تحقیقات آنها در این نامه ذکر شده است، نسبت به ادعاهای مطرح شده ابراز نگرانی کرده اند.
علاوه بر این نامه منتشر شده فاقد پروتکل های تایید امضاست و اکنون مشخص شده که برخی افراد اصلا آن را امضا نکرده اند. از جمله این افراد می توان به «شی جین پینگ» و «یانگ لیکان» دانشمند ارشد هوش مصنوعی متا اشاره کرد. لیکن ج توییتر او رسما اعلام کرد که این نامه را امضا نکرده و از آن نیز حمایت نمی کند.

منتقدان نامه اخیر می گویند FLI که عمدتاً توسط بنیاد ماسک تامین می شود، به جای رسیدگی به مشکلات اساسی هوش مصنوعی، به سناریوهای آخرالزمانی فانتزی پرداخته است. برخی از مشکلات اصلی هوش مصنوعی عبارتند از رفتارهای نژادپرستانه و جنسی.
مارگارت میچل، یکی از مدیران سابق هوش مصنوعی گوگل و دانشمند فعلی Hugging Face که مقاله اش در نامه اخیر ذکر شده بود، از آن انتقاد کرد و گفت که منظور نویسندگان نامه از “قدرتمندتر از GPT-4” مشخص نیست.
«این نامه مجموعهای از اولویتها و روایتهای هوش مصنوعی را بیان میکند که به نفع حامیان FLI است. نادیده گرفتن آسیب های فعلی امتیازی است که برخی از محققان از آن استفاده نمی کنند.
یکی دیگر از محققان، Shiri Dori Hakuhen، که در مورد تأثیر استفاده کنونی از سیستمهای هوش مصنوعی بر تصمیمگیریهای مربوط به تغییرات آب و هوا، جنگ هستهای و سایر تهدیدات وجودی نوشته است، میگوید که هوش مصنوعی نیازی به افزایش چنین خطراتی ندارد. به هوش در سطح انسانی دست نمی یابد.
ماکس تگمارک، رئیس FLI در پاسخ به این انتقادات میگوید که خطرات بلندمدت و کوتاهمدت هوش مصنوعی باید جدی گرفته شود: «وقتی در نامهای از شخصی نقل قول میکنیم، به این معناست که آن شخص تأیید میکند. جمله نامه مورد نظر، نه کل نامه. همچنین، نقل قول از این مرد به این معنی نیست که ما همه افکار او را تایید می کنیم.”