هفته گذشته، گروهی از فعالان فناوری و کارشناسان هوش مصنوعی، از جمله ایلان ماسک، نامه ای سرگشاده ارسال کردند که در آن خواستار توقف شش ماهه توسعه سیستم های هوش مصنوعی قدرتمندتر از GPT-4 به دلیل “خطرات آن برای جامعه و بشریت” شدند. با وجود اینکه این روند می تواند به درک بهتر و تنظیم خطرات اجتماعی ناشی از هوش مصنوعی کمک کند، برخی استدلال می کنند که این تلاش با برخی از رهبران این حوزه رقابت می کند، مانند OpenAI ساخته شده تا بتوانند در این فضا به رقابت بپردازند.
تحلیلگر گارتنر در مصاحبه ای با VentureBeat توضیح داد که «مکث شش ماهه درخواستی برای توقف آموزش مدل های قدرتمندتر از GPT-4 است. GPT-5 به زودی پس از GPT 4.5 منتشر خواهد شد که انتظار می رود به AGI (هوش عمومی مصنوعی) دست یابد. زمانی که AGI در دسترس قرار گیرد، احتمالاً برای توسعه کنترلهای ایمنی که به طور مؤثری از استفاده از این سیستمها جلوگیری میکند، دیر خواهد بود.»

نظر کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی
علیرغم نگرانیها در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد، بسیاری از کارشناسان امنیت سایبری نیز اشاره کردهاند که کاهش سرعت توسعه هوش مصنوعی به هیچ وجه کمکی نخواهد کرد. در عوض، آنها می گویند که این تصمیم فرصتی موقت برای تیم های امنیتی برای توسعه دفاعی خود فراهم می کند.
یکی از قانعکنندهترین استدلالها علیه توقف تحقیقات هوش مصنوعی این است که این تصمیم تنها بر ارائهدهندگان تأثیر میگذارد، نه عوامل تهدید. با این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیک های تهاجمی خود را خواهند داشت.
استیو گرابمن، مدیر ارشد فناوری McAfee به VentureBeat گفت:
«توقف توسعه نسل بعدی هوش مصنوعی مانع از حرکت این فناوری در مسیرهای خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمانها و شرکتهایی با هنجارها و استانداردهایی که همگام با پیشرفت فناوری باشند، ضروری است تا اطمینان حاصل شود که از فناوری به مسئولانهترین شکل ممکن استفاده میشود.»

در واقع، کارشناسان صنعت پیشنهاد میکنند که به جای توقف توسعه مدلهای جدید، تمرکز بر نحوه مدیریت ریسکهای مرتبط با استفاده مخرب از هوش مصنوعی مولد و تشویق فروشندگان هوش مصنوعی به شفافتر شدن میتواند به کاهش خطرات مرتبط با این حوزه کمک کند.