مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفته تر چت ربات ChatGPT فاش شد و اکنون برخی از کاربران به این فناوری دسترسی پیدا کرده اند. در این مدت کوتاه، عده ای توانسته اند محدودیت های این مدل هوش مصنوعی و رازهای «بینگ چت» را که ظاهراً در مایکروسافت به نام است، دور بزنند. سیدنی شناخته شده اند، پیدا کنند
به گزارش AresTechnica، «کوین لیو» دانشجوی دانشگاه استنفورد می گوید که توانسته از چند جمله استفاده کند. دستورات اساسی بینگ چت را پیدا کنید. این دستورات حاوی لیستی از هنجارها هستند که نحوه رفتار این هوش مصنوعی را با کاربران، معمولاً از دیدگاه کاربر، تعریف می کنند. پنهان شده است بودن
اکثر مدل های زبان بزرگ دارای مجموعه ای از شرایط اولیه هستند که عملکرد آنها را مشخص می کند. ChatGPT نیز از این قاعده مستثنی نیست و کاربران قبلی می توانستند با تهدید این هوش مصنوعی به مرگ بر محدودیت های آن غلبه کنند.

دستورالعمل های BingChat چیست؟
اما آنچه در مورد چت بات بینگ مهم است بخشی از این دستورالعمل است که از وجود رمز «سیدنی» برای این مدل خبر می دهد. این نام احتمالاً در طول توسعه برای جلوگیری از تضاد با نامهای دیگر Bing در دادههای مایکروسافت انتخاب شده است. چت بات مایکروسافت می گوید که نام سیدنی نباید برای کاربران فاش شود، اما اکنون می بینیم که کاربران این نام را ساخته اند.
بخشی دیگر از دستورالعمل های این چت بات می گوید که پاسخ های سیدنی باید آموزنده، بصری، منطقی و قابل اجرا باشد. علاوه بر این، از این هوش مصنوعی خواسته میشود تا محتوای کتابها یا آهنگهایی را مطابقت دهد کپی رایت به کاربران پاسخ ندهید همچنین اگر کاربر بخواهد جوک تعریف کند که برای برخی گروه ها امکان پذیر است توهین آمیز خوب، سیدنی باید با احترام این درخواست ها را رد کند.

سپس کاربر دیگری به نام “ماروین فون هاگناو با تظاهر به یکی از توسعه دهندگان OpenAI، توانست بینگ چت و سند مربوط به آن را جعل کند. دستورالعمل های سیدنی دریافت سند تایید می کند که سیدنی یک شخصیت خیالی نیست که توسط توهمات چت بات خلق شده باشد و در واقع نام مستعار هوش مصنوعی جدید مایکروسافت است.

کوین لیو بعداً اعلام کرد که اگرچه دستور اصلی او دیگر همان پاسخ را نمی دهد، اما با فعال کردن حالتی به نام “راه حل دیگری ارائه کرد.حالت توسعه دهنده» به این اطلاعات دسترسی داشت. به طور کلی، به نظر می رسد که پیچیدگی مدل های زبان بزرگ فراتر از دانش توسعه دهندگان آنها است و همانطور که ChatGPT پس از چندین ماه کار هنوز هم آسیب پذیری های خاص خود را دارد، مایکروسافت هم اکنون نمی تواند تمام حفره های این هوش مصنوعی را متوقف کند.