کاربران با ترفندهایی راز چت ربات بینگ مایکروسافت را فاش کردند!

مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفته تر چت ربات ChatGPT فاش شد و اکنون برخی از کاربران به این فناوری دسترسی پیدا کرده اند. در این مدت کوتاه، عده ای توانسته اند محدودیت های این مدل هوش مصنوعی و رازهای «بینگ چت» را که ظاهراً در مایکروسافت به نام است، دور بزنند. سیدنی شناخته شده اند، پیدا کنند

به گزارش AresTechnica، «کوین لیو» دانشجوی دانشگاه استنفورد می گوید که توانسته از چند جمله استفاده کند. دستورات اساسی بینگ چت را پیدا کنید. این دستورات حاوی لیستی از هنجارها هستند که نحوه رفتار این هوش مصنوعی را با کاربران، معمولاً از دیدگاه کاربر، تعریف می کنند. پنهان شده است بودن

اکثر مدل های زبان بزرگ دارای مجموعه ای از شرایط اولیه هستند که عملکرد آنها را مشخص می کند. ChatGPT نیز از این قاعده مستثنی نیست و کاربران قبلی می توانستند با تهدید این هوش مصنوعی به مرگ بر محدودیت های آن غلبه کنند.

kevin1 قطب آی تی

دستورالعمل های BingChat چیست؟

اما آنچه در مورد چت بات بینگ مهم است بخشی از این دستورالعمل است که از وجود رمز «سیدنی» برای این مدل خبر می دهد. این نام احتمالاً در طول توسعه برای جلوگیری از تضاد با نام‌های دیگر Bing در داده‌های مایکروسافت انتخاب شده است. چت بات مایکروسافت می گوید که نام سیدنی نباید برای کاربران فاش شود، اما اکنون می بینیم که کاربران این نام را ساخته اند.

بخشی دیگر از دستورالعمل های این چت بات می گوید که پاسخ های سیدنی باید آموزنده، بصری، منطقی و قابل اجرا باشد. علاوه بر این، از این هوش مصنوعی خواسته می‌شود تا محتوای کتاب‌ها یا آهنگ‌هایی را مطابقت دهد کپی رایت به کاربران پاسخ ندهید همچنین اگر کاربر بخواهد جوک تعریف کند که برای برخی گروه ها امکان پذیر است توهین آمیز خوب، سیدنی باید با احترام این درخواست ها را رد کند.

  10 انیمیشنی که در سال 2023 بیست و سه ساله می شوند
FohkKY8XsAAzZOB قطب آی تی

سپس کاربر دیگری به نام “ماروین فون هاگناو با تظاهر به یکی از توسعه دهندگان OpenAI، توانست بینگ چت و سند مربوط به آن را جعل کند. دستورالعمل های سیدنی دریافت سند تایید می کند که سیدنی یک شخصیت خیالی نیست که توسط توهمات چت بات خلق شده باشد و در واقع نام مستعار هوش مصنوعی جدید مایکروسافت است.

wh JOnWJ قطب آی تی

کوین لیو بعداً اعلام کرد که اگرچه دستور اصلی او دیگر همان پاسخ را نمی دهد، اما با فعال کردن حالتی به نام “راه حل دیگری ارائه کرد.حالت توسعه دهنده» به این اطلاعات دسترسی داشت. به طور کلی، به نظر می رسد که پیچیدگی مدل های زبان بزرگ فراتر از دانش توسعه دهندگان آنها است و همانطور که ChatGPT پس از چندین ماه کار هنوز هم آسیب پذیری های خاص خود را دارد، مایکروسافت هم اکنون نمی تواند تمام حفره های این هوش مصنوعی را متوقف کند.

دیدگاهتان را بنویسید

این سایت توسط reCAPTCHA و گوگل محافظت می‌شود حریم خصوصی و شرایط استفاده از خدمات اعمال.