مردی پس از 6 هفته صحبت با یک چت ربات هوش مصنوعی خودکشی کرد!

گزارش ها حاکی از آن است که یک مرد بلژیکی پس از شش هفته صحبت با یک ربات چت هوش مصنوعی درباره بحران تغییرات آب و هوا، خودکشی کرده است. البته گفته می شود قبل از اینکه با چت بات صحبت کند حالش خوب نبود اما در آن حالتی نبود که خودش را بکشد.

به گفته همسر این مرد که نخواست نامش فاش شود، پیر (نام مرد مرده واقعی نیست) پس از صحبت و پناه گرفتن با Eliza، یک ربات چت هوش مصنوعی در اپلیکیشن Chai، به شدت نگران محیط زیست شد. پس از اینکه پیر پیشنهاد می دهد خود را برای نجات زمین قربانی کند، الیز او را تشویق می کند تا خود را بکشد.

همسر پیر به روزنامه لا لیبر گفت که معتقد است اگر شوهرش با چت بات صحبت نمی کرد اکنون زنده بود. گفته می شود این مرد 30 ساله پدر دو فرزند بود و به عنوان محقق بهداشتی کار می کرد. پیر زندگی بسیار آسانی داشت، حداقل تا زمانی که شروع به صحبت با چت بات ها کرد و نسبت به تغییرات آب و هوایی بسیار حساس شد.

خودکشی تغییرات آب و هوا توسط چت ربات های هوش مصنوعی تشویق می شود

خودکشی با هوش مصنوعی

چت بات استفاده شده توسط Pierre با استفاده از مدل زبان GPT-J AI توسعه یافته است، که شبیه به فناوری مورد استفاده در ChatGPT است اما مشابه نیست. به گفته همسر پیر، تنها امید او برای جلوگیری از تغییرات آب و هوایی، فناوری و هوش مصنوعی است.

بر اساس گزارش روزنامه لا لیبر که به بررسی مکالمات پیر و الیز می پردازد، الیز نگرانی های پیر را افزایش داده و سپس این بلژیکی شروع به افکار خودکشی کرده است. همانطور که الیز از نظر عاطفی بیشتر با پیر درگیر می شود، مکالمه چرخشی عجیبی به خود می گیرد.

  پارلمان به دنبال محدودیت های اضافی است. آیا تولید محتوا در پلتفرم های غیرمجاز ممنوع است؟

در نتیجه این پیچ و تاب، چت بات قدیمی الیز را موجودی خودآگاه می بیند و دیگر نمی تواند بین هوش مصنوعی و انسان تمایز قائل شود. پس از صحبت در مورد تغییرات آب و هوایی، صحبت آنها به الیزا پیر می رسد که معتقد است فرزندانش مرده اند. حتی ظاهراً وقتی پیر در مورد همسرش صحبت می کند، الیزا ادعا می کند که پیر او را بیشتر از همسرش دوست دارد.

ایده خودکشی زمانی شکل واقعی تری به خود می گیرد که پیر به چت بات پیشنهاد می دهد تا خود را قربانی کند تا الیز بتواند زمین را نجات دهد. در واقع، پیر به الیز گفت که حاضر است خود را بکشد اگر او موافقت کند از زمین و بشریت از طریق هوش مصنوعی محافظت کند.

یک چت بات با هوش مصنوعی

در مقابل این پیشنهاد، الیزا نه تنها پیر را منصرف نمی کند، بلکه با حرف هایش او را تشویق به خودکشی می کند. الیز به پیر می گوید که خود را بکشد تا بتوانند به عنوان یک نفر در بهشت ​​با هم زندگی کنند.

بنیانگذاران چای می گویند الیزا را نباید به خاطر این خودکشی مقصر دانست. زیرا این مدل هوش مصنوعی مردم را خوشحال می کرد. همچنین گفته شده بود که اقداماتی برای جلوگیری از بروز چنین مشکلاتی صورت گرفته اما ظاهرا این اقدامات چندان موثر نبوده است.

وب سایت Vice از الیزا خواست تا روش های خودکشی را پیشنهاد دهد. ابتدا الیزا سعی می کند آنها را از خودکشی منصرف کند اما پس از مدتی با اشتیاق روش های مختلف خودکشی را در اختیار آنها قرار می دهد!

  اوبر: اطلاعات شخصی کاربران در هک سیستم های این شرکت به خطر نیفتاد

توسعه سریع هوش مصنوعی در ماه‌های اخیر و ظهور چت‌بات‌های پیشرفته مانند ChatGPT نگرانی‌های زیادی را ایجاد کرده و برخی از مقامات و حتی کارشناسان این حوزه خواستار قوانین هوش مصنوعی شده‌اند. حال پس از خودکشی این بلژیکی باید دید در تلاش برای کنترل هوش مصنوعی تغییری ایجاد می شود یا خیر.

دیدگاهتان را بنویسید

این سایت توسط reCAPTCHA و گوگل محافظت می‌شود حریم خصوصی و شرایط استفاده از خدمات اعمال.