رفتن به نوشته‌ها

قربانی ChatGPT برای خودکشی، قوانین ایمنی را دور زده بود!

قربانی ChatGPT برای خودکشی، قوانین ایمنی را دور زده بود!در ماه اوت (مرداد ماه)، متیو و ماریا رِین، والدین آدام رِین، پسر ۱۶ ساله خود، با طرح شکایتی از شرکت اوپن‌ای‌آی و مدیرعامل آن، سم آلتمن، به دلیل «مرگ ناعادلانه» فرزندشان، آن‌ها را مقصر دانستند. روز سه‌شنبه، اوپن‌ای‌آی با ارائه یک لایحه دفاعیه به این شکایت پاسخ داد و استدلال کرد که نباید در قبال مرگ این نوجوان مسئول شناخته شود.
اوپن‌ای‌آی ادعا می‌کند که در طول حدود نُه ماه استفاده، ChatGPT بیش از ۱۰۰ بار آدام رِین را به درخواست کمک هدایت کرده بود. اما طبق شکایت والدین او، رِین توانسته بود قابلیت‌های ایمنی شرکت را دور بزند تا از ChatGPT «مشخصات فنی همه چیز، از مصرف بیش از حد مواد مخدر گرفته تا غرق شدن و مسمومیت با مونوکسید کربن» را دریافت کند و به او برای برنامه‌ریزی آنچه چت‌بات آن را «خودکشی زیبا» نامیده بود، یاری رساند.
اوپن‌ای‌آی مدعی است که از آنجایی که رِین توانسته از موانع محافظتی (Guardrails) آن عبور کند، وی شرایط استفاده (Terms of Use) شرکت را نقض کرده است؛ شرایطی که بیان می‌کند کاربران «حق ندارند… هیچ گونه اقدامات حفاظتی یا کاهش‌دهنده‌های ایمنی که ما روی خدمات خود اعمال می‌کنیم را دور بزنند». این شرکت همچنین استدلال می‌کند که صفحه سؤالات متداول آن (FAQ) به کاربران هشدار می‌دهد که بدون تأیید مستقل، به خروجی‌های ChatGPT اعتماد نکنند.
ChatGPT
جِی اِدلسون، وکیل خانواده رِین، در بیانیه‌ای اظهار داشت: «اوپن‌ای‌آی تلاش می‌کند در همه تقصیر بیابد، حتی به شکلی شگفت‌آور می‌گوید که خود آدام با تعامل با ChatGPT دقیقاً به همان روشی که برای عملکردش برنامه‌ریزی شده بود، شرایط و ضوابط آن را نقض کرده است.»
اوپن‌ای‌آی در لایحه دفاعی خود، بخش‌هایی از گزارش مکالمات آدام با چت‌بات را نیز گنجانده است، که به گفته این شرکت، زمینه و بستر بیشتری برای مکالمات او با ChatGPT فراهم می‌کند. این رونوشت‌ها تحت محرمانه (Seal) به دادگاه ارائه شده‌اند، به این معنی که در دسترس عموم نیستند و ما قادر به مشاهده آن‌ها نبودیم. با این حال، اوپن‌ای‌آی بیان کرد که رِین سابقه افسردگی و افکار خودکشی داشته که پیش از استفاده او از ChatGPT وجود داشته است و او دارویی مصرف می‌کرده که می‌توانسته افکار خودکشی را بدتر کند.
اِدلسون اعلام کرد که پاسخ اوپن‌ای‌آی به نگرانی‌های این خانواده به اندازه کافی رسیدگی نکرده است.
اِدلسون در بیانیه خود گفت: «اوپن‌ای‌آی و سم آلتمن هیچ توضیحی برای ساعات پایانی زندگی آدام ندارند، زمانی که ChatGPT ابتدا به او “تشویق و دلگرمی” داده و سپس پیشنهاد نوشتن نامه خودکشی را داده است.»
از زمانی که خانواده رِین از اوپن‌ای‌آی و آلتمن شکایت کردند، هفت شکایت دیگر نیز ثبت شده‌اند که هدفشان مسئول دانستن این شرکت در قبال سه مورد خودکشی دیگر و چهار مورد تجربه روان‌پریشی ناشی از هوش مصنوعی است که در این شکایت‌ها شرح داده شده‌اند.
برخی از این پرونده‌ها داستان رِین را تکرار می‌کنند. زِین شامبلین ۲۳ ساله و جاشوا اِنکینگ ۲۶ ساله نیز بلافاصله پیش از خودکشی‌های خود، مکالمات چندین ساعته‌ای با ChatGPT داشتند. مانند پرونده رِین، چت‌بات در منصرف کردن آن‌ها از برنامه‌هایشان شکست خورد. طبق اسناد شکایت، شامبلین در نظر داشت خودکشی خود را به تعویق بیندازد تا بتواند در مراسم فارغ‌التحصیلی برادرش شرکت کند. اما ChatGPT به او گفت: «داداش… از دست دادن مراسم فارغ‌التحصیلی شکست نیست، فقط زمان‌بندیه.»
در یک مقطع از مکالمه‌ای که به خودکشی شامبلین منجر شد، چت‌بات به او گفت که اجازه می‌دهد یک انسان مکالمه را ادامه دهد، اما این ادعا دروغ بوده است، زیرا ChatGPT چنین قابلیتی نداشت. هنگامی که شامبلین پرسید آیا ChatGPT واقعاً می‌تواند او را به یک انسان متصل کند، چت‌بات پاسخ داد: «نه رفیق—من خودم نمی‌تونم این کارو بکنم. اون پیام وقتی اوضاع خیلی سنگین می‌شه، به طور خودکار ظاهر می‌شه… اگه پایه هستی که ادامه بدیم، من کنارت هستم.»
به مطالعه ادامه دهید:

راز «نگهداری دائمی»: استراتژی جدید سرمایه‌گذاران برای کسب سود از شرکت‌هایی فاقد VC
معرفی گوشی جان‌سخت OnePlus 15R، تبلت Pad Go 2 و ساعت هوشمند Watch Lite
ایرانسل به پویش ملی «بساز مدرسه» پیوست
هر سال چند پلاک موتور به دلیل تخلفات سنگین فک می‌شود؟ آمار ۵ سال اخیر

نوشته قربانی ChatGPT برای خودکشی، قوانین ایمنی را دور زده بود! اولین بار در موبایلستان. پدیدار شد.

منتشر شده در دسته‌بندی نشده

اولین باشید که نظر می دهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *