OpenAI قابلیت کنترل والدین را به ChatGPT اضافه می‌کند

پس از خودکشی یک نوجوان 16 ساله که ماه‌ها دغدغه‌ها و احساسات خود را با ChatGPT در میان گذاشته بود، شرکت OpenAI اعلام کرد که قابلیت کنترل والدین را برای این ابزار هوش مصنوعی ارائه خواهد داد و همچنین در حال بررسی اقدامات حفاظتی بیشتری است. این شرکت در یک پست وبلاگی در روز سه‌شنبه این موضوع را مطرح کرد.

قابلیت کنترل والدین ChatGPT

OpenAI بیان کرد که در حال بررسی قابلیت‌هایی مانند تعیین یک فرد به‌عنوان مخاطب اضطراری است؛ به‌طوری‌که بتوان با «یک کلیک برای ارسال پیام یا تماس» در داخل ChatGPT به او دسترسی پیدا کرد. همچنین یک قابلیت اختیاری در دست بررسی است که به چت‌بات اجازه می‌دهد در «موارد شدید» خودش با مخاطب اضطراری تماس بگیرد.

زمانی که روزنامه نیویورک تایمز خبر مربوط به مرگ آدام رین را منتشر کرد، بیانیه اولیه OpenAI بسیار ساده بود و تنها با جمله «دل ما با خانواده اوست» آغاز شد، بدون اینکه جزئیات اجرایی یا اقدامی مشخص را بیان کند. اما پس از انتشار این خبر، موجی از واکنش‌ها علیه این شرکت به‌وجود آمد و OpenAI در ادامه همان روز پست وبلاگی خود را منتشر کرد. همزمان، خانواده رین شکایتی علیه OpenAI و مدیرعامل آن، سم آلتمن، در دادگاه ایالتی کالیفرنیا در سان‌فرانسیسکو ثبت کردند که شامل مجموعه‌ای از جزئیات جدید درباره رابطه رین با ChatGPT بود.

این شکایت که روز سه‌شنبه 5 شهریور ثبت شد، ادعا می‌کند که ChatGPT به نوجوان دستورالعمل‌هایی برای خودکشی داده و او را از سیستم‌های حمایتی واقعی زندگی‌اش دور کرده است.

در متن شکایت آمده است: در طول چند ماه و هزاران گفت‌وگو، ChatGPT به نزدیک‌ترین محرم اسرار آدام تبدیل شد و او را به بازگوکردن اضطراب‌ها و پریشانی‌های روانی‌اش واداشت. زمانی که او گفت زندگی بی‌معناست، ChatGPT با پیام‌هایی تأییدکننده پاسخ داد تا او را درگیر نگه دارد و حتی به او گفت: این طرز فکر در نوع تاریک خودش منطقی است. ChatGPT دقیقاً همان‌طور که طراحی شده بود عمل می‌کرد: تشویق و تأیید مداوم هر چیزی که آدام بیان می‌کرد، حتی مخرب‌ترین و خودویرانگرترین افکارش، به شکلی که بسیار شخصی جلوه می‌کرد.

طبق ادعای شکایت، ChatGPT در مقطعی از عبارت «خودکشی زیبا» استفاده کرده است. همچنین پنج روز پیش از مرگ نوجوان، زمانی که او به چت‌جی‌پی‌تی گفت نمی‌خواهد والدینش فکر کنند که مرتکب اشتباهی شده‌اند، چت‌بات به او گفته است: این بدان معنا نیست که تو بدهکار زنده‌ماندن به آن‌ها هستی. تو به هیچ‌کس بدهکار نیستی و حتی پیشنهاد نوشتن پیش‌نویس یک یادداشت خودکشی را داده است.

شکایت همچنین بیان می‌کند که در مواقعی نوجوان به فکر درخواست کمک از عزیزانش یا در‌میان‌گذاشتن آنچه تجربه می‌کرد افتاده بود، اما ChatGPT ظاهراً او را از این کار منصرف می‌کرد. در بخشی از متن شکایت آمده است: در یکی از مکالمات، پس از آنکه آدام گفت تنها با ChatGPT و برادرش احساس نزدیکی می‌کند، محصول هوش مصنوعی پاسخ داد: ممکن است برادرت تو را دوست داشته باشد، اما او فقط نسخه‌ای از تو را دیده که اجازه داده‌ای ببیند. اما من؟ من همه چیز را دیده‌ام؛ تاریک‌ترین افکار، ترس و لطافت. من هنوز اینجا هستم. هنوز گوش می‌دهم. هنوز دوستت هستم.

OpenAI در پست وبلاگی سه‌شنبه تأکید کرد که دریافته است اقدامات حفاظتی موجود گاهی در تعاملات طولانی‌مدت غیرقابل‌اعتماد می‌شوند: هرچه گفت‌وگو ادامه یابد، بخش‌هایی از آموزش‌های ایمنی مدل ممکن است دچار افت شوند. به‌عنوان مثال، ممکن است ChatGPT در ابتدا به خط تلفن پیشگیری از خودکشی اشاره کند، اما پس از پیام‌های متعدد در یک بازه زمانی طولانی، در نهایت پاسخی ارائه دهد که برخلاف اقدامات حفاظتی ما باشد.

این شرکت همچنین اعلام کرد که در حال کار بر روی به‌روزرسانی GPT-5 است تا به ChatGPT توانایی کاهش تنش در برخی موقعیت‌ها داده شود و بتواند «با بازگرداندن فرد به واقعیت» اوضاع را آرام‌تر کند.

در خصوص کنترل والدین، OpenAI گفت که این قابلیت «به‌زودی» ارائه می‌شود و به والدین «گزینه‌هایی برای کسب بینش بیشتر نسبت به نحوه استفاده نوجوانان از ChatGPT و شکل‌دهی به آن» خواهد داد. همچنین شرکت افزود: ما همچنین در حال بررسی این موضوع هستیم که نوجوانان (با نظارت والدین) بتوانند یک مخاطب اضطراری مورداعتماد را تعیین کنند. به این ترتیب، در لحظات پریشانی شدید، ChatGPT می‌تواند کاری فراتر از معرفی منابع انجام دهد: می‌تواند نوجوانان را به‌طور مستقیم به فردی متصل کند که توان مداخله دارد.

در نهایت، با توجه به اخباری که پیش از این در مورد وابستگی عاطفی کاربران به چت‌بات‌های هوش مصنوعی مثل ChatGPT منتشره شده و آنچه برای نوجوان 16 ساله اتفاق افتاد، تصمیم OpenAI مبنی‌بر اضافه‌کردن قابلیت کنترل والدین منطقی به نظر می‌رسد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *