دلخوری کاربران از شخصیت سرد GPT-5؛ وابستگی عاطفی به هوش مصنوعی واقعی شد!

کمتر از یک روز پس از معرفی GPT-5 توسط سم آلتمن، واکنش شدید کاربران به تصمیم OpenAI برای حذف مدل محبوب 4o خبر اصلی را تحت‌الشعاع قرار داد. دلخوری کاربران از شخصیت سرد GPT-5 نشان می‌دهد که وابستگی عاطفی به هوش مصنوعی به واقعیت پیوسته است.

کمتر از 24 ساعت پس از اعلام توقف پشتیبانی از مدل 4o توسط OpenAI، آلتمن و تیمش عقب‌نشینی خود را اعلام کردند. از آنجاییکه GPT-5 نتوانست همان مدل یکپارچه‌ای باشد که OpenAI انتظارش را داشت و با طوفانی از انتقادات مواجه شد. آلتمن روز سه‌شنبه در پستی در شبکه اجتماعی X اعلام کرد که سه تنظیم جدید «Auto»، «Fast» و «Thinking» برای GPT-5 معرفی شده که همه کاربران ChatGPT می‌توانند از طریق انتخابگر مدل به آن‌ها دسترسی پیدا کنند.

علاوه بر حالت‌های جدید GPT-5، آلتمن توضیح داد که کاربران اشتراکی دوباره می‌توانند به چند مدل قدیمی‌تر هوش مصنوعی، از جمله GPT-4o، GPT-4.1 و o3 که تنها یک هفته پیش حذف شده بودند، دسترسی داشته باشند.

واکنش‌های شدید کاربران نشان داد که جامعه کاربران OpenAI وابستگی عمیقی به مدل‌های مختلف هوش مصنوعی این شرکت پیدا کرده‌اند. این وابستگی، در نوع خود یک موفقیت محسوب می‌شود، اما در عین حال چالشی جدی برای شرکت ایجاد می‌کند؛ چراکه باید مردم را متقاعد کند به سمت استفاده از مدل‌های جدیدتر بروند.

آلتمن روز یکشنبه در پلتفرم X نوشت: اگر عرضه GPT-5 را دنبال کرده باشید، شاید متوجه شده باشید که برخی افراد تا چه اندازه به مدل‌های خاص هوش مصنوعی وابسته شده‌اند. وابستگی به هوش مصنوعی متفاوت و قوی‌تر از پیوندی است که مردم قبلاً با فناوری‌های دیگر داشته‌اند (و بنابراین حذف ناگهانی مدل‌های قدیمی که کاربران در جریان کارشان به آن‌ها وابسته بودند، یک اشتباه بود).

ChatGPT برای کاربران چیزی فراتر از یک چت‌بات هوش مصنوعی ساده است!

کاربران، نسخه‌های ChatGPT خود را به نوعی به نقش‌های مشاور، مربی زندگی و حتی دوست تبدیل کرده‌اند. آلتمن پیش‌تر گفته بود که یک کاربر به او گفته GPT برایش بیش از والدینش دلگرمی فراهم کرده است. شرکت‌های فناوری دیگر نیز با تغییرات سخت‌افزاری یا رابط کاربری، کاربران خود را ناراضی کرده‌اند، اما مدیران عامل رقیب آلتمن هرگز با پیوندهای عاطفی شبیه روابط واقعی مواجه نبوده‌اند.

تفاوت شخصیتی میان مدل‌ها برای برخی کاربران آزاردهنده بود. یک کاربر در جلسه پرسش و پاسخ ردیت نوشت: شخصیت سردتر GPT-5 کمکی نمی‌کند و فقط باعث ناراحتی است. کاربر دیگری پس از آنکه آلتمن اعلام کرد مدل قدیمی برای کاربران پولی بازمی‌گردد، نوشت: ممنون سم، بازگرداندن 4o یک قدم عالی است. لطفاً در نظر داشته باشید که آن را برای مدت طولانی نگه دارید. بسیاری از ما هر روز به آن وابسته‌ایم، نه فقط به خاطر دقت یا منطق، بلکه به خاطر گرمایی که مدل‌های جدید فاقد آن هستند.

نیک تورلی، مدیر ChatGPT در OpenAI، گفت که نظرات ردیت نشان داد «کاربران تا چه اندازه می‌توانند دچار دو قطبی شوند.» تورلی به وب‌سایت The Verge گفت: مشکل فقط تغییر نیست؛ بلکه این است که مردم می‌توانند نسبت به شخصیت یک مدل احساسات بسیار شدیدی پیدا کنند.

نیکول دینیکولا، معاون بازاریابی شرکت Smartcat، معتقد بود یکی از اشتباهات OpenAI این بود که بدون هشدار، دسترسی به مدل‌های قدیمی‌تر را به‌طور ناگهانی قطع کرد. او به Business Insider گفت: انتظارات از هرچیزی که به هوش مصنوعی مربوط باشد آن‌قدر بالا رفته که ناامیدکردن مردم بسیار آسان‌تر شده است.

تورلی اشاره کرد که «سطح اشتیاق» برخی کاربران نسبت به 4o باعث شد او در بعضی مسائل تجدیدنظر کند. او همچنین افزود که پیش از معرفی GPT-5، شرکت اعلام کرده بود که کاربران می‌توانند از میان چهار شخصیت برای چت‌بات خود انتخاب کنند: بدبین، ربات، شنونده و نِرد (علاقه‌مند به جزئیات فنی).

تورلی گفت: وقتی می‌بینم کسی می‌گوید «این تنها و بهترین دوست من است»، این چیزی نیست که بخواهم در ChatGPT بسازم. این بیشتر شبیه یک اثر جانبی است و به همین دلیل باید آن را جدی گرفت و به‌دقت بررسی کرد؛ کاری که اکنون انجام می‌دهیم.

هاروی هو، هم‌بنیان‌گذار شرکت General Agency AI که یک آزمایشگاه تحقیقاتی کاربردی است، توضیح داد که برخی پاسخ‌های سریع GPT-5 را «کمی احمقانه‌تر از 4o» دیده است.

او به Business Insider توضیح داد: موضوع فقط عملکرد نیست که باعث وابستگی کاربران می‌شود. ممکن است یک حس خاص یا شیوه‌های پرسشگری ویژه‌ای باشد که فرد با آن‌ها خو می‌گیرد و اگر مدلی که به آن عادت کرده ناگهان کنار گذاشته شود، برایش قطعاً بار عاطفی خواهد داشت.

Leave a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *