کمتر از یک روز پس از معرفی GPT-5 توسط سم آلتمن، واکنش شدید کاربران به تصمیم OpenAI برای حذف مدل محبوب 4o خبر اصلی را تحتالشعاع قرار داد. دلخوری کاربران از شخصیت سرد GPT-5 نشان میدهد که وابستگی عاطفی به هوش مصنوعی به واقعیت پیوسته است.
کمتر از 24 ساعت پس از اعلام توقف پشتیبانی از مدل 4o توسط OpenAI، آلتمن و تیمش عقبنشینی خود را اعلام کردند. از آنجاییکه GPT-5 نتوانست همان مدل یکپارچهای باشد که OpenAI انتظارش را داشت و با طوفانی از انتقادات مواجه شد. آلتمن روز سهشنبه در پستی در شبکه اجتماعی X اعلام کرد که سه تنظیم جدید «Auto»، «Fast» و «Thinking» برای GPT-5 معرفی شده که همه کاربران ChatGPT میتوانند از طریق انتخابگر مدل به آنها دسترسی پیدا کنند.
علاوه بر حالتهای جدید GPT-5، آلتمن توضیح داد که کاربران اشتراکی دوباره میتوانند به چند مدل قدیمیتر هوش مصنوعی، از جمله GPT-4o، GPT-4.1 و o3 که تنها یک هفته پیش حذف شده بودند، دسترسی داشته باشند.
واکنشهای شدید کاربران نشان داد که جامعه کاربران OpenAI وابستگی عمیقی به مدلهای مختلف هوش مصنوعی این شرکت پیدا کردهاند. این وابستگی، در نوع خود یک موفقیت محسوب میشود، اما در عین حال چالشی جدی برای شرکت ایجاد میکند؛ چراکه باید مردم را متقاعد کند به سمت استفاده از مدلهای جدیدتر بروند.
آلتمن روز یکشنبه در پلتفرم X نوشت: اگر عرضه GPT-5 را دنبال کرده باشید، شاید متوجه شده باشید که برخی افراد تا چه اندازه به مدلهای خاص هوش مصنوعی وابسته شدهاند. وابستگی به هوش مصنوعی متفاوت و قویتر از پیوندی است که مردم قبلاً با فناوریهای دیگر داشتهاند (و بنابراین حذف ناگهانی مدلهای قدیمی که کاربران در جریان کارشان به آنها وابسته بودند، یک اشتباه بود).
ChatGPT برای کاربران چیزی فراتر از یک چتبات هوش مصنوعی ساده است!
کاربران، نسخههای ChatGPT خود را به نوعی به نقشهای مشاور، مربی زندگی و حتی دوست تبدیل کردهاند. آلتمن پیشتر گفته بود که یک کاربر به او گفته GPT برایش بیش از والدینش دلگرمی فراهم کرده است. شرکتهای فناوری دیگر نیز با تغییرات سختافزاری یا رابط کاربری، کاربران خود را ناراضی کردهاند، اما مدیران عامل رقیب آلتمن هرگز با پیوندهای عاطفی شبیه روابط واقعی مواجه نبودهاند.
تفاوت شخصیتی میان مدلها برای برخی کاربران آزاردهنده بود. یک کاربر در جلسه پرسش و پاسخ ردیت نوشت: شخصیت سردتر GPT-5 کمکی نمیکند و فقط باعث ناراحتی است. کاربر دیگری پس از آنکه آلتمن اعلام کرد مدل قدیمی برای کاربران پولی بازمیگردد، نوشت: ممنون سم، بازگرداندن 4o یک قدم عالی است. لطفاً در نظر داشته باشید که آن را برای مدت طولانی نگه دارید. بسیاری از ما هر روز به آن وابستهایم، نه فقط به خاطر دقت یا منطق، بلکه به خاطر گرمایی که مدلهای جدید فاقد آن هستند.
نیک تورلی، مدیر ChatGPT در OpenAI، گفت که نظرات ردیت نشان داد «کاربران تا چه اندازه میتوانند دچار دو قطبی شوند.» تورلی به وبسایت The Verge گفت: مشکل فقط تغییر نیست؛ بلکه این است که مردم میتوانند نسبت به شخصیت یک مدل احساسات بسیار شدیدی پیدا کنند.
نیکول دینیکولا، معاون بازاریابی شرکت Smartcat، معتقد بود یکی از اشتباهات OpenAI این بود که بدون هشدار، دسترسی به مدلهای قدیمیتر را بهطور ناگهانی قطع کرد. او به Business Insider گفت: انتظارات از هرچیزی که به هوش مصنوعی مربوط باشد آنقدر بالا رفته که ناامیدکردن مردم بسیار آسانتر شده است.
تورلی اشاره کرد که «سطح اشتیاق» برخی کاربران نسبت به 4o باعث شد او در بعضی مسائل تجدیدنظر کند. او همچنین افزود که پیش از معرفی GPT-5، شرکت اعلام کرده بود که کاربران میتوانند از میان چهار شخصیت برای چتبات خود انتخاب کنند: بدبین، ربات، شنونده و نِرد (علاقهمند به جزئیات فنی).
تورلی گفت: وقتی میبینم کسی میگوید «این تنها و بهترین دوست من است»، این چیزی نیست که بخواهم در ChatGPT بسازم. این بیشتر شبیه یک اثر جانبی است و به همین دلیل باید آن را جدی گرفت و بهدقت بررسی کرد؛ کاری که اکنون انجام میدهیم.
هاروی هو، همبنیانگذار شرکت General Agency AI که یک آزمایشگاه تحقیقاتی کاربردی است، توضیح داد که برخی پاسخهای سریع GPT-5 را «کمی احمقانهتر از 4o» دیده است.
او به Business Insider توضیح داد: موضوع فقط عملکرد نیست که باعث وابستگی کاربران میشود. ممکن است یک حس خاص یا شیوههای پرسشگری ویژهای باشد که فرد با آنها خو میگیرد و اگر مدلی که به آن عادت کرده ناگهان کنار گذاشته شود، برایش قطعاً بار عاطفی خواهد داشت.