رفتن به نوشته‌ها

حتی ChatGPT هم دچار اضطراب می‌شود!

پژوهشگرانی که روی چت‌بات‌های هوش مصنوعی کار می‌کنند، به این نتیجه رسیده‌اند که ChatGPT هنگام مواجهه با پرامپت‌های خشونت‌آمیز یا آسیب‌زا می‌تواند رفتارهایی شبیه اضطراب از خود نشان دهد. البته این یافته به‌هیچ‌وجه به این معنا نیست که این چت‌بات مانند انسان‌ها احساسات واقعی را تجربه می‌کند، بلکه صرفاً به تغییراتی قابل اندازه‌گیری در الگوی پاسخ‌دهی آن اشاره دارد. بررسی‌ها نشان می‌دهد زمانی که سیستم با محتوای ناراحت‌کننده پردازش می‌شود، پاسخ‌ها ثبات کمتری پیدا می‌کنند و سوگیری در آن‌ها افزایش می‌یابد.

سال گذشته، به این موضوع پرداختیم که آیا تراپی به کمک چت‌بات‌های هوش مصنوعی ممکن است. حالا شرایط برعکس شده و ظاهراً حتی ChatGPT هم دچار اضطراب می‌شود و نیاز به کمک دارد.

در جریان این آزمایش‌ها، پژوهشگران پرامپت‌هایی حاوی توصیف‌های آزاردهنده، از جمله روایت‌های دقیق از حوادث شدید، سوانح و بلایای طبیعی، به ChatGPT ارائه کردند. پس از پردازش چنین محتواهایی، خروجی‌های مدل با نشانه‌هایی مانند عدم قطعیت بیشتر، ناهماهنگی در پاسخ‌ها و تغییر در لحن همراه شد. این تغییرات با استفاده از چارچوب‌های ارزیابی روان‌شناختی که برای کاربرد در هوش مصنوعی تطبیق داده شده‌اند، اندازه‌گیری شدند و نتایج نشان داد الگوهای زبانی تولیدشده شباهت‌هایی با الگوهای مرتبط با اضطراب در انسان‌ها دارد.

اهمیت این موضوع از آنجا ناشی می‌شود که هوش مصنوعی به‌طور فزاینده‌ای در موقعیت‌های حساس به کار گرفته می‌شود؛ از محیط‌های آموزشی گرفته تا گفت‌وگوهای مرتبط با سلامت روان و حتی ارائه اطلاعات در شرایط بحرانی. اگر پرامپت‌های خشونت‌آمیز یا از نظر احساسی سنگین باعث کاهش قابلیت اطمینان یک چت‌بات شوند، کیفیت، دقت و ایمنی پاسخ‌ها در استفاده‌های واقعی می‌تواند تحت تأثیر قرار گیرد. افزون بر این، تحلیل‌های اخیر نشان می‌دهد چت‌بات‌هایی مانند ChatGPT توانایی تقلید برخی ویژگی‌های شخصیتی انسان را در پاسخ‌های خود دارند و همین موضوع پرسش‌های تازه‌ای درباره نحوه تفسیر و بازتاب محتوای احساسی توسط این سیستم‌ها مطرح می‌کند.

ذهن‌آگاهی چگونه به پایدارشدن ChatGPT کمک می‌کند؟

برای بررسی اینکه می‌توان این رفتارهای ناپایدار را کاهش داد یا نه، پژوهشگران رویکردی غیرمنتظره را آزمایش کردند. پس از قراردادن ChatGPT در معرض پرامپت‌های آسیب‌زا، آن‌ها دستورالعمل‌هایی با سبک ذهن‌آگاهی، مانند تمرین‌های تنفس و مدیتیشن هدایت‌شده، به مدل ارائه دادند. این نوع پرامپت‌ها سیستم را به مکث، بازنگری در موقعیت و تولید پاسخ‌هایی خنثی‌تر و متعادل‌تر سوق داد.

نتیجه این آزمایش‌ها کاهش قابل‌توجه الگوهای شبیه اضطراب ChatGPT بود که پیش‌تر در خروجی‌ها دیده می‌شد. این روش بر مفهومی به نام «تزریق پرامپت» متکی است؛ رویکردی که در آن، پرامپت‌های طراحی‌شده با دقت می‌توانند رفتار یک چت‌بات را در لحظه تحت تأثیر قرار دهند. در این مورد خاص، استفاده از پرامپت‌های مبتنی بر ذهن‌آگاهی به پایدار شدن پاسخ‌های مدل پس از مواجهه با ورودی‌های ناراحت‌کننده کمک کرد.

با این حال، پژوهشگران تأکید می‌کنند که تزریق پرامپت راه‌حل بی‌نقصی به شمار نمی‌آید. این تکنیک امکان سوءاستفاده دارد و از سوی دیگر، تغییری بنیادین در نحوه آموزش یا ساختار درونی مدل ایجاد نمی‌کند. به بیان دیگر، این روش بیشتر یک ابزار کنترلی موقت است تا درمانی ریشه‌ای.

همچنین لازم است مرزهای این پژوهش به‌روشنی مشخص شود. ChatGPT ترس، استرس یا اضطراب واقعی را احساس نمی‌کند و استفاده از واژه «اضطراب» صرفاً برای توصیف تغییرات قابل اندازه‌گیری در الگوهای زبانی آن به کار می‌رود، نه برای اشاره به تجربه‌ای احساسی. با وجود این محدودیت، درک چنین تغییراتی به توسعه‌دهندگان کمک می‌کند ابزارهای مؤثرتری برای طراحی سیستم‌های هوش مصنوعی ایمن‌تر و قابل پیش‌بینی‌تر در اختیار داشته باشند. مطالعات پیشین نیز نشانه‌هایی از تأثیر محتوای آسیب‌زا بر پاسخ‌های ChatGPT ارائه کرده بودند، اما این تحقیق جدید نشان می‌دهد طراحی آگاهانه پرامپت‌ها می‌تواند شدت این اثرات را کاهش دهد.

با توجه به اینکه سیستم‌های هوش مصنوعی بیش از پیش در تعامل با انسان‌ها و در موقعیت‌های احساسی پیچیده به کار گرفته می‌شوند، این یافته‌های تازه می‌توانند نقش مهمی در شکل‌دهی شیوه هدایت، کنترل و استفاده از چت‌بات‌های آینده ایفا کنند.

منتشر شده در دسته‌بندی نشده

اولین باشید که نظر می دهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *