نباید تمام حرف‌های چت‌ بات‌ ها را باور کنید؛ آشتی با جستجو در گوگل

این روزها افراد زیادی بدون اینکه متوجه خطرات احتمالی باشند، چت‌ بات‌ های هوش مصنوعی را به‌عنوان ابزار اصلی جستجو انتخاب می‌کنند؛ غافل از اینکه این مدل‌ها اغلب دچار خطا می‌شوند و پیامدهای این اشتباهات می‌تواند بسیار جدی باشد.

چند روز پیش، سم آلتمن هشدار داد که رازهایتان را با ChatGPT در میان نگذارید. اما داستان یه اینجا ختم نمی‌شود و ظاهراً نباید حرف‌های چت‌ بات‌ ها را نیز باور کنید.

واقعیت‌سازی با اطمینان و خیال‌پردازی اطلاعاتی

نکته اصلی درباره جستجو با چت‌ بات‌ های هوش مصنوعی این است که آن‌ها طوری طراحی شده‌اند که «هوشمند به نظر برسند»، نه اینکه لزوماً اطلاعات دقیقی ارائه دهند. وقتی از آن‌ها سوالی می‌پرسید، معمولاً پاسخی می‌دهند که شبیه به پاسخ یک منبع معتبر است، حتی اگر کاملاً اشتباه باشد.

یک نمونه واقعی از این موضوع اخیراً برای یک مسافر استرالیایی اتفاق افتاد. این فرد قصد داشت به شیلی سفر کند و از ChatGPT پرسید آیا نیاز به ویزا دارد یا نه. این چت‌بات با اطمینان پاسخ داد که نه، استرالیایی‌ها می‌توانند بدون ویزا وارد شیلی شوند.

پاسخ قانع‌کننده به نظر می‌رسید، پس مسافر بلیت‌ها را خرید و به شیلی پرواز کرد؛ اما در فرودگاه از ورود او جلوگیری شد. مشخص شد که استرالیایی‌ها برای ورود به شیلی نیاز به ویزا دارند و در نهایت او در کشوری غریبه سرگردان ماند.

این اتفاقات به این دلیل رخ می‌دهند که چت‌ بات‌ ها پاسخ‌ها را «جستجو» نمی‌کنند، بلکه براساس الگوهایی که قبلاً دیده‌اند، متن تولید می‌کنند. در نتیجه، ممکن است جاهای خالی را با اطلاعاتی پر کنند که قابل‌قبول به نظر می‌رسد، اما اشتباه است. و نکته خطرناک‌تر اینجاست که این مدل‌ها معمولاً عدم اطمینان خود را بیان نمی‌کنند، بلکه پاسخ را با لحنی قطعی و به‌عنوان یک واقعیت ارائه می‌دهند.

دقیقاً به همین دلیل است که خیال‌پردازی‌های اطلاعاتی یا «hallucination»های چت‌ بات‌ ها این‌قدر نگران‌کننده‌اند؛ چون با اینکه نتیجه جستجو نادرست است، درست به نظر می‌رسد. و وقتی پای تصمیمات واقعی زندگی در میان باشد، همین‌جاست که آسیب وارد می‌شود.

حتی اگر روش‌هایی برای جلوگیری از این خطاها وجود داشته باشد، همچنان ممکن است پول از دست برود، مهلت‌ها را از دست بدهید یا مثل مثال بالا، در فرودگاهی گرفتار شوید؛ فقط چون به ابزاری اعتماد کردید که در واقع نمی‌داند چه می‌گوید.

مدل‌های زبانی روی داده‌های محدود با سوگیری‌های ناشناخته آموزش دیده‌اند

مدل‌های زبانی بزرگ روی داده‌های عظیمی آموزش می‌بینند، اما واقعاً هیچ‌کس به‌طور دقیق نمی‌داند این داده‌ها شامل چه چیزهایی هستند. این داده‌ها ترکیبی از وب‌سایت‌ها، کتاب‌ها، انجمن‌ها و سایر منابع عمومی هستند و این ترکیب ممکن است کاملاً نامتعادل باشد.

فرض کنید یک فریلنسر هستید و می‌خواهید بدانید چطور باید مالیات خود را پرداخت کنید. اگر از یک چت‌بات سوال کنید، ممکن است پاسخ مفصل و دقیقی ارائه دهد، اما اطلاعات بر اساس قوانین قدیمی IRS یا حتی نظر یک کاربر ناشناس در یک فروم باشد.

چت‌ بات‌ به شما نمی‌گوید نتیجه جستجوی شما از کجا آمده و هشدار نمی‌دهد که ممکن است مربوط به شرایط خاص شما نباشد. بلکه پاسخ را طوری بیان می‌کند که انگار یک متخصص مالیاتی آن را نوشته است.

مشکل سوگیری در LLMها فقط فرهنگی یا سیاسی نیست؛ بلکه گاهی درباره این است که کدام صداها در داده‌های آموزشی گنجانده شده‌اند و کدام‌ها حذف شده‌اند. اگر داده‌ها به نفع مناطق، دیدگاه‌ها یا دوره‌های زمانی خاصی متمایل باشند، پاسخ‌ها نیز همین‌طور خواهند بود. ممکن است متوجه این موضوع نشوید، اما توصیه‌هایی که دریافت می‌کنید، می‌توانند به‌طور نامحسوسی جهت‌دار باشند.

چت‌بات‌ها فقط بازتاب‌دهنده نظرات شما هستند

اگر سوالی مطرح کنید که لحن آن جهت‌دار باشد، چت‌بات اغلب پاسخی هم‌سو و تأییدکننده به شما می‌دهد، حتی اگر همین سوال را با عبارتی متفاوت بپرسید، پاسخ کاملاً متفاوتی بگیرید. موضوع این نیست که هوش مصنوعی با شما موافق است، بلکه به این دلیل است که طراحی شده تا «کمک‌کننده» باشد و در اکثر مواقع، «کمک‌کننده» یعنی تأیید پیش‌فرض‌های شما.

برای مثال، اگر بپرسید «آیا واقعاً صبحانه این‌قدر مهم است؟»، چت‌بات ممکن است پاسخ دهد که حذف صبحانه اشکالی ندارد و حتی آن را به روزه‌داری متناوب مرتبط کند. اما اگر بپرسید «چرا صبحانه مهم‌ترین وعده غذایی روز است؟»، احتمالاً پاسخی قانع‌کننده درباره سطح انرژی، سوخت‌وساز و تمرکز بهتر دریافت خواهید کرد.

همان موضوع، اما دو پاسخ کاملاً متفاوت؛ فقط به این خاطر که سوال‌ها با لحن مختلفی مطرح شده‌اند.

بیشتر این مدل‌ها طوری طراحی شده‌اند که کاربر را از پاسخ راضی نگه دارند. به همین دلیل آن‌ها به‌ندرت با شما مخالفت می‌کنند.

آن‌ها بیشتر به‌جای اینکه دیدگاه شما را به چالش بکشند، آن را تأیید می‌کنند؛ چون تعامل مثبت باعث می‌شود کاربران بیشتر به استفاده از آن‌ها ادامه دهند.

در واقع، اگر چت‌بات حس دوستانه و تأییدکننده‌ای ایجاد کند، احتمال اینکه دوباره از آن استفاده کنید بیشتر می‌شود.

برخی مدل‌ها هستند که برخلاف این روند، سعی می‌کنند از شما سوال بپرسند یا دیدگاهتان را به چالش بکشند؛ اما چنین رفتارهایی هنوز استثناء محسوب می‌شوند، نه قاعده. حتی در یک مورد استثنایی، Grok 4 برای پاسخ‌دادن به سوالات جنجالی با ایلان ماسک مشورت می‌کند.

آن‌ها اطلاعات به‌روز ندارند

بسیاری از افراد تصور می‌کنند چت‌بات‌های هوش مصنوعی همیشه اطلاعات به‌روز دارند، به‌خصوص حالا که ابزارهایی مثل ChatGPT، جمینای و کوپایلوت به اینترنت متصل هستند. اما صرف اینکه می‌توانند وب‌گردی کنند، به این معنا نیست که در این کار خوب عمل می‌کنند: به‌ویژه در مورد اخبار فوری یا محصولات تازه‌عرضه‌شده.

اگر درست چند ساعت بعد از رونمایی آیفون 17 از یک چت‌بات سوال بپرسید، احتمال زیادی وجود دارد که ترکیبی از حدس‌های قدیمی و اطلاعات ساختگی دریافت کنید. به‌جای اینکه اطلاعات را از سایت رسمی اپل یا منابع تأییدشده بگیرد، ممکن است براساس شایعات قبلی یا الگوهای مربوط به رونمایی‌های گذشته، پاسخ دهد. پاسخ شاید مطمئن و منطقی به نظر برسد، اما ممکن است نیمی از آن نادرست باشد.

این اتفاق می‌افتد چون سیستم‌های مرور لحظه‌ای همیشه آن‌طور که انتظار دارید عمل نمی‌کنند. برخی صفحات هنوز ایندکس نشده‌اند، ابزار ممکن است از نتایج کش‌شده استفاده کند یا به‌جای جستجوی جدید، به داده‌های پیش‌آموزشی خود تکیه کند. و از آنجایی که پاسخ‌ها روان و با اعتمادبه‌نفس نوشته می‌شوند، شاید اصلاً متوجه اشتباه بودن آن‌ها نشوید.

در مورد اطلاعات حساس به زمان، مثل خلاصه رویدادها، معرفی محصولات یا بررسی‌های اولیه، هنوز نمی‌توان به LLMها تکیه کرد. در این مواقع، جستجوی سنتی و بررسی منابع موثق معمولاً نتایج بهتری می‌دهد.

در حالی که دسترسی زنده به اینترنت روی کاغذ مشکلی حل‌شده به نظر می‌رسد، هنوز با واقعیت فاصله زیادی دارد. و اگر فکر کنید چت‌بات همیشه در جریان آخرین اتفاقات است، عملاً خودتان را در معرض اطلاعات نادرست قرار داده‌اید.

در نهایت، موضوعاتی وجود دارند که نباید درباره‌شان فقط به ChatGPT اعتماد کنید. اگر در حال تحقیق درباره قوانین حقوقی، مشاوره پزشکی، سیاست‌های سفر یا هر موضوع زمان‌محدودی هستید، بهتر است حتماً اطلاعات را از منابع دیگر هم بررسی کنید.

این ابزارها برای ایده‌پردازی یا درک اولیه از یک موضوع ناآشنا بسیار مفیدند. اما جایگزینی برای تخصص انسان نیستند و اگر آن‌ها را چنین تصور کنید، ممکن است خیلی زود گرفتار دردسر شوید.

Leave a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *