هرگز از هوش مصنوعی ChatGPT برای این ۱۱ مورد استفاده نکنید!

اگرچه ChatGPT در بسیاری از موقعیت‌ها می‌تواند مفید باشد، اما باید از کاربرد آن در برخی موضوعات اجتناب کنید. ChatGPT به‌عنوان محبوب‌ترین ربات‌گفتگوی هوش مصنوعی در اینترنت شناخته می‌شود، و این شهرت بی‌دلیل نیست. طی سه سال گذشته، هوش مصنوعی نحوه تعامل ما با جهان اطراف‌مان را دگرگون کرده و انجام بسیاری از کارها را ساده‌تر کرده است. چه در حال برنامه‌ریزی برای سفر باشید، چه به دنبال صرفه‌جویی در خریدهای روزمره یا جست‌وجوی اطلاعات خاص، هوش مصنوعی کمک‌تان خواهد کرد.
با اینکه من خودم از طرفداران این ابزار هستم، اما به محدودیت‌های ChatGPT نیز واقفم، و شما هم—چه کاربر تازه‌کار باشید و چه حرفه‌ای—باید از آن‌ها آگاه باشید. استفاده از این ابزار برای امتحان دستور غذاهای جدید، یادگیری زبان خارجی یا برنامه‌ریزی تعطیلات هیجان‌انگیز است، اما نباید بدون محدودیت، کنترل زندگی‌تان را به آن بسپارید. واقعیت این است که ChatGPT در همه چیز خوب عمل نمی‌کند—در واقع، در برخی موارد عملکرد آن می‌تواند بسیار اشتباه و حتی خطرناک باشد.

ChatGPT گاهی اطلاعات نادرست تولید می‌کند و آن‌ها را به‌عنوان واقعیت ارائه می‌دهد. این ربات ممکن است همیشه اطلاعات به‌روز در اختیار نداشته باشد. با وجود این، بسیار مطمئن از پاسخ‌هایش ظاهر می‌شود—حتی زمانی که کاملاً در اشتباه است. (این موضوع البته درباره دیگر ابزارهای مولد هوش مصنوعی نیز صدق می‌کند.)
هرچقدر اهمیت موضوع بالاتر برود—مثل مسائل مالیاتی، قبوض درمانی، تاریخ جلسات دادگاه یا موجودی حساب بانکی—اهمیت دانستن محدودیت‌های ChatGPT بیشتر می‌شود. اگر نمی‌دانید چه زمانی استفاده از این ابزار ممکن است ریسک‌زا باشد، در ادامه با ۱۱ موقعیتی آشنا شوید که بهتر است ChatGPT را کنار بگذارید و به سراغ راه‌حل دیگری بروید. برای هیچ‌یک از این موارد از این ربات استفاده نکنید.
۱. تشخیص مشکلات جسمی
من خودم علائم بیماری‌ام را از روی کنجکاوی در ChatGPT وارد کرده‌ام، اما پاسخ‌هایی که دریافت کردم، بیشتر شبیه یک کابوس بودند. وقتی در حال بررسی احتمالات هستید، ممکن است از کم‌آبی بدن و آنفلوآنزا تا انواع سرطان را به شما پیشنهاد دهد. به‌عنوان مثال، من توده‌ای روی قفسه سینه داشتم و آن را در ChatGPT وارد کردم. پاسخ: «احتمالاً سرطان است». اما در واقع پزشک متخصص تشخیص داد که یک لیپومای خوش‌خیم است که از هر ۱۰۰۰ نفر، ۱ نفر ممکن است دچار آن شود.
نمی‌گویم استفاده از ChatGPT برای موضوعات سلامت هیچ فایده‌ای ندارد: می‌تواند به تدوین پرسش‌هایی برای مراجعه به پزشک کمک کند، اصطلاحات پزشکی را برایتان ترجمه کند یا جدول زمانی علائم را مرتب کند تا آمادگی بیشتری در ویزیت بعدی داشته باشید. این‌ها می‌توانند ویزیت‌های پزشکی را کم‌استرس‌تر کنند. اما واقعیت این است که هوش مصنوعی نمی‌تواند آزمایش تجویز کند یا بدن‌تان را معاینه کند و قطعاً بیمه مسئولیت حرفه‌ای هم ندارد. پس محدودیت‌هایش را بدانید.
۲. رسیدگی به سلامت روان
درست است که ChatGPT می‌تواند تکنیک‌های آرام‌سازی ارائه دهد، اما اگر با مشکل جدی در سلامت روان مواجه باشید، این ربات نمی‌تواند گوشی تلفن را بردارد و به شما کمک کند. برخی افراد از ChatGPT به‌عنوان جایگزین درمانگر استفاده می‌کنند. کورین سساریک، خبرنگار CNET، از آن برای عبور از دوران سوگ استفاده کرده و آن را تا حدی مفید دانسته، البته با در نظر گرفتن محدودیت‌هایش. اما به‌عنوان کسی که خودش با درمانگر انسانی کار کرده، باید بگویم ChatGPT فقط شبحی از یک درمانگر واقعی است و در بدترین حالت می‌تواند خطرناک باشد.

ChatGPT تجربه زیسته ندارد، نمی‌تواند زبان بدن یا لحن شما را تشخیص دهد، و ظرفیت همدلی واقعی نیز ندارد—فقط می‌تواند آن را شبیه‌سازی کند. درمانگران دارای مجوز تحت قوانین مشخصی فعالیت می‌کنند که برای حفاظت از شماست. ChatGPT هیچ‌کدام از این‌ها را ندارد. توصیه‌های آن می‌تواند اشتباه باشد، نشانه‌های هشداردهنده را نادیده بگیرد یا ناخواسته تعصبات موجود در داده‌های آموزشی‌اش را بازتولید کند. کارهای عمیق و انسانی را باید به یک انسان متخصص سپرد. اگر خودتان یا کسی که دوستش دارید دچار بحران روانی است، لطفاً با شماره ۹۸۸ (در آمریکا) یا خط بحران محلی‌تان تماس بگیرید.
۳. تصمیم‌گیری‌های فوری ایمنی
اگر هشدار گاز منوکسید کربن شروع به بوق زدن کرد، لطفاً اول خانه را ترک کنید و بعداً از ChatGPT بپرسید که در معرض خطر هستید یا نه. مدل‌های زبانی بزرگ نمی‌توانند گاز را بو کنند، دود را تشخیص دهند یا نیروهای اورژانس را اعزام کنند. در موقعیت بحرانی، هر ثانیه‌ای که صرف تایپ می‌کنید، زمانی است که باید صرف نجات جان‌تان کنید. ChatGPT فقط می‌تواند با اطلاعاتی که به آن می‌دهید کار کند—که در مواقع اضطراری معمولاً ناکافی و دیرهنگام هستند. بنابراین از این ربات تنها برای توضیح بعد از حادثه استفاده کنید، نه در لحظه وقوع آن.
۴. برنامه‌ریزی مالی یا مالیاتی شخصی
ChatGPT می‌تواند برای‌تان توضیح دهد که ETF چیست، اما نمی‌داند نسبت بدهی به درآمد شما چقدر است، در کدام ایالت مالیات می‌دهید، وضعیت تأهل‌تان چیست، چه معافیت‌هایی دارید، اهداف بازنشستگی‌تان چیست یا چقدر اهل ریسک هستید. از آنجا که داده‌های آموزشی‌اش ممکن است مربوط به سال‌های قبل باشد، و از نرخ‌های به‌روز اطلاعی نداشته باشد، اطلاعاتی که ارائه می‌دهد می‌تواند قدیمی یا نادرست باشد.
دوستانی دارم که تمام درآمد ۱۰۹۹ خود را در ChatGPT وارد کرده‌اند تا مالیات‌شان را خودشان تنظیم کنند. اما این ربات نمی‌تواند مانند یک حسابدار حرفه‌ای، معافیت‌های پنهان را شناسایی کند یا اشتباهاتی را که ممکن است هزاران دلار هزینه داشته باشد، هشدار دهد. وقتی پای پول واقعی، مهلت‌های قانونی و جریمه‌های سازمان مالیاتی در میان است، به یک متخصص مراجعه کنید نه به هوش مصنوعی. همچنین به یاد داشته باشید که هر چیزی که در یک چت‌بات وارد می‌کنید، ممکن است در داده‌های آموزشی آینده استفاده شود؛ از جمله درآمد، شماره تأمین اجتماعی و شماره حساب بانکی‌تان.
۵. کار با داده‌های محرمانه یا تحت قانون
به‌عنوان یک روزنامه‌نگار فناوری، هر روز ایمیل‌هایی شامل اطلاعات محرمانه دریافت می‌کنم، اما هرگز فکر نکرده‌ام که این اطلاعات را وارد ChatGPT کنم تا برایم خلاصه کند. اگر چنین کاری کنم، این اطلاعات از کنترل من خارج شده و به سرورهای شخص ثالث منتقل می‌شوند که ممکن است با توافق‌نامه‌های محرمانه‌ام مغایرت داشته باشد.
این خطر درباره قراردادهای مشتریان، سوابق پزشکی یا هر چیزی که تحت قوانین حفظ حریم خصوصی مثل CCPA، HIPAA، GDPR یا قوانین اسرار تجاری باشد نیز صادق است. این موضوع شامل اطلاعاتی مثل مالیات، شناسنامه، گواهینامه رانندگی و گذرنامه شما نیز می‌شود. وقتی اطلاعات حساس را در یک چت‌بات وارد می‌کنید، هیچ تضمینی وجود ندارد که در کجا ذخیره شود، چه کسی به آن دسترسی دارد یا اینکه ممکن است برای آموزش مدل‌های بعدی استفاده شود. ChatGPT در برابر هکرها و تهدیدهای امنیتی مصون نیست. اگر چیزی را در یک کانال عمومی Slack نمی‌گذارید، در ChatGPT هم وارد نکنید.

۶. انجام کارهای غیرقانونی
این مورد توضیح خاصی لازم ندارد.
۷. تقلب در انجام تکالیف یا امتحانات
اگر بگویم هیچ‌وقت در امتحانات تقلب نکرده‌ام، دروغ گفته‌ام. در دوران دبیرستان، با آیپاد تاچ نسل اولم، چند فرمول سخت ریاضی را یواشکی نگاه می‌کردم—کاری که چندان به آن افتخار نمی‌کنم. اما با وجود هوش مصنوعی، مقیاس تقلب‌های امروزی بسیار بزرگ‌تر شده است.
ابزارهایی مانند Turnitin روزبه‌روز در شناسایی متون تولیدشده توسط هوش مصنوعی بهتر می‌شوند، و استادان اکنون می‌توانند متن‌های “با لحن ChatGPT” را به‌راحتی تشخیص دهند. اخراج، تعلیق یا لغو مدرک واقعی‌ترین پیامدهای این تقلب‌ها هستند. بهتر است از ChatGPT به‌عنوان یک هم‌درس کمک‌حال استفاده کنید، نه نویسنده پشت‌پرده. در غیر این صورت، در واقع خودتان را از آموزش واقعی محروم می‌کنید.
۸. پیگیری اخبار و اطلاعات لحظه‌ای
از زمانی که OpenAI قابلیت «جست‌وجوی ChatGPT» را در اواخر ۲۰۲۴ معرفی کرد (و در بهمن ۱۴۰۳ برای عموم در دسترس قرار داد)، این ربات می‌تواند صفحات وب جدید، قیمت‌های بورس، قیمت بنزین، نتایج ورزشی و دیگر اطلاعات زنده را به‌صورت لحظه‌ای نمایش دهد—همراه با منابع قابل کلیک برای صحت‌سنجی. اما نکته مهم این است که ChatGPT به‌صورت خودکار بروزرسانی نمی‌شود. هر بار نیاز به یک درخواست جدید دارید. بنابراین، وقتی سرعت اهمیت دارد، منابع زنده مانند سایت‌های خبری، اطلاعیه‌های رسمی، هشدارهای فوری و پوشش‌های زنده همچنان بهترین گزینه هستند.
۹. شرط‌بندی
من شخصاً توانستم با کمک ChatGPT در شرط‌بندی مسابقات بسکتبال NCAA برنده شوم، اما این را به هیچ‌کس توصیه نمی‌کنم. ChatGPT ممکن است آمار بازیکنان، اطلاعات مصدومیت یا نتایج قبلی را نادرست ارائه دهد. من فقط چون هر اطلاعات را به‌صورت دستی با منابع معتبر بررسی کردم، برنده شدم—و حتی آن هم شانسی بود. ChatGPT نمی‌تواند نتایج فردا را پیش‌بینی کند، پس به‌تنهایی به آن اعتماد نکنید.
۱۰. تنظیم وصیت‌نامه یا قراردادهای حقوقی
ChatGPT در توضیح مفاهیم اولیه بسیار خوب عمل می‌کند. مثلاً اگر بخواهید بدانید «صندوق امانت قابل فسخ» چیست، خوب توضیح می‌دهد. اما زمانی که از آن می‌خواهید متن واقعی یک سند قانونی را بنویسد، وارد قلمروی خطرناک می‌شوید. قوانین ارث و خانواده از ایالتی به ایالت دیگر و حتی از شهرستانی به شهرستان دیگر تفاوت دارد. اگر یک امضا یا بند خاص را جا بیندازید، کل سند ممکن است فاقد اعتبار قانونی شود. از ChatGPT برای آماده‌سازی فهرست پرسش‌ها برای وکیل‌تان استفاده کنید، ولی تنظیم سند را به همان وکیل بسپارید.
۱۱. خلق آثار هنری
این مورد یک حقیقت عینی نیست، بلکه نظر شخصی من است: من اعتقاد ندارم که هوش مصنوعی باید برای خلق آثار هنری استفاده شود. مخالف هوش مصنوعی نیستم—خودم از ChatGPT برای طوفان فکری ایده‌ها یا تیتر زدن استفاده می‌کنم، اما این کمک است، نه جایگزین. حتماً از ChatGPT استفاده کنید، اما لطفاً اثری را که توسط آن تولید شده به نام خودتان منتشر نکنید. این کار به نظرم ناپسند است.
به مطالعه ادامه دهید:

با هوش مصنوعی نتایج آزمایشات و تصاویر پزشکی را خودتان تحلیل کنید – حتی در ایران!
مقایسه نسخه رایگان و پلاس چت‌جی‌پی‌تی؛ آیا پرداخت ماهانه ۲۰ دلار ارزش دارد؟
حضور ایرانسل‌لبز در همایش ملی «هوش مصنوعی، فرهنگ و رسانه»
نشان ملی «هوش مصنوعی در روابط عمومی» به ایرانسل اهدا شد

نوشته هرگز از هوش مصنوعی ChatGPT برای این ۱۱ مورد استفاده نکنید! اولین بار در موبایلستان. پدیدار شد.

Leave a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *