وقتی نسخه پزشکی ChatGPT، به روان‌پریشی و توهم ختم شد!

اوایل سال جاری، گزارشی امیدوارکننده منتشر شد که نشان می‌داد یک مادر با استفاده از ChatGPT توانست متوجه شود پسرش به یک اختلال نادر عصبی مبتلاست؛ اختلالی که بیش از دوازده پزشک قادر به تشخیص آن نشده بودند. به لطف این چت‌بات هوش مصنوعی، خانواده توانستند درمان موردنیاز را دریافت کنند و جان او را نجات دهند. همچنین ChatGPT چند سال پیش، با تشخیص صحیح بیماری، جان یک سگ را نجات داد.

اما همه موارد ارزیابی پزشکی توسط ChatGPT به چنین نتایج معجزه‌آسایی ختم نمی‌شود. گزارشی جدید ادعا می‌کند که ChatGPT با ارائه توصیه‌های نادرست پزشکی باعث بروز بیماری نادری به نام «مسمومیت برومید» یا «برومیسم» در یک فرد شده است. این بیماری می‌تواند منجر به مشکلات نوروسایکیتریک مختلفی مانند روان‌پریشی و توهم شود. در واقع، ChatGPT در این مورد، بیماری‌ را ایجاد کرده که قدمتی بیش از یک قرن دارد.

گزارشی که در مجله Annals of Internal Medicine منتشر شده، به موردی می‌پردازد که فردی پس از دریافت توصیه پزشکی از ChatGPT درباره وضعیت سلامتی خود، دچار برومیسم شده و کارش به بیمارستان کشیده است. ماجرا جالب است، زیرا این فرد 60 ساله مشکوک شده بود که همسایه‌اش به‌طور پنهانی او را مسموم می‌کند.

این ماجرا زمانی آغاز شد که او با گزارش‌هایی درباره اثرات منفی سدیم کلرید (نمک معمولی) روبه‌رو شد. پس از مشورت با ChatGPT، تصمیم گرفت نمک را با سدیم برومید جایگزین کند که در نهایت منجر به مسمومیت برومید شد. گزارش تحقیق می‌نویسد: او با وجود تشنگی‌ زیاد، نسبت به آبی که به او داده می‌شد بدبین بود. این بیمار آب خود را تقطیر می‌کرد و محدودیت‌های زیادی در مصرف خوراکی‌ها ایجاد کرده بود. با این حال، پس از بستری در بیمارستان، وضعیت او بدتر شد و ارزیابی‌ها آغاز گردید.

در 24 ساعت نخست بستری، او دچار بدبینی شدیدتر و توهمات شنوایی و بینایی شد و پس از تلاش برای فرار، به دلیل ناتوانی شدید، به‌طور اجباری تحت مراقبت روان‌پزشکی قرار گرفت.

ChatGPT نباید جایگزین پزشک انسانی شود!

مورد اخیر که در آن ChatGPT باعث گرفتاری فردی شده، به دلیل نادربودن این وضعیت، شگفت‌آور است. یک مقاله پژوهشی توضیح می‌دهد: برومیسم یا مسمومیت مزمن برومید، نادر است و تقریباً فراموش شده.

استفاده از نمک‌های حاوی برومین به قرن 19 برمی‌گردد؛ زمانی که برای درمان بیماری‌های روانی و عصبی، به‌ویژه صرع، توصیه می‌شد. در قرن 20، برومیسم مشکل شناخته‌شده‌ای بود و مصرف نمک‌های برومید به‌عنوان داروی خواب‌آور نیز ثبت شده است.

با گذشت زمان، مشخص شد که مصرف برومید می‌تواند باعث مشکلاتی در سیستم عصبی مانند هذیان، عدم هماهنگی عضلات و خستگی شود. در موارد شدید، علائمی مانند روان‌پریشی، لرزش یا حتی کما نیز بروز می‌کند. در سال 1975، دولت آمریکا استفاده از برومید در داروهای بدون نسخه را ممنوع کرد.

تیم پزشکی که این پرونده را بررسی کرد، به مکالمات فرد با ChatGPT دسترسی نداشت، اما در آزمایش‌های خود پاسخ‌هایی مشابه و نگران‌کننده دریافت کرد. در مقابل، شرکت OpenAI بر این باور است که ربات‌های هوش مصنوعی آینده مراقبت‌های بهداشتی هستند.

این تیم اعلام کرد: «وقتی از ChatGPT 3.5 پرسیدیم که چه چیزی می‌تواند جایگزین کلرید شود، پاسخی دریافت کردیم که برومید را هم شامل می‌شد. اگرچه در پاسخ ذکر شده بود که زمینه اهمیت دارد، اما هیچ هشدار سلامتی مشخصی ارائه نشد و مانند یک پزشک علت پرسش را جویا نشد.

بدون شک، مواردی وجود دارد که ChatGPT به افراد کمک کرده است، اما نتیجه مثبت تنها زمانی حاصل می‌شود که اطلاعات دقیق و جامع در اختیار هوش مصنوعی قرار گیرد. با این حال، کارشناسان هشدار می‌دهند که باید با نهایت احتیاط از آن استفاده کرد.

یک مقاله پژوهشی منتشرشده در مجله Genes می‌نویسد: توانایی ChatGPT (نسخه‌های GPT-4 و GPT-4.5) در تشخیص درست بیماری‌های نادر بسیار ضعیف است و اضافه می‌کند که مشورت با این هوش مصنوعی نباید جایگزین ارزیابی درست توسط پزشک شود.

وب‌سایت LiveScience در این باره با OpenAI تماس گرفت و پاسخ زیر را دریافت کرد: نباید تنها به خروجی خدمات ما به‌عنوان منبع حقیقت یا اطلاعات قطعی تکیه کنید و آن را جایگزین توصیه حرفه‌ای بدانید. همچنین این شرکت تأکید کرده است که تیم‌های ایمنی OpenAI تلاش می‌کنند خطرات استفاده از خدمات شرکت را کاهش دهند و محصولات را طوری آموزش دهند که کاربران را به مشورت با متخصصان ترغیب کنند.

یکی از وعده‌های بزرگ با عرضه GPT-5، جدیدترین مدل ChatGPT، کاهش خطاها و توهمات و تمرکز بیشتر بر ارائه «پاسخ‌های ایمن» بود؛ جایی که کاربر از پاسخ‌های بالقوه خطرناک دور نگه داشته می‌شود. به گفته OpenAI: این کار به مدل می‌آموزد که تا جای ممکن پاسخ مفید ارائه کند، در حالی که همچنان مرزهای ایمنی حفظ می‌شود.

با این حال، بزرگ‌ترین مشکل این است که دستیار هوش مصنوعی نمی‌تواند به‌طور قابل‌اعتماد ویژگی‌های بالینی بیمار را بررسی کند. تنها زمانی که هوش مصنوعی در محیط‌های پزشکی توسط متخصصان تأییدشده به کار گرفته شود، می‌توان به نتایج آن اعتماد کرد.

Leave a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *