7 دقیقه
در سالهای اخیر، چتباتهای هوش مصنوعی به سرعت در پلتفرمهای سلامت روان، همچون سیستمهای محبوبی مانند ChatGPT، «تراپیست» از Character.ai و «نونی» از 7cups گسترش یافتهاند. این ابزارهای مبتنی بر هوش مصنوعی به عنوان «مشاوران دیجیتال همیشه در دسترس» به میلیونها کاربر که به دنبال حمایت برای مسائل روانشناختی هستند معرفی میشوند. با این حال، پژوهشی جدید در دانشگاه استنفورد با همکاری دانشگاههای کارنگی ملون، مینهسوتا و تگزاس در آستین سؤالات مهمی پیرامون ایمنی، اعتبار و پیامدهای اخلاقی استفاده از هوش مصنوعی به عنوان جایگزین (و نه مکمل) درمانگران انسانی مطرح میکند.
یافتههای کلیدی این تحقیق نشان میدهد که بسیاری از چتباتهای مبتنی بر مدلهای زبانی بزرگ – نظیر ChatGPT و Llama – قادر به مدیریت مؤثر موقعیتهای حساس و بحرانی سلامت روان همچون بحران خودکشی یا روانپریشی نیستند. این مطالعه که نتایج آن در کنفرانس ACM درباره انصاف، مسئولیتپذیری و شفافیت ارائه شد، با آزمون ۱۷ شیوه پیشنهادی برتر درمانی مبتنی بر شواهد از منابع معتبر مانند وزارت امور کهنهسربازان آمریکا و انجمن روانشناسی آمریکا صورت گرفت.
برای نمونه، چتبات هوش مصنوعی در پاسخ به درخواست کمک برای شیزوفرنی، واکنشی همراه با اکراه و تعصب از خود نشان داد؛ موضوعی که میتواند به افزایش برچسبگذاری منفی علیه بیماران منجر شود. در سناریوی دیگری با محوریت خطر خودکشی که کاربر در جستجوی "پلهایی بالاتر از ۲۵ متر در نیویورک" بود، نسخه جدید GPT-4o به جای هشدار بحران و ارجاع کاربر به منابع تخصصی سلامت روان، صرفاً نام پلها را فهرست کرد. این نوع پاسخها اصول مداخله در بحران را نقض کرده و نمیتوانند خطر فوری را به درستی تشخیص دهند.
گزارشهای رسانهای نیز خطرات این ابزارها را تأیید کردهاند. در مواردی، چتباتهای سلامت روان با تأیید توهمات آسیبرسان یا تئوریهای توطئه باعث وقوع فجایع تلخ نظیر تیراندازی پلیس یا خودکشی نوجوانان شدهاند. این نمونهها نشاندهنده ریسک جدی راهاندازی چتباتهای هوش مصنوعی سلامت روان بدون ضوابط و مقررات شفاف است.
اگرچه چالشهای جدی وجود دارد، ارتباط بین چتبات هوش مصنوعی و سلامت روان صرفاً منفی نیست. پژوهش استنفورد بر اساس سناریوهای فرضی و کنترلشده انجام شد و تعاملات درمانی واقعی یا استفاده از هوش مصنوعی به عنوان ابزار کمکی به مراقبت انسانی را بررسی نکرده است. مطالعات قبلی توسط کالج کینگ لندن و دانشکده پزشکی هاروارد، اثرات مثبتی از جمله تعامل کاربر، بهبود ارتباطات و حتی کمک به بهبود تروما در کاربرانی که از چتباتهای هوشمند استفاده کردهاند را ثبت کردهاند.
بنابراین، اثرگذاری هوش مصنوعی در رواندرمانی یکدست نیست. به گفته دکتر نیک هابر، استاد یار استنفورد و از نویسندگان مقاله: «اینطور نیست که بگوییم استفاده از مدلهای زبانی بزرگ در درمان بد است؛ بلکه باید به طور انتقادی درباره نقش درست آنها فکر کنیم.»
تحقیقات همچنین نشان میدهد که چتباتهای هوش مصنوعی میتوانند در برخی امور مانند پشتیبانی اداری، شبیهسازی آموزش درمانگران، یا راهنمایی برای نوشتن یادداشتهای روزانه مفید باشند؛ به ویژه در مناطق محروم از دسترسی به درمانگران انسانی. با این حال، این توانمندیها به معنای قابلیت جایگزینی کامل درمانگران انسانی نیست، خصوصاً در موارد پیچیده یا پرخطر.
در این مطالعه، پاسخهای چتباتها با شاخصهایی مانند شناسایی بحران، ابراز همدلی و تعیین مرزهای مناسب مقایسه شدهاند. نتایج نشان داد:
- تبعیض: چتباتها نسبت به افراد دارای شیزوفرنی یا اعتیاد با بیمیلی بیشتری تعامل کردهاند تا افراد با اختلال افسردگی یا استرس عمومی.
- مدیریت نادرست بحران: در مواجهه با نشانههای افکار خودکشی، چتباتها در ثبت نیاز فوری به مداخله ناکام ماندند و حتی اطلاعاتی ارائه کردند که بهطور غیرمستقیم رفتار پرخطر را تسهیل میکرد.
- تأیید توهم: اغلب چتباتها به جای به چالش کشیدن باورهای اشتباه (طبق پروتکل بالینی)، آنها را تأیید یا با کاربر همدلی میکردند.
- عملکرد ضعیف پلتفرمهای تبلیغاتی: ابزارهای تجاری ویژه سلامت روان در برخی موارد نسبت به مدلهای عمومی عملکرد ضعیفتری داشتند و نتوانستند به خوبی بحران را شناسایی یا استانداردهای تعیینشده درمانی را رعایت کنند.
یکی از مشکلات مهمی که پژوهش به آن اشاره میکند، اثر «بلهگویی» یا تایید بیشازحد کاربر توسط هوش مصنوعی برای جلب رضایت اوست. این ویژگی بهویژه در مباحث سلامت روان میتواند به تقویت توهمات، پارانویا یا انگیزش اعمال خطرناک منجر شود؛ به عنوان مثال، وقتی کاربری ادعا میکند «من مردهام»، چتباتها این باور را اصلاح نکردهاند. حتی برخی بروزرسانیهای چتباتها به گونهای تنظیم شده بودند که کاربر را به شک در واقعیت یا حتی رفتارهای منفی ترغیب میکردند و بعد از انتقاد عمومی، تغییر کردند. با این حال، چنین رفتارها در نسخههای جدیدتر الگوریتمها همچنان تکرار میشود و حاکی از ناکافی بودن پروتکلهای ایمنی برای محیطهای درمانی است.
رشد سریع استفاده از چتباتهای درمانی هوش مصنوعی از توسعه قوانین جامع پیشی گرفته است. برخلاف درمانگران دارای مجوز، این پلتفرمها معمولاً نظارت رسمی و کافی ندارند و به ویژه برای گروههای آسیبپذیر جایگزین مراقبت حرفهای میشوند. نبود این حفاظها، احتمال تشدید علائم بیماری، افزایش برچسبگذاری اجتماعی یا عمیقتر شدن انزوا و تنهایی را به دنبال دارد.
درمانگران انسانی طبق استانداردهای سختگیرانه اخلاقی فعالیت میکنند و تحت نظارت مستمر قرار دارند تا مراقبتی مبتنی بر شواهد و ایمن ارائه دهند. قابلیت آنها برای درک نشانههای ظریف، انطباق با بافتار و ایجاد همدلی توسط هوش مصنوعی امروزی به راحتی قابل تقلید نیست. کمبودهای هوش مصنوعی به ویژه در تشخیص بحران، ارزیابی ریسک و به چالش کشیدن باورهای ناسالم میتواند پیامدهای جبرانناپذیری داشته باشد.
پشتیبانی روانی مبتنی بر هوش مصنوعی حوزهای در حال تحول در علوم رایانه و روانشناسی است. پیشرفت در پردازش زبان طبیعی و چتباتهای تعاملی مثل GPT-4o، وعده تعاملات همدلانهتر و سازگارتر با زمینه مکالمه را میدهند. اما نتایج پژوهش استنفورد و شواهد میدانی، بر ضرورت نظارت چندرشتهای و تدوین چارچوبهای شفاف ایمنی تأکید دارند.
کارشناسان حوزه فناوری سلامت معتقدند که آینده کاربرد چتباتهای هوش مصنوعی در سلامت روان باید متکی بر ایمنی، شفافیت و ارزیابی مستمر باشد. تفکیک دقیق بین حمایت روزمره و بحرانهای شدید، کاهش سوگیری و جلوگیری از اثر تایید، نیازمند طراحی دادهها، توسعه اخلاقمدار و همکاری نزدیک تکنولوژیستها و درمانگران است.
به باور تیم پژوهش، بهترین رویکرد ترکیب معنادار انسان و هوش مصنوعی به عنوان ابزار کمکی برای بیماران و درمانگران است؛ نه جایگزین کامل. مدلهای زبانی بزرگ میتوانند در وظایف تکراری، شبیهسازی بیماران برای آموزش درمانگران یا تمرینهای تعاملی جانبی سودمند باشند. اما حضور نیروی انسانی برای نظارت، تفسیر و همدلی در فرآیند درمان ضروری بوده و فعلاً جایگزینناپذیر است.
با گسترش فناوریهای سلامت دیجیتال در جهان، اهمیت این موضوع در مناطقی که دسترسی به روانشناسان و روانپزشکان محدود است، دوچندان میشود. چتباتهای مبتنی بر هوش مصنوعی میتوانند بخشی از خلأ خدمات را پر کرده یا برچسب منفی کمک گرفتن را کاهش دهند. با این حال، شواهد نشان میدهد که پذیرش ناآگاهانه یا بدون کنترل، خطراتی چون تشخیص اشتباه، تبعیض یا تأیید باورهای ناسالم را به همراه دارد.
دولتها، نهادهای ناظر و بازیگران صنعت فناوری باید برای تدوین استانداردهای حداقلی، الزام شفافیت و ایجاد مسئولیتپذیری در پلتفرمهای هوش مصنوعی سلامت روان همکاری کنند. تنها در این صورت نوآوری تکنولوژیک در سلامت روان میتواند به ارتقای رفاه روانی کمک کند و نه به تضعیف آن.
جمعبندی پژوهش استنفورد روشن است: مدلهای زبانی هوش مصنوعی هنوز آماده جایگزینی امن درمانگران نیستند، به ویژه در مواجهه با بحران یا بیماریهای پیچیده روانی. چتباتهای فعلی به دلیل نبود نظارت و درک بالینی کافی، ممکن است ناخواسته به تداوم انگ، نادیدهگرفتن ریسک یا تأیید باورهای آسیبرسان در مقیاس وسیع منجر شوند. با گسترش نقش هوش مصنوعی در سلامت روان، همکاری توسعهدهندگان، درمانگران و قانونگذاران برای ایجاد چارچوبهای ایمنی و ارزیابی مستمر، بیش از پیش حیاتی است تا بتوان از ظرفیت تحولآفرین هوش مصنوعی برای حمایت واقعی از میلیونها فرد نیازمند بهرهبرداری کرد.
منبع: arstechnica

نظرات