گزارشها نشان میدهد که تعدادی از رواندرمانگران در جلسات درمانی بدون اطلاع بیماران خود از ابزارهایی مانند ChatGPT استفاده کردهاند؛ اقدامی که موجی از خشم و بیاعتمادی را میان بیماران به وجود آورده است. بر اساس گزارش MIT Technology Review و بازتاب آن در رسانههای بینالمللی، این درمانگران از هوش مصنوعی برای پاسخ به ایمیلها، ارائه پیشنهاد پرسشها در حین گفتگو و حتی تولید پاسخهای مستقیم در جلسات استفاده کردهاند.
تجربه بیماران از مواجهه با ChatGPT در جلسات درمان
در یکی از نمونهها، بیماری ۳۱ ساله از لسآنجلس که با نام مستعار «دکلن» معرفی شده، متوجه شد درمانگرش در جلسه آنلاین صحبتهای او را به ChatGPT منتقل میکند و پاسخها را عیناً یا پس از بازنویسی به او بازمیگرداند. او این تجربه را «خیانتآمیز و تکاندهنده» توصیف کرده است.
نقض اعتماد و حریم خصوصی بیماران
کاربران شبکههای اجتماعی نیز نسبت به این موضوع واکنش تندی نشان دادهاند. بسیاری آن را نقض آشکار حریم خصوصی بیماران و بیمسئولیتی حرفهای دانستهاند. به گفته یکی از کاربران ردیت، «استفاده از ChatGPT در جلسه درمانی بدون اطلاع بیمار، نهتنها غیراخلاقی بلکه غیرقابل قبول است.»
هشدار کارشناسان درباره بحران اعتماد در رواندرمانی
متخصصان سلامت روان معتقدند ادامه چنین رویهای میتواند به بحران اعتماد در این حوزه منجر شود؛ جایی که اساس درمان بر پایه ارتباط انسانی، همدلی و اعتماد متقابل استوار است. حتی در برخی کشورها مانند بریتانیا، نهادهای نظارتی نسبت به خطرات استفاده پنهانی از هوش مصنوعی هشدار دادهاند. در آمریکا نیز ایالت ایلینوی قانونی تصویب کرده که استفاده از هوش مصنوعی بهعنوان جایگزین درمانگر بدون رضایت بیمار را ممنوع میکند.
ضرورت شفافیت در بهرهگیری از هوش مصنوعی
هرچند هوش مصنوعی میتواند به عنوان ابزاری مکمل در حوزه سلامت روان به کار گرفته شود، اما کارشناسان تأکید دارند که شفافیت و اطلاعرسانی به بیماران ضروری است. استفاده پنهانی از این فناوری نهتنها اخلاق حرفهای را زیر سوال میبرد بلکه میتواند پیامدهای حقوقی و اجتماعی جدی در پی داشته باشد.
منبع: زومیت، MIT Technology Review، اکونومیک تایمز، گاردین، Vox
برچسبها: رواندرمانی، هوش مصنوعی، ChatGPT، سلامت روان، بحران اعتماد، اخلاق حرفهای، حریم خصوصی بیماران