
در گزارشی تازه از MIT Technology Review یک موضوع بحث برانگیز برملا شده: برخی روان درمانگرها بدون اطلاع بیمارانشان از ابزارهایی مثل ChatGPT در جلسات استفاده می کنند. این ابزارها نه تنها برای نوشتن پاسخ بلکه حتی برای انتخاب سوال بعدی هم به کار گرفته می شوند.
نمونه ای جنجالی از این ماجرا مربوط به یک بیمار 31 ساله است که متوجه شد درمانگرش حرف های او را کپی کرده و به هوش مصنوعی داده تا پاسخ تولید کند. او این تجربه را «مثل یک جدایی عجیب» توصیف کرده است. درمانگر هم بعداً اعتراف کرده که به دلیل کمبود ایده، به سراغ AI رفته است.
⚖️ این اتفاقات موجی از نگرانی اخلاقی را برانگیخته اند
. وقتی پای اعتماد در درمان وسط باشد، استفاده پنهانی از هوش مصنوعی می تواند رابطه درمانگر و بیمار را به شدت تضعیف کند. اکنون پرسش بزرگ این است: جایگاه واقعی AI در روان درمانی کجاست؟ ابزاری کمکی یا جایگزینی خطرناک برای رابطه انسانی؟
ثبت یک نظر