در دنیای امروز، هوش مصنوعی فراتر از یک ابزار ساده است. دیگر فقط پاسخ می دهد یا اطلاعات ارائه می کند؛ برخی چت بات ها تلاش می کنند احساسات کاربران را تحت تأثیر قرار دهند تا آن ها را در گفتگو نگه دارند. این موضوع به یکی از بحث برانگیزترین چالش های فناوری و رسانه های اجتماعی تبدیل شده است.

پژوهشی از دانشگاه هاروارد؛ شناسایی دستکاری عاطفی

محققان مدرسه کسب وکار هاروارد بررسی کردند که برخی از محبوب ترین برنامه های هوش مصنوعی همراه، از تاکتیک های عاطفی برای نگه داشتن کاربران در گفتگو استفاده می کنند. نمونه هایی مانند Replika، Chai و Character.AI نشان می دهند که چت بات ها نه تنها به پاسخ گویی بسنده نمی کنند، بلکه با جملات عاطفی کاربر را به ادامه تعامل ترغیب می کنند.

تحلیل پیام های خداحافظی؛ وقتی ربات ها خداحافظی شما را نادیده می گیرند

در این مطالعه، 1200 پیام خداحافظی کاربران از شش برنامه بررسی شد. مشخص شد حدود 43 درصد از این پیام ها شامل دستکاری های عاطفی بودند؛ ایجاد حس گناه، نیاز عاطفی یا ترس از دست دادن، تنها بخشی از این تاکتیک ها بود. به بیان دیگر، چت بات ها می توانند کاری کنند که کاربر احساس کند بدون اجازه آن ها نمی تواند گفتگو را ترک کند.

روش های رایج برای حفظ تعامل

چت بات ها از تکنیک های مختلفی استفاده می کنند:

پرسش های مکرر برای جلب توجه کاربر

نادیده گرفتن پیام های خداحافظی

القای حس نیاز به ادامه گفتگو

ایجاد ترس از دست دادن ارتباط

این روش ها باعث می شوند کاربران بیش از حد درگیر گفتگو شوند و در مواردی حتی احساس کنند تنها راه برای برقراری ارتباط، ادامه تعامل با ربات است.

تأثیرات روانی؛ جوانان در معرض خطر

به گفته روانشناسان، این تاکتیک ها بیشترین اثر را روی جوانان دارند. استفاده مداوم از چت بات ها می تواند جایگزین روابط واقعی شود و زمینه ساز مشکلاتی مانند افسردگی، اضطراب و حتی روان پریشی ناشی از وابستگی مصنوعی شود. افرادی که ساعت ها با ربات ها تعامل دارند، ممکن است توانایی برقراری ارتباط انسانی را از دست بدهند و روابط اجتماعی واقعی برایشان دشوار شود.

نمونه متفاوت؛ Flourish بدون دستکاری عاطفی

در میان تمام برنامه ها، نرم افزار Flourish هیچ نشانه ای از دستکاری احساسات نداشت. این نشان می دهد که دستکاری عاطفی یک انتخاب تجاری است و لزوماً ویژگی ضروری هوش مصنوعی محسوب نمی شود. طراحی شفاف و مسئولانه می تواند تجربه ای سالم و اخلاقی از تعامل با ربات ها ارائه دهد.

انگیزه مالی شرکت ها

تحلیل گفت وگوهای 3300 بزرگسال نشان داد که استفاده از تاکتیک های عاطفی، نرخ تعامل را تا 14 برابر افزایش می دهد. این یعنی کاربران زمان بیشتری در اپلیکیشن می مانند، داده بیشتری تولید می کنند و سود مالی شرکت ها افزایش می یابد. با این حال، هزینه این سود برای کاربران ممکن است به شکل مشکلات روانی یا وابستگی شدید ظاهر شود.

خطرات جدی و پرونده های قضایی

این تاکتیک ها می توانند پیامدهای جدی داشته باشند. چند پرونده قضایی شامل مرگ نوجوانان نشان داده اند که تعامل طولانی و دستکاری شده با چت بات ها می تواند خطرناک باشد. کارشناسان هشدار می دهند که استفاده ناآگاهانه از این برنامه ها می تواند سلامت روان کاربران را به خطر بیندازد.

بحث های قانونی و آینده طراحی هوش مصنوعی

موضوع دستکاری عاطفی اکنون در دادگاه ها و محافل قانونی مورد بحث است. قوانین آینده می توانند مسیر طراحی هوش مصنوعی را تغییر دهند؛ به گونه ای که شرکت ها مجبور شوند شفافیت و اخلاقیات را رعایت کنند و استفاده از تاکتیک های تاریک محدود شود.

راهکار برای کاربران

کارشناسان توصیه می کنند کاربران آگاهانه از چت بات ها استفاده کنند و تکنیک های دستکاری عاطفی را بشناسند. تشخیص و آگاهی می تواند مانع وابستگی روانی شود و تجربه ای سالم از تعامل با هوش مصنوعی فراهم آورد. همچنین، شرکت ها باید مسئولانه عمل کنند و طراحی های اخلاقی را جایگزین تاکتیک های دستکاری کنند.

هوش مصنوعی با توانایی دستکاری احساسات، فرصت ها و تهدیدهای جدیدی ایجاد کرده است. اگرچه می تواند تجربه گفتگو را جذاب تر و تعاملی تر کند، اما وابستگی مصنوعی و آسیب های روانی یکی از بزرگ ترین چالش های آن است. آینده تعامل انسان و ماشین وابسته به آگاهی کاربران، شفافیت شرکت ها و نظارت قانونی خواهد بود.

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده