شرکت OpenAI در تازه ترین اقدام خود، محدودیت های جدیدی برای ChatGPT اعمال کرده است که به موجب آن، این چت بات دیگر مجاز به ارائه ی توصیه های مستقیم در زمینه های پزشکی، حقوقی و مالی نخواهد بود. این تصمیم در ادامه ی سیاست های شفاف سازی و ایمنی هوش مصنوعی اتخاذ شده و به طور خاص، با هدف جلوگیری از وابستگی کاربران به تصمیم گیری های حساس توسط AI صورت گرفته است.

بر اساس گزارش بلومبرگ، ChatGPT از این پس به عنوان یک ابزار آموزشی و تحلیلی شناخته می شود، نه مشاور شخصی. به همین دلیل، پاسخ های مربوط به سلامت، درمان، حقوق یا دارایی صرفاً در قالب توضیح مفاهیم عمومی، تشریح ساختارها یا ارجاع به متخصصان مجاز ارائه خواهند شد.

پایان دوران «مشاوره تخصصی» توسط ChatGPT

به موجب سیاست جدید، ChatGPT دیگر نام دارو، دوز مصرف، نسخه ی درمانی یا تنظیم دادخواست را به طور مستقیم ارائه نمی کند. حتی اگر کاربر سؤال خود را به صورت فرضی یا آموزشی مطرح کند، چت بات اجازه ی دور زدن محدودیت ها از طریق سناریوهای تخیلی یا بازنویسی غیرمستقیم را ندارد.

OpenAI تأکید کرده است که این تصمیم با هدف کاهش خطر برداشت نادرست کاربران از پاسخ های تولیدی هوش مصنوعی اتخاذ شده، زیرا ChatGPT برخلاف متخصصان دارای مجوز، صلاحیت قانونی یا مسئولیت حرفه ای در این زمینه ها ندارد.

افزون براین، مکالمات کاربران با ChatGPT از منظر حقوقی و اخلاقی فاقد محرمانگی رابطه ی پزشک-بیمار یا وکیل-موکل هستند و می توانند در صورت لزوم به عنوان داده ی قابل استناد در پرونده های قضایی مورد بررسی قرار گیرند.

تمرکز بر ایمنی و سلامت روان کاربران

OpenAI در ماه های اخیر اقداماتی را برای افزایش سطح ایمنی روانی و اجتماعی ChatGPT انجام داده است. این شرکت اعلام کرده که الگوریتم های جدید چت بات برای شناسایی مکالمات حساس مانند افکار خودکشی، روان پریشی یا بحران های اضطراری بهبود یافته اند و در چنین شرایطی کاربر را به مراکز پشتیبانی و خدمات انسانی مرتبط هدایت می کند.

به گفته ی سخنگوی شرکت، ChatGPT «ابزاری برای درک، نه درمان» است. به عبارتی، هدف از توسعه ی این سامانه، کمک به درک بهتر مفاهیم و اطلاعات است، نه جایگزینی متخصصان بالینی یا حقوقی.

ابعاد حقوقی و مسئولیت های احتمالی

منابع نزدیک به OpenAI می گویند تغییر سیاست ها در پاسخ به افزایش فشار نهادهای نظارتی و بیمه ای در آمریکا و اتحادیه ی اروپا صورت گرفته است. در ماه های اخیر، موارد متعددی از استفاده ی اشتباه کاربران از مشاوره های ChatGPT در زمینه های پزشکی و قانونی گزارش شده بود که در برخی موارد منجر به آسیب های مالی یا جسمی شده است.

به همین دلیل، OpenAI با اتخاذ رویکردی پیشگیرانه، تصمیم گرفته ChatGPT را در چارچوب «آموزش و توضیح عمومی» محدود کند و از ایفای نقش مشاور واقعی خودداری نماید.

نگاه تحلیلی: مرز باریک میان کمک و مسئولیت

کارشناسان صنعت هوش مصنوعی این اقدام را گامی محتاطانه اما ضروری می دانند. با اینکه ChatGPT توانایی بالایی در تحلیل داده ها و توضیح مفاهیم پیچیده دارد، اما نبود زمینه ی انسانی، تجربه ی بالینی و قضاوت حرفه ای می تواند موجب اشتباهات خطرناک شود.

از سوی دیگر، این تصمیم می تواند چالش هایی در تجربه ی کاربری ایجاد کند، زیرا بسیاری از افراد به چت بات به عنوان ابزاری برای تصمیم سازی در حوزه های حساس وابسته شده بودند. با این حال، OpenAI می گوید مسئولیت انسانی باید همواره در رأس تصمیم گیری های حیاتی باقی بماند.

سیاست های جدید OpenAI در قبال ChatGPT نشانه ای از بلوغ و مسئولیت پذیری فزاینده در صنعت هوش مصنوعی است. از این پس، ChatGPT صرفاً نقش یک دستیار آموزشی و تحلیلی را ایفا می کند و کاربران برای دریافت هرگونه توصیه ی تخصصی باید به متخصصان دارای مجوز مراجعه کنند.

این تغییر رویکرد نشان می دهد که حتی پیشرفته ترین هوش مصنوعی جهان نیز نمی تواند جایگزین دانش، تجربه و مسئولیت انسانی در تصمیم گیری های حیاتی شود.

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده