امسال شرکت Air Canada در یک پرونده حقوقی شکست خورد. این شرکت هواپیمایی به دلیل اینکه یک چت بات هوش مصنوعی، مشتری را گمراه کرده بود و به او گفته بود که بلیت های هواپیما قابل بازپرداخت هستند، مجبور به پرداخت غرامت شد. این اتفاق باعث شد که موضوع مسئولیت شرکت ها در قبال مدل های هوش مصنوعی بیشتر از قبل مطرح شود.

هوش مصنوعی، به ویژه مدل های تولیدی آن، همواره با ترس و امید در دنیای کسب وکارها مواجه بوده است. این فناوری می تواند بهره وری را به طرز چشمگیری افزایش دهد و باعث سرعت بیشتر در انجام کارها شود، اما از سوی دیگر می تواند مشکلاتی مانند نارضایتی مشتریان یا حتی پرونده های حقوقی را ایجاد کند.

یکی از مشکلات رایج در هوش مصنوعی، چیزی به نام "هالوسینیشن های هوش مصنوعی" است که به اشتباهاتی اطلاق می شود که مدل های هوش مصنوعی هنگام ارائه پاسخ ها انجام می دهند؛ پاسخ هایی که نادرست، بی ربط یا حتی بی معنی هستند.

چرا اصطلاح "هالوسینیشن" درست نیست؟

تعداد این اشتباهات به اندازه ای نیست که در مقیاس وسیعی رخ دهند، اما در محیط های تجاری می تواند مشکل ساز باشد. به همین دلیل است که بسیاری از متخصصان هوش مصنوعی به اصطلاح "هالوسینیشن" انتقاد دارند. به طور ساده، این اصطلاح باعث می شود که ما تصور کنیم که مدل های هوش مصنوعی احساس یا چیزی را می بینند که وجود ندارد، در حالی که چنین چیزی اتفاق نمی افتد.

امیر آوادالله، کارشناس هوش مصنوعی، معتقد است که این اشتباهات به دلیل سوءتفاهم ما از نحوه عملکرد این مدل ها رخ می دهد. در واقع، مدل های هوش مصنوعی تنها به طور خودکار پیش بینی می کنند که کلمه بعدی باید چه باشد، نه اینکه درک یا احساس انسانی داشته باشند.

چه چیزی باعث این اشتباهات می شود؟

این اشتباهات در واقع به خاطر یک فرآیند به نام "کنفابولاسیون" رخ می دهند. مدل های هوش مصنوعی تلاش می کنند تا به هر سوالی پاسخ دهند، حتی اگر اطلاعات دقیقی در دست نداشته باشند. این باعث می شود که گاهی اطلاعاتی غلط یا نیمه تمام در پاسخ ها ظاهر شود.

"مدل های هوش مصنوعی تمایل دارند که به هر سوالی پاسخ بدهند و نمی خواهند بگویند 'نمی دانم'."

این فرآیند گاهی می تواند به اطلاعاتی بسیار باورپذیر منجر شود، که ممکن است افراد را گمراه کند. در نتیجه، لازم است که همیشه انسان ها نظارت کنند و مدل های هوش مصنوعی را ارزیابی کنند تا از اشتباهات احتمالی جلوگیری شود.

آیا می توان اشتباهات هوش مصنوعی را برطرف کرد؟

پاسخ به این سوال بستگی به نوع مدل هوش مصنوعی دارد. مدل های هوش مصنوعی که در حوزه های خاص مانند اطلاعات داخلی شرکت ها عمل می کنند، می توانند به راحتی با استفاده از سیستم های بررسی صحت اطلاعات به این مشکلات رسیدگی کنند. اما در مدل های عمومی تر مانند ChatGPT که اطلاعاتی از تمامی وب سایت ها می گیرند، این مشکلات پیچیده تر است.

آوادالله و تیمش در Vectara در حال کار روی تکنیک هایی هستند که می تواند به کاهش این اشتباهات کمک کند، به ویژه در مدل های تخصصی. البته حتی در این روش ها هم احتمال وجود اشتباهات وجود دارد.

آیا باید به هوش مصنوعی اجازه دهیم که همیشه درست باشد؟

سوالی که پیش می آید این است که آیا باید از هوش مصنوعی بخواهیم که همیشه دقیق و بی خطا باشد؟ این سوالی است که همچنان محل بحث است. ممکن است محدود کردن توانایی های هوش مصنوعی، به خصوص در زمینه های خلاقانه، مانع از استفاده کامل از این فناوری شود.

هوش مصنوعی باید به عنوان ابزاری قدرتمند در نظر گرفته شود که می تواند به ما در انجام کارها کمک کند، اما نیاز به نظارت انسانی دارد. نسبت دادن ویژگی های انسانی به هوش مصنوعی می تواند ما را در اشتباه بیندازد و باعث سوءتفاهم هایی شود که در نهایت به مشکلاتی مانند گمراه کردن مشتریان یا اشتباهات اطلاعاتی منجر شود. بنابراین، با درک بهتر این فناوری، می توانیم از مزایای آن بهره مند شویم، بدون اینکه دچار اشتباهات جدی شویم.

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده