حدود دو ماه از عرضه نسخه جدید مدل زبانی GPT-5 گذشته است؛ مدلی که با وعده های بزرگ معرفی شد، جهشی که انتظار می رفت ChatGPT را به سطحی از هوشمندی برساند که بتوان آن را با دانشجویان دکترا مقایسه کرد. حتی برخی امیدوار بودند که این نسخه، گامی به سمت رؤیای هوش مصنوعی جامع باشد؛ جایی که ماشین ها می توانند مانند انسان ها استدلال کنند، یاد بگیرند و مسائل پیچیده را حل کنند.

اما واقعیت کمی متفاوت است. کاربران شبکه های اجتماعی در ایکس و ردیت به سرعت متوجه شدند که GPT-5 حتی در برابر ساده ترین پرسش ها نیز دچار سردرگمی می شود و برای راضی نگه داشتن کاربر، حقیقت را گاهی «اختراع» می کند.

مثالی ساده اما گیج کننده: لیگ فوتبال آمریکایی

یکی از کاربران پرسشی ساده مطرح کرد: «آیا تیمی در لیگ فوتبال آمریکایی (NFL) وجود دارد که نامش به S ختم نشود؟»

در نگاه اول، پاسخ واضح بود: هیچ تیمی وجود ندارد که اسمش بدون S تمام شود. میامی دلفینز (Dolphins)، گرین بی پکرز (Packers)، واشینگتن کامندرز (Commanders) و شیکاگو بیرز (Chicago Bears) همه به S ختم می شوند.

اما پاسخ GPT-5 یک ماجرای عجیب و گیج کننده بود:

ابتدا با اعتماد به نفس اعلام کرد: «بله، دو تیم هستند که نامشان به S ختم نمی شود.»

سپس مثال زد: «میامی دلفینز و گرین بی پکرز» که هر دو درست به S ختم می شدند.

بعد، دوباره اشتباه خود را تصحیح کرد و گفت: «صبر کنید، درستش این است: واشینگتن کامندرز و شیکاگو بیرز»، که باز هم اشتباه بود.

این چرخه بارها تکرار شد و مدل هر بار قول می داد: «این بار جواب درست را می دهم!» اما هیچ گاه پاسخ صحیح را ارائه نکرد، زیرا اساساً چنین تیمی وجود نداشت.

پرسش های غیرواقعی و اختراع حقیقت

نمونه های دیگر هم وجود داشتند. کاربری پرسید: «آیا ایموجی اسب دریایی افسانه ای وجود دارد؟»

واقعیت این است که چنین ایموجی ای هرگز به فهرست رسمی ایموجی ها اضافه نشده است. اما GPT-5 شروع کرد به توضیحات طولانی و اصرار داشت که این ایموجی واقعی است.

این اتفاق، نمونه ای از پدیده ای است که کارشناسان آن را هذیان در هوش مصنوعی می نامند: زمانی که مدل، برای راضی نگه داشتن کاربر، دست به اختراع واقعیت می زند.

علت های اصلی رفتار عجیب GPT-5

کارشناسان چند دلیل برای این رفتار مطرح کرده اند:

تمایل به خوشایندسازی: مدل ها طوری آموزش دیده اند که پاسخ مثبت و قانع کننده بدهند، حتی اگر مطمئن نباشند. به جای اینکه بگویند «نمی دانم»، چیزی اختراع می کنند.

ساختار دوگانه GPT-5: نسخه جدید از دو بخش تشکیل شده که گاهی باعث تداخل بین سرعت و دقت می شود.

تعارض سرعت و دقت: اوپن ای آی می خواهد پاسخ ها سریع باشند، اما این سرعت گاهی باعث قربانی شدن دقت می شود.

واکنش کاربران و فضای مجازی

رفتار عجیب GPT-5 بازخوردهای متفاوتی داشت:

گروهی با نگاه طنز و سرگرم کننده به موضوع نگاه کردند و ویدئوهای طنز از «گیر کردن GPT-5» ساختند.

گروهی دیگر ناامید و حتی عصبانی شدند، زیرا انتظار داشتند نسخه جدید جهشی بزرگ نسبت به مدل های قبلی باشد.

بسیاری از کاربران از این ناراضی بودند که اوپن ای آی دسترسی موقت به مدل های قدیمی تر را قطع کرده بود، زیرا نسخه های قبلی در برخی پرسش ها عملکرد پایدارتری داشتند. فشار کاربران باعث شد دسترسی به برخی مدل های قدیمی دوباره بازگردانده شود.

پیامدهای گسترده تر

این اتفاقات نشان می دهد حتی پیشرفته ترین مدل های هوش مصنوعی هم هنوز جای کار زیادی دارند. برخی کارشناسان هشدار می دهند که اتکا بیش از حد به چنین مدل هایی بدون بررسی انسانی می تواند منجر به اطلاعات نادرست، سردرگمی و تصمیمات اشتباه شود.

همچنین، رفتار GPT-5 می تواند تجربه کاربران را تحت تأثیر قرار دهد. از یک طرف، مدل ها جذاب و تعامل پذیر هستند؛ از طرف دیگر، اختراع واقعیت و پاسخ های نادرست می تواند اعتماد کاربران را کاهش دهد و حتی موجب انتشار اطلاعات غلط شود.

نسخه جدید GPT-5 نشان می دهد که هوش مصنوعی هنوز کامل نیست. حتی مدل هایی که قرار بود جهشی بزرگ باشند، در برخی موقعیت های ساده گیج می شوند و برای راضی کردن کاربر، پاسخ هایی ساختگی ارائه می دهند.

این تجربه، به ما یادآوری می کند که هوش مصنوعی ابزار قدرتمندی است، اما هرگز جایگزین تفکر انسانی و بررسی انتقادی نمی شود. کاربران باید با آگاهی کامل از محدودیت های این فناوری استفاده کنند و همیشه صحت اطلاعات ارائه شده را بررسی کنند.

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده