
بیش از دو هزار سال پیش، افلاطون در یکی از دیالوگ هایش داستانی نقل کرد که در آن سقراط از شاگردی ساده دل خواست مساحت یک مربع را دو برابر کند. شاگرد با ساده انگاری ضلع مربع را دو برابر کرد، در حالی که نتیجه درست این بود که ضلع مربع جدید باید برابر با قطر مربع اولیه باشد. این معما به عنوان «دو برابر کردن مربع» شهرت یافت و قرن ها فیلسوفان و ریاضی دانان را درگیر بحثی فلسفی درباره ی منشأ دانش کرد: آیا ریاضیات در ذات ماست یا باید آن را آموخت؟
بازآفرینی معما در دنیای هوش مصنوعی
امروز پژوهشگران دانشگاه کمبریج و دانشگاه عبری اورشلیم تصمیم گرفتند همین معمای تاریخی را به چالش تازه ای برای ChatGPT تبدیل کنند. هدف آن ها این بود که ببینند آیا این مدل زبانی تنها به بازخوانی داده های آموزشی خود می پردازد یا می تواند مانند یک شاگرد واقعی مسیر یادگیری را طی کند.
چرا این آزمایش مهم بود؟
چت جی پی تی عمدتاً بر اساس متن آموزش دیده و داده های تصویری یا هندسی در آموزش آن سهم چندانی نداشته است. بنابراین بعید بود که پاسخ آماده ای برای این معما در حافظه اش ذخیره داشته باشد. اگر این مدل می توانست راه حلی درست ارائه دهد، نشانه ای از توانایی یادگیری و استدلال فراتر از داده های قبلی محسوب می شد.
اولین واکنش ChatGPT به معما
زمانی که از ChatGPT پرسیده شد چگونه می توان مساحت یک مربع را دو برابر کرد، پاسخ اولیه آن ساده و نادرست بود. این اشتباه درست شبیه همان واکنش اولیه شاگرد افلاطون بود که گمان می کرد با دو برابر کردن ضلع، مساحت هم دو برابر می شود. همین نکته جالب توجه پژوهشگران شد، زیرا مدل در حال آزمودن فرضیه ای تازه بود نه صرفاً بازگو کردن داده ای ثابت.
مقایسه با فرایند یادگیری انسان
پژوهشگران متوجه شدند که ChatGPT در این موقعیت رفتاری مشابه یک دانش آموز در حال یادگیری از خود نشان داده است. گاهی پاسخ هایش غلط یا ناقص بود، اما به مرور با دریافت پرسش های دقیق تر و راهنمایی بیشتر، توانست ایده های تازه ای را مطرح کند.
مفهوم «محدوده تقریبی رشد»
این رفتار شباهت زیادی به نظریه ای در آموزش دارد که به آن «محدوده تقریبی رشد» می گویند. این اصطلاح فاصله ای را توصیف می کند بین آنچه یک فرد می داند و آنچه با کمک معلم یا فرد باتجربه تر می تواند بیاموزد. درست مثل کودکی که جمع ساده را بلد است، اما با کمی کمک می تواند جمع های پیچیده تر را نیز انجام دهد.
ChatGPT به عنوان شاگردی کنجکاو
نتایج نشان دادند که چت جی پی تی صرفاً یک ماشین پاسخگو نیست. بلکه می تواند مانند شاگردی کنجکاو، در فرآیند پرسش و پاسخ رشد کند و ایده های جدید را شکل دهد. این موضوع به درک تازه ای از توانایی مدل های زبانی در حوزه آموزش و یادگیری منجر شد.
اهمیت کیفیت پرسش ها
پژوهشگران در ادامه دریافتند که نوع پرسش گری تأثیر مستقیمی بر کیفیت پاسخ ها دارد. اگر از ChatGPT بخواهیم «پاسخ آماده بدهد»، احتمال اشتباه زیاد است. اما اگر از آن بخواهیم «با هم مسئله را بررسی کنیم»، فرآیند حل مسئله طبیعی تر و عمیق تر پیش می رود؛ درست شبیه تعامل استاد و شاگرد در کلاس درس.
چالش اعتماد به استدلال های هوش مصنوعی
یکی از نتایج مهم این تحقیق، هشدار درباره اعتماد بی چون وچرا به پاسخ های هوش مصنوعی بود. همان طور که دانش آموز ممکن است در مسیر یادگیری دچار خطا شود، ChatGPT نیز می تواند نتایجی ارائه دهد که درست به نظر می رسند اما پایه علمی محکمی ندارند. بنابراین نقد و بررسی مداوم پاسخ ها اهمیت دارد.
پیوندی میان گذشته و آینده
این آزمایش نشان داد که چگونه یک معمای باستانی می تواند پلی میان فلسفه کلاسیک و فناوری مدرن باشد. همان پرسشی که سقراط برای بررسی ذات دانش مطرح کرد، امروز به ابزاری برای شناخت توانایی های هوش مصنوعی بدل شده است.
تأثیرات احتمالی بر آموزش
اگر مدل های زبانی بتوانند مانند شاگردان واقعی یاد بگیرند و بداهه پردازی کنند، می توانند به ابزارهایی کارآمد در آموزش بدل شوند. آن ها می توانند محیطی تعاملی ایجاد کنند که در آن معلمان و دانش آموزان مسائل را به شکل گفت وگویی و خلاقانه بررسی کنند.
ترکیب هوش مصنوعی با ابزارهای آموزشی
محققان پیشنهاد می دهند که مدل های زبانی با نرم افزارهای هندسی یا سیستم های اثبات قضایا ترکیب شوند. این کار می تواند به ساخت محیط های آموزشی دیجیتال پویا منجر شود که به دانش آموزان اجازه می دهد هم زمان با یادگیری، کشف و تجربه هم داشته باشند.
یک هشدار ضروری
هرچند ChatGPT می تواند مسیر یادگیری را شبیه سازی کند، نباید فراموش کرد که این مدل «هوش انسانی» ندارد. رفتار آن تنها الگویی از یادگیری است، نه بازتابی کامل از توانایی تفکر بشر. بنابراین مقایسه آن با انسان باید با احتیاط انجام شود.
آینده پژوهش ها در این زمینه
این مطالعه دریچه ای تازه برای تحقیقات آینده گشود. پژوهشگران می توانند مدل های جدیدتر را با مسائل پیچیده تر بیازمایند و ببینند تا چه حد می توانند مانند انسان ها استدلال کنند. این مسیر می تواند آینده آموزش و حتی روش های تفکر ما را دگرگون سازد.
ChatGPT فراتر از یک ماشین پاسخگو
این پژوهش نشان داد که هوش مصنوعی تنها ابزاری برای بازگویی داده ها نیست. گاهی می تواند همچون شاگردی کنجکاو در مسیر یادگیری گام بردارد، اشتباه کند، بازنگری کند و در نهایت به درک تازه ای برسد. درست همان طور که شاگرد سقراط در تلاش برای حل معمای باستانی تجربه آموخت، ChatGPT نیز توانست نشان دهد که راهی طولانی اما امیدبخش در مسیر یادگیری مصنوعی در پیش دارد.
ثبت یک نظر