هوش مصنوعی در قلب سیاست گذاری های سوئد

اولف کریسترسون، نخست وزیر سوئد، با اذعان به استفاده از ابزارهای هوش مصنوعی مانند ChatGPT برای دریافت «نظر دوم» در تصمیم گیری های دولتی، موجی از واکنش های تند را در فضای سیاسی و رسانه ای این کشور برانگیخت. این اقدام باعث شده بسیاری از منتقدان بپرسند: چه زمانی AI به یکی از تصمیم سازان دولت تبدیل شده و چرا هیچ کس به آن رأی نداده است؟

ChatGPT؛ مشاور بدون رأی در دولت سوئد

نخست وزیر در سخنانی اعلام کرد که از چت بات هوش مصنوعی برای تحلیل برخی موضوعات و دریافت دیدگاه های جایگزین استفاده کرده است. او مدعی شد این ابزار می تواند به تفکر متفاوت و دید همه جانبه کمک کند. با این حال، منتقدان معتقدند چنین تصمیمی نشان دهنده نادیده گرفتن مسئولیت انسانی در سطح عالی ترین نهاد اجرایی کشور است.

واکنش تند رسانه های سوئدی به وابستگی سیاسی به AI

روزنامه مشهور آفتونبلادت در گزارشی تند این حرکت را «تسلیم شدن در برابر روان پریشی هوش مصنوعی الیگارش ها» توصیف کرد. این روزنامه همچنین از خطر نفوذ شرکت های فناوری در فرآیندهای تصمیم گیری سیاسی ابراز نگرانی کرده است. از دید آن ها، وابستگی به پلتفرم های غیرشفاف مانند ChatGPT، استقلال فکری دولت را به چالش می کشد.

زنگ خطر از سوی کارشناسان فناوری و امنیت

سیمون فیشر هوبنر، کارشناس امنیت سایبری، هشدار داده که استفاده از ابزارهای هوش مصنوعی در نهادهای حکومتی ممکن است امنیت ملی را به خطر بیندازد. او تأکید کرد که این ابزارها توسط شرکت های خارجی توسعه داده شده اند و امکان سوءاستفاده از اطلاعات حساس وجود دارد. در شرایطی که اطلاعات حیاتی در اختیار الگوریتم های خارجی قرار می گیرد، حریم خصوصی شهروندان نیز با تهدید جدی مواجه می شود.

تحلیل سیاسی با طعم الگوریتم؟ نه، متأسفانه بازتاب دیدگاه سازنده است

ویرجینیا دیگنوم، استاد دانشگاه در حوزه هوش مصنوعی، در مصاحبه ای اعلام کرد که ChatGPT فاقد استقلال تحلیلی است. او توضیح داد این مدل ها تنها بازتابی از داده هایی هستند که با آن آموزش دیده اند. بنابراین نمی توان آن ها را به عنوان مشاوران بی طرف در سیاست یا تحلیل های اجتماعی در نظر گرفت.

از ابزار به بازیگر؛ جایگاه نگران کننده هوش مصنوعی در ساختار قدرت

منتقدان داخلی هشدار داده اند که اگر استفاده از هوش مصنوعی در سیاست به صورت بی ضابطه ادامه یابد، این فناوری از یک ابزار ساده به یک بازیگر غیررسمی قدرت تبدیل خواهد شد. این تغییر می تواند دموکراسی را تهدید کند، چرا که تصمیم سازان واقعی در سایه الگوریتم ها پنهان می شوند.

در شبکه های اجتماعی، بسیاری از شهروندان سوئدی با هشتگ هایی مانند #NoVoteForAI و #AIinPolitics مخالفت خود را با استفاده سیاسی از هوش مصنوعی اعلام کردند. آن ها معتقدند که سیاست باید انسانی باقی بماند و ابزارهای فناورانه نباید به جای تحلیل انسانی بنشینند. یکی از کاربران در توییتر نوشت: «اگر قرار بود به ChatGPT رأی بدهیم، آن را در برگه رأی می دیدیم.»

این ماجرا دوباره مسئله شفافیت در استفاده از فناوری در دولت ها را برجسته کرده است. نبود نظارت مستقل بر استفاده از هوش مصنوعی در دولت، می تواند منجر به تصمیم هایی شود که نه تنها مردم را از فرایندهای سیاست گذاری دور می کند، بلکه کنترل آینده را نیز به الگوریتم ها واگذار می کند.

 چه کسی مسئول تصمیمات الگوریتمی خواهد بود؟

یکی از چالش های اصلی، موضوع مسئولیت پذیری است. اگر تصمیمی اشتباه بر پایه تحلیل یک مدل AI گرفته شود، چه کسی پاسخ گو خواهد بود؟ نخست وزیر؟ برنامه نویس؟ یا خود الگوریتم؟ این گونه پرسش ها اکنون در کانون بحث های سیاسی و حقوقی در سوئد قرار گرفته اند.

استفاده از فناوری های نو در سیاست، در صورتی که با شفافیت، نظارت و چارچوب های اخلاقی همراه نباشد، می تواند به یک بحران اجتماعی تبدیل شود. بی اعتمادی به ساختار حکمرانی، در دورانی که مردم انتظار پاسخ گویی شفاف دارند، بسیار پرهزینه خواهد بود.

فناوری همیشه ابزار بوده است؛ اما تبدیل شدن آن به بازیگر سیاسی، نیازمند بازنگری در قوانین و ساختارهای نظارتی است. آنچه اکنون در سوئد رخ داده، شاید هشداری باشد برای دیگر کشورهایی که به سمت بهره گیری از هوش مصنوعی در سیاست می روند.

در دنیایی که قدرت تحلیل و سرعت پردازش، جای تفکر و تجربه را می گیرد، این مردم هستند که باید انتخاب کنند. آیا تصمیمات آینده را به مدل های یادگیری ماشینی واگذار خواهیم کرد؟ یا همچنان صدای انسان، معیار سیاست باقی خواهد ماند؟

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده