
گوگل اخیراً یکی از مهم ترین بندهای سیاست های اخلاقی خود درباره هوش مصنوعی را حذف کرده است! این بند که پیش تر اعلام می کرد گوگل از فناوری AI برای ساخت سلاح و توسعه ابزارهای نظامی استفاده نخواهد کرد، اکنون دیگر در سیاست های رسمی این شرکت دیده نمی شود.
این اقدام می تواند نشانه ای از ورود گوگل به حوزه هوش مصنوعی نظامی باشد، موضوعی که پیش از این بحث های زیادی در مورد آن وجود داشته است.
چرا گوگل این تغییر را ایجاد کرده؟
▪️ مقامات گوگل می گویند کشورهای دموکراتیک باید سردمدار توسعه هوش مصنوعی باشند و این فناوری برای امنیت ملی ضروری است.
▪️ این تغییر می تواند به همکاری های نظامی و امنیتی بیشتر گوگل با دولت ها و سازمان های دفاعی منجر شود.
▪️ حذف این بند به گوگل آزادی عمل بیشتری برای ورود به پروژه های پیشرفته دفاعی می دهد.
نگرانی ها درباره ورود AI به حوزه نظامی
مارگارت میچل، از مدیران سابق تیم هوش مصنوعی اخلاقی گوگل، درباره این تغییر هشدار داده است:
"حذف این بند به این معنی است که گوگل دیگر مشکلی با توسعه فناوری هایی که منجر به کشته شدن انسان ها می شوند، ندارد!"
بسیاری از کارشناسان هوش مصنوعی نگرانند که ورود شرکت های فناوری بزرگ به صنعت تسلیحات، به رقابت تسلیحاتی AI و افزایش درگیری های نظامی منجر شود.
آینده هوش مصنوعی نظامی چگونه خواهد بود؟
با توجه به این تغییر، گوگل ممکن است در پروژه های مرتبط با پهپادهای خودران، جنگ افزارهای هوشمند، تحلیل های نظامی مبتنی بر AI و حتی سلاح های خودمختار نقش داشته باشد.
این موضوع می تواند تأثیر زیادی روی تعادل قدرت در جهان داشته باشد، به خصوص که سایر کشورها مانند چین و روسیه نیز در حال توسعه سیستم های نظامی مبتنی بر AI هستند.
برخی کارشناسان بر این باورند که نبود نظارت بین المللی روی توسعه هوش مصنوعی نظامی می تواند در آینده منجر به بحران های غیرقابل کنترل شود.
نظر شما چیست؟ آیا گوگل باید در حوزه نظامی فعالیت کند؟ یا این کار خطرناک است؟
ثبت یک نظر