هوش مصنوعی گوگل یعنی Gemini، یکی از پیشرفته ترین مدل های زبانی دنیا، قربانی حمله ای شد که خودش عامل آن بود! این اتفاق توسط محققان دانشگاه UC سن دیگو و ویسکانسین کشف شد و نشان داد که حتی پیچیده ترین سیستم های هوش مصنوعی هم آسیب پذیر هستند!

چطور این هک اتفاق افتاد؟

محققان از روشی جدید به نام "Fun-Tuning" استفاده کردند. این تکنیک از داده های بی معنی و مخرب برای دور زدن مکانیزم های امنیتی مدل استفاده می کند.

 در این روش، محققان بدون تغییر مستقیم مدل، فقط با ارسال درخواست های خاص، Gemini را وادار کردند که اطلاعاتی را فاش کند یا پاسخ های اشتباه تولید کند!
 این نوع حمله با دستکاری داده های ورودی، کنترل غیرمستقیمی روی خروجی های هوش مصنوعی ایجاد می کند و باعث می شود مدل، جواب هایی بدهد که نباید تولید شوند!

 چرا این موضوع نگران کننده است؟

این کشف یک زنگ خطر جدی برای امنیت هوش مصنوعی محسوب می شود، زیرا:
 نشان می دهد حتی پیشرفته ترین مدل های هوش مصنوعی هم فریب پذیرند!
 می تواند به نشت اطلاعات حساس، انتشار محتوای نادرست و سوءاستفاده از سیستم های هوشمند منجر شود!
 ثابت می کند که مدل های زبانی با وجود فیلترهای امنیتی، همچنان در برابر حملات خاص آسیب پذیرند!

 آیا گوگل این مشکل را حل کرده است؟

 پس از انتشار این تحقیق، گوگل اعلام کرده که در حال بررسی و بهبود امنیت Gemini است تا جلوی چنین حملاتی را بگیرد.
 اما کارشناسان می گویند احتمال وقوع حملات مشابه روی سایر مدل های هوش مصنوعی نیز وجود دارد!

حمله Fun-Tuning به Gemini نشان می دهد که حتی قدرتمندترین مدل های هوش مصنوعی نیز می توانند دستکاری شوند. این موضوع نگرانی های زیادی درباره امنیت، حریم خصوصی و نحوه استفاده از هوش مصنوعی در آینده ایجاد کرده است.

نظر شما درباره این حمله چیست؟ آیا فکر می کنید این نوع تهدیدات در آینده بیشتر خواهند شد؟

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده