
افزایش حملات سایبری با استفاده از مدل های زبانی
در گزارش اخیر OpenAI، این شرکت تأیید کرده که مدل های زبانی مولد مثل ChatGPT توسط هکرها برای طراحی و اجرای حملات سایبری مورد استفاده قرار گرفته اند. این حملات شامل فیشینگ هدفمند و سایر فعالیت های مخرب بوده و نشان می دهد که تکنولوژی هوش مصنوعی می تواند در دست مهاجمان ابزاری خطرناک باشد.
حملات فیشینگ طراحی شده توسط ChatGPT
براساس گزارش ها، در طی چند ماه اخیر بیش از 20 حمله سایبری مختلف با استفاده از ChatGPT ثبت شده است. یکی از این حملات، توسط هکرهای مقیم ایران انجام شده که از این مدل های زبانی برای شناسایی آسیب پذیری های سیستم عامل macOS و سرقت رمزعبور کاربران بهره برده اند.

فعالیت های مخرب در چین و ایران
در این گزارش به نقش هکرهای چینی و ایرانی در استفاده از ChatGPT برای اجرای حملات سایبری اشاره شده است. هکرها با استفاده از قابلیت های پیشرفته این مدل های زبانی، حملات فیشینگ با دقت بالایی را برنامه ریزی کرده اند. این امر نگرانی های جدیدی را درباره نحوه استفاده غیرقانونی از هوش مصنوعی مولد برانگیخته است.
اقدامات مقابله ای OpenAI
با وجود این چالش ها، OpenAI اعلام کرده که در حال همکاری با شرکت های امنیتی و دولت ها برای مقابله با سوءاستفاده های احتمالی از تکنولوژی هوش مصنوعی است. این شرکت در حال توسعه مکانیزم های جدیدی است تا از استفاده مخرب از مدل های زبانی خود جلوگیری کند.
چالش های آینده در زمینه امنیت سایبری و هوش مصنوعی
این حوادث نشان دهنده چالش های امنیتی بزرگی است که تکنولوژی های جدید مثل هوش مصنوعی می توانند ایجاد کنند. همچنان که مدل های زبانی پیشرفته تر می شوند، نیاز به راهکارهای امنیتی برای جلوگیری از سوءاستفاده های احتمالی نیز بیشتر احساس می شود.
ثبت یک نظر