اعتماد به هوش مصنوعی زیر سؤال

با رشد روزافزون استفاده از چت بات های هوشمند، بسیاری از کاربران به این ابزارها برای دریافت مشاوره های احساسی، روانی، تحصیلی یا حتی حقوقی مراجعه می کنند. یکی از پرکاربردترین این ابزارها ChatGPT است. اما اخیراً سم آلتمن، مدیرعامل OpenAI، هشدار داده که کاربران نباید انتظار حفظ کامل حریم خصوصی در مکالماتشان با این چت بات را داشته باشند.

هیچ قانون حمایتی در کار نیست

آلتمن در گفت وگویی با پادکست تئو وان به نبود چارچوب قانونی مشخص برای محافظت از حریم خصوصی مکالمات کاربران با هوش مصنوعی اشاره کرد. او تأکید کرد که برخلاف تعاملات با پزشک، روان درمانگر یا وکیل که توسط قانون حمایت می شود، صحبت های شما با ChatGPT مشمول چنین محرمانگی قانونی نیست.

اطلاعات شما می تواند در دادگاه استفاده شود

موضوع نگران کننده تر این است که در صورت وقوع پرونده های قضایی، داده های شما که در گفت وگو با ChatGPT ثبت شده اند، می توانند به عنوان مدرک در دادگاه استفاده شوند. این مسئله به ویژه زمانی اهمیت پیدا می کند که کاربران موضوعاتی حساس یا شخصی را با ربات در میان می گذارند؛ موضوعاتی که تصور می کنند کاملاً محرمانه باقی می ماند.

داده ها چطور استفاده می شوند؟

OpenAI اعلام کرده که چت های کاربران در حالت رایگان تا 30 روز نگه داری می شوند، اما در شرایط خاص ممکن است مدت زمان طولانی تری ذخیره گردند. هدف از این ذخیره سازی، هم بهبود عملکرد مدل هوش مصنوعی و هم بررسی موارد سوءاستفاده است. بنابراین، حتی اگر گفت وگویی حذف شده به نظر برسد، احتمال بازیابی و بررسی آن در پشت صحنه وجود دارد.

تفاوت بزرگ با پیام رسان های رمزنگاری شده

یکی از نگرانی های اصلی کاربران، مقایسه این وضعیت با اپلیکیشن هایی مثل واتساپ یا سیگنال است که ارتباط ها را به صورت سرتاسری رمزنگاری می کنند و حتی خود شرکت سازنده هم به آن ها دسترسی ندارد. اما در مورد ChatGPT و دیگر چت بات ها، شرکت سازنده به طور بالقوه به تمام مکالمات دسترسی دارد و می تواند آن ها را بخواند یا در شرایط خاص در اختیار نهادهای قانونی بگذارد.

افزایش هشدارها در سراسر جهان

نگرانی درباره ی حریم خصوصی تنها به آلتمن ختم نمی شود. مقامات کشورهای مختلف، ازجمله جمهوری چک، هشدار داده اند که هوش مصنوعی های جدید با قابلیت های پیشرفته، مانند فناوری های دیپ فیک یا چت بات های بدون نظارت دقیق، می توانند اطلاعات کاربران را به راحتی استخراج کرده و حتی در اختیار دولت های خارجی مثل چین قرار دهند.

راهکار چیست؟ کاربران چه باید بکنند؟

در حال حاضر بهترین راهکار، آگاهی و احتیاط است. کاربران باید بدانند که هیچ گونه تضمینی برای محرمانگی کامل گفت وگوهایشان با چت بات ها وجود ندارد، به خصوص زمانی که از نسخه های رایگان استفاده می کنند. توصیه می شود از مطرح کردن اطلاعات شخصی، حقوقی یا عاطفی مهم در این پلتفرم ها خودداری شود تا در آینده دچار مشکل نشوند.

رقابت در مسیر حفظ حریم خصوصی

در پاسخ به این نگرانی ها، برخی شرکت ها در حال توسعه ی چت بات هایی هستند که به طور ویژه روی امنیت و حریم خصوصی تمرکز دارند. این محصولات ممکن است در آینده بتوانند اعتماد کاربران را بیشتر جلب کنند و استانداردهای جدیدی برای تعامل با هوش مصنوعی تعریف نمایند.

آینده چگونه خواهد بود؟

با گسترش کاربردهای هوش مصنوعی، انتظار می رود قانون گذاران نیز به سرعت وارد عمل شوند و قوانین مشخصی برای محافظت از کاربران تصویب کنند. تا آن زمان، کاربران باید با هوشیاری بیشتری از ابزارهایی مثل ChatGPT استفاده کنند.

0 نظر ثبت شده

ثبت یک نظر

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی مشخص شده اند *

0 نظر ثبت شده