اخبار هوش مصنوعی

مدیرعامل « OpenAI»: گفتگو‌ی شما با چت‌بات‌های هوش مصنوعی ممکن است روزی علیه شما در دادگاه استفاده شود

هشدار تازه سم آلتمن درباره خطرهای ناگفته تعامل با هوش مصنوعی

در بیانیه‌ای که نگاه‌ها را به سمت حریم خصوصی در عصر هوش مصنوعی برگرداند، سم آلتمن، مدیرعامل شرکت OpenAI، اعلام کرد:

مکالمات کاربران با چت‌بات‌هایی مانند ChatGPT ممکن است در شرایط خاص، به عنوان مدرک قانونی در دادگاه‌ها مورد استفاده قرار گیرد.

او در «اجلاس سیاست فناوری ۲۰۲۵» تاکید کرد که بسیاری از مردم بی‌احتیاط، اطلاعات شخصی یا حتی محرمانه خود را با چت‌بات‌ها در میان می‌گذارند، در حالی که نمی‌دانند این مکالمات می‌توانند ذخیره شوند و تحت درخواست قانونی، قابل ارائه به نهادهای قضایی باشند.

چت با هوش مصنوعی هم می‌تواند ردپا داشته باشد

آلتمن صریح کرد:«چت‌های شما با هوش مصنوعی هم درست مثل ایمیل یا پیامک، سوابق دیجیتالی هستند که می‌توانند به عنوان مدرک احضار شوند.»

این سخنان، ذهن بسیاری را درگیر کرده؛ چون کاربران معمولاً چت‌بات‌ها را ابزاری موقتی، شخصی و امن تصور می‌کنند؛ چیزی که ظاهراً همیشه درست نیست.

چرا ممکن است از حرف‌های شما در دادگاه استفاده شود؟

در دنیای امروز، پیام‌های دیجیتال یکی از منابع اصلی مدارک قضایی‌اند. حالا با رشد استفاده از هوش مصنوعی، پای چت‌بات‌ها هم به این فضا باز شده است.

اگر گفت‌وگوی شما با ChatGPT مرتبط با یک پرونده حقوقی تشخیص داده شود، دادگاه می‌تواند از OpenAI بخواهد متن آن را ارائه دهد — همان‌طور که برای تلفن و ایمیل چنین کاری می‌شود.

سیاست حریم خصوصی چه می‌گوید؟

بر اساس سیاست‌های رسمی OpenAI، داده‌های کاربران ممکن است برای آموزش مدل‌های هوش مصنوعی، بهبود کیفیت و حفظ ایمنی ذخیره شوند.

اما مهم‌تر این است که این شرکت در صورت دریافت درخواست قانونی رسمی، موظف به همکاری با مقامات قضایی خواهد بود.

چطور از اطلاعات‌مان محافظت کنیم؟

اگر از چت‌بات‌ها استفاده می‌کنید، این توصیه‌ها را جدی بگیرید:

– از به اشتراک‌گذاری اطلاعات خیلی شخصی یا حساس خودداری کنید

– فرض را بر این بگذارید که چت‌ها قابل بازیابی‌اند

– سیاست‌های حریم خصوصی را کامل بخوانید

– تنظیمات حریم خصوصی موجود را فعال کنید

لینا مورالس، کارشناس حوزه داده، می‌گوید: «هیچ ارتباط دیجیتالی کاملاً خصوصی نیست. کاربران باید این واقعیت را بپذیرند و بر اساس آن رفتار کنند.»

 هوش مصنوعی بی‌خطر نیست، اگر بی‌احتیاط باشید

هشدار سم آلتمن ساده است اما مهم: هر چیزی که در چت با هوش مصنوعی می‌نویسید، ممکن است در آینده مقابل‌تان قرار بگیرد — حتی در دادگاه.در جهانی که گفت‌وگوهای‌مان دیجیتالی شده‌اند، حریم خصوصی دیگر فقط یک حق نیست؛ یک مسئولیت شخصی است.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *