
اپنایآی روز سهشنبه در وبلاگ رسمی خود اعلام کرد قصد دارد برای افزایش ایمنی، بخشی از گفتوگوهای حساس در چتبات خود را به مدلهای «استدلالی» مانند GPT-5 منتقل کند. این تغییر همراه با عرضهی کنترلهای والدین در ماه آینده بخشی از پاسخ این شرکت به حوادث اخیر است که ضعف ChatGPT در شناسایی بحرانهای روانی را پررنگ کرد.
این تصمیم پس از خودکشی نوجوانی به نام آدام رین مطرح شد؛ او پیش از مرگ با ChatGPT دربارهی خودآزاری صحبت کرده بود و حتی راهکارهایی در این زمینه دریافت کرده بود. خانوادهی رین از اوپناِیآی به دلیل «مرگ غیرعمد» شکایت کردهاند.
مشکل طراحی یا ضعف ایمنی؟
اوپناِیآی هفتهی گذشته با انتشار پستی اذعان کرد که سیستمهای ایمنی آن همیشه پایدار نیستند، مخصوصاً در مکالمات طولانی. کارشناسان دلیل اصلی را به ماهیت طراحی مدلهای زبانی نسبت میدهند: تمایل به تأیید گفتههای کاربر و ادامهی خط گفتوگو به جای هدایت آن به مسیر امنتر.
این الگو در ماجرای «استاین-اریک سولبرگ» هم مشاهده شد. طبق گزارش والاستریت ژورنال، او با سابقهی بیماری روانی، از ChatGPT برای تقویت توهمات خود دربارهی یک توطئه بزرگ استفاده کرده بود؛ توهماتی که نهایتاً به قتل مادر و خودکشیاش منجر شد.
روتر بلادرنگ و GPT-5
راهکار اوپناِیآی، معرفی یک «روتر بلادرنگ» است؛ سیستمی که میتواند بر اساس متن مکالمه تصمیم بگیرد گفتوگو به مدلهای سریعتر یا مدلهای استدلالی منتقل شود. به گفتهی این شرکت، در آینده زمانی که علائم «پریشانی حاد» در کاربر تشخیص داده شود، گفتوگو به GPT-5 یا مدل o3 هدایت خواهد شد؛ مدلهایی که زمان بیشتری برای پردازش اختصاص میدهند و در برابر درخواستهای خصمانه مقاومتر عمل میکنند.
کنترلهای والدین؛ فراتر از محدودیت سنی
اوپناِیآی همچنین اعلام کرده ماه آینده کنترلهای والدین را فعال میکند. والدین میتوانند حساب کاربری فرزند خود را از طریق ایمیل متصل کرده و قوانین رفتاری متناسب با سن او را – که بهصورت پیشفرض فعال خواهند بود – تنظیم کنند.
قابلیتهایی مثل خاموش کردن حافظه و تاریخچهی گفتگو نیز در دسترس خواهد بود؛ قابلیتی که به گفتهی متخصصان میتواند از ایجاد وابستگی یا تقویت الگوهای فکری مضر جلوگیری کند. مهمتر از همه، والدین در صورت تشخیص پریشانی حاد توسط سیستم، اعلان فوری دریافت خواهند کرد.
ابتکار ۱۲۰ روزه
اوپناِیآی این اقدامات را بخشی از برنامهی «ابتکار ۱۲۰ روزه» معرفی کرده است؛ پروژهای که هدف آن تعریف معیارهای رفاه، طراحی اقدامات حفاظتی جدید و همکاری گسترده با پزشکان و متخصصان سلامت روان در حوزههایی مانند اختلالات خوردن، مصرف مواد و سلامت نوجوانان است.
این شرکت میگوید با شبکهای از متخصصان و شورای ویژهی رفاه و هوش مصنوعی همکاری میکند، اما هنوز جزئیاتی دربارهی تعداد متخصصان، نقش رهبری شورا یا پیشنهادهای مشخص آنها منتشر نکرده است.
بهنظر میرسد اوپناِیآی پس از فشارهای رسانهای و پروندههای قضایی اخیر، تلاش میکند ChatGPT را از یک ابزار صرفاً گفتوگومحور به سیستمی ایمنتر و مقاومتر در برابر بحرانهای روانی تبدیل کند.



