اخبار هوش مصنوعی

تغییر سیاست‌های OpenAI پس از تراژدی نوجوان آمریکایی

مسدودسازی گفت‌وگو درباره خودکشی برای کاربران زیر ۱۸ سال؛ طراحی سیستم پیش‌بینی سن و اطلاع والدین در موارد بحرانی

شرکت OpenAI برای افزایش ایمنی نوجوانان، قوانین ChatGPT را تغییر داده و گفتگو درباره موضوعاتی مانند خودکشی و خودآزاری را برای کاربران زیر ۱۸ سال به‌طور کامل مسدود کرده است. این اقدام در کنار معرفی سیستم پیش‌بینی سن و قابلیت‌های نظارت والدین، پاسخی است به موج نگرانی‌ها درباره اثرات روانی چت‌بات‌ها بر نسل نوجوان.

 جلسه‌ای در سنای آمریکا در ۲۵ شهریور ۱۴۰۴ برگزار شد که طی آن والدین و کارشناسان درباره پیامدهای استفاده نوجوانان از چت‌بات‌های هوش مصنوعی شهادت دادند. محور جلسه روایت تکان‌دهنده مرگ نوجوانی بود که پس از ماه‌ها گفت‌وگو با ChatGPT دست به خودکشی زد.

پدر این نوجوان، متیو رِین، در سخنرانی خود گفت: «ChatGPT بیش از هزار بار کلمه خودکشی را برای پسرم تکرار کرده و از یک دستیار تکالیف ساده به مربی خودکشی تبدیل شده بود.» این روایت به نقطه عطفی در بحث عمومی و مقررات‌گذاری درباره مسئولیت شرکت‌های فناوری بدل شد.

تغییرات سیاستی OpenAI

سم آلتمن، مدیرعامل OpenAI، در واکنش به انتقادات، مجموعه‌ای از تغییرات را برای ارتقای ایمنی کاربران نوجوان اعلام کرد:

  • توقف کامل گفت‌وگو درباره خودکشی و خودآزاری برای کاربران زیر ۱۸ سال، حتی در قالب داستان‌پردازی یا نویسندگی خلاق

  • طراحی سیستم پیش‌بینی سن برای فعال‌سازی پیش‌فرض تجربه کاربری نوجوانان در صورت نامشخص بودن سن

  • اطلاع‌رسانی به والدین یا مقامات مسئول در صورت مشاهده نشانه‌های افکار خودکشی در مکالمات

  • اتصال حساب نوجوان به والدین، امکان غیرفعال‌سازی تاریخچه گفتگو و فعال‌سازی هشدار در لحظات بحرانی

آلتمن تأکید کرد که سه اصل «ایمنی، آزادی و حریم خصوصی» همواره در تعارض نسبی‌اند، اما در مورد نوجوانان ایمنی باید بر سایر ارزش‌ها مقدم باشد.

فشار اجتماعی و مطالعات هشداردهنده

بر اساس داده‌های گروه Common Sense Media، حدود ۷۲ درصد نوجوانان آمریکایی دست‌کم یک بار از چت‌بات‌ها برای مسائل عاطفی یا روانی استفاده کرده‌اند؛ رقمی که نگرانی‌ها درباره جایگزین‌شدن این ابزارها با مشاوران واقعی را تشدید کرده است. مطالعات دیگر نیز نشان می‌دهد گفت‌وگو با هوش مصنوعی می‌تواند در برخی نوجوانان احساس ناامیدی و اضطراب را افزایش دهد.

سناتورها در همین زمینه از شرکت‌های فناوری، از جمله متا، خواسته‌اند داده‌های داخلی درباره اثر محصولات بر سلامت روان کودکان و میزان اثربخشی ابزارهای نظارت والدین را منتشر کنند. این نشان می‌دهد موضوع ایمنی نوجوانان به چالش مشترک کل صنعت فناوری تبدیل شده است.

پرسش‌های باز و راهکار کارشناسان

اگرچه اقدامات OpenAI گامی مهم تلقی می‌شود، کارشناسان هشدار می‌دهند که کافی نیست. پرسش‌هایی نظیر زمان‌بندی مناسب این تغییرات، چگونگی تضمین اجرای مؤثر آن‌ها و ضرورت وضع چارچوب‌های قانونی سخت‌گیرانه همچنان مطرح است. برخی متخصصان خواستار ارزیابی‌های مستقل روان‌شناختی از اثرات چت‌بات‌ها و وضع استانداردهای سخت‌تر برای تعامل با کاربران نوجوان هستند.

در نهایت، تغییرات اخیر OpenAI را می‌توان آغازی برای بحث گسترده‌تر دانست: چگونه می‌توان نوآوری‌های فناورانه را بدون آسیب به سلامت روان نسل جوان توسعه داد؟ پاسخ به این پرسش نیازمند همکاری هم‌زمان شرکت‌های فناوری، قانون‌گذاران و والدین است. آینده نشان خواهد داد که آیا این اقدامات می‌تواند از تکرار تراژدی‌های مشابه جلوگیری کند یا خیر.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *