مقالات هوش مصنوعی

آیا هوش مصنوعی یک خطر وجودی است؟

آیا هوش مصنوعی یک خطر وجودی است؟ مقاله ی پیش رو ترجمه ی یک مقاله از موسسه رند با هدف پاسخ به این سوال است. هوش مصنوعی چه خطراتی دارد؟ آیا این هوش مصنوعی خطر وجودی برای ماست و می تواند نوع بشر را تهدید کند؟ در صورت وجود خطر وجودی در هوش مصنوعی، آیا می توان با سیاست گذاری آن را کنترل کرد؟

خطرات بالقوه مرتبط با هوش مصنوعی چیست؟ ممکن است هر یک از اینها فاجعه بار یا حتی وجودی باشد؟ با افزایش شتاب به سوی کاربردهای بی حد و حصر این فناوری، بشریت چگونه ممکن است خطر وجودی هوش مصنوعی را کاهش دهد و آینده نامشخصی را طی کند؟

در رویدادی در موسسه RAND، یک پانل متشکل از پنج متخصص در مورد این سوالات به گفتگو پرداختند. اعضای پانل به طور شگفت انگیزی متفق القول بودند که تحقیقات مستقل و باکیفیت نقشی محوری در بررسی خطرات کوتاه مدت و بلندمدت هوش مصنوعی و همچنین پیامدهای آن برای سیاست های عمومی ایفا خواهد کرد.

به نظر شما بزرگترین خطرات ناشی از هوش مصنوعی چیست؟

بنجامین بادرو

هوش مصنوعی می تواند خطر قابل توجهی برای کیفیت زندگی ما و مؤسساتی که برای رشد و شکوفایی زندگی شخصی نیاز داریم، باشد. خطری مد نظر من، یک رویداد ناگهانی و فوری نیست، بلکه مجموعه ای از آسیب های افزایشی است که با گذشت زمان بدتر می شود. مانند تغییرات آب و هوایی، هوش مصنوعی ممکن است یک فاجعه آهسته باشد، فاجعه ای که مؤسسات و آژانس هایی را که ما برای داشتن زندگی معنادار به آن نیاز داریم، تضعیف می کند.

این خطر به هوش مصنوعی فرا انسانی یا هوش عمومی مصنوعی نیاز ندارد. بلکه ادامه و بدتر شدن اثراتی است که در حال حاضر اتفاق افتاده است. به عنوان مثال، شواهد قابل توجهی وجود دارد که نشان می دهد رسانه های اجتماعی به عنوان نوعی از هوش مصنوعی، اثرات جدی بر موسسات و آرامش روانی جوامع دارند.

به نظر می رسد هوش مصنوعی بی اعتمادی را ترویج می کند. این بی اعتمادی هویت های مشترک و حس مشترک واقعیت را از بین می برد. در حال حاضر شواهدی وجود دارد که هوش مصنوعی اعتبار و مشروعیت سیستم انتخاباتی ما را تضعیف کرده است. شواهد قابل توجهی نیز وجود دارد که هوش مصنوعی بی عدالتی و سوگیری را تشدید کرده است.

علاوه بر آن ها، شواهدی وجود دارد که نشان می دهد هوش مصنوعی بر صنایعی مانند روزنامه نگاری تأثیر گذاشته و تأثیرات آبشاری در سراسر جامعه ایجاد کرده است.

از آنجایی که هوش مصنوعی به محرک رقابت بین المللی تبدیل می شود، پاسخ به سایر فجایع، مانند بیماری همه گیر یا تغییرات آب و هوایی دیگر، می تواند دشوارتر شود. وقتی هوش مصنوعی توانمندتر می شود، شرکت های هوش مصنوعی قدرتمندتر می شوند، و با وابسته شدن ما به هوش مصنوعی، این نگرانی می رود که همه آن خطرات و آسیب های موجود بدتر شوند.

هوش مصنوعی فرا انسانی خطر وجودی بالقوه برای انسان

جاناتان ولبرن

توجه به این نکته مهم است که ما دوره های قبلی در تاریخ را با شوک های تکنولوژیکی انقلابی داشته ایم: برق، چاپخانه، اینترنت. این لحظه شبیه به آن لحظه است. هوش مصنوعی منجر به یک سری از نوآوری های تکنولوژیکی می شود که ممکن است برخی از آنها را اکنون تصور کنیم، اما بسیاری از آنها را نمی توانیم تصور کنیم.

هوش مصنوعی ممکن است خطرات موجود را تشدید کند و خطرات جدیدی ایجاد کند. من به نابرابری و نابرابری فکر می کنم. جهت دار بودن هوش مصنوعی ممکن است تحرکات اجتماعی و اقتصادی را تضعیف کند. جهت دار بودن نژادی و جنسیتی ممکن است در مدل ها ساخته شود. محصولاتی مانند دیپ فیک ها ممکن است اعتماد ما را به موسسات تضعیف کند.

با این حال فروپاشی سیستم از دید من بدترین سناریو است. جهان در سال ۲۰۲۳ سطوح بالایی از نابرابری را از قبل داشت. جایی که در حال حاضر سطح بالایی از تمرکز ثروت و قدرت وجود دارد – این بدترین سناریوی بالقوه از دید من است. صاحبان سرمایه صاحب تمام جدیدترین فناوری هایی هستند که در شرف ایجاد و مالکیت هستند، فناوری هایی که تمام ثروت و تمام تصمیم گیری ها را در دست ایشان متمرکز می کند. این سیستمی است که بسیاری از هنجارهای دموکراتیک را تضعیف می کند.

از دید من این وضعیت لزوما دائمی نخواهد بود. من آن را حالتی موقت می بینم که می تواند آسیبی به طول چندین نسل داشته باشد. ما از این شوک هوش مصنوعی عبور خواهیم کرد. اما به خود مردم بستگی دارد که راه حل های سیاستی را ایجاد کند که از بدترین سناریو جلوگیری کند.

جف آلستات

همه ما در رند در حال مطالعه خطرات گوناگونی از آن هستیم. و این بدان معنا نیست که هیچ یک از این خطرات نامعتبر یا لزوماً کم و بیش از سایرین اهمیت دارند. بنابراین، من با همه چیزهایی که بن و جون گفته اند موافقم.

یکی از خطراتی که من را در شب بیدار نگه می دارد، زنده شدن آبله است. سلاح های زیستی یکی از نمونه هایی است که از نظر تاریخی، با موانع اطلاعاتی و دانشی جدی همراه بوده است. در حال حاضر برای دستیابی به اثرات مخرب، با راه اندازی بیماری های همه گیر، دیگر به مواد تخصصی یا مجموعه های گران قیمت نیاز ندارید. هوش مصنوعی می تواند شکاف دسترسی به دانش را کاهش دهد.

سلاح ها و خطرات زیستی فقط یک نمونه است. همان داستان با هوش مصنوعی و سلاح های شیمیایی، سلاح های هسته ای، سلاح های سایبری تکرار می شود.

در نهایت این موضوع تنها محدود به افراد بدی که کارهای بد انجام می دهند نخواهد شد. بلکه خود هوش مصنوعی نیز ممکن است به راه بیفتد و کارهای بد انجام دهد. به علاوه هر چیز دیگری که هر کسی می خواهد انجام دهد. همه آن ها با هوش مصنوعی ممکن است.

نیدهی کالرا

برای من، هوش مصنوعی بنزین روی آتش است. من کمتر نگران خطر وجودی هوش مصنوعی هستم تا خود آتش سوزی ها – آتش های واقعی تغییرات آب و هوایی و جنگ هسته ای احتمالی، و آتش های مجازی ناشی از افزایش نابرابری درآمد و شکاف نژادی هستند. اینها واقعیت های دنیاست. ما نسل ها با آن ها زندگی می کنیم. و بنابراین، من شبها به دلیل هوش مصنوعی بیدارتر از قبل از آتش سوزی های جنگلی در کانادا نیستم.

اما من یک نگرانی دارم: زمانی که ما نتوانیم واقعیت را از تخیل تشخیص دهیم، جهان چگونه به نظر می رسد؟ اگر نتوانیم یک انسان را از چیز دیگری تشخیص دهیم چه؟ من نمی دانم که این با آن نوع انسانی که ما در تمام وجود گونه خود با آن زندگی کرده ایم چه می کند. من نگران آینده ای هستم که در آن نمی دانیم چه کسی هستیم. ما نمی توانیم همدیگر را بشناسیم. این پیشگویی مبهم از دست دادن انسانیت چیزی است که، اگر چیزی باشد، مرا بیدار نگه می دارد. وگرنه فکر می کنم ما در فردا هم به خوبی دیروزمان باشیم.

ادوارد گیست

هوش مصنوعی می تواند تقویت کننده حماقت انسان باشد. این دسته بندی خطراتی شبیه به چیزی که بنجامین در مورد آن صحبت کرد را در بر می گیرد. علاوه بر آن موارد انتزاعی تری را نیز در بر می گیرد.

به عنوان مثال می توان به ماشین هایی اشاره کرد که به جای پاسخ دادن به درخواست انسان ها، به چیزی پاسخ دهند که انسان ها «باید می پرسیدند». یا ماشین هایی که همان خطاهای انسانی را با سرعت بسیار بیشتری مرتکب می شوند.

با توجه به اینکه هنوز ابهامات زیادی پیرامون هوش مصنوعی وجود دارد، آیا هوش مصنوعی خطر وجودی نیز دارد؟

جاناتان ولبرن

نه. فکر نمی کنم هوش مصنوعی بتواند آسیب های جبران ناپذیری بر بشریت داشته باشد. اما فکر می کنم که بتواند زندگی ما را بدتر کند، فکر می کنم که آسیب طولانی مدتی داشته باشد. اما فکر می کنم که بتوانیم آن آسیب ها را بازیابی کنیم.

 نیدهی کالرا

نه. اگر به تجربه چند میلیون ساله ما نگاه کنید، ما موجوداتی مقاوم و انعطاف پذیری هستیم. این چیزی نیست که بتوان ساده انگاشت.

بنجامین بادرو

بله. یک خطر وجودی، خطری غیر قابل جبران علیه پتانسیل های نوع بشر است. یک نمونه آن مردن همه آدم ها هستند. اما نمونه دیگر، این است که انسان ها دیگر نتوانند در روابط معنادار انسانی شرکت کنند. اگر ما دیگر تجربه های تجسم دار و معنا دار نداشته باشیم، اگر نتوانیم با دیگر انسان ها ارتباط برقرار کنیم، با یک خطر وجودی مواجه هستیم.

جف آلستات

بله.

ادوارد گیست

مطمئن نیستم. دلیلش این است که من یک استراتژیست هسته ای هستم. بر اساس تجربه من، متمایز کردن این خطرات بسیار سخت است.

برایا مثال آیا بمب هیدروژنی یک خطر وجودی است؟ بیشتر افراد عادی معتقدند که هست. اما اگر از تعریف «بشر منقرض شود» برای خطر وجودی استفاده کنیم، این تعریف آنقدرها هم مشخص نیست.

درک علمی فعلی این است که سلاح های هسته ای که امروزه در دسترس ما هستند، نمی توانند منجر به نابودی نوع بشر شوند. برای نابودی بشر، ما به بمب های بیشتر و قدرتمندتری نیاز داریم. با این حال ذرادخانه های اتمی که چنین توانایی داشته باشند، قابل تولید هستند.

آیا سیاست های هوش مصنوعی وجود دارد که افراد منطقی، با وجود اختلاف میان خطر وجودی هوش مصنوعی بتوانند بر سر آن توافق کنند؟

سیاست گذاری برای کنترل خطر وجودی هوش مصنوعی

نیدهی کالرا

شاید تضمین کاهش سرعت استفاده از هوش مصنوعی در زیرساخت های حیاتی یک نمونه باشد.

بنجامین بادرو

شفافیت یا نظارت، تا ما بتوانیم شرکت های فناوری را برای ادعاهایی که می کنند حسابرسی کنیم. آنها همه این مزایای هوش مصنوعی را ستایش می کنند، بنابراین آنها باید داده های مربوطه را به ما نشان دهند. آنها باید به ما اجازه دهند تا جایی که می توانیم به پشت صحنه نگاه کنیم تا ببینیم آیا این ادعاها درست هستند یا خیر.

این فقط یک نقش برای محققان نیست. به عنوان مثال، کمیسیون تجارت فدرال ممکن است به بودجه بیشتری نیاز داشته باشد تا بتواند شیوه های تجاری ناعادلانه و فریبنده را ممنوع کند. من فکر می کنم صرفاً پیگیری و الزام شرکت ها با استانداردهایی که خودشان تعیین کرده اند می تواند گام خوبی باشد.

به نظر شما تحقیقات چه نقش های دیگری را در دوران جدید پیش رو بازی خواهد کرد؟

نیدهی کالرا

من ترجیح می دهم سوالات مرتبط با سیاست گذاری هوش مصنوعی را به روشی شبیه به رند ببینم. چه چیزی باید بدانیم تا میان عمل الف و عمل ب تفاوت قائل شویم. برای یک تصمیم خوب، چه شواهدی نیاز است؟ آیا ما چیزی شبیه به آن سطح شواهد داریم؟ اگر حق با ما باشد، چه هزینه هایی وجود دارد؟ اگر اشتباه کنیم چه معاوضه هایی وجود دارد؟ این همان قاب بندی است که من می خواهم در بحث های مربوط به سیاست هوش مصنوعی ببینم.

جاناتان ولبرن

فقدان تنوع نژادی در دنیای هوش مصنوعی یک نگرانی بزرگ است. این منجر به تعصبات نژادی و جنسیتی در خود مدل های هوش مصنوعی می شود.

من فکر می کنم RAND می تواند تنوع را به بخشی قوی از برنامه تحقیقاتی هوش مصنوعی ما تبدیل کند. این می تواند تا حدی از گرد هم آوردن بسیاری از ذینفعان مختلف و نه فقط افراد دارای مدرک علوم کامپیوتر باشد. چگونه می توانیم افرادی مانند جامعه شناسان را نیز وارد این گفتگو کنیم؟

ادوارد گیست

ترجیح می دهم رند را در حال ایفای نقش حیاتی مشابه نقش رند در هنگام خطرات بمب هیدروژنی در دهه ۵۰ و ۶۰ شاهد باشم. در واقع، پیشینیان ما روش هایی را در آن زمان اختراع کردند که می توانست الهام بخش باشد یا شاید حتی مستقیماً با مشکلات سیاست گذاری مرتبط با هوش مصنوعی امروزی سازگار شود.

من فکر می کنم تحقیقات بشریت باید به صورتی مدیریت شود که ما را به پاسخ این سوالات رهنمون کند. تا همین اواخر، هوش مصنوعی به عنوان یک تمرین آکادمیک به صورت کاملاً موردی دنبال می شد. برنامه تحقیقاتی سیستمی که برای پاسخ به برخی از سوالات بسیار مشخص طراحی شده باشد وجود نداشت. ممکن است سوالات و مسائل سهل الوصول تر از آنچه به نظر می رسد باشد، اگر سؤال ها را در قالب های بسیار کاربردی چارچوب بندی کنیم، به ویژه با توجه به این که اکنون چشم های بسیار بیشتری در هوش مصنوعی وجود دارد. تعداد افرادی که سعی در کار روی این مشکلات دارند در چند سال اخیر افزایش یافته است.

جف آلستات

همانطور که اد اشاره می کند، این یک فرهنگ دیرینه در RAND است که به دنبال چندین دهه برای فکر کردن به فناوری های مختلفی که ممکن است در آینده وجود داشته باشد، باشیم، تا بتوانیم پیامدهای بالقوه را درک کنیم و اقدامات مبتنی بر شواهد را شناسایی کنیم که ممکن است در حال حاضر انجام شوند. برای کاهش تهدیدات آینده ما این کار را با هوش مصنوعی امروز و فردا آغاز کرده ایم و باید کارهای بیشتری انجام دهیم.

ما همچنین به علم ارزیابی تهدیدات هوش مصنوعی بیشتری نیاز داریم. امروزه RAND به عنوان منبع انجام این نوع تحلیل ها شناخته می شود. فقط باید ادامه بدیم اما ما احتمالاً حداقل یک دهه کار و تحلیل داریم که باید اتفاق بیفتد. بنابراین، اگر همه چیز را زودتر از موعد حل نکنیم، ممکن است تهدید هر چه که باشد، فرود می آید، و آن وقت دیگر خیلی دیر شده است.

بنجامین بادرو

محققان مسئولیت ویژه ای برای بررسی آسیب ها و خطر وجودی دارند. آن ها فقط به خود فناوری نگاه نمی کنند، بلکه به زمینه نیز می پردازند، بررسی چگونگی ادغام هوش مصنوعی در عدالت کیفری و سیستم های آموزشی و استخدامی، بنابراین ما می توانیم تعامل بین هوش مصنوعی و رفاه انسان را ببینیم. قبل از استقرار سیستم های هوش مصنوعی در مدارس، مراقبت های بهداشتی و غیره، می توان کارهای بیشتری را برای تعامل با ذینفعان متاثر انجام داد. ما همچنین باید یک رویکرد سیستمی داشته باشیم، جایی که ما به رابطه بین هوش مصنوعی و سایر چالش های اجتماعی که با آن روبرو هستیم نگاه می کنیم.

همچنین ارزش آن را دارد که در مورد ایجاد جوامعی که در برابر این طیف گسترده از بحران ها مقاوم هستند، فکر کنیم. هوش مصنوعی ممکن است با تقویت ارتباطات انسانی یا ارائه چارچوبی برای مشورت در مورد مسائل واقعاً چالش برانگیز، نقش مثبتی نیز داشته باشد. اما فکر نمی کنم یک راهکار فنی تنها ممکن باشد. ما باید دید بسیار گسترده تری از نحوه ایجاد جوامع انعطاف پذیر داشته باشیم تا بتوانیم با چالش های اجتماعی مقابله کنیم.

به این مطلب چه امتیازی می دهید ؟
[Total: ۰ Average: ۰]
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *