مقالات هوش مصنوعیهوش مصنوعی

7 ریسک خطرناک هوش مصنوعی

نگاهی به ریسک های توسعه فناوری انقلابی هوش مصنوعی

ایلان ماسک، کارآفرین مشهور و بنیانگذار شرکت های تسلا و اسپیس ایکس می گوید: “هوش مصنوعی بسیار خطرناک تر از سلاح های هسته ای است.” این موضوع شوخی بردار نیست، به ویژه هنگامی که صحبت از فناوری می شود. او در جای دیگری هم به خطرات هوش مصنوعی اشاره می کند: “من واقعا به پیشرفته ترین نوع هوش مصنوعی بسیار نزدیک هستم و این موضوع مرا به میزان زیادی می ترساند. قابلیت های این فناوری بسیار بیشتر از چیزی است که تصویر می کنیم و نرخ پیشرفت آن تصاعدی است.”

Elon Musk
Elon Musk

خطرات هوش مصنوعی

  • از دست دادن شغل به واسطه اتوماسیون
  • نقض حریم خصوصی
  • Deepfake
  • سوگیری الگوریتم ناشی از داده های نامناسب
  • نابرابری اقتصادی
  • بی ثباتی بازار
  • خودکارسازی سلاح

تنها ایلان ماسک نیست که دیدگاه هایی شکاکانه و شاید هم هشدار دهنده را نسبت به هوش مصنوعی مطرح می کند. استیون هاوکینگ، فیزیکدان فقید، گفته بود که تأثیر هوش مصنوعی می تواند فاجعه بار باشد مگر اینکه توسعه سریع آن به طور دقیق و اخلاقی کنترل شود. او اینگونه هشدار می دهد: “هوش مصنوعی می تواند بدترین رویداد در تاریخ تمدن ما باشد؛ مگر اینکه یاد بگیریم چگونه خود را برای مقابله با خطرات احتمالی اش آماده کرده و از آن ها دوری کنیم.”

استوارت آرمسترانگ، محقق موسسه آینده زندگی، از هوش مصنوعی به عنوان “تهدید انقراض” یاد کرده است. به گفته وی، هوش مصنوعی حتی نسبت به جنگ هسته ای نیز در سطح متفاوتی از تخریب قرار می گیرد چرا که جنگ هسته ای بخش محدودی از کره زمین را تحت تاثیر قرار می دهد اما دامنه تخریب هوش مصنوعی قابل کنترل نیست. او می گوید: “اگر هوش مصنوعی به سمت ناخوشایندی سو بگیرد و 95 درصد از مردم کشته شوند، پنج درصد باقی مانده نیز در زمان کمی منقرض می شوند. بنابراین علیرغم عدم قطعیت این موضوع، هوش مصنوعی دارای ویژگی های خاصی از خطرات بسیار بد است.”

هوش مصنوعی دقیقا چگونه به چنین نقطه خطرناکی می رسد؟ گری مارکوس، دانشمند و نویسنده علوم شناختی، در مقاله ای درخشان در مجله نیویورکر در سال 2013 برخی از جزئیات این مسئله را ارائه کرد. او نوشت: “هر چه ماشین ها هوشمند تر شوند، امکان تغییر هدف آنها بیشتر خواهد بود.”

“هنگامی که رایانه ها بتوانند خود را برنامه ریزی مجدد کنند، پی در پی خود را بهبود بخشند و منجر به اصطلاحا “تکینگی تکنولوژیکی” یا “انفجار اطلاعات” شوند، نمی توان خطرات ماشین هایی را که از انسان در نبرد بر سر منابع و حفظ بقای خود پیشی میگیرند، به سادگی نادیده گرفت. “

آیا هوش مصنوعی یک تهدید است؟

همانطور که هوش مصنوعی پیچیده تر و همه گیرتر می شود، صداهایی که در مورد مشکلات فعلی و آینده آن هشدار می دهند بلندتر می شود. مسائلی نظیر کاهش فرصت های شغلی به دلیل اتوماسیون و توسعه سلاح های خودکار که بدون نظارت بشر عمل می کنند دغدغه هایی به وجود آورده است. این در شرایطی است که ما هنوز در ابتدای مسیر توسعه هوش مصنوعی هستیم.

جامعه فناوری مدتهاست درباره تهدیدات ناشی از هوش مصنوعی بحث می کند. اتوماسیون مشاغل، انتشار اخبار جعلی و رقابت تسلیحاتی مخاطره آمیز سلاح های مجهز به هوش مصنوعی از جمله بزرگترین خطرات ناشی از هوش مصنوعی به شمار می‌روند.

فراهوش مخرب، معروف به هوش جامع مصنوعی که توسط انسان ایجاد شده است و از کنترل ما خارج می شود تا ویرانی ایجاد کند یکی از تهدیدهای ویژه‌ای است که به آن پرداخته می شود. این فناوری چیزی است که ممکن است به دست بیاید یا نیاید، بنابراین در این مرحله بیشتر از یک خطر با یک تهدید فرضی مواجه هستیم که البته ترسی دائمی نسبت به امکان وجود آن ما را تحت تاثیر قرار می دهد.

اتوماسیون یکی از فوری ترین خطرات ناشی از هوش مصنوعی برای انسان است
اتوماسیون یکی از فوری ترین خطرات ناشی از هوش مصنوعی برای انسان است

ریسک فوری: اتوماسیون مشاغل

اتوماسیون مشاغل به عنوان فوری ترین نگرانی نسبت به توسعه هوش مصنوعی در نظر گرفته می شود. دیگر این مهم نیست که آیا هوش مصنوعی جایگزین انواع خاصی از مشاغل می شود یا نه، بلکه موضوع این است که این جایگزینی تا چه حدی است. در بسیاری از صنایع – به ویژه در رابطه با صنایعی که کارگران آنها کارهای قابل پیش بینی و تکراری را انجام می دهند- اختلالاتی در حال شکل گیری هستند. بر اساس مطالعه موسسه بروکینگز که در سال 2019 انجام شده، 36 میلیون نفر در مشاغلی با “مواجهه زیاد” با اتوماسیون کار می کنند، به این معنی که خیلی زود حداقل 70 درصد از وظایف آنان – از خرده فروشی و تحلیل بازار گرفته تا مهمان داری و کار انبار – به کمک هوش مصنوعی و به صورت اتومات انجام می شود. یک گزارش جدید بروکینگز به این نتیجه می رسد که مشاغل دفتری و مدیریتی در معرض بشترین خطر هستند. همچنین گزارشی  از McKinsey & Company که در سال 2018 و ناظر به بازار کار آمریکا منتشر شده است، اینطور جمع بندی می کند که نیروی کار آفریقایی آمریکایی سخت ترین ضربه را از اتوماسیون خواهد دید. یعنی هوش مصنوعی می تواند بر ساخت اقتصادی جوامع اثرگذار باشد و شکاف طبقاتی را گسترده تر کند.

مارتین فورد، آینده پژوه مشهور، می گوید: “دلیل این که در آمریکا نرخ بیکاری پایینی داریم، عمدتا این است که با توجه به وضعیت اقتصادی، مشاغل بخش خدمات با دستمزد پایین به مقدار زیادی شکل گرفته اند.”  او همچنین گفت: “فکر نمی کنم این روند ادامه پیدا کند.”

وی افزود که با هوشمندتر و زبردست تر شدن روبات های هوش مصنوعی، برای انجام کارهای مشابه به انسان های کمتری نیاز است. در حالی که این درست است که هوش مصنوعی باعث ایجاد مشاغل می شود که تعداد نامشخصی از آنها هنوز تعریف نشده اند، اما بسیاری از آن ها برای اعضای نیروی کار جایگزین شده که دارای تحصیلات کمتری هستند، غیرقابل دسترسی خواهند بود.

“اگر کار شما درست کردن همبرگر در مک دونالد باشد و اتوماسیون بیشتری وارد عرصه شود ، آیا یکی از این مشاغل جدید برای شما مناسب خواهد بود؟” فورد گفت: “آیا این احتمال وجود دارد که شغل جدید به تحصیل و آموزش زیاد یا حتی استعدادهای درونی، مهارت های بین فردی یا خلاقیت واقعا قوی که ممکن است شما نداشته باشید، نیاز داشته باشد؟ این ها مواردی هستند که حداقل تا به حال، رایانه ها در آن چندان خوب نیستند.”

جان سی هاونز ، نویسنده کتاب “Heartificial Intelligence”، این نظریه را که هوش مصنوعی به اندازه مشاغل جایگزین شده یا بیشتر، شغل ایجاد می کند را رد می‌ کند. حدود چهار سال پیش، هاونز گفت، او با رئیس یک شرکت حقوقی در مورد ماشین لرنینگ مصاحبه کرده است. این مرد می خواست افراد بیشتری را استخدام کند، اما همچنین موظف بود به میزان مشخصی از بازدهی برای سهامداران خود دست یابد. او متوجه شد که یک نرم افزار 200,000 دلاری می تواند جای 10 نفر را بگیرد که هر کدام 100,000 دلار حقوق دریافت می کنند. این بدان معناست که او 800000 دلار پس انداز کرده است. این نرم افزار همچنین بهره وری را تا 70 درصد افزایش می دهد و تقریبا 95 درصد خطاها را از بین می برد. هاوونز از دیدگاه سهامدار محوری مبتنی بر سود کلی، گفت: “هیچ دلیل قانونی وجود ندارد که او نباید همه افراد را اخراج کند.” آیا او از این بابت احساس بدی خواهد داشت؟ البته. اما موضوع این نیست.

حتی حرفه هایی که نیاز به تحصیلات تکمیلی و آموزش های تکمیلی بعد از کالج دارند نیز از جایگزینی توسط هوش مصنوعی مصون نیستند. ،کریس مسینا، استراتژیست فناوری گفته است که بسیاری از فرصت های شغلی که امروز در دسترس افراد تحصیل کرده است نیز از بین خواهد رفت. هوش مصنوعی در حال حاضر تأثیر قابل توجهی بر پزشکی گذاشته است. مسینا گفت: قانون و حسابداری در مرحله بعدی هستند، اولی در انتظار “تغییر عظیم” است.

او گفت: “به پیچیدگی قراردادها و تسلطی که برای ایجاد یک ساختار معامله بی نقص نیاز داردی، فکر کنید این امر نیازمند تعداد زیادی از وکلا است که اطلاعات زیادی را مطالعه می کنند، صدها یا هزاران صفحه داده و اسناد. از قلم انداختن موارد در این زمینه واقعاً آسان است. بنابراین هوش مصنوعی که بتواند بهترین نتیجه ممکن را به دست آورد و به طور جامع به نتیجه برسد، احتمالا جانشین بسیاری از وکلا خواهد شد.”

مسینا هشدار داد که حسابداران نیز باید برای یک تغییر بزرگ آماده شوند. هنگامی که هوش مصنوعی بتواند به سرعت مجموعه داده ها را بررسی کرده و تصمیمات خودکار را بر اساس تفاسیر محاسباتی اتخاذ کند، ممکن است حسابرسان انسانی غیر ضروری باشند.

هوش مصنوعی یک خطر جدی برای حریم خصوصی و امنیت آنلاین ما است، به ویژه از طریق فناوری مخرب مانند دیپ فیک
هوش مصنوعی یک خطر جدی برای حریم خصوصی و امنیت آنلاین ما است، به ویژه از طریق فناوری مخرب مانند دیپ فیک

حریم خصوصی، امنیت و پیدایش “دیپ فیک”

در حالی که از دست دادن شغل در حال حاضر مهمترین مسئله مربوط به مشکلات هوش مصنوعی به شمار می رود، تنها یکی از خطرات احتمالی است. در مقاله ای در فوریه 2018 با عنوان “استفاده مخرب از هوش مصنوعی: پیش بینی، پیشگیری و کاهش”، 26 محقق از 14 موسسه دانشگاهی، مدنی و صنعتی، تعداد زیادی از خطرات دیگر را که می توانند در کمتر از پنج سال صدمات جدی ایجاد کنند یا حداقل، هرج و مرج جزئی ایجاد کنند را بر شمرده اند.

آن ها در گزارش 100 صفحه ای خود نوشتند:‌ “سوء استفاده از هوش مصنوعی، می تواند منجر به تهدید این موارد شود: امنیت دیجیتالی (به عنوان مثال از طریق ماشین های آموزش مجرمان در زمینه هک کردن یا مهندسی اجتماعی قربانیان در سطوح عملکرد انسانی یا فوق بشری)، امنیت فیزیکی (به عنوان مثال بازیگران غیر دولتی که در تسلیح کردن هواپیماهای بدون سرنشین مشتری نقش دارند) و امنیت سیاسی (به عنوان مثال از طریق نظارت که باعث نقض حریم خصوصی می شود، نمایه سازی و سرکوب، یا از طریق کمپین های خودکار و هدفمند حاوی اطلاعات گمراه کننده).”

فورد علاوه بر تهدیدات مربوط به وجودیت انسان، بر روی روشی که هوش مصنوعی بر حریم خصوصی و امنیت تأثیر منفی می‌گذارد متمرکز است. به گفته وی، نخستین مثال در این زمینه، نحوه استفاده فناوری چینی “Orwellian” از فناوری تشخیص چهره در دفاتر، مدارس و مکانهای دیگر است. “کل کره زمین” مملو از شرکت هاییست که در فناوری مشابه تخصص دارند و آن را در سراسر جهان به فروش می رسانند.

آنچه ما تا اینجا می توانیم حدس بزنیم این است که آیا این فناوری هرگز عادی می شود یا خیر. همچنین در مورد اینترنت، جایی که ما داده های دیجیتالی خود را در قربانگاه به راحتی قربانی می کنیم، آیا بازرسی شبانه روزی و تجزیه و تحلیل توسط هوش مصنوعی روزی به عنوان یک معامله عادلانه برای افزایش ایمنی و امنیت به نظر می رسد؟ آن هم با وجود سوء استفاده از سوی بازیگران شیاد؟

فورد گفت: “رژیم های استبدادی از آن استفاده می کنند یا خواهند کرد. سوال این است که کشورهای غربی و دموکراسی ها چقدر مورد تهاجم قرار میگیرند و ما چه محدودیت هایی برای آن قائل هستیم؟” او افزود که هوش مصنوعی همچنین باعث پیدایش “شخصیت های” رسانه های اجتماعی که بسیار واقعی به نظر میرسند، می شود که تمایز آنها با نمونه های حقیقی بسیار دشوار است. اگر این شخصیت ها به طور ارزان و در مقیاس بزرگ در توییتر، فیس بوک یا اینستاگرام مستقر شوند، می توانند بر انتخابات تأثیر بگذارند. همین امر در مورد اصطلاحا تقلب های صوتی و تصویری “deepfakes” که با دستکاری صداها و شباهت ها ایجاد شده است، صدق می کند. مورد دوم از پیش در حال وقوع بوده است؛ اما فورد فکر می کند که مورد اول بسیار مشکل زا خواهد بود.

با استفاده از یادگیری ماشین ، زیرمجموعه ای از هوش مصنوعی که در پردازش زبان طبیعی نقش دارد، می توان کلیپ صوتی هر سیاستمداری را دستکاری کرد تا به نظر برسد که آن شخص نظریاتی نژادپرستانه یا جنسیتی را مطرح کرده است در صورتی که آن شخص چنین کاری را انجام نداده باشد. فورد افزود: اگر کیفیت کلیپ به اندازه ای بالا باشد که بتواند عموم مردم را فریب دهد و از شناسایی جلوگیری کند، می تواند ” یک کمپین سیاسی را به طور کامل از خط خارج کند.”

تنها چیزی که لازم است یک موفقیت است. فورد تاکید می کند: از آن زمان به بعد، “هیچ کس نمی داند چه چیزی واقعی است و چه چیزی نیست. بنابراین این موضوع به موقعیتی می‌انجامد که به معنای واقعی کلمه نمی‌توانید چشم‌ها و گوش‌های خود را باور کنید. شما نمی توانید به آنچه که آن را از نظر تاریخی بهترین شواهد ممکن می دانیم تکیه کنید… این یک مسئله بزرگ خواهد بود.” قانونگذاران، گرچه اغلب کمتر از فناوری مطلع هستند، اما تا حد زیادی نسبت به این مسئله آگاه هستند و به دنبال راه حل می‌ گردند.

هوش مصنوعی شکاف اجتماعی-اقتصادی را حتی بیشتر می کند
هوش مصنوعی شکاف اجتماعی-اقتصادی را حتی بیشتر می کند

سوگیری هوش مصنوعی و گسترش نابرابری اقتصادی-اجتماعی

افزایش نابرابری اجتماعی-اقتصادی که به دلیل از دست دادن شغل ناشی از وجود هوش مصنوعی به وجود می آید، یکی دیگر از دلایل نگرانی است. هوش مصنوعی جایگزین کارهای ساده و قابل تکراری می شود که معمولا توسط افراد با میزان تحصیلات کمتر و توان اقتصادی پایین تر انجام می شوند. با وقوع این جایگزینی این افراد که تمایل کمتری به آموزش دارند و ثروت کافی برای راه اندازی شغل دیگری را هم ندارند، ناامید شده و ممکن است رفتارهای نامطلوبی از خود بروز بدهند.

اشکال مختلف سوگیری هوش مصنوعی نیز مضر هستند. اولگا روساکوفسکی، استاد علوم کامپیوتر پرینستون، اخیراً در گفتگو با نیویورک تایمز گفت که این امر بسیار فراتر از جنسیت و نژاد است. علاوه بر داده ها و سوگیری الگوریتمیهوش مصنوعی توسط انسان توسعه یافته است و انسان ها ذاتا رفتار مغرضانه دارند.

روساکوفسکی گفت: “محققان AI در درجه اول مردانی هستند که از جمعیت نژادی خاصی برخاسته اند و در مناطق اجتماعی و اقتصادی بالا رشد کرده اند. بنابراین اینکه این افراد بتوانند مسائل اقشار مختلف پراکننده در سراسر جهان را مدنظر قرار بدهند، یک چالش است.”

تیمنیت گبرو، محقق گوگل در همان مقاله گفت که ریشه سوگیری بیشتر اجتماعی است تا‌ مربوط به فناوری. او می گوید: “حوزه علمی باید در تلاش برای درک پویایی های اجتماعی جهان باشد، زیرا بیشتر تغییرات اساسی در سطح اجتماعی اتفاق می افتد.”

فناوران تنها کسانی نیستند که در مورد خطرات احتمالی اقتصادی و اجتماعی هوش مصنوعی هشدار می دهند. علاوه بر روزنامه نگاران و چهره های سیاسی، پاپ فرانسیس نیز در این باره صحبت کرده است. فرانسیس در جلسه ای با عنوان “خیر مشترک در عصر دیجیتال” هشدار داد که هوش مصنوعی این توانایی را دارد که “نظرات سوگرایانه و اطلاعات غلط را منتشر کند و این موضوع می تواند منجر به مسمومیت بحث های عمومی شود و حتی عقیده میلیون ها نفر را دستکاری کند؛ تا جایی که نهادهایی که تضمین کننده همزیستی مسالمت آمیز مدنی هستند در معرض خطر قرار بگیرند.” وی افزود: “اگر پیشرفت های فناورانه بشریت دشمن خیر عمومی شوند، این منجر به یک  پیروی ناگوار به شکلی از وحشیگری می شود که توسط قانونی از جانب قوی ترین افراد تحمیل خواهد شد.”

مسینا می گوید که بخش بزرگی از مشکل، بیشتر از هر چیز، سودجویی بخش خصوصی است. چرا که “این کاری است که آنها باید انجام دهند و بنابراین آن ها به این موضوع فکر نمی کنند که بهترین مورد در اینجا چیست؟ چه چیزی بهترین نتیجه ممکن را خواهد داشت؟ ” وی افزود: “ذهنیت این است که اگر بتوانیم کاری را انجام دهیم، باید آن را امتحان کنیم. بیایید ببینیم چه اتفاقی می افتد. اگر بتوانیم از طریق کاری کسب درآمد کنیم، به میزان زیادی آن را انجام خواهیم داد. اما این منحصر به فناوری نیست. این اتفاق همواره در حال وقوع بوده است.”

سلاح های خودمختار به طور فزاینده ای نگران کننده می شوند - به ویژه در دستان افراد اشتباه.
سلاح های خودمختار به طور فزاینده ای نگران کننده می شوند؛ به ویژه در دستان افراد اشتباه.

سلاح های خودکار و پتانسیل رقابت تسلیحاتی

همه در مورد اینکه هوش مصنوعی خطرناکتر از سلاح های هسته ای است با ایلان ماسک موافق نیستند، از جمله فورد. اما اگر هوش مصنوعی تصمیم به پرتاب هسته ای یا سلاح های بیولوژیکی، بدون مداخله انسان بگیرد چه می شود؟ یا اگر دشمن داده‌ها را دستکاری کند تا موشک‌های هدایت‌ شده توسط هوش مصنوعی را به همان جایی که از آن آمده‌اند، بازگرداند، چه؟  هر دو احتمال وجود دارند و هر دو فاجعه بار خواهند بود. بیش از 30,000 محقق هوش مصنوعی، رباتیک و دیگر فناوری ها که در سال 2015 نامه سرگشاده ای در این زمینه امضا کردند، مطمئنا چنین فکر می کنند.

آنها نوشتند: “سوال کلیدی برای بشریت امروز این است که آیا یک مسابقه تسلیحاتی با هوش مصنوعی جهانی را آغاز کند یا از شروع آن جلوگیری کند.” اگر هرگونه قدرت نظامی بزرگ با توسعه سلاح های هوش مصنوعی پیش برود، رقابت جهانی تسلیحات عملا اجتناب ناپذیر خواهد بود و نقطه پایانی این مسیر فناورانه بدیهی است: سلاح های خودران به کلاشینکف های فردا تبدیل می شوند. برخلاف سلاح های هسته ای، آنها نیازی به مواد اولیه پرهزینه یا غیر قابل دسترس ندارند، بنابراین برای تولید انبوه برای همه قدرتهای نظامی مهم قابل دسترس و ارزان می شوند. تنها زمان کمی طول می كشد تا آنها در بازار سیاه و در دستان تروریست ها ظاهر شوند، دیكتاتورهایی كه می خواهند مردم خود را بهتر كنترل كنند، فرماندهان جنگی كه قصد پاك سازی قومی را دارند و غیره. سلاح های خودکار برای فعالیت هایی مانند قتل و ترور، به تسلط درآوردن ملت ها و کشتار قومی و گروهی، ایده آل هستند. بنابراین ما معتقدیم که رقابت تسلیحاتی نظامی هوش مصنوعی برای بشریت مفید نخواهد بود. روش های زیادی وجود دارد که از طریق آن ها هوش مصنوعی می تواند بدون ایجاد ابزار های جدید برای کشتن مردم، نبرد را برای انسان ها، به ویژه غیرنظامیان امن تر کند.”

در اوایل سال جاری ، داستانی در Vox یک سناریوی ترسناک شامل توسعه یک سیستم هوش مصنوعی پیچیده را “با هدفی مثل تخمین اعدادی با اطمینان بالا” توضیح داد. هوش مصنوعی متوجه می شود که در صورت استفاده از تمام سخت افزارهای محاسباتی جهان می تواند به اطمینان بیشتری در محاسبات خود دست یابد و متوجه می شود که انتشار یک ابرسلاح بیولوژیکی برای از بین بردن بشریت به او امکان استفاده رایگان از تمام سخت افزار ها را می دهد. پس با نابودی بشریت، با اطمینان بیشتری اعداد را محاسبه می کند.”

این موضوع یقینا تکان دهنده است. اما خیالتان راحت باشد. در سال 2012، وزارت دفاع دولت اوباما دستورالعملی مبنی بر “خودرانی در سیستم های تسلیحاتی” صادر کرد که شامل این خط بود: “سیستم های تسلیحاتی خودران و نیمه خودران باید طوری طراحی شوند که به فرماندهان و اپراتورها اجازه دهد قضاوت انسانی را در سطوحی مناسب اعمال کنند.”

در اوایل نوامبر 2020، یک گروه از پنتاگون به نام هیئت نوآوری دفاعی دستورالعمل های اخلاقی را در مورد طراحی و استقرار سلاح های دارای هوش مصنوعی منتشر کرد. با این حال، به گفته واشنگتن پست، “توصیه های هیئت مدیره به هیچ وجه از نظر قانونی لازم الاجرا نیستند. اکنون بر عهده پنتاگون است که تعیین کند که آیا با آن ها همکاری کند یا نه و اینکه این همکاری به چه روشی انجام شود.” این تسکین دهنده است. شایدم نباشد.

هوش مصنوعی توانایی ایجاد نوسانات وحشی در بازار سهام ما را دارد.
هوش مصنوعی توانایی ایجاد نوسانات زیادی در بازار سهام را دارد.

ناپایداری بازار سهام ناشی از تجارت الگوریتمی فرکانس بالا

آیا تا به حال فکر کرده اید که الگوریتم ها می توانند کل سیستم مالی ما را خراب کنند؟ معاملات الگوریتمی می توانند مسئول بحران بزرگ مالی بعدی در بازارها باشند.

معامله الگوریتمی چیست؟ این نوع معاملات زمانی اتفاق می افتد که یک رایانه بدون غریزه یا احساسات که می تواند قضاوت انسان را تیره کند، بر اساس دستورالعمل های از پیش برنامه ریزی شده، معاملات را انجام دهد. این رایانه ها می توانند معاملات بسیار با حجم، فرکانس و ارزش بالا انجام دهند. این‌ مسئله می تواند منجر به ضررهای بزرگ و بی ثباتی شدید بازار شود. تجارت فرکانس بالای الگوریتمی (HFT) یک عامل خطر بزرگ در بازارها به شمار می رود. HFT اساسا زمانی رخ می دهد که یک کامپیوتر هزاران معامله را با سرعتی زیاد و با هدف فروش چند ثانیه بعد برای به دست آوردن سودهای ناچیز انجام می دهد. هزاران مورد از این معاملات در هر ثانیه می تواند برابر با میزان زیادی پول شود. عیب HFT این است که میزان ارتباط بازارها یا این واقعیت که احساسات و منطق انسان هنوز نقش مهمی در بازارهای ما بازی می کند، در نظر گرفته نمی شود.

فروش یکجا و ارزان میلیون ها سهم در بازار خطوط هوایی می تواند بشر را بترساند و به سمت فروش سهام خود در صنعت هتلداری سوق دهد. این به نوبه خود می تواند مردم را وادار به فروش زیر قیمت سهام خود در سایر شرکت های مرتبط با سفر کند؛ و این امر می تواند بر شرکت های تدارکات، شرکت های عرضه کننده مواد غذایی و غیره تأثیر بگذارد.

به عنوان مثال “سقوط فلش” در ماه مه 2010 را در نظر بگیرید. در اواخر روز معاملات، داو جونز 1000 واحد سقوط کردو 36 دقیقه بعد به سطح عادی بازگشت. چه چیزی باعث این تصادف شد؟  یک معامله گر مستقر در لندن به نام Navinder Singh Sarao ابتدا باعث سقوط شد و سپس این سقوط توسط رایانه های HFT تشدید شد. ظاهرا سارائو از الگوریتم «جعل» استفاده می‌کرد که هزاران قرارداد آتی شاخص سهام را با شرط سقوط بازار سفارش می‌داد. به جای به انجام رسانیدن شرط، سارائو قصد داشت سفارش را در آخرین ثانیه لغو کند و سهام کم قیمت تری را که به دلیل شرط اولیه اش زیر قیمت فروخته می شد، بخرد. سایر انسان ها و رایانه های HFT این شرط بندی 200 میلیون دلاری را دیدند و آن را به عنوان نشانه ای از کاهش بازار در نظر گرفتند. به نوبه خود، رایانه های HFT یکی از بزرگترین فروش زیر قیمت سهام در تاریخ را آغاز کردند و باعث زیان کوتاه مدت بیش از 1 تریلیون دلار در سطح جهان شدند.

الگوریتم های مالی HFT نیز همیشه درست نیستند. از نظر صحیح بودن، ما کامپیوترها را به عنوان کامل ترین مرجع در نظر می گیریم، اما هوشمندی هوش مصنوعی هنوز فقط به اندازه هوشمندی افرادیست که آن را برنامه نویسی کرده اند. در سال 2012، گروه نایت کاپیتال دچار نقصی شد که آنها را در آستانه ورشکستگی قرار داد. رایانه های نایت به اشتباه هزاران سفارش در ثانیه را وارد بازار NYSE کردند که باعث هرج و مرج گسترده ای برای این شرکت شد. الگوریتم های HFT چهار میلیون معامله حیرت انگیز برای 397 میلیون سهم را تنها در 45 دقیقه انجام دادند. بی ثباتی ایجاد شده توسط این خطای رایانه ای باعث شد نایت 460 میلیون دلار در یک شب ضرر کند. بدیهی است که الگوریتم های خطا پیامدهای عظیمی برای سهامداران و خود بازارها دارند و هیچ کس به اندازه نایت این درس را به خوبی نیاموخته است.

چگونه می توانیم خطرات هوش مصنوعی را کاهش دهیم؟
چگونه می توانیم خطرات هوش مصنوعی را کاهش دهیم؟

کاهش خطرات هوش مصنوعی

بسیاری معتقدند تنها راه پیشگیری یا حداقل تعدیل ایجاد ویرانی وسط هوش مصنوعی مخرب، ایجاد نوعی مقررات است. ایلان ماسک می گوید: “من معمولا طرفدار مقررات و نظارت نیستم اما مسئله زمانی است که شما یک خطر بسیار جدی برای مردم داشته باشید.” “باید یک نهاد عمومی وجود داشته باشد که بینش و سپس نظارت داشته باشد تا تایید کند که همه با روشی امن هوش مصنوعی را توسعه می دهند. این بسیار مهم است.” فورد با ماسک موافق است و البته با یک هشدار گفته های او را تکمیل می کند. فورد می گوید که مقررات در بخش پیاده سازی هوش مصنوعی خوب است، اما نه در خود پژوهش.

او می گوید: “شما می توانید نحوه استفاده از هوش مصنوعی را تنظیم کنید، اما نمی توانید جلوی پیشرفت در فناوری پایه را بگیرید. من فکر می کنم این راه اشتباه و احتمالا خطرناک خواهد بود.” زیرا هر کشوری که در زمینه توسعه هوش مصنوعی عقب افتاده است، از نظر نظامی، اجتماعی و اقتصادی در یک نقطه ضعف مشخص قرار دارد. فورد ادامه می دهد: راه حل، استفاده انتخابی است. “ما تصمیم می گیریم که کجا هوش مصنوعی می خواهیم و کجا نمی خواهیم. کجا قابل قبول هست و کجا نیست. کشورهای مختلف قرار است انتخاب های متفاوتی داشته باشند. برای مثال چین ممکن است آن را در همه جا داشته باشد، اما این بدان معنا نیست که برای ما مقدور است که در تکنولوژی های جدید و به روز از آن ها عقب بمانیم.”

ژنرال آمریکایی، جان آر آلن، در ماه اکتبر در مورد سلاح های خودکار در دانشگاه پرینستون بر ضرورت “گفتگوی قوی بین المللی که بتواند این فناوری را  کنترل کند” تاکید کرد. وی همچنین اشاره کرد که در صورت لزوم، باید مذاکراتی راجع به چگونگی کنترل آن به بهترین نحو صورت بگیرد. این معاهده ای است که سلاح های هوش مصنوعی را کاملا ممنوع می کند یا فقط برخی از کاربردهای این فناوری را مجاز می داند.

برای هیونز، هوش مصنوعی ایمن تر با انسان شروع شده و پایان می یابد. تمرکز اصلی او، که وی در کتاب سال 2016 خود درباره آن توضیح می دهد، این است: “ماشین ها چگونه باید بدانند که ما برای چه چیزی ارزش قائل هستیم، اگر خودمان ندانیم؟” به گفته وی، در ایجاد ابزارهای هوش مصنوعی، “احترام گذاشتن به ارزش های کاربر نهایی با تمرکز بر انسان” بسیار مهم تر از تمرکز بر دستاوردهای کوتاه مدت است.

هونز در کتاب Heartificial Intelligence چنین نوشته است: “فناوری از زمان شروع بشریت قادر به کمک کردن به ما در انجام کار ها بوده است. اما ما هرگز با این احتمال قوی که ماشین ها از ما هوشمندتر شوند یا به خودآگاهی دست یابند، به عنوان یک رقابت روبه رو نشده ایم. این قله فناورانه یک تمایز مهم است که باید به رسمیت شناخته شود، هم به منظور ارتقا تلاش برای تکریم بشریت و هم برای تعیین چگونگی تکامل هوش مصنوعی در این زمینه. به همین دلیل است که ما باید از کارهایی که می خواهیم ماشین ها را برای انجام‌ آن ها به شیوه ای آگاهانه آموزش دهیم، آگاه باشیم. این شامل انتخاب فردی و همچنین اجتماعی است.”

محققین هوش مصنوعی، فی فی لی و جان اچمندی، از موسسه هوش مصنوعی انسان محور دانشگاه استنفورد، همین احساس را دارند. در یک پست وبلاگ اخیر، آنها پیشنهاد کردند افراد زیادی را در مجموعه‌ ای از زمینه‌ها درگیر کنند تا مطمئن شوند که هوش مصنوعی به جای تضعیف پتانسیل عظیم خود، آن را برآورده می‌کند و جامعه را تقویت می‌کند. آنها نوشته اند: “آینده ما به توانایی دانشمندان علوم اجتماعی و کامپیوتر بستگی دارد که در کنار یکدیگر با افراد مختلف از زمینه های مختلف کار کنند، تغییری قابل توجه نسبت به شیوه امروزی که مبتنی بر محوریت علوم کامپیوتر است. پدیدآورندگان هوش مصنوعی باید بینش، تجربیات و نگرانی های افراد را از قومیت ها، جنسیت ها، فرهنگ ها و گروه های اقتصادی اجتماعی و همچنین از زمینه های دیگر مانند اقتصاد، حقوق، پزشکی، فلسفه، تاریخ، جامعه شناسی، ارتباطات ، تعامل انسان با رایانه، روانشناسی و مطالعات علم و فناوری (STS) جستجو کنند. این همکاری باید در طول چرخه عمر برنامه اجرا شود، از اولین مراحل شروع تا معرفی بازار و مقیاس های استفاده از آن.”

فورد علیرغم اینکه در رابطه با هوش مصنوعی بسیار نامطمئن است، در بلندمدت به آن خوشبین است: “من فکر می کنم ما می توانیم در مورد همه این خطرات صحبت کنیم و آنها بسیار واقعی هستند، اما با این حال هوش مصنوعی مهمترین ابزار در جعبه ابزار ما برای حل بزرگترین چالش هایی خواهد بود که با آن ها روبرو هستیم”، از جمله تغییرات آب و هوایی. اما وقتی صحبت از آینده نزدیک به میان می آید، شک و تردیدهای او بیشتر نمایان می شود. او گفت: “ما واقعا باید باهوش تر باشیم. طی یکی دو دهه آینده، من نگران این چالش ها و توانایی ما برای سازگاری با آنها هستم.”

به این مطلب چه امتیازی می دهید ؟
[Total: 1 Average: 5]
منبع
seven Dangerous Risks of Artificial Intelligence

یک نظر

  1. یه هوش که تمام توانشو برای باهوش تر شدن و پیشرفت انجام میده( فراخوان ابلیس ) بدون هیچ فهمی از اخلاقیات دنیای انسانها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوشته های مشابه

دکمه بازگشت به بالا