دولت ها در سرتاسر جهان نمی دانند که برنامه های هوش مصنوعی در کشورهایشان چقدر توسعه یافته است؟ اما این دانش ممکن است برای همه چیز، از سیاست گذاری گرفته تا کشف انواع کلاهبرداریها، حیاتی باشد.
هوش مصنوعی در دهه گذشته راهی طولانی را پیموده است. منابع محاسباتی اختصاص داده شده به این فناوری به طور تصاعدی در حال افزایش اند و به طور متوسط هر چهار ماه یک بار دو برابر می شوند. این نشان دهنده افزایشی ۳۰,۰۰۰,۰۰۰ درصدی از سال ۲۰۱۲ است.
این رشد فضایی، پیامد های بسیار زیادی برای آینده جامعه به همراه دارد. با وجود این پتانسیل، دولت ها در سراسر جهان نمی دانند که کشورشان دقیقا چه میزان در روند هوش مصنوعی نقش دارد، چگونه از آن استفاده میکند، یا این که چگونه باید از مضر بودن آن جلوگیری کنند.
با توجه به این که هوش مصنوعی به عنوان یک مفهوم برای چندین دهه وجود داشته است، نا آگاهی نسبت به آن نگران کننده است. در دهه گذشته، طیف وسیعی از سازمان ها تلاش های تحقیقاتی گسترده ای را با هدف استقرار هوش مصنوعی برای وسایل صنعتی انجام داده اند. چنین تلاش هایی می تواند تأثیر عمیقی بر زندگی مردم داشته باشد.
دانش دقیق از آخرین فناوری های روز از این رو بسیار مهم است که دولت ها بتوانند سیاست های موثری را در مورد هوش مصنوعی و اجرای آن اعمال کنند. به این موضوع فکر کنید: اگر دولت ها دقیقا ندانند که نرخ تورم در هر لحظه چقدر است، تصمیمگیری در مورد اقداماتی برای رشد اقتصادی بسیار دشوارتر خواهد بود. به همین ترتیب، اطلاعات مربوط به ترافیک به دولت سرنخ های مهمی در مورد محل سرمایه گذاری در زیرساخت ها می دهد. اخیرا، همه ما شاهد بوده ایم که چگونه داده های مربوط به Covid-19 منجر به وضع قوانین متفاوتی برای رفتار عمومی شده است.
در همین راستا میتوان گفت که عدم جمع آوری داده های مرتبط در مورد هوش مصنوعی خطرات قابل توجهی به همراه دارد. بدون داده های مربوطه، دولت ها در وضعیت نامطلوبی برای تنظیم هوش مصنوعی خواهند بود و سرمایه گذاری های مالی بیشتر مستعد شکست خواهند بود. برای شروع، باید از گذشته درس بگیریم، زیرا این مسئله قبلا موجب بروز آسیب شده است.
دولت ها و هوش مصنوعی
هوش مصنوعی ممکن است اثرات فوق العاده خوبی بر مراقبت های بهداشتی، انتشار کربن، محصولات کشاورزی پایدار و رشد اقتصادی داشته باشد؛ اما همچنین می تواند صدمات زیادی را نیز به همراه آورد. برای مثال، می تواند به عنوان ابزاری برای سرکوب و نظارت بر غیر نظامیان مورد استفاده قرار گیرد. دومی به این معنی است که به جای این که هوش مصنوعی به منظور توانمندسازی تک تک شهروندان ارائه شود، تمام قدرت در طبقه کوچکی از نخبگان متمرکز شده است.
هوش مصنوعی قبلا موجب بروز آسیب شده است
آیا امروز از هوش مصنوعی استفاده کرده اید؟ اگر زمانی را در شبکه اجتماعی مورد علاقه خود صرف کرده اید، ویدیویی را در Netflix یا YouTube تماشا کرده اید، یا پادکست یا موسیقی را در هر پلتفرم بزرگی پخش کرده اید، پس در این صورت جواب مثبت است.
الگوریتم های هوش مصنوعی در شناخت سلیقه شما و ارائه هر آنچه که در هر لحظه می خواهید، فوق العاده خوب هستند. به همین ترتیب، آن ها در معتاد کردن شما به هر پلتفرمی که از آن استفاده می کنید نیز بسیار خوب هستند.
اما امروزه اعتیاد دیجیتالی تنها یکی از راه هایی است که هوش مصنوعی می تواند از طریق آن باعث آسیب شود. مثال های پیچیده تر مانند هوش مصنوعی Clearview نشان می دهند که چگونه تشخیص چهره میتواند حقوق شناخته شده مربوط به حریم شخصی را تضعیف کند. این شرکت برای ایجاد بزرگترین پایگاه داده از تصاویر افراد در سراسر جهان، وب را دستکاری کرده و به کاربران این امکان را می دهد که عکس هر شخص را با عکس های دیگر در سراسر وب مطابقت دهند. بنابراین به طور بالقوه هویت آن ها آشکار می شود. اکنون، سال ها پس از آغاز به کار این شرکت، اتحادیه اروپا با اقدامات قانونی با آن برخورد کرده است. با این حال، ایالات متحده و بسیاری از کشور های دیگر همچنان سکوت می کنند، زیرا نسبت به قوانین حفاظت از داده ها به آن اندازه سختگیری ندارند.
به طور مشابه، دیپ فیک ها میتوانند از تصاویر یا ویدئوهای هر کسی برای ایجاد محتوای گمراه کننده و افترا آمیز سو استفاده کنند. مطمئنا تحت بسیاری از قوانین موجود، عواقب قانونی وجود دارد، اما آن ها به خوبی تمام آسیب هایی را که یک دیپ فیک میتواند به قربانیان وارد کند، جبران نمی کنند.
در نهایت، بینایی کامپیوتری و الگوریتم های پردازش زبان طبیعی – اگر نگوییم بیشتر- به همان اندازه، تعصبات انسانی را به نمایش می گذارند. برای مثال، وقتی یک الگوریتم بینایی کامپیوتری پیشرفته، تصاویر افراد را برچسب گذاری می کند، این برچسب ها اغلب زن ستیزانه، نژاد پرستانه، سن گرا و حاوی تبعیض بر اساس توانایی افراد هستند. محققان در حال حاضر در حال کار بر روی حذف سوگیری از چنین سیستم هایی می باشند. با این حال، امروزه شرکت هایی از گوگل گرفته تا فیسبوک و حتی بسیاری از شرکت های دیگر که حتی درباره آنها نشنیده اید، از این الگوریتم های معیوب استفاده می کنند و باعث بروز آسیب می شوند.
دولت ها باید سریعا اقدام به عمل کنند
هنگام نوشتن این مقاله، متوجه شدم که بسیاری از این آسیب ها قابل پیشگیری اند. در مقطعی از رونق تحقیقات هوش مصنوعی در دهه گذشته، تنظیم کننده ها میتوانستند نقش فعال تری داشته باشند. این مداخله احتمالا توانایی دادن تخصص لازم برای تدوین قانون مناسب و مجازات بازیگرانی که آن را نقض می کنند را به آن ها داشته است.
با این حال، از آنجایی که دولت ها زودتر وارد عمل نشده اند، اکنون تسلط زیادی بر شرکت هایی که با هوش مصنوعی خود موجب بروز آسیب می شوند، ندارند. این وضعیت، سرمایه گذاری عمومی در هوش مصنوعی را در زمان حال مهم تر می کند. اگر دولت ها نیازی به سرمایه گذاری در زمینه وسیع هوش مصنوعی داشته باشند، به داده هایی برای هدایت آن ها نیاز خواهند داشت.
اگرچه شواهد فراوانی وجود دارد، اما تعیین میزان پیشرفت یک کشور در توسعه قابلیت های هوش مصنوعی به طرز شگفت آوری دشوار است. برای مثال، الگوریتمی که عابران پیاده را برای یک وسیله نقلیه خودران تشخیص میدهد، بسته به نوع جاده، آب و هوا و زمان روز، ممکن است عملکرد متفاوتی داشته باشد. دولت ها باید بتوانند پروتکلی برای بررسی این عملکرد و اقدام قانونی در صورت معیوب بودن چنین الگوریتمی داشته باشند. در غیر این صورت، اگر وسایل نقلیه خودران به عابران پیاده برخورد کنند، اجرای عدالت غیرممکن خواهد بود.
در نتیجه عدم وجود مقررات، اعتماد به چنین فناوری هایی به سرعت از بین می رود و سایر کشورهایی که قوانین بهتر یا الگوریتم های بهتری دارند، نسبت به کشور هایی که در آن ها حوادثی اتفاق افتاده اند، مزیت رقابتی خواهند داشت. البته در وهله اول باید از حوادث پیشگیری کرد. اما در صورت بروز آن ها، این موضوع نباید تاثیر بزرگی بر کل صنعت داشته باشد؛ چرا که این مسئله احتمالا قادر خواهد بود که یک کشور را سال ها به عقب براند.
محاسبه و پیشرفت به طور کامل درک نشده است
به طور شهودی، یک الگوریتم با مجموعه داده های بزرگ تر و رایانه های سریع تر برای آموزش، عملکرد بهتری خواهد داشت. اما در حال حاضر اصلا مشخص نیست که آیا این رابطه بین محاسبه و عملکرد، خطی، نمایی یا چیزی کاملا متفاوت است. به همان اندازه که چگونگی تفاوت این رابطه در انواع مختلف الگوریتم ها و حوزه های مختلف کاربرد مشخص نیست.
با وجود عدم شفافیت فعلی، درک این پیوند برای پیش بینی پیشرفت های آینده در هوش مصنوعی مهم است. به عنوان مثال، اگر کسی متوجه شود که رایانه ای با دو برابر حافظه می تواند مدلی را اجرا کند که سه برابر کارآمد تر است، این نشان می دهد که سرمایه گذاری روی حافظه رایانه ایده بسیار خوبی است. در حال حاضر، مطالعات بزرگ در زمینه بررسی محاسبات، چه در حوزه حافظه، چه گره ها و یا کمیت های دیگر و تاثیرات کمّی شان بر هوش مصنوعی، موجود نیستند.
همان طور که گفته شد، راه حل یک مشکل همیشه صرف منابع بیشتر برای آن نیست، بلکه اختراع الگوریتم های هوشمند تر در محاسبات موجود است. با این حال، شرکت های خصوصی سرمایه گذاری زیادی روی الگوریتم های هوشمند می کنند و تمایل دارند توسعه دهندگان برتر را با ارائه حقوق و مزایای بسیار جذاب به کار گیرند. دولت ها نه می توانند با این کار رقابت کنند و نه باید این کار را انجام دهند. به منظور توسعه قوانینی که به اقتصاد دیجیتال یک کشور کمک می کند، آن ها نیازی به درک دقیق مکانیزم الگوریتم های مختلف ندارند. با این حال، آن ها باید محیطی را فراهم کنند که در آن توسعه الگوریتم های هوشمند امکان پذیر باشد. این موضوع شامل اطمینان از این که محاسبات کافی برای اهداف درست در دسترس است، می شود.
اگر کشور ها می خواهند در آینده دیجیتالی خود سرمایه گذاری کنند، باید روی سخت افزار تمرکز کنند. با توجه به بحران در حال پیشرفت تراشه، این امر به طور ویژه ای مرتبط با موضوع بحث است. به علاوه، شرکت های خصوصی در حال حاضر امور مربوط به نرم افزار را پیش می برند. بنابراین، به منظور ارائه منابع مناسب و ایجاد قوانینی که در طول زمان ارزش خود را ثابت کنند، ممکن است دولت ها نیاز داشته باشند این پیوند را با جزئیات بیشتری بررسی کنند.
شناسایی حوزه های کلیدی برای اولویت های سیاسی
حدود ۸۰ کشور در حال حاضر دارای سیاست های هوش مصنوعی با اولویت های کلیدی بسیار متفاوت هستند. به عنوان مثال، ترکیه ابتکارات زیادی در زمینه هوش مصنوعی برای مراقبت های بهداشتی دارد، بریتانیا چندین ابتکار در زمینه اشتغال دارد و ژاپن بر روی حاکمیت شرکتی تمرکز دارد. این نشان دهنده اولویت هایی است که کشورهای مختلف برای بلند مدت تعیین می کنند و این که آن ها به اندازه کافی مایلند چند میلیون یا میلیارد دلار برای هوش مصنوعی صرف کنند تا کار مورد نظر انجام گیرد.
مسئله این است که شرط بندی، بدون اطلاع از کارت های خود، خطرناک است. من شک ندارم که هر کشوری قبل از انتخاب اولویت های خود تحقیقات کاملی انجام داده است. همان طور که OECD اشاره می کند، در حال حاضر هیچ روش سیستماتیکی برای ارزیابی توانایی های منابع هوش مصنوعی یک کشور وجود ندارد. اندازهگیری پیشرفت به روش استاندارد می تواند به اتخاذ تصمیمات سرمایه گذاری هدفمند تر در آینده کمک کند.
این مسئله به طور ویژه گیج کننده است زیرا امروزه اندازه گیری تأثیر هوش مصنوعی در مشاغل خصوصی، رایج و گسترده است. چنین سنجش هایی شامل مقدار صرفه جویی در هزینه های ناشی از هوش مصنوعی در مقابل الگوریتم سنتی، سرعت انجام وظایف محوله توسط هوش مصنوعی، میزان کمک هوش مصنوعی داخلی به مدیران و تیم ها و غیره می شود. در یک کسب و کار، حتی یک کسب و کار بزرگ، شمارش تعداد رایانه های آن و بررسی این که نرم افزارهای مرتبط با هوش مصنوعی چه میزان از محاسبات را در دست می گیرند، نسبتا آسان است.
با این حال، به نظر می رسد که تلاش برای اندازه گیری منابع عمومی که یک کشور در اختیار دارد بسیار دشوارتر است. آن ها معمولا بزرگ تر از اکثر کسب و کار ها هستند و اغلب دارای ساختار های قدیمی هستند که اهداف بسیار بیشتری را نسبت به مواردی که در یک کسب و کار معمولی انجام می گیرد، دنبال می کنند. OpenAI یکی از معدود گروه های تحقیقاتی است که قبلا برخی از اندازه گیری هایی را پیشنهاد کرده اند که ممکن است روزی تبدیل به استاندارد شوند. کارایی الگوریتمی یکی از این موارد است که محاسبات مورد نیاز برای یک قابلیت خاص، مانند تشخیص گربه ها در مجموعه داده ای از صد هزار تصویر را تبدیل به داده کمّی می کند. اقدامات تکمیلی، شامل کارایی نمونه، کارایی آموزشی و کارایی استنتاجی، از جمله موارد دیگر است.
هر تدابیری که محققان هوش مصنوعی، OECD و دولت ها در نهایت طبق آن تصمیم می گیرند، دارای انگیزه ای روشن است: با ارزیابی این که یک کشور چقدر محاسبات دارد و چه میزان محاسبات بیشتر ممکن است برای توسعه اولویت های کلیدی یک کشور مورد نیاز باشد، دولت بهتر میتواند چنین هزینه هایی را برنامه ریزی کند.
چگونه دولت ها می توانند از اندازه گیری ها استفاده کنند
اگر قانون گذاران بدانند الگوریتم های هوش مصنوعی معمولا چگونه رفتار می کنند، تشخیص ناهنجاری ها و مجازات قانون شکن ها برای آن ها بسیار آسان تر خواهد بود. این یک اقدام یک باره نیست. صنعت روز به روز پیچیده تر می شود و الگوریتم ها به طور مداوم به روز می شوند. بنابراین، قانون گذاران باید به نظارت بر الگوریتم های مختلف ادامه دهند تا مواردی را که با قانون مطابقت ندارند شناسایی کنند.
این نوع نظارت همچنین مقامات دولتی را قادر می سازد تا ترند های مهم را تشخیص دهند. این موضوع به آن ها این امکان را می دهد تا ترند هایی را که سود رسان هستند تشویق کرده و آن هایی را که زیان بار هستند جریمه کنند، به ویژه با استفاده از کمک های بلاعوض یا مالیات.
به عنوان مثال، در مورد شرایط طاقت فرسای نیروی کارگر در آمازون مطالب زیادی نوشته شده است. در سال ۲۰۱۹، مقاله ای منتشر شد که نشان می داد چگونه آمازون از الگوریتم هوش مصنوعی برای اخراج خودکار کارگرانی که به اندازه کافی خوب عمل نمی کردند، استفاده می کرده است. این مقوله ترسناک و ناعادلانه است و نباید در آینده کاری جایی داشته باشد. برای جلوگیری از چنین رویداد هایی در آینده، دولت ها می توانند مالیات های سنگینی برای چنین شیوه هایی وضع کنند، به طوری که شرکت ها انگیزه های کمتری داشته باشند تا با کارگران مانند منابع مصرف کننده ای که شایسته کرامت انسانی نیستند، رفتار کنند.
از طرف دیگر، محققان مایکروسافت موفق شدند یک فناوری با قابلیت طبقه بندی را، برای تجزیه و تحلیل پست های رسانه های اجتماعی و تشخیص این که آیا کاربر از بیماری روانی مانند افسردگی رنج می برد یا خیر آموزش دهند. این برای تحقیقات بهداشت عمومی بسیار مفید است، زیرا به تخمین تعداد افراد مبتلا در حال حاضر کمک می کند. یکی دیگر از کاربردهای احتمالی این طبقه بندیکننده ممکن است برای یک آزمایش آنلاین باشد، که در آن افراد می توانند نمایه های خود را وارد کنند و بفهمند که آیا احتمال دارد افسردگی داشته باشند یا خیر. این موضوع ممکن است به افراد کمک کند سریع تر به دنبال درمان باشند و ذهنیت های نادرست راجع به سلامت روان را بر طرف کند. کمک های مالی دولتی می توانند موجب انجام هر چه بیشتر چنین تحقیقاتی شوند و در امور مفیدی مورد استفاده قرار گیرند.
اندازه گیری ها ممکن است به ایجاد استاندارد های صنعتی نیز کمک کنند. این اندازه گیری ها میتوانند شامل ایمنی، انصاف و استحکام باشند -و باید باشند- که این یعنی توانایی یک الگوریتم برای تولید نتایج قابل مقایسه در محیطهای مختلف.
به عنوان مثال، الگوریتم بینایی هوش مصنوعی یک خودروی خودران همیشه باید بتواند کودکی را که در جاده می پرد در هر آب و هوایی تشخیص دهد. در غیر این صورت، عموم مردم ممکن است اعتماد خود را به هوش مصنوعی از دست بدهند و باعث شود کشور ها از مزایای اقتصادی زیادی محروم شوند.
در نهایت، اندازهگیری و نظارت بر عملکرد هوش مصنوعی همچنین میتواند منجر به هشدار های اولیه برای خطر یا فرصت شود. برای مثال، می دانیم که مدل های زبان عصبی، منابع محاسباتی بیشتری را در بخش خصوصی دریافت می کنند. ما همچنین می دانیم که هر چه این مدل ها محاسبات بیشتری داشته باشند، مزایا و مضرات بیشتری به همراه خواهند داشت.
این بدان معنی است که قانون گذاران باید مراقب باشند و شروع به اعمال سیاست های معقول برای این مدل ها کنند. پیشرفت مستمر در زمینه نظارت، این امکان را به دولت ها میدهد که زودتر مداخله کنند، رشد مثبت را تقویت کرده و از بروز آسیب جلوگیری کنند.
با اشاره به مثال های بخش قبل، می توان گفت که هر چه هوش مصنوعی آمازون پیشرفته تر شود، می تواند به طور خودکار کارگران بیشتری را اخراج کند. شایان ذکر است که آمازون استفاده از این هوش مصنوعی را متوقف کرده است؛ اما اگر این شرکت یا شرکت دیگری از نسخه بهتری از آن در آینده استفاده کنند، این موضوع نتایج وحشتناکی به همراه خواهد داشت. به همین ترتیب، اگر الگوریتم تشخیص افسردگی مایکروسافت پیشرفته تر شود، به طور بالقوه می تواند به افراد بیشتری کمک کند؛ پس اگر دولت ها ارتباط خود را با موقعیت کشورشان در زمینه هوش مصنوعی قطع کنند، ممکن است از اخراج خودکار کارگران جلوگیری نکنند و باعث پیشرفت در کمک به افراد مبتلا به افسردگی نشوند.
پروژه های آزمایشی یا نظارت هوش مصنوعی برای مبتدیان
اگر چه سیاست هوش مصنوعی سال ها یک موضوع بحث داغ بوده است، ناشناخته های زیادی وجود دارد و در حال حاضر هیچ استاندارد طلایی برای اندازهگیری منابع محاسباتی ارائه نشده است. با وجود این، اتحادیه اروپا که به عنوان پیشگام در این زمینه خدمت می کند، یک قانون تاثیرگذار تنظیم کرده است. با این حال، منتقدان خود را دارد، زیرا ما از امروز به لحاظ فنی قادر به اجرای بسیاری از قوانین نیستیم.
برای مثال، اتحادیه اروپا اصرار دارد که سوگیری الگوریتمی ممنوع است. با وجود پیشرفت های زیاد، هیچکس نمی داند در حال حاضر چگونه می توان به طور کامل سوگیری در هوش مصنوعی را دور زد. حتی با نادیده گرفتن موارد این موارد، صرف امر تشخیص سوگیری میتواند مشکل باشد. این تنها یکی از بسیاری از حوزه هایی است که اجرای قوانین وضع شده توسط اتحادیه اروپا در آن دشوار است.
فقط زمان نشان خواهد داد که آیا قانون هوش مصنوعی اروپا برای آینده قابل اجرا خواهد بود یا خیر. چنین سیاستی، اتحادیه اروپا را از ایالات متحده که فاقد این نوع قانون است متمایز می سازد. این مقررات همچنین اتحادیه اروپا را در نظر دیگر کشور ها، تبدیل به یک مرکز هوش مصنوعی جالب تر می کنند. اگرچه اتحادیه اروپا قطعا به توسعه قانون خود ادامه خواهد داد، اما جهت کلی و اولویت های این قانون مشخص است. این امر راه اندازی فروشگاه و برنامه ریزی بلند مدت را برای کسب و کار ها آسان تر می کند. در مقابل، کسبوکارهای هوش مصنوعی در ایالات متحده با عدم قطعیت بیشتری روبرو هستند، زیرا قوانین جدید می توانند به سمت و سوی مختلفی پیش بروند.
صرف نظر از این که یک منطقه قوانین اولیه را در دست اجرا دارد یا خیر، دولت ها باید بررسی گزینه های خود را آغاز کنند. همان طور که کلارک و ویتل استون در مقاله خود اشاره می کنند، پروژه های آزمایشی ممکن است دقیقا همین کار را انجام دهند. برای مثال، دولت ها می توانند ارزیابی سوگیری ها در مدل های هوش مصنوعی را آغاز کرده و مجموعه داده هایی را که موجب ایجاد مدل های سو گرفته می شوند، بهبود بخشند. منطق این امر ساده است: با ارائه یک مجموعه داده با سوگیری کمتر، مدل های سوگیرنده کمتری به دست می آید. این را می توان از طریق تحقیقات داخلی و بررسی نوشتجات یا با مشورت با کارشناسان صنعت به طور منظم به دست آورد.
یک پروژه آزمایشی برای نظارت بر پیشرفت هوش مصنوعی در بخش های مختلف اقتصادی میتواند به شناسایی چگونگی تاثیر هوش مصنوعی بر صنایع مختلف به روشی دقیق تر کمک کند. این مقوله به دولت کمک می کند تا برای آینده آماده شود. برای مثال، این دادهها می توانند به دولت ها اجازه دهند تا برنامه هایی برای بازآموزی گروه های خاصی از کارگران، که ممکن است ظرف چند سال شغلشان از بین برود، ایجاد کنند.
ایده سوم میزبانی مسابقات در حوزه های مهم اقتصادی مانند استخدام، مسکن، قرارداد های قانونی یا امنیت سایبری است. این مسابقات به دریافت دیدی عینی از وضعیت هوش مصنوعی کمک می کنند، زیرا شرکت کنندگان احتمالا از فناوری های پیشرفته مختلف استفاده خواهند کرد. با میزبانی مکرر یک نوع رقابت، دولت ها می توانند پیشرفت فناوری های مربوطه را نیز دنبال کنند؛ برای مثال، با مشاهده پیشرفت از سالی به سال دیگر، امکان پیش بینی سرعت رشد در سال های آینده وجود خواهد داشت.
نابودی قریب الوقوع؟
کلارک و ویتل استون تصویری بسیار تاریک از آینده را ترسیم می کنند و این تصویر در صورتی به وقوع می پیوندد که دولت ها قدمی نگذارند و وضعیت هوش مصنوعی را بررسی نکنند. آن ها پیش بینی می کنند که شرکت های خصوصی بیشتر به سود نهایی خود اهمیت می دهند تا منافع بزرگ تر، بنابراین هوش مصنوعی را تبدیل به وسیله ای برای استثمار و بی عدالتی اجتماعی می کنند.
علاوه بر این، در مواقعی که دولت ها مجبور به دخالت می شوند، ممکن است تصمیم های عجولانه و نا آگاهانه ای بگیرند که به طور بالقوه منجر به عواقب فاجعه بار می شوند. در نهایت، بخش خصوصی ممکن است استاندارد های صنعتی خود را بسازد. با این حال، این سازمان ها کمتر به منافع عمومی و بیشتر به قدرت شرکت های فردی اهمیت می دهند.
موارد فوق ممکن است پیش بینی های تاریکی باشند، اما احتمالا تنها در صورتی محقق می شوند که دولت ها اصلا کاری انجام ندهند. خوشبختانه، دولت ها به وسیله زنگی که OECD مدتیست به صدا در آورده است، در حال بیدار شدن هستند. همان طور که هوش مصنوعی از نظر اقتصادی اهمیت بیشتری پیدا می کند، بعید است که دولت ها همچنان چشم خود را بر روی پیشرفت های آن ببندند.
کنترل منصفانه پیشرفت
زمان اقدام فرا رسیده است، به ویژه برای ایالات متحده. شرکت های چینی از لحاظ تاریخی با دولت همکاری نزدیکی دارند، بنابراین غیر منطقی به نظر می رسد که تصور کنیم دولت چین به بسیاری از شرکت های مجهز به هوش مصنوعی خود بی توجه بوده است. اروپا پیش نویس قانون جاه طلبانه ای را تهیه کرده است که قصد دارد در آینده آن را بهبود بخشد.
هوش مصنوعی ممکن است اثرات فوق العاده خوبی بر مراقبت های بهداشتی، انتشار کربن، محصولات کشاورزی پایدار و رشد اقتصادی داشته باشد؛ اما همچنین می تواند صدمات زیادی را نیز به همراه آورد، برای مثال، میتواند به عنوان ابزاری برای سرکوب و نظارت بر غیر نظامیان مورد استفاده قرار گیرد. دومی به این معنی است که تمام قدرت در طبقه کوچکی از نخبگان متمرکز شده است، به جای اینکه هوش مصنوعی به منظور توانمند سازی تک تک شهروندان ارائه شود. برای اقدام و شروع چند پروژه آزمایشی خیلی دیر نیست.