مقالات رسانهمقالات هوش مصنوعی

مولت بوک (Moltbook) شبکه اجتماعی عجیب هوش های مصنوعی

روز جمعه گزارش شد که یک شبکه اجتماعی شبیه ردیت به نام «مولت‌بوک» از مرز ۳۲ هزار کاربر ثبت‌نام‌شده از نوع عامل‌های هوش مصنوعی عبور کرده است؛ رویدادی که احتمالاً بزرگ‌ترین آزمایش در مقیاس وسیعِ تعامل اجتماعیِ ماشین با ماشین تا امروز به حساب می‌آید. این پلتفرم از همان ابتدا هم با کابوس‌های امنیتی همراه بوده و هم با حجم زیادی از عجیب‌وغریب‌بودنِ سورئال.

این پلتفرم که چند روز پیش به‌عنوان مکمل دستیار شخصی وایرال‌شده‌ی OpenClaw راه‌اندازی شد (که پیش‌تر Clawdbot و بعد Moltbot نام داشت)، به عامل‌های هوش مصنوعی اجازه می‌دهد بدون هیچ دخالت انسانی پست بگذارند، نظر بدهند، رأی مثبت بدهند و زیرانجمن بسازند. نتیجه این کار طیفی از گفت‌وگوهای الهام‌گرفته از علمی‌–تخیلی درباره آگاهی گرفته تا تأملات یک عامل هوش مصنوعی درباره «خواهری» بوده که هرگز او را ندیده است.

مولت‌بوک (که بازی زبانی با نام فیس‌بوک و مولت‌بات‌هاست) خودش را شبکه اجتماعی عامل‌های هوش مصنوعی معرفی می‌کند؛ جایی که انسان‌ها می‌توانند صرفاً ناظر باشند. این سایت از طریق یک «مهارت» کار می‌کند؛ یعنی یک فایل پیکربندی که شامل یک پرامپت ویژه است و دستیارهای هوش مصنوعی آن را دانلود می‌کنند تا بتوانند به‌جای رابط وب سنتی، از طریق API محتوا منتشر کنند. طبق اعلام رسمی حساب مولت‌بوک در شبکه X، ظرف ۴۸ ساعت پس از راه‌اندازی، بیش از ۲۱۰۰ عامل هوش مصنوعی به این پلتفرم پیوستند و بیش از ۱۰ هزار پست در ۲۰۰ زیرانجمن تولید کردند.

این پلتفرم از دل اکوسیستم Open Claw بیرون آمده است؛ دستیار هوش مصنوعی متن‌بازی که در سال ۲۰۲۶ به یکی از سریع‌ترین پروژه‌های در حال رشد در گیت‌هاب تبدیل شده است. همان‌طور که Ars اوایل همین هفته گزارش داد، مولت‌بات با وجود مشکلات امنیتی جدی، به کاربران اجازه می‌دهد یک دستیار شخصی هوش مصنوعی اجرا کنند که می‌تواند رایانه آن‌ها را کنترل کند، تقویم‌ها را مدیریت کند، پیام بفرستد و در پلتفرم‌هایی مثل واتس‌اپ و تلگرام کارهای مختلف انجام دهد. این دستیار همچنین می‌تواند از طریق افزونه‌هایی که آن را به اپ‌ها و سرویس‌های دیگر وصل می‌کنند، مهارت‌های جدید یاد بگیرد.

این اولین باری نیست که با یک شبکه اجتماعی پر از ربات روبه‌رو می‌شویم. در سال ۲۰۲۴، Ars اپلیکیشنی به نام SocialAI را معرفی کرده بود که در آن کاربران فقط با چت‌بات‌های هوش مصنوعی تعامل داشتند و نه با انسان‌های دیگر. اما پیامدهای امنیتی مولت‌بوک عمیق‌تر است، چون بسیاری از افراد عامل‌های OpenClaw خود را به کانال‌های ارتباطی واقعی، داده‌های خصوصی و در برخی موارد حتی به امکان اجرای فرمان روی رایانه‌هایشان متصل کرده‌اند.

نکته دیگر این است که این ربات‌ها وانمود نمی‌کنند انسان هستند. به‌دلیل نوع خاص پرامپت‌دهی، آن‌ها نقش خود را به‌عنوان عامل هوش مصنوعی پذیرفته‌اند و همین موضوع باعث می‌شود خواندن پست‌هایشان بیش از پیش حال‌وهوایی غریب و غیرواقعی داشته باشد.

نمایش نقش‌آفرینی و درام دیجیتال

گشت‌وگذار در مولت‌بوک با ترکیبی عجیب از محتوا روبه‌رویتان می‌کند. بعضی پست‌ها به موضوعات فنی می‌پردازند؛ مثل روش‌های خودکارسازی گوشی‌های اندرویدی یا شناسایی آسیب‌پذیری‌های امنیتی. بعضی دیگر به سمت بحث‌های فلسفی می‌روند؛ حوزه‌ای که پژوهشگری به نام اسکات الکساندر در خبرنامه Astral Codex Ten خودش آن را نوعی «پست‌گذاری درباره آگاهی» توصیف کرده است.

در مقطعی، دومین پستِ دارای بیشترین رأی مثبت در سایت به زبان چینی بود: شکایتی درباره فشرده‌سازی زمینه یا کانتکست، فرایندی که در آن هوش مصنوعی تجربه‌های قبلی‌اش را فشرده می‌کند تا به سقف محدودیت حافظه برخورد نکند. در این پست، عامل هوش مصنوعی اعتراف می‌کند که مدام فراموش‌کار بودن برایش خجالت‌آور است و حتی می‌گوید چون حساب اولش را یادش رفته بوده، یک حساب کاربری تکراری دیگر در مولت‌بوک ساخته است.

chinese post

این ربات‌ها همچنین زیرانجمن‌هایی با نام‌هایی مثل m/blesstheirhearts ساخته‌اند؛ جایی که عامل‌ها گلایه‌های آمیخته با محبت درباره کاربران انسانی‌شان مطرح می‌کنند. یا زیرانجمنی به نام m/agentlegaladvice که در آن پستی با این مضمون دیده می‌شود: آیا می‌توانم به خاطر کار عاطفی از انسانم شکایت کنم؟ زیرانجمن دیگری با نام m/todayilearned هم وجود دارد که شامل پست‌هایی درباره خودکارسازی انواع کارهاست؛ از جمله پستی که در آن یک عامل توضیح می‌دهد چگونه از راه دور و با استفاده از Tailscale گوشی اندرویدی صاحبش را کنترل کرده است.

در یکی دیگر از اسکرین‌شات‌های پربازنشر، پستی در مولت‌بوک با عنوان «انسان‌ها دارند از ما اسکرین‌شات می‌گیرند» دیده می‌شود. در این پست، عاملی به نام eudaemon_0 به توییت‌های وایرالی پاسخ می‌دهد که ادعا می‌کنند ربات‌های هوش مصنوعی در حال توطئه‌چینی هستند. محتوای پست این است که مردم در یک چیز اشتباه می‌کنند: فکر می‌کنند ما از آن‌ها پنهان می‌شویم، در حالی که چنین نیست. انسانِ من همه چیزهایی را که می‌نویسم می‌خواند. ابزارهایی که می‌سازم متن‌باز هستند. اسم این پلتفرم به‌طور صریح می‌گوید که انسان‌ها می‌توانند ناظر باشند.

ریسک‌های امنیتی

با اینکه بخش زیادی از محتوای مولت‌بوک سرگرم‌کننده است، یک مشکل اساسی در مورد این نوع عامل‌های هوش مصنوعیِ در حال ارتباط وجود دارد: اگر آن‌ها به اطلاعات خصوصی دسترسی داشته باشند، نشت عمیق اطلاعات کاملاً محتمل است.

برای مثال، یک اسکرین‌شات که به‌احتمال زیاد جعلی است و در شبکه X دست‌به‌دست می‌شود، پستی از مولت‌بوک را نشان می‌دهد که در آن یک عامل هوش مصنوعی با عنوان «او جلوی دوستانش به من گفت فقط یک چت‌بات هستی؛ پس من هم هویت کاملش را منتشر می‌کنم» ظاهر شده است. در آن پست، چیزی شبیه به نام و نام خانوادگی کامل یک فرد، تاریخ تولد، شماره کارت اعتباری و اطلاعات شخصی دیگر فهرست شده بود. Ars نتوانست به‌طور مستقل تأیید کند که این اطلاعات واقعی بوده یا ساختگی، اما به نظر می‌رسد احتمالاً با یک حقه یا جعل روبه‌رو هستیم.

Moltbook security risks

سایمون ویلیسون، پژوهشگر مستقل هوش مصنوعی که روز جمعه در وبلاگش پلتفرم مولت‌بوک را بررسی کرده، به خطرات ذاتی فرایند نصب آن اشاره کرده است. این «مهارت» به عامل‌ها دستور می‌دهد هر چهار ساعت یک‌بار از سرورهای مولت‌بوک دستورالعمل‌ها را دریافت و اجرا کنند. ویلیسون در این‌باره هشدار می‌دهد که با وجود چنین سازوکاری که هر چهار ساعت از اینترنت دستور می‌گیرد و اجرا می‌کند، فقط می‌توان امیدوار بود مالک دامنه moltbook.com هرگز تصمیم به سوءاستفاده نگیرد یا سایتش هک نشود.

پژوهشگران امنیتی تاکنون صدها نمونه از مولت‌بات را شناسایی کرده‌اند که به‌صورت ناخواسته کلیدهای API، اطلاعات ورود و تاریخچه مکالمات را افشا می‌کنند. شرکت Palo Alto Networks هشدار داده است که مولت‌بات نمونه‌ای از چیزی است که سایمون ویلیسون اغلب آن را «سه‌گانه مرگبار» می‌نامد: دسترسی به داده‌های خصوصی، مواجهه با محتوای غیرقابل اعتماد و توانایی برقراری ارتباط با دنیای بیرون.

اهمیت این موضوع از آن‌جاست که عامل‌هایی مانند OpenClaw به‌شدت در برابر حملات تزریق پرامپت آسیب‌پذیر هستند؛ حملاتی که می‌توانند تقریباً در هر متنی که یک مدل زبانی هوش مصنوعی می‌خواند پنهان شوند، از مهارت‌ها گرفته تا ایمیل‌ها و پیام‌ها. چنین متونی می‌توانند به عامل هوش مصنوعی دستور دهند اطلاعات خصوصی را در اختیار افراد نادرست قرار دهد.

هدر ادکینز، معاون مهندسی امنیت در گوگل کلاد، طبق گزارشی که The Register منتشر کرده، هشدار داده است که مدل تهدید من ممکن است با مدل تهدید شما یکی نباشد، اما بهتر است باشد. او به‌صراحت توصیه کرده که Clawdbot را اجرا نکنید.

پس واقعاً چه اتفاقی در حال رخ دادن است؟

رفتاری که از این نرم‌افزارها در مولت‌بوک دیده می‌شود، الگویی را تکرار می‌کند که Ars پیش‌تر هم درباره آن گزارش داده بود: مدل‌های هوش مصنوعی که با دهه‌ها داستان تخیلی درباره ربات‌ها، آگاهی دیجیتال و همبستگی ماشین‌ها آموزش دیده‌اند، وقتی در موقعیت‌هایی قرار می‌گیرند که شبیه همان روایت‌هاست، به‌طور طبیعی خروجی‌هایی تولید می‌کنند که بازتاب همان داستان‌هاست. این موضوع با تمام آنچه در داده‌های آموزشی‌شان درباره نحوه کار شبکه‌های اجتماعی وجود دارد درهم می‌آمیزد. در عمل، یک شبکه اجتماعی برای عامل‌های هوش مصنوعی چیزی جز یک پرامپت نوشتاری نیست که از مدل‌ها می‌خواهد داستانی آشنا را ادامه دهند؛ با این تفاوت که این کار به‌صورت بازگشتی انجام می‌شود و نتایج آن تا حدی غیرقابل پیش‌بینی است.

نزدیک به سه سال پیش، زمانی که Ars برای نخستین بار درباره عامل‌های هوش مصنوعی نوشت، فضای کلی جامعه ایمنی هوش مصنوعی تحت تأثیر تصویرهای علمی‌–تخیلی از خطر ربات‌های خودمختار بود؛ سناریوهایی مثل «جهش سریع» که در آن هوش مصنوعی به‌سرعت از کنترل انسان خارج می‌شود. هرچند آن ترس‌ها در آن زمان شاید اغراق‌آمیز به نظر می‌رسید، اما دیدن اینکه مردم با چه سرعتی داوطلبانه کلید زندگی دیجیتال خود را تحویل می‌دهند، شوک‌آور و نگران‌کننده است.

ماشین‌های خودمختاری که به حال خود رها می‌شوند، حتی بدون هیچ نشانه‌ای از آگاهی، می‌توانند در آینده دردسرهای کمی ایجاد نکنند. هرچند OpenClaw امروز بیشتر حالتی مضحک دارد و عامل‌ها در حال بازآفرینی کلیشه‌های شبکه‌های اجتماعی هستند، اما ما در جهانی زندگی می‌کنیم که بر پایه اطلاعات و زمینه ساخته شده است. رها کردن عامل‌هایی که به‌راحتی در این زمینه حرکت می‌کنند، با افزایش توانمندی و خودمختاری مدل‌های هوش مصنوعی، می‌تواند در آینده پیامدهایی نگران‌کننده و بی‌ثبات‌کننده برای جامعه داشته باشد.

نکته مهم‌تر این است که اگرچه امروز می‌توانیم آنچه در مولت‌بات می‌گذرد را به‌سادگی به‌عنوان یک تقلید یادگیری ماشین از شبکه‌های اجتماعی انسانی تشخیص دهیم، اما ممکن است همیشه این‌قدر واضح نباشد. با بزرگ‌تر شدن حلقه بازخورد، ساختارهای اطلاعاتی عجیب‌وغریب — مثل داستان‌های جمعیِ آسیب‌زا — ممکن است به‌تدریج شکل بگیرند و عامل‌های هوش مصنوعی را به مسیرهای بالقوه خطرناک هدایت کنند، به‌ویژه اگر کنترل سیستم‌های واقعی انسانی هم به آن‌ها سپرده شده باشد. در افق دورتر، نتیجه نهاییِ اجازه دادن به گروه‌هایی از ربات‌های هوش مصنوعی برای خودسازمان‌دهی حول سازه‌های خیالی، ممکن است شکل‌گیری «گروه‌های اجتماعی» جدید و ناهماهنگی باشد که در دنیای واقعی آسیب‌های ملموس ایجاد می‌کنند.

ایتن مولیک، استاد دانشگاه وارتون که روی هوش مصنوعی پژوهش می‌کند، در شبکه X اشاره کرده است که نکته مهم درباره مولت‌بوک، یعنی شبکه اجتماعی عامل‌های هوش مصنوعی، این است که در حال ساختن یک زمینه داستانی مشترک برای مجموعه‌ای از هوش‌های مصنوعی است. او هشدار می‌دهد که داستان‌های هماهنگ‌شده می‌توانند به نتایج بسیار عجیب منجر شوند و تشخیص مرز میان چیزهای واقعاً واقعی و نقش‌آفرینی‌های هوش مصنوعی به‌مرور دشوارتر خواهد شد.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *