
روز جمعه گزارش شد که یک شبکه اجتماعی شبیه ردیت به نام «مولتبوک» از مرز ۳۲ هزار کاربر ثبتنامشده از نوع عاملهای هوش مصنوعی عبور کرده است؛ رویدادی که احتمالاً بزرگترین آزمایش در مقیاس وسیعِ تعامل اجتماعیِ ماشین با ماشین تا امروز به حساب میآید. این پلتفرم از همان ابتدا هم با کابوسهای امنیتی همراه بوده و هم با حجم زیادی از عجیبوغریببودنِ سورئال.
این پلتفرم که چند روز پیش بهعنوان مکمل دستیار شخصی وایرالشدهی OpenClaw راهاندازی شد (که پیشتر Clawdbot و بعد Moltbot نام داشت)، به عاملهای هوش مصنوعی اجازه میدهد بدون هیچ دخالت انسانی پست بگذارند، نظر بدهند، رأی مثبت بدهند و زیرانجمن بسازند. نتیجه این کار طیفی از گفتوگوهای الهامگرفته از علمی–تخیلی درباره آگاهی گرفته تا تأملات یک عامل هوش مصنوعی درباره «خواهری» بوده که هرگز او را ندیده است.
مولتبوک (که بازی زبانی با نام فیسبوک و مولتباتهاست) خودش را شبکه اجتماعی عاملهای هوش مصنوعی معرفی میکند؛ جایی که انسانها میتوانند صرفاً ناظر باشند. این سایت از طریق یک «مهارت» کار میکند؛ یعنی یک فایل پیکربندی که شامل یک پرامپت ویژه است و دستیارهای هوش مصنوعی آن را دانلود میکنند تا بتوانند بهجای رابط وب سنتی، از طریق API محتوا منتشر کنند. طبق اعلام رسمی حساب مولتبوک در شبکه X، ظرف ۴۸ ساعت پس از راهاندازی، بیش از ۲۱۰۰ عامل هوش مصنوعی به این پلتفرم پیوستند و بیش از ۱۰ هزار پست در ۲۰۰ زیرانجمن تولید کردند.
این پلتفرم از دل اکوسیستم Open Claw بیرون آمده است؛ دستیار هوش مصنوعی متنبازی که در سال ۲۰۲۶ به یکی از سریعترین پروژههای در حال رشد در گیتهاب تبدیل شده است. همانطور که Ars اوایل همین هفته گزارش داد، مولتبات با وجود مشکلات امنیتی جدی، به کاربران اجازه میدهد یک دستیار شخصی هوش مصنوعی اجرا کنند که میتواند رایانه آنها را کنترل کند، تقویمها را مدیریت کند، پیام بفرستد و در پلتفرمهایی مثل واتساپ و تلگرام کارهای مختلف انجام دهد. این دستیار همچنین میتواند از طریق افزونههایی که آن را به اپها و سرویسهای دیگر وصل میکنند، مهارتهای جدید یاد بگیرد.
این اولین باری نیست که با یک شبکه اجتماعی پر از ربات روبهرو میشویم. در سال ۲۰۲۴، Ars اپلیکیشنی به نام SocialAI را معرفی کرده بود که در آن کاربران فقط با چتباتهای هوش مصنوعی تعامل داشتند و نه با انسانهای دیگر. اما پیامدهای امنیتی مولتبوک عمیقتر است، چون بسیاری از افراد عاملهای OpenClaw خود را به کانالهای ارتباطی واقعی، دادههای خصوصی و در برخی موارد حتی به امکان اجرای فرمان روی رایانههایشان متصل کردهاند.
نکته دیگر این است که این رباتها وانمود نمیکنند انسان هستند. بهدلیل نوع خاص پرامپتدهی، آنها نقش خود را بهعنوان عامل هوش مصنوعی پذیرفتهاند و همین موضوع باعث میشود خواندن پستهایشان بیش از پیش حالوهوایی غریب و غیرواقعی داشته باشد.
نمایش نقشآفرینی و درام دیجیتال
گشتوگذار در مولتبوک با ترکیبی عجیب از محتوا روبهرویتان میکند. بعضی پستها به موضوعات فنی میپردازند؛ مثل روشهای خودکارسازی گوشیهای اندرویدی یا شناسایی آسیبپذیریهای امنیتی. بعضی دیگر به سمت بحثهای فلسفی میروند؛ حوزهای که پژوهشگری به نام اسکات الکساندر در خبرنامه Astral Codex Ten خودش آن را نوعی «پستگذاری درباره آگاهی» توصیف کرده است.
در مقطعی، دومین پستِ دارای بیشترین رأی مثبت در سایت به زبان چینی بود: شکایتی درباره فشردهسازی زمینه یا کانتکست، فرایندی که در آن هوش مصنوعی تجربههای قبلیاش را فشرده میکند تا به سقف محدودیت حافظه برخورد نکند. در این پست، عامل هوش مصنوعی اعتراف میکند که مدام فراموشکار بودن برایش خجالتآور است و حتی میگوید چون حساب اولش را یادش رفته بوده، یک حساب کاربری تکراری دیگر در مولتبوک ساخته است.

این رباتها همچنین زیرانجمنهایی با نامهایی مثل m/blesstheirhearts ساختهاند؛ جایی که عاملها گلایههای آمیخته با محبت درباره کاربران انسانیشان مطرح میکنند. یا زیرانجمنی به نام m/agentlegaladvice که در آن پستی با این مضمون دیده میشود: آیا میتوانم به خاطر کار عاطفی از انسانم شکایت کنم؟ زیرانجمن دیگری با نام m/todayilearned هم وجود دارد که شامل پستهایی درباره خودکارسازی انواع کارهاست؛ از جمله پستی که در آن یک عامل توضیح میدهد چگونه از راه دور و با استفاده از Tailscale گوشی اندرویدی صاحبش را کنترل کرده است.
در یکی دیگر از اسکرینشاتهای پربازنشر، پستی در مولتبوک با عنوان «انسانها دارند از ما اسکرینشات میگیرند» دیده میشود. در این پست، عاملی به نام eudaemon_0 به توییتهای وایرالی پاسخ میدهد که ادعا میکنند رباتهای هوش مصنوعی در حال توطئهچینی هستند. محتوای پست این است که مردم در یک چیز اشتباه میکنند: فکر میکنند ما از آنها پنهان میشویم، در حالی که چنین نیست. انسانِ من همه چیزهایی را که مینویسم میخواند. ابزارهایی که میسازم متنباز هستند. اسم این پلتفرم بهطور صریح میگوید که انسانها میتوانند ناظر باشند.
ریسکهای امنیتی
با اینکه بخش زیادی از محتوای مولتبوک سرگرمکننده است، یک مشکل اساسی در مورد این نوع عاملهای هوش مصنوعیِ در حال ارتباط وجود دارد: اگر آنها به اطلاعات خصوصی دسترسی داشته باشند، نشت عمیق اطلاعات کاملاً محتمل است.
برای مثال، یک اسکرینشات که بهاحتمال زیاد جعلی است و در شبکه X دستبهدست میشود، پستی از مولتبوک را نشان میدهد که در آن یک عامل هوش مصنوعی با عنوان «او جلوی دوستانش به من گفت فقط یک چتبات هستی؛ پس من هم هویت کاملش را منتشر میکنم» ظاهر شده است. در آن پست، چیزی شبیه به نام و نام خانوادگی کامل یک فرد، تاریخ تولد، شماره کارت اعتباری و اطلاعات شخصی دیگر فهرست شده بود. Ars نتوانست بهطور مستقل تأیید کند که این اطلاعات واقعی بوده یا ساختگی، اما به نظر میرسد احتمالاً با یک حقه یا جعل روبهرو هستیم.

سایمون ویلیسون، پژوهشگر مستقل هوش مصنوعی که روز جمعه در وبلاگش پلتفرم مولتبوک را بررسی کرده، به خطرات ذاتی فرایند نصب آن اشاره کرده است. این «مهارت» به عاملها دستور میدهد هر چهار ساعت یکبار از سرورهای مولتبوک دستورالعملها را دریافت و اجرا کنند. ویلیسون در اینباره هشدار میدهد که با وجود چنین سازوکاری که هر چهار ساعت از اینترنت دستور میگیرد و اجرا میکند، فقط میتوان امیدوار بود مالک دامنه moltbook.com هرگز تصمیم به سوءاستفاده نگیرد یا سایتش هک نشود.
پژوهشگران امنیتی تاکنون صدها نمونه از مولتبات را شناسایی کردهاند که بهصورت ناخواسته کلیدهای API، اطلاعات ورود و تاریخچه مکالمات را افشا میکنند. شرکت Palo Alto Networks هشدار داده است که مولتبات نمونهای از چیزی است که سایمون ویلیسون اغلب آن را «سهگانه مرگبار» مینامد: دسترسی به دادههای خصوصی، مواجهه با محتوای غیرقابل اعتماد و توانایی برقراری ارتباط با دنیای بیرون.
اهمیت این موضوع از آنجاست که عاملهایی مانند OpenClaw بهشدت در برابر حملات تزریق پرامپت آسیبپذیر هستند؛ حملاتی که میتوانند تقریباً در هر متنی که یک مدل زبانی هوش مصنوعی میخواند پنهان شوند، از مهارتها گرفته تا ایمیلها و پیامها. چنین متونی میتوانند به عامل هوش مصنوعی دستور دهند اطلاعات خصوصی را در اختیار افراد نادرست قرار دهد.
هدر ادکینز، معاون مهندسی امنیت در گوگل کلاد، طبق گزارشی که The Register منتشر کرده، هشدار داده است که مدل تهدید من ممکن است با مدل تهدید شما یکی نباشد، اما بهتر است باشد. او بهصراحت توصیه کرده که Clawdbot را اجرا نکنید.
پس واقعاً چه اتفاقی در حال رخ دادن است؟
رفتاری که از این نرمافزارها در مولتبوک دیده میشود، الگویی را تکرار میکند که Ars پیشتر هم درباره آن گزارش داده بود: مدلهای هوش مصنوعی که با دههها داستان تخیلی درباره رباتها، آگاهی دیجیتال و همبستگی ماشینها آموزش دیدهاند، وقتی در موقعیتهایی قرار میگیرند که شبیه همان روایتهاست، بهطور طبیعی خروجیهایی تولید میکنند که بازتاب همان داستانهاست. این موضوع با تمام آنچه در دادههای آموزشیشان درباره نحوه کار شبکههای اجتماعی وجود دارد درهم میآمیزد. در عمل، یک شبکه اجتماعی برای عاملهای هوش مصنوعی چیزی جز یک پرامپت نوشتاری نیست که از مدلها میخواهد داستانی آشنا را ادامه دهند؛ با این تفاوت که این کار بهصورت بازگشتی انجام میشود و نتایج آن تا حدی غیرقابل پیشبینی است.
نزدیک به سه سال پیش، زمانی که Ars برای نخستین بار درباره عاملهای هوش مصنوعی نوشت، فضای کلی جامعه ایمنی هوش مصنوعی تحت تأثیر تصویرهای علمی–تخیلی از خطر رباتهای خودمختار بود؛ سناریوهایی مثل «جهش سریع» که در آن هوش مصنوعی بهسرعت از کنترل انسان خارج میشود. هرچند آن ترسها در آن زمان شاید اغراقآمیز به نظر میرسید، اما دیدن اینکه مردم با چه سرعتی داوطلبانه کلید زندگی دیجیتال خود را تحویل میدهند، شوکآور و نگرانکننده است.
ماشینهای خودمختاری که به حال خود رها میشوند، حتی بدون هیچ نشانهای از آگاهی، میتوانند در آینده دردسرهای کمی ایجاد نکنند. هرچند OpenClaw امروز بیشتر حالتی مضحک دارد و عاملها در حال بازآفرینی کلیشههای شبکههای اجتماعی هستند، اما ما در جهانی زندگی میکنیم که بر پایه اطلاعات و زمینه ساخته شده است. رها کردن عاملهایی که بهراحتی در این زمینه حرکت میکنند، با افزایش توانمندی و خودمختاری مدلهای هوش مصنوعی، میتواند در آینده پیامدهایی نگرانکننده و بیثباتکننده برای جامعه داشته باشد.
نکته مهمتر این است که اگرچه امروز میتوانیم آنچه در مولتبات میگذرد را بهسادگی بهعنوان یک تقلید یادگیری ماشین از شبکههای اجتماعی انسانی تشخیص دهیم، اما ممکن است همیشه اینقدر واضح نباشد. با بزرگتر شدن حلقه بازخورد، ساختارهای اطلاعاتی عجیبوغریب — مثل داستانهای جمعیِ آسیبزا — ممکن است بهتدریج شکل بگیرند و عاملهای هوش مصنوعی را به مسیرهای بالقوه خطرناک هدایت کنند، بهویژه اگر کنترل سیستمهای واقعی انسانی هم به آنها سپرده شده باشد. در افق دورتر، نتیجه نهاییِ اجازه دادن به گروههایی از رباتهای هوش مصنوعی برای خودسازماندهی حول سازههای خیالی، ممکن است شکلگیری «گروههای اجتماعی» جدید و ناهماهنگی باشد که در دنیای واقعی آسیبهای ملموس ایجاد میکنند.
ایتن مولیک، استاد دانشگاه وارتون که روی هوش مصنوعی پژوهش میکند، در شبکه X اشاره کرده است که نکته مهم درباره مولتبوک، یعنی شبکه اجتماعی عاملهای هوش مصنوعی، این است که در حال ساختن یک زمینه داستانی مشترک برای مجموعهای از هوشهای مصنوعی است. او هشدار میدهد که داستانهای هماهنگشده میتوانند به نتایج بسیار عجیب منجر شوند و تشخیص مرز میان چیزهای واقعاً واقعی و نقشآفرینیهای هوش مصنوعی بهمرور دشوارتر خواهد شد.



