کارشناسان امنیت سایبری میگویند شواهد استفاده از ChatGPT توسط مجرمان حالا بهوضوح قابل مشاهده است. این افراد از این ابزار هوش مصنوعی برای طراحی حملات فیشینگ و بدافزارها استفاده میکنند. ولی همین مسئله میتواند شرکتهای تولیدکننده هوش مصنوعی را در معرض خطر قرار دهد، چون آنها احتمالاً مصونیت قضایی نخواهند داشت.
به گزارش اینسایدر، چتبات ChatGPT کارهای گوناگونی از نوشتن مقاله گرفته تا تحلیل محتوا را انجام میدهد و میتواند سرعت عمل افراد را بالا ببرد. اما این مسئله درخصوص مجرمان سایبری هم صدق میکند. «سرگی شایکِویچ»، محقق شرکت امنیت سایبری Checkpoint، میگوید شواهد استفاده از هوش مصنوعی برای تولید کد در حملات باجافزاری مشهود است.
شایکویچ و تیمش در انتهای سال ۲۰۲۱ شروع به مطالعه درباره پتانسیلهای هوش مصنوعی در کمک به جرایم سایبری کردند و دریافتند که مجرمان با کمک این ابزارها میتوانند ایمیل فیشینگ و کدهای مخرب تولید کنند. شایکویچ میگوید تیم او میخواست ببیند مجرمان واقعاً از هوش مصنوعی در حملات دنیای واقعی استفاده میکنند یا صرفاً بهشکل تئوری آنها را امتحان کردهاند.
ChatGPT واقعاً به مجرمان سایبری کمک میکند
از آنجایی که بهراحتی نمیتوان فهمید یک ایمیل فیشینگ با ChatGPT نوشته شده است یا خیر، محققان برای بررسیهای بیشتر به دارک وب مراجعه کردند. آنها در تاریخ ۲۱ دسامبر ۲۰۲۲ متوجه شدند که مجرمان از این چتبات برای ساخت یک اسکریپت پایتون استفاده کردهاند که در حملات سایبری استفاده میشود. شایکویچ میگوید کد این اسکریپت اشتباهاتی هم داشت، اما بخش عمده آن درست بود.
حالا سوءاستفاده از ChatGPT کارشناسان امنیت را نگران کرده است، چون این ابزارها میتوانند به مجرمانی که دانش فنی کمی دارند، کمک کنند تا حملات خود را پیادهسازی نمایند. پیشتر شرکت Blackberry مدعی شده بود که طبق نظرسنجی آنها، ۷۴ درصد از متخصصان امنیت نگران استفاده از این مدل هوش مصنوعی در جرایم سایبری هستند.
اما از سوی دیگر، کمک ابزارهای هوش مصنوعی به مجرمان سایبری میتواند برای شرکتهای تولیدکننده آنها مشکلساز باشد. اکثر شرکتهای فناوری تحت حمایت ماده ۲۳۰ قانون شایستگی ارتباطات از مسئولیتپذیری در قبال نشر محتوا در پلتفرمهای خود مصون هستند. اما درباره چتباتها، چون این پیشنهادها از جانب خود هوش مصنوعی ارائه میشود، شرکتهایی مثل OpenAI احتمالاً مسئول کمک به مجرمان خواهند بود.