پشت پرده نفوذ هکرها به خطرناکترین هوش مصنوعی جهان
پشت پرده نفوذ هکرها به خطرناکترین هوش مصنوعی جهان
در سال ۲۰۲۶، امنیت سایبری فقط به معنای جلوگیری از نفوذ به سرورها نیست. هوش مصنوعی ابعاد جدیدی از حملات را ممکن ساخته که مستقیماً روان و اعتماد انسان را هدف قرار میدهند.
غزال زیاری- در سالهای اخیر شاهد ظهور مدلهای زبانی بزرگی بودهایم و همین اتفاق، چشمانداز فناوری اطلاعات را بهشدت تغییر داده؛ اما معرفی مدل «کلود میتوس» (Claude Mythos) توسط شرکت آنتروپیک در آوریل ۲۰۲۶، در حقیقت در حکم نقطه عطفی است که فراتر از یک پیشرفت فنی ساده، بهعنوان یک بازتعریف ساختاری در مفهوم امنیت دیجیتال شناخته میشود.
این مدل که در چارچوب پروژه گلسویینگ توسعه یافت، برای اولین بار توانمندیهایی را به نمایش گذاشت که مرزهای بین تحلیل انسانی و محاسبات ماشین در حوزه کشف آسیبپذیریهای نرمافزاری را جابجا کرد؛ اما تناقض بزرگ زمانی به چشم آمد که این مدل که به دلیل بیشازحد خطرناک بودن، بهصورت عمومی منتشرنشده بود، تنها چند هفته بعد از معرفی، با گزارشهایی مبنی بر دسترسی غیرمجاز یک گروه از کاربران پلتفرم دیسکورد روبرو شد.
این اتفاق باعث شد که نهتنها بحث توانمندیهای خیرهکننده هوش مصنوعی در شناسایی حفرههای امنیتی مطرح شود، بلکه از ضعفهای بنیادین در لایههای حفاظتی شرکتهای پیشرو و زنجیره تأمین آنها خبر داد.
معمای میتوس؛ جهشی فراتر از استدلالهای مرسوم
کلود میتوس فقط نسخه بهبودیافته مدلهای قبلی مثل کلود ۴.۶ اپوس نیست؛ بلکه طبق ارزیابیهای فنی، نشاندهنده ورود به عصر «هوش مصنوعی عاملمحور» (Agentic AI) در حوزه امنیت است.
این مدل با تمرکز بر کدهای برنامهنویسی و استدلالهای منطقی پیچیده، توانسته تا در بنچمارکهایی که تا قبل از این برای ماشینها غیرقابلدسترس بود، نمرههای حیرتآوری کسب کند. توانایی میتوس در شناسایی آسیبپذیریهای «روز صفر» که دههها از چشم لایههای دفاعی پنهان مانده بود، حالا صنعت نرمافزار را حیرتزده کرده است.
طبق بررسیهای مقایسهای انجامشده، میتوس در حل چالشهای مهندسی نرمافزار، ۱۳ درصد از نزدیکترین رقیبش موفقتر بوده؛ این بدان معناست که هوش مصنوعی حالا نهتنها قادر است تا کدهای معیوب را پیدا کند، بلکه بهصورت خودمختار، زنجیرهای از حملات چندمرحلهای را برای نفوذ به سیستمهای پیچیده طراحی و اجرا میکند.

امنیت سایبری در عصر هوش مصنوعی: تعریف و لایهها
برای درک عمیقتر ماجرای میتوس، اول باید به این موضوع پرداخت که امنیت سایبری در پیوند با هوش مصنوعی دقیقاً به چه معناست. این مفهوم را میتوان در سه لایه کلیدی بررسی کرد: امنیت برای هوش مصنوعی، هوش مصنوعی علیه امنیت و هوش مصنوعی در خدمت دفاع.
لایه اول: امنیتِ خودِ مدل (Security of AI)
این لایه به محافظت از زیرساختهای هوش مصنوعی در برابر حملات فیزیکی و منطقی اشاره دارد. حملاتی مثل «تزریق دستور» که در آن مهاجم سعی میکند تا با دستورات متنی، لایههای حفاظتی مدل را دور بزند، یا «مسمومسازی دادهها» که هدف آن انحراف مدل در زمان آموزش است.
ماجرای کلود میتوس نشان داد که حتی اگر لایههای منطقی مدل نفوذناپذیر باشند، ضعف در دسترسیهای انسانی و پیمانکاران میتواند تمام زحمات امنیتی را به باد دهد.
لایه دوم: هوش مصنوعی بهمثابه سلاح تهاجمی
در این بخش، هوش مصنوعی برای خودکارسازی حملات سنتی به کار میرود. میتوس ثابت کرده که میتواند با هزینهای ناچیز (حدود ۲۸ دلار برای یک عملیات نفوذ کامل به شبکه سازمانی)، کاری را انجام دهد که پیشازاین تیمهای انسانی خبره با هزینهای در حدود ۵۰ هزار دلار و در طول چندین هفته انجام میدادند.
توانایی تولید بدافزارهای چندشکلی که با هر بار اجرا ساختار خود را تغییر میدهند تا از دید آنتیویروسها پنهان بمانند، از دیگر تهدیدات این حوزه است.
لایه سوم: هوش مصنوعی بهعنوان سنگر دفاعی
از سوی دیگر، سیستمهای دفاعی مبتنی بر هوش مصنوعی قادرند تا ترافیک شبکه را در مقیاس پتا بایت تحلیل کرده و الگوهای مشکوک را در میلیثانیه شناسایی کنند. مدلهایی مثل کلود میتوس با اسکن کدهای منبع، میتوانند باگهای امنیتی را پیش از انتشار نرمافزار پیدا کنند؛ این مزیتی است که شرکت موزیلا در آزمایش مرورگر فایرفاکس به آن دست پیدا کرد و توانست ۲۷۱ حفره امنیتی را به کمک میتوس شناسایی و برطرف کند.

رخنه در کلود میتوس: شکست در لایه انسانی
حادثهای که در آوریل ۲۰۲۶ اعتبار آنتروپیک را به دردسر انداخت، نه یک هک پیچیده، بلکه ناشی از ترکیبی از خطاهای انسانی و ضعف در پروتکلهای دسترسی بود.
ماجرا از این قرار بود که گروهی از کاربران در یک کانال خصوصی دیسکورد موفق شدند تا به پیشنمایش کلود میتوس دسترسی پیدا کنند.
بررسیهای بلومبرگ نشان داد که این گروه از طریق دو نقص اصلی موفق به انجام این کار شدند:
حدس زدن URL: این گروه با استفاده از الگوهای نامگذاری قبلی آنتروپیک و اطلاعات لو رفته از یک استارتآپ دیگر (Mercor)، توانستند آدرس محل قرارگیری مدل روی سرور را حدس بزنند.
اعتبارنامههای مشترک: یکی از اعضای گروه، کارمند یک شرکت پیمانکار آنتروپیک بود و از دسترسیهای خودش برای ورود به سیستم استفاده کرد.
این اتفاق نشان داد که حتی اگر مدل هوش مصنوعی قوانینی برای امتناع از کمک به هکرها هم داشته باشد، امنیت محیطی که مدل در آن میزبانی میشود هنوز هم در حکم پاشنه آشیل است. طبق اعلام آنتروپیک، هیچ نشانهای از نفوذ به سیستمهای مرکزیاش دیده نشده، اما واقعیت این است که خطرناکترین سلاح سایبری جهان برای دو هفته در اختیار افرادی قرار داشت که هیچ نظارتی بر آنها نبود.