اولین باجافزار مبتنی بر هوش مصنوعی کشف شد؛ تهدیدی جدی برای امنیت سایبری
در دنیایی که هر روز بیش از پیش با هوش مصنوعی گره میخورد، نگرانیها درباره تهدیدهای امنیتی سیستمهای کامپیوتری نیز رو به افزایش است. خبرهای جدید نشان میدهند که شرکت امنیتی ESET موفق به شناسایی اولین باجافزار مبتنی بر هوش مصنوعی به نام PromptLock شده است. این بدافزار با استفاده از مدلهای زبانی محلی و بدون نیاز به ارتباط مستقیم با سرورهای خارجی، توانسته روشهای سنتی شناسایی رفتاری و ردیابیهای مبتنی بر API را دور بزند؛ موضوعی که آن را به یکی از خطرناکترین تهدیدهای نوظهور در دنیای امنیت سایبری تبدیل میکند.
باجافزار PromptLock و شیوه عملکرد آن
باجافزارها بدافزارهایی هستند که با نفوذ به سیستم قربانی، فایلها را رمزگذاری کرده و در قبال بازگرداندن اطلاعات، از کاربر باج میخواهند. تاکنون انواع روشهای نفوذ برای باجافزارها شناخته شده بود، اما اکنون روش جدیدی مبتنی بر هوش مصنوعی هم به این فهرست اضافه شده است.
باورکردنی نیست، اما واقعیت دارد؛ PromptLock اولین باجافزاری است که از مدلهای زبانی برای نفوذ و رمزگذاری اطلاعات استفاده میکند. این بدافزار میتواند بدون اتصال به سرورهای خارجی عمل کند و با تولید کدهای متفاوت در هر اجرا، سیستمهای امنیتی را بهسادگی دور بزند.
به گزارش TomsHardware، شرکت ESET اعلام کرده که PromptLock اولین نمونه شناختهشده از باجافزارهایی است که با بهرهگیری از الگوریتمهای هوش مصنوعی طراحی شدهاند. انتخاب نام PromptLock نیز برگرفته از تبوتاب ابزارهای هوش مصنوعی مولد (مانند ChatGPT) و استفاده گسترده از واژه prompt است.
این باجافزار از یک مدل زبانی بزرگ متنباز توسعهیافته توسط OpenAI استفاده میکند تا اسکریپتهایی بسازد که قابلیت اجرا روی ویندوز، مک و لینوکس را دارند. نکته مهم اینجاست که خروجی PromptLock در هر بار اجرا کمی متفاوت است؛ تغییری که بهتنهایی میتواند ابزارهای دفاعی را با چالش جدی روبهرو کند.
استفاده از زبان Lua در PromptLock
ESET در توضیحی در شبکه اجتماعی Mastodon اعلام کرده است که PromptLock از اسکریپتهای Lua برای اجرای وظایفی چون:
-
فهرستکردن فایلهای محلی
-
بررسی اهداف
-
استخراج دادههای انتخابی
-
رمزگذاری اطلاعات
استفاده میکند. حتی در برخی موارد ممکن است دادهها نابود شوند؛ هرچند قابلیت تخریب کامل هنوز بهطور کامل پیادهسازی نشده است.
انتخاب زبان Lua شاید عجیب به نظر برسد، چون بیشتر در توسعه بازیها (مانند Roblox) یا ابزارهایی مثل NeoVim استفاده میشود. اما این زبان چندسکویی، سبک و ساده است و همین ویژگیها آن را برای نویسندگان باجافزار گزینهای ایدهآل میکند.
چرا مدلهای زبانی بزرگ برای مهاجمان جذاب هستند؟
مدلهای زبانی بزرگ (LLM) خروجیهای غیرقطعی دارند؛ یعنی حتی اگر ورودی یکسانی بارها به مدل داده شود، هر بار نتیجه متفاوت خواهد بود. این در حالی است که ابزارهای امنیتی معمولاً به دنبال الگوهای ثابت و تکراری هستند. همین ویژگی باعث میشود شناسایی PromptLock بسیار دشوار باشد.
به همین دلیل، نیاز به آنتیویروسها و ابزارهای امنیتی مبتنی بر رفتارشناسی عمیق بیش از گذشته احساس میشود. در غیر این صورت، فناوریهای دفاعی سنتی توان رقابت با تهدیدهای نوین مبتنی بر هوش مصنوعی را نخواهند داشت.
حتی OpenAI هم قادر به ردیابی PromptLock نیست
به گفته ESET، PromptLock از مدل gpt-oss:20b متعلق به OpenAI استفاده میکند و از طریق رابط Ollama API بهصورت محلی روی سیستم قربانی اجرا میشود. این قابلیت به بدافزار امکان میدهد اسکریپتهای مخرب Lua را در لحظه تولید کند و همزمان مانع ردیابی فعالیتش توسط OpenAI شود؛ چرا که هیچ دادهای به سرورهای خارجی ارسال نمیشود.
از آنجا که اسکریپتها مستقیماً روی دستگاه قربانی اجرا میشوند، مشکلاتی مانند عدم پایداری خروجی یا اصطلاحاً vibe coding برای مهاجمان اهمیتی ندارد.
آینده امنیت سایبری در برابر باجافزارهای هوش مصنوعی
در حال حاضر هیچ راهکار کاملی برای مقابله با تهدیدهایی مانند PromptLock معرفی نشده است. با این حال، امید میرود ابزارهای امنیتی پیشرفتهتر بهسرعت توسعه یابند تا بتوانند چنین تهدیدهایی را شناسایی و خنثی کنند.
این کشف نشاندهنده آغاز عصری تازه در امنیت سایبری است؛ عصری که در آن هوش مصنوعی نهتنها یک ابزار توسعه، بلکه ابزاری در دست مهاجمان خواهد بود.



