البرمجيات الخبيثة المولّدة بالذكاء الاصطناعي: السلاح الجديد في الهجمات السيبرانية 2026

في مارس 2026، كشف فريق IBM X-Force عن برمجية خبيثة أُطلق عليها اسم Slopoly — وهي أول حالة موثّقة لبرمجية خبيثة تم توليدها بالكامل بواسطة الذكاء الاصطناعي، نشرتها مجموعة Hive0163 الإجرامية في حملة فدية استهدفت المؤسسات. هذه الإشارة تمثّل نقطة تحوّل: المجرمون السيبرانيون لم يعودوا يستخدمون الذكاء الاصطناعي فقط لتسريع الهجمات — بل أصبحوا يفوّضونه بإنشاء أدوات هجومية جديدة.
مع ارتفاع بنسبة 1,265% في هجمات التصيّد المرتبطة بالذكاء الاصطناعي وفقاً لـ SentinelOne، وتقرير CERT-FR (ANSSI) الذي يؤكد الدمج التدريجي للذكاء الاصطناعي التوليدي في أدوات المهاجمين، فإن عام 2026 هو العام الذي انتقلت فيه التهديدات السيبرانية بالذكاء الاصطناعي من النظرية إلى الواقع.
Slopoly: تشريح أول برمجية خبيثة مولّدة بالذكاء الاصطناعي
رصد فريق IBM X-Force برمجية Slopoly أثناء التحقيق في هجوم فدية نفّذته مجموعة Hive0163 المتخصصة في سرقة البيانات على نطاق واسع والابتزاز.
ما الذي يميّز Slopoly
- كود مولّد بنموذج لغوي: أسماء المتغيرات وبنية الكود والتعليقات تحمل بصمات مميزة لتوليد النماذج اللغوية
- تجاوز حواجز الأمان: تم التلاعب بالنموذج لإنتاج كود خبيث صريح، مما يشير إلى نجاح تجاوز إجراءات السلامة في النموذج اللغوي
- استمرارية ممتدة: حافظت البرمجية الخبيثة على وصول مستمر للخادم المستهدف لأكثر من أسبوع قبل اكتشافها
- جودة متواضعة: يشير IBM إلى أن جودة الكود تدل على استخدام نموذج أقل تطوراً، ومع ذلك نجح الهجوم
الخلاصة الأساسية: حتى البرمجيات الخبيثة المتواضعة المولّدة بالذكاء الاصطناعي يمكن أن تُحدث أضراراً كبيرة. لا يحتاج المهاجمون إلى GPT-4 لاختراق مؤسسة — نموذج مفتوح المصدر بسيط يكفي.
لماذا البرمجيات الخبيثة بالذكاء الاصطناعي أكثر خطورة
البرمجيات الخبيثة التقليدية تترك بصمات معروفة (توقيعات) تكتشفها برامج مكافحة الفيروسات. البرمجيات الخبيثة المولّدة بالذكاء الاصطناعي تطرح مشكلة جوهرية:
- تعدد الأشكال الأصيل: كل نسخة فريدة، مما يجعل الكشف القائم على التوقيعات شبه مستحيل
- التكيّف الفوري: برمجية PromptLock الفدية، التي رُصدت أيضاً في 2026، تستخدم نموذجاً لغوياً لتعديل نصوصها البرمجية بناءً على الأخطاء المواجَهة
- سرعة الإنتاج: يمكن للمهاجم توليد عشرات النسخ المختلفة في دقائق
- صعوبة التتبع: أسلوب كود الذكاء الاصطناعي يطمس علامات التتبع المعتادة للمجموعات الإجرامية
التصيّد بالذكاء الاصطناعي: التهديد الأول للمؤسسات
بينما تتصدّر البرمجيات الخبيثة بالذكاء الاصطناعي العناوين، فإن التصيّد المولّد بالذكاء الاصطناعي هو التهديد الأكثر فورية وتكلفة للمؤسسات في 2026.
الأرقام التي يجب أن تقلقك
| المؤشر | البيانات |
|---|---|
| ارتفاع هجمات التصيّد بالذكاء الاصطناعي | +1,265% (SentinelOne) |
| معدل نجاح رسائل الذكاء الاصطناعي | 60% من المستلمين يقعون في الفخ (Harvard) |
| متوسط تكلفة الاختراق | 4.88 مليون دولار (IBM) |
| الشركات المتضررة من BEC | 64% في الولايات المتحدة، خسارة متوسطة 150,000 دولار |
| توفير التكاليف للمهاجمين | تخفيض 95% باستخدام النماذج اللغوية |
| الحملات الأسبوعية بثغرات يوم الصفر | أكثر من 40,000 مكتشفة |
لماذا التصيّد بالذكاء الاصطناعي فعّال جداً
أزال الذكاء الاصطناعي التوليدي المؤشرَين الأساسيَين اللذَين كانا يساعدان الموظفين على اكتشاف التصيّد:
- لا مزيد من الأخطاء الإملائية: النماذج اللغوية تنتج نصوصاً مثالية بالإنجليزية أو العربية أو الفرنسية، مكيّفة مع أسلوب الشركة المستهدفة
- تخصيص واسع النطاق: يحلل الذكاء الاصطناعي حسابات LinkedIn والمنشورات الداخلية والهياكل التنظيمية لصياغة رسائل مخصصة
حذّر مكتب التحقيقات الفيدرالي (FBI) من أن الذكاء الاصطناعي "يزيد بشكل كبير من سرعة ونطاق وأتمتة" حملات التصيّد. يحتاج المهاجم فقط إلى 5 أوامر و5 دقائق لبناء هجوم تصيّد بنفس فعالية هجوم استغرق خبيراً بشرياً 16 ساعة.
التزييف العميق: عندما تصبح مكالمات الفيديو نقاط هجوم
في سبتمبر 2025، حوّل موظف في شركة Arup مبلغ 25 مليون دولار بعد مكالمة فيديو مع تزييفات عميقة بالذكاء الاصطناعي انتحلت شخصية المدير المالي والمراقب المالي. كل المشاركين في المكالمة كانوا مولّدين بالذكاء الاصطناعي.
التزييف العميق في المؤسسات عام 2026
- التزييف العميق كخدمة: منصات إجرامية تقدم توليد فيديو وصوت مزيّف عند الطلب
- استنساخ الصوت الفوري: أقل من 3 ثوانٍ من التسجيل الصوتي كافية الآن لاستنساخ صوت بشكل مقنع
- احتيال الرئيس التنفيذي: تُستخدم التزييفات الصوتية العميقة لإصدار أوامر تحويل مالي بتقليد أصوات المديرين التنفيذيين
يشير تقرير ANSSI رقم CERTFR-2026-CTI-001 إلى أن "الذكاء الاصطناعي التوليدي يُدمج تدريجياً في مجموعة الأدوات" المستخدمة من قبل المجرمين السيبرانيين، مميّزاً بين نوعين: الفاعلون المتقدمون الذين يستخدمونه كـمضاعف أداء، والأقل خبرة الذين يستفيدون منه كـأداة تعلّم.
كيف تحمي مؤسستك من التهديدات السيبرانية بالذكاء الاصطناعي
الدفاع التقليدي (مكافحة الفيروسات + جدار الحماية + تدريب عرضي) لم يعد كافياً ضد الهجمات المولّدة ديناميكياً. إليك الركائز الخمس للدفاع المناسب.
1. الكشف السلوكي، لا التوقيعات
البرمجيات الخبيثة المتعددة الأشكال المولّدة بالذكاء الاصطناعي تتجاوز مكافحة الفيروسات التقليدية. اعتمد حلول EDR/XDR التي تحلل سلوك العمليات بدلاً من التوقيعات:
- مراقبة الحركة الجانبية غير الطبيعية
- كشف أنماط سرقة البيانات غير المعتادة
- تحليل أنماط الوصول إلى الملفات الحساسة
2. حماية البريد الإلكتروني الأصلية بالذكاء الاصطناعي
فلاتر البريد المزعج التقليدية لم تعد كافية. انشر حلولاً تستخدم الذكاء الاصطناعي نفسه لكشف التصيّد بالذكاء الاصطناعي:
- التحليل الدلالي لمحتوى البريد الإلكتروني
- كشف الشذوذ في الأسلوب مقارنة بالاتصالات المعتادة
- التحقق الفوري من الروابط والمرفقات في بيئات معزولة
3. التحقق من الهوية بالتشفير
مع التزييف العميق، الثقة البصرية والصوتية لم تعد كافية:
- المصادقة متعددة العوامل المنهجية لجميع التحويلات المالية والقرارات الحساسة
- كلمات سر داخلية للتحقق من الطلبات الهاتفية العاجلة
- التوقيعات الرقمية للوثائق والاتصالات الحرجة
- سياسة معاودة الاتصال: اتصل دائماً على الرقم الرسمي، وليس الرقم المذكور في الرسالة
4. التدريب المستمر والمحاكاة
97% من متخصصي الأمن السيبراني يخشون أن تؤثر حوادث الذكاء الاصطناعي على مؤسساتهم. يجب أن يتطوّر التدريب:
- محاكاة شهرية للتصيّد بالذكاء الاصطناعي (وليس سنوية)
- تمارين التزييف العميق: تعلّم اكتشاف العيوب البصرية وطلب التحقق البديل
- ثقافة الشك: تطبيع التحقق من الطلبات، حتى من الرؤساء
5. التجزئة والثقة المعدومة
حتى لو اخترق المهاجم الشبكة عبر برمجية خبيثة بالذكاء الاصطناعي، حدّ من الأضرار ببنية الثقة المعدومة:
- التجزئة الدقيقة للشبكة
- الوصول بأقل الصلاحيات لكل مستخدم وكل وكيل ذكاء اصطناعي
- المراقبة المستمرة للجلسات المصادق عليها
ما تقوله ANSSI: التوصيات الرسمية
يقدم تقرير CERTFR-2026-CTI-001 من ANSSI (فبراير 2026) رؤى مؤسسية أساسية:
- لا يوجد نظام ذكاء اصطناعي حتى الآن يُنفّذ هجوماً سيبرانياً بالكامل بشكل مستقل — لكن كل مرحلة فردية يمكن أن تكون مدعومة بالذكاء الاصطناعي
- أنظمة الذكاء الاصطناعي نفسها أهداف: تسميم النماذج، سرقة بيانات التدريب، اختراق سلسلة التوريد البرمجية
- يجب على المؤسسات تكييف دفاعاتها مع وتيرة تطور أدوات الهجوم القائمة على الذكاء الاصطناعي
الاستعداد لعام 2027: سباق تسلّح الذكاء الاصطناعي
يصف فريق IBM X-Force الوضع الحالي بأنه "المرحلة الأولى من سباق تسلّح ناشئ بين الذكاء الاصطناعي الهجومي والمدافعين." إليك ما ينتظرنا:
- برمجيات خبيثة مستقلة: وكلاء ذكاء اصطناعي قادرون على التكيّف مع الدفاعات في الوقت الفعلي والحفاظ على وجودهم لأسابيع
- هجمات منسّقة متعددة النواقل: تصيّد بالذكاء الاصطناعي + تزييف عميق + برمجية خبيثة متكيّفة في حملة واحدة
- ديمقراطية الأدوات الهجومية: النماذج مفتوحة المصدر تجعل إنشاء البرمجيات الخبيثة بالذكاء الاصطناعي متاحاً لمجموعات أقل تطوراً
الخبر الجيد: نفس تقنيات الذكاء الاصطناعي التي تُسلّح المهاجمين تُعزّز أيضاً المدافعين. حلول أمن الكود المولّد بالذكاء الاصطناعي والكشف السلوكي والتحليل التنبؤي تتقدم بنفس الوتيرة.
الخلاصة
ظهور Slopoly وانفجار هجمات التصيّد بالذكاء الاصطناعي ليسا حوادث معزولة — إنهما يمثلان تحولاً هيكلياً في مشهد التهديدات السيبرانية. المؤسسات التي تتأخر في التكيّف تواجه مخاطر متزايدة كل شهر.
ثلاثة إجراءات ذات أولوية يجب اتخاذها الآن:
- دقّق في تعرّضك: هل يمكن لحلولك الأمنية كشف التهديدات المتعددة الأشكال بالذكاء الاصطناعي؟
- درّب فرقك: هل يستطيع موظفوك اكتشاف التصيّد بالذكاء الاصطناعي أو الاستجابة للتزييف العميق؟
- اعتمد الثقة المعدومة: هل بنيتك التحتية تحدّ من الأضرار في حال الاختراق؟
الأمن السيبراني في 2026 لم يعد يتعلق ببناء جدران أعلى — بل يتعلق بـالتحقق المستمر والذكاء التكيّفي.
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.