
حين يتحول الذكاء الاصطناعي إلى سلاح: فصل جديد في الأمن السيبراني
أسبوع فاصل في أمن الذكاء الاصطناعي
لسنوات، ظل قطاع الأمن السيبراني يناقش ما إذا كان الذكاء الاصطناعي سيخدم المدافعين أم المهاجمين أكثر. الأسبوع الثالث من فبراير 2026 حسم هذا الجدل بإجابة واضحة: كلاهما، في آنٍ واحد. خلال سبعة أيام فقط، كشفت ثلاث حوادث متفرقة أن الذكاء الاصطناعي لم يعد مجرد أداة لبناء دفاعات أفضل — بل أصبح سطح هجوم، وسلاحاً، وشريكاً غير مقصود في الوقت ذاته. من أول برمجية خبيثة على أندرويد تستخدم الذكاء الاصطناعي التوليدي أثناء التشغيل، إلى خلل في Microsoft Copilot أتاح قراءة رسائل بريد إلكتروني سرية لأسابيع، ووصولاً إلى ثغرة حرجة في SDK يستخدمه المطورون لبناء تطبيقات الذكاء الاصطناعي — الرسالة واضحة. عصر التهديدات المدعومة بالذكاء الاصطناعي قد بدأ، والمؤسسات التي تتعامل مع تبنّي الذكاء الاصطناعي كفرصة فقط تضع نفسها في خطر كبير.
PromptSpy: البرمجية الخبيثة التي تفكر بنفسها
في 19 فبراير، نشر باحثو ESET نتائجهم حول PromptSpy — أول برمجية خبيثة معروفة على نظام أندرويد تستخدم الذكاء الاصطناعي التوليدي أثناء التشغيل. على عكس التهديدات التقليدية التي تعتمد على تعليمات مبرمجة مسبقاً، يتكامل PromptSpy مع واجهة Gemini API من Google للتنقل ديناميكياً عبر واجهة الجهاز. عندما يحتاج لتثبيت وجوده على الجهاز، يلتقط لقطة شاشة ويرسلها إلى Gemini ليحصل على تعليمات خطوة بخطوة لتثبيت نفسه في قائمة التطبيقات الأخيرة. ثم ينفذ هذه الخطوات عبر خدمة إمكانية الوصول في أندرويد، ويتحقق من النتيجة، ويعيد الحلقة حتى ينجح. هذا يعني أن البرمجية تتكيّف تلقائياً مع أي إصدار أندرويد أو جهاز أو واجهة مخصصة — وهي قدرة كانت تتطلب سابقاً أشهراً من الهندسة العكسية اليدوية لكل جهاز.
الحمل الأساسي لبرنامج PromptSpy هو وحدة VNC مدمجة تمنح المشغّلين عن بُعد وصولاً كاملاً إلى الجهاز المصاب. يمكنه التقاط بيانات شاشة القفل، ومنع محاولات الإزالة، وأخذ لقطات شاشة، وتسجيل فيديو لنشاط الشاشة، وسرقة بيانات الجهاز. ورغم أن ESET تشير إلى أن PromptSpy لم يظهر بعد في بيانات القياس الواسعة — مما يوحي بأنه قد يكون لا يزال في مرحلة إثبات المفهوم — إلا أن اكتشاف نطاق توزيع يستهدف مستخدمين في الأرجنتين يشير إلى انتقاله خارج المختبر. وهذه ليست المرة الأولى التي يصادف فيها ESET برمجيات خبيثة مدعومة بالذكاء الاصطناعي: فقد اكتُشف PromptLock، وهو برنامج فدية يعتمد على الذكاء الاصطناعي، في أغسطس 2025. النمط يتسارع.
Microsoft Copilot: حين يقرأ مساعدك الذكي ما لا ينبغي له
في 18 فبراير، أكدت Microsoft أن خللاً في Microsoft 365 Copilot كان يقرأ ويلخص رسائل البريد الإلكتروني المصنفة كسرية بصمت — متجاوزاً سياسات منع فقدان البيانات (DLP) التي تم تكوينها صراحةً لمنع هذا الوصول. الخلل المُتتبَّع تحت رمز CW1226324 اكتُشف لأول مرة في 21 يناير وأثّر على ميزة المحادثة في "علامة تبويب العمل" في Copilot. تسبب الخلل في معالجة Copilot لرسائل في مجلدات العناصر المرسلة والمسودات بشكل خاطئ، بما في ذلك رسائل تحمل تصنيفات سرية مصممة خصيصاً لتقييد وصول الأدوات الآلية. لأسابيع، كانت أداة ذكاء اصطناعي موثوقة في إنتاجية المؤسسات تفعل بالضبط ما صُمِّمت سياسات DLP لمنعه.
لم تكشف Microsoft عن عدد المؤسسات المتأثرة، واكتفت بالإشارة إلى أنها بدأت بنشر إصلاح "في وقت سابق من فبراير" مع استمرار مراقبة المستخدمين المتأثرين. هذا الحادث يطال جوهر تحدٍ أساسي: عندما تدمج نموذج لغة كبير في سير العمل المؤسسي وتمنحه صلاحيات واسعة للوصول إلى البيانات، فإنك فعلياً تنشئ "مطّلعاً داخلياً" بصلاحيات قراءة شبه غير محدودة. سياسات DLP التقليدية صُمِّمت للمستخدمين البشريين والبرمجيات الحتمية — وليس لأنظمة ذكاء اصطناعي احتمالية تفسّر التعليمات بشكل مختلف مع كل استدعاء. هذا الحادث يجب أن يكون جرس إنذار لأي مؤسسة تنشر مساعدات ذكاء اصطناعي لديها صلاحية الوصول إلى بيانات حساسة.
ثغرة Semantic Kernel: فجوة في البنية التحتية لتطوير الذكاء الاصطناعي
لإكمال الثلاثية، تم الكشف عن ثغرة حرجة لتنفيذ التعليمات البرمجية عن بُعد (CVE-2026-26030) في Semantic Kernel Python SDK من Microsoft — وهو الإطار الذي يستخدمه العديد من المطورين لدمج نماذج اللغة الكبيرة في تطبيقاتهم. بتصنيف CVSS يبلغ 9.9 من 10، يمكن لهذه الثغرة أن تسمح للمهاجمين بتنفيذ تعليمات برمجية عشوائية على الخوادم التي تشغّل تطبيقات AI مبنية على Semantic Kernel. الثغرة مثيرة للقلق بشكل خاص لأن Semantic Kernel يقع في الطبقة الأساسية للعديد من عمليات نشر AI المؤسسية. إنه الكود الرابط بين منطق الأعمال ونماذج اللغة، مما يعني أن اختراقه قد يمتد عبر كامل بنية AI. عندما تكون الأدوات التي يستخدمها المطورون لبناء الذكاء الاصطناعي هي نفسها معرّضة للخطر، فإن أمان كل تطبيق مبني عليها يصبح موضع تساؤل.
القاسم المشترك: الذكاء الاصطناعي يوسّع سطح الهجوم
كل حادثة من هذه الحوادث بمفردها تروي قصة تقنية محددة. لكن مجتمعة، تكشف عن نمط منهجي: كل طبقة من بنية الذكاء الاصطناعي أصبحت الآن متجه هجوم محتمل. على طبقة التطبيقات، تُمنح مساعدات الذكاء الاصطناعي صلاحيات وصول تتجاوز حدودها الأمنية. على طبقة البنية التحتية، تحمل أُطر العمل وحزم SDK التي تدعم تطبيقات AI ثغراتها الخاصة. وعلى طبقة الفاعلين المهددين، يسلّح الخصوم نفس قدرات الذكاء الاصطناعي التوليدي التي تتسابق المؤسسات على تبنيها. هذا ليس مصادفة — بل هو النتيجة الحتمية لنشر أنظمة قوية واحتمالية في بيئات صُمِّمت لبرمجيات حتمية يمكن التنبؤ بها.
المخاطر الرئيسية التي تواجهها المؤسسات في هذا المشهد الجديد:
- البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي التي تتكيف آنياً تزيل ميزة تنوع الأجهزة كحاجز دفاعي طبيعي — لم يعد المهاجمون بحاجة لبناء استغلال منفصل لكل جهاز.
- أدوات AI المؤسسية ذات الوصول الواسع للبيانات تصبح فعلياً "مطّلعين داخليين" — قادرة على قراءة وتلخيص وربما تسريب معلومات حساسة بحجم لا يستطيع أي موظف بشري مجاراته.
- مخاطر سلسلة التوريد تمتد الآن إلى أُطر AI وحزم SDK — ثغرة واحدة في مجموعة أدوات تطوير AI واسعة الاستخدام يمكن أن تخترق آلاف التطبيقات المعتمدة عليها في آن واحد.
- ضوابط الأمان التقليدية — جدران الحماية، سياسات DLP، قوائم التحكم في الوصول — صُمِّمت لبرمجيات يمكن التنبؤ بها وتتبع القواعد، وهي غير كافية جذرياً لإدارة أنظمة ذكاء اصطناعي احتمالية.
بناء دفاعات لعصر الذكاء الاصطناعي
هذه الحوادث لا تعني أنه يجب على المؤسسات التخلي عن تبنّي الذكاء الاصطناعي — تكلفة التخلف عن المنافسة مرتفعة جداً. لكنها تتطلب تحولاً جذرياً في كيفية تعامل المؤسسات مع أمن الذكاء الاصطناعي. انتهت أيام التعامل مع أدوات AI كمجرد برنامج مؤسسي آخر. تتطلب أنظمة AI أُطر أمنية مصممة خصيصاً تراعي خصائصها الفريدة: السلوك الاحتمالي، ومتطلبات الوصول الواسع للبيانات، والقدرة على أن تكون أداة وهدفاً في الوقت ذاته.
خطوات عملية يجب على المؤسسات اتخاذها الآن:
- طبّق ضوابط وصول خاصة بالذكاء الاصطناعي. امنح أدوات AI الحد الأدنى من الوصول للبيانات اللازمة لوظيفتها. تعامل مع كل مساعد AI كمطّلع داخلي غير موثوق وطبّق مبادئ عدم الثقة على وصوله للبيانات — بما في ذلك مراقبة المخرجات وتحليل السلوك.
- دقّق في سلسلة توريد AI الخاصة بك. أنشئ فهرساً لكل إطار عمل AI وSDK ومزوّد نماذج في بنيتك التحتية. اشترك في التنبيهات الأمنية لكل منها. أنشئ عملية ترقيع سريعة خاصة بمكونات البنية التحتية للذكاء الاصطناعي، بمعايير SLA صارمة كتلك المطبقة على ترقيعات أنظمة التشغيل.
- انشر مراقبة واعية بالذكاء الاصطناعي. أدوات SIEM وEDR التقليدية تحتاج إلى تعزيز بقدرات كشف خاصة بالذكاء الاصطناعي. راقب استدعاءات API الشاذة لخدمات AI، وأنماط وصول البيانات غير المعتادة من أدوات AI، وسلوك النماذج غير المتوقع الذي قد يشير إلى اختراق أو سوء استخدام.
- طوّر كتيبات استجابة للحوادث خاصة بالذكاء الاصطناعي. إجراءات الاستجابة الحالية على الأرجح لا تغطي سيناريوهات مثل "مساعدنا الذكي سرّب بيانات سرية" أو "مهاجم يستخدم الذكاء الاصطناعي التوليدي للتنقل في أجهزتنا المحمولة." أنشئ كتيبات محددة للحوادث المتعلقة بالذكاء الاصطناعي، تتضمن استراتيجيات احتواء تراعي الطبيعة التكيفية اللحظية للتهديدات المدعومة بالذكاء الاصطناعي.
الطريق إلى الأمام
من المرجح أن يُذكر فبراير 2026 باعتباره الأسبوع الذي لم يعد فيه قطاع الأمن السيبراني قادراً على تجاهل الطبيعة المزدوجة للذكاء الاصطناعي. التكنولوجيا التي تعد بإحداث ثورة في إنتاجية الأعمال تخلق في الوقت ذاته متجهات هجوم لم تُصمَّم بنيتنا الأمنية الحالية للتعامل معها. المؤسسات التي تدرك هذه الازدواجية وتستثمر اليوم في موقف أمني واعٍ بالذكاء الاصطناعي ستكون في وضع أفضل بكثير من تلك التي تُفاجأ بالحادث الحتمي التالي. السؤال لم يعد ما إذا كان الذكاء الاصطناعي سيُسلَّح — فقد حدث ذلك بالفعل. السؤال هو: هل دفاعاتك تتطور بنفس سرعة التهديدات؟