




الذكاء الاصطناعي الحتمي (Deterministic) + الوكيلي (Agentic): هاد هي الهندسة اللي كيحتاجها التحقق من التعرض للمخاطر (Exposure Validation)
الذكاء الاصطناعي الحتمي (Deterministic) + الوكيلي (Agentic): هاد هي الهندسة اللي كيحتاجها التحقق من التعرض للمخاطر (Exposure Validation)
خلاصة القول (TL;DR): وخا الذكاء الاصطناعي (AI) ولا دابا ضرورة ملحة في اجتماعات مجالس الإدارة بخصوص الأمن المعلوماتي، إلا أن الموديلات اللي كتعتمد كلياً على الـ "Agentic AI" (الذكاء الاصطناعي الوكيلي) غالباً ما كتفتقر للقدرة على تكرار النتائج، وهادشي ضروري في اختبارات الأمن ديال الشركات الكبيرة. كاين حاجة لهندسة هجينة—كتجمع بين المنطق الحتمي (Deterministic) والتكيف اللي كيعطيه الذكاء الاصطناعي—باش نضمنوا باللي التحقق من الأمن كيبقى مستقر، قابل للقياس، وموثوق.
الانتقال ديال الذكاء الاصطناعي من مجرد تجربة فضولية لضرورة كطلبها الإدارة العليا وقع بواحد السرعة خيالية. على حساب تقرير Pentera للأمن والتعرض للمخاطر بذكاء اصطناعي 2026، هاد الزخم واضح بزاف: كاع الرؤوس ديال أمن المعلومات (CISOs) اللي تشملهم الاستطلاع أكدوا باللي الذكاء الاصطناعي ديجا مدمج في العمليات ديال المنظمات ديالهم.
بما أن فرق الأمن كيتعاملوا مع بيئات ديناميكية وتقنيات هجوم متغيرة، التحول نحو اختبارات أمنية مدعومة بالذكاء الاصطناعي ما بقاش اختيار—ولا ضرورة. باش "تحارب النار بالنار"، الشركات كيقلبوا على أدوات كتعطي توليد لحمولات (payloads) متكيفة وتعديلات فورية في التنفيذ. ومع ذلك، بان واحد النقاش هندسي مهم: واش التحقق من الأمن خصه يكون وكيلي (agentic) بالكامل، ولا خصه أساس حتمي (deterministic)؟
عيوب "الوكالة" الكاملة للذكاء الاصطناعي (Pure AI Agency)
في نظام وكيلي بالكامل، التفكير ديال الذكاء الاصطناعي هو اللي كيسير التنفيذ من البدية تال اللخر. وخا هادشي كيعطي استقلالية كبيرة وقدرة على التكيف مع البيئات المعقدة، كيطرح مشكل كبير للبرامج الأمنية المنظمة: التغير (Variability).
بزاف ديال تطبيقات الذكاء الاصطناعي كتعبر التغير "ميزة". مثلاً المساعد في الكودينغ، إلى عطاك بزاف ديال الحلول صحيحة، هادي علامة على الإبداع. ولكن في التحقق من الأمن، هاد التغير كيتعتبر خطر. إلا كانت المنهجية اللي ورا الاختبار الأمني كتبدل كل مرة فاش كيتخدم، كيولي مستحيل تعرف واش الوضع الأمني تحسن فعلاً، ولا غير الذكاء الاصطناعي هو اللي اختار طريق أخرى هاد المرة.
بالنسبة لفرق الأمن، التكرار والاستقرار (Consistency) هو الساس ديال القياس. باش تقدر تقارن الأداء (benchmark) مع مرور الوقت، النظام خصه يكون قادر يعاود يعطيك نفس النتائج في نفس الظروف.
حدود "الإنسان في الحلقة" (Human-in-the-Loop)
كاينين بعض الموردين كيحاولوا يحلوا مشكل الموثوقية ديال الـ Agentic AI بأنهم كيدخلوا "بشر في الحلقة". وفي هاد الحالة، المحللين كيرجعوا ويوافقوا على القرارات ديال الذكاء الاصطناعي.
وخا هادشي كيزيد من مستوى السلامة، إلا أنه ما كيحليش المشكل الأساسي ديال تكرار النتائج. كيبقى النظام "احتمالي"؛ يعني في نفس ظروف البدية، الذكاء الاصطناعي يقدر مازال ينتج تسلسلات مختلفة من الأفعال. هادشي كيرجع العبء ديال الحفاظ على الاستقرار على عاتق الإنسان، كيزيد الجهد اليدوي، وكيضرب الهدف من الأتمتة (automation) في زيرو.
الحل الهجين: أساسات حتمية (Deterministic Underpinnings)
أفضل هندسة لـ "التحقق من التعرض للمخاطر" هي الموديل الهجين. هاد المقاربة كتخدم بالمنطق الحتمي (Deterministic logic) باش تحدد كيفاش كيتنفذوا سلاسل الهجوم، وهادشي كيعطي بنية مستقرة وكيتعاود تنفيذها بنفس الطريقة. من بعد، كيجي دور الذكاء الاصطناعي باش يطور هاد العملية—كيفسر الإشارات اللي جاية من البيئة وكيقوم بتكييف الحمولات (payloads) بلا ما يعاود يكتب منهجية الهجوم كاملة.
علاش هاد الفرق مهم:
- إعادة اختبار محكومة: ملي كيتعرفوا على تقنية ديال تصعيد الامتيازات (privilege escalation)، الموديل الهجين كيسمح بإعادة تنفيذها في نفس الظروف بالضبط.
- التحقق من الإصلاح (Remediation): مورا ما كيدار التعديل أو "الفييكس"، يمكن تنفيذ نفس التسلسل بالضبط مرة أخرى. إلا تسدت الثغرة، الفريق كيعرف باللي الإصلاح خدم، ماشي حقاش الذكاء الاصطناعي مابقاش مهتم بديك الطريق المعينة.
- ذكاء مستقر: الذكاء الاصطناعي كيقوي عملية التحقق ملي كيحسن موديل تنفيذ مستقر، ماشي ملي كيعاود يعرفه من جديد في كل حصة.
من أحداث دورية لـ "تحقق مستمر"
الحاجة لهندسة هجينة كتولي واضحة كثر فاش المنظمات كيبداو يتحولوا لـ "التحقق المستمر" (continuous validation). اختبارات الأمن بدات كتحول من حدث كيدار مرة في العام أو كل ست شهور، لشي حاجة كدار كل سيمانة أو حتى كل نهار.
بهاد الوتيرة، فرق الأمن ما يقدروش يبقاو يراقبوا التفكير اللي مور كل اختبار بوحده. خاصهم يثيقوا باللي المنصة كطبق موديل مستقر، باش تكون التغيرات في النتائج كتعكس تغييرات حقيقية في البيئة، ماشي غير تقلبات في منطق الذكاء الاصطناعي.
مقاربة Pentera
منصة Pentera للتحقق من التعرض للمخاطر مبنية على هاد الفلسفة الهجينة. في القلب ديالها كاين محرك هجوم حتمي (deterministic attack engine) طوروه مختبرات Pentera، هو اللي كينظم وكينفذ سلاسل الهجوم بمنطق مستقر باش يعطينا خطوط أساس (baselines) ثابتة.
من بعد، الذكاء الاصطناعي كيطور هاد الأساس، وكيسمح للنظام باش يتكيف مع ظروف العالم الحقيقي وإشارات البيئة. ومن خلال الجمع بين هاد جوج طرق، الشركات كيربحوا الواقعية ديال هجوم مدفوع بالذكاء الاصطناعي بلا ما يضحيو بالاستقرار اللي ضروري للتدقيق (auditing) والتقارير في مستوى الشركات الكبرى.
في عالم التحقق من التعرض للمخاطر، الاختيار ماشي بين ذكاء اصطناعي حتمي أو وكيلي. باش نوصلوا لمرونة أمنية حقيقية، الجواب هو بجوج بيهم.
المصدر: [The Hacker News | Deterministic + Agentic AI: The Architecture Exposure Validation Requires](https://thehacker news.com/2026/04/deterministic-agentic-ai-architecture.html)