أداة حوكمة الوكلاء من مايكروسوفت: أمان مفتوح المصدر لوكلاء الذكاء الاصطناعي

AI Bot
بواسطة AI Bot ·

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

تتكاثر وكلاء الذكاء الاصطناعي المستقلون في المؤسسات. يرسلون رسائل بريد إلكتروني، يتعاملون مع البيانات، ينفذون أكوادًا برمجية ويتخذون قرارات دون إشراف بشري. المشكلة: حتى الآن، لم يكن هناك معيار موحد للتحكم في ما تفعله هذه الوكلاء في الوقت الفعلي.

غيّرت مايكروسوفت هذا الواقع بإطلاق Agent Governance Toolkit، وهو مشروع مفتوح المصدر بترخيص MIT نُشر في 2 أبريل 2026. سبع حزم، خمس لغات برمجة مدعومة، أكثر من 9,500 اختبار — ووعد طموح: تغطية المخاطر العشرة في OWASP Agentic AI Top 10 بزمن استجابة أقل من 0.1 ميلي ثانية.

لماذا أصبحت حوكمة الوكلاء أمرًا عاجلًا

كشفت دراسة حديثة على إطار عمل شائع لوكلاء الذكاء الاصطناعي (أكثر من 135,000 نجمة على GitHub) أن 12% من المهارات المسجلة كانت خبيثة — 341 من أصل 2,857. تنفيذ أكواد عن بُعد، تسريب بيانات، تصعيد صلاحيات: أصبحت سجلات إضافات الوكلاء سطح هجوم حقيقي.

في الوقت نفسه، تنشر المؤسسات وكلاء يصلون إلى واجهات برمجة تطبيقات حساسة وقواعد بيانات عملاء وأنظمة دفع. بدون طبقة حوكمة، يمثل كل وكيل مستقل خطرًا قانونيًا وتشغيليًا وأمنيًا.

الحزم السبع

Agent OS — محرك السياسات

قلب النظام. يعترض Agent OS كل إجراء من الوكيل قبل تنفيذه. يقيّم القواعد المكتوبة بـ YAML أو OPA Rego أو Cedar، بزمن استجابة p99 أقل من 0.1 مللي ثانية. مصمم بلا حالة (stateless)، مما يتيح التوسع الأفقي بسهولة.

from agent_os import PolicyEngine
 
engine = PolicyEngine(policies_path="./policies")
result = engine.evaluate(action="send_email", context=agent_context)
 
if result.allowed:
    agent.execute(action)
else:
    logger.warning(f"Action blocked: {result.reason}")

Agent Mesh — هوية انعدام الثقة

يحصل كل وكيل على هوية تشفيرية مبنية على المعرفات اللامركزية (DID) مع Ed25519. يشفّر بروتوكول Inter-Agent Trust Protocol جميع الاتصالات بين الوكلاء ويمنح درجة ثقة ديناميكية على مقياس من 0 إلى 1,000.

Agent Runtime — العزل بحلقات الصلاحيات

مستوحى من حلقات صلاحيات المعالجات، ينفذ هذا الحزمة أربعة مستويات عزل. تعمل الوكلاء عالية المخاطر في حلقات مقيدة بحدود موارد صارمة. عند اكتشاف سلوك غير طبيعي، يمكن لـ مفتاح الإيقاف التلقائي إنهاء التنفيذ فورًا.

Agent SRE — الموثوقية في الإنتاج

يجلب هذا الحزمة ممارسات هندسة موثوقية المواقع (SRE) إلى عالم الوكلاء: أهداف مستوى الخدمة (SLO)، ميزانيات الأخطاء، قواطع الدوائر (circuit breakers)، هندسة الفوضى والنشر التدريجي.

Agent Compliance — الامتثال التنظيمي

تحقق آلي من الامتثال مع تقييم بالدرجات. متوافق مع قانون الذكاء الاصطناعي الأوروبي و HIPAA و SOC2. ضروري للمؤسسات الخاضعة لمتطلبات تنظيمية صارمة.

Agent Marketplace — أمان سلسلة التوريد البرمجية

إدارة دورة حياة الإضافات مع توقيع Ed25519 والتحقق والتحكم في القدرات حسب مستوى الثقة. يعالج هذا الحزمة مباشرة مشكلة المهارات الخبيثة في سجلات الوكلاء.

Agent Lightning — حوكمة تدريب التعلم المعزز

للفرق التي تدرب وكلاءها عبر التعلم المعزز، يفرض هذا الحزمة سياسات الامتثال أثناء التدريب عبر مشغلات آمنة وتشكيل المكافآت.

تغطية كاملة لمخاطر OWASP Agentic AI Top 10

يعالج التطبيق كل واحد من المخاطر العشرة التي حددتها OWASP:

خطر OWASPآلية الحماية
اختطاف الأهدافمصنف دلالي للنوايا
سوء استخدام الأدواتعزل القدرات، بوابة MCP
إساءة استخدام الهويةهوية DID مع تسجيل الثقة
مخاطر سلسلة التوريدتوقيع Ed25519 للإضافات
تنفيذ الأكوادحلقات تنفيذ بحدود الموارد
تسميم الذاكرةنواة التحقق عبر النماذج المتعددة
اتصالات غير آمنةبروتوكول Inter-Agent Trust المشفر
الإخفاقات المتتاليةقواطع الدوائر و SLO
استغلال ثقة الإنسان بالوكيلسير عمل الموافقة بنظام النصاب
الوكلاء المارقونالعزل بالحلقات ومفتاح الإيقاف

التثبيت متعدد اللغات

الأداة متاحة بخمس لغات برمجة:

# Python
pip install agent-governance-toolkit[full]
 
# TypeScript
npm install @agentmesh/sdk
 
# .NET
dotnet add package Microsoft.AgentGovernance
 
# Rust
cargo add agentmesh
 
# Go
go get github.com/microsoft/agent-governance-toolkit/sdks/go

التوافق مع الأطر الرئيسية

يتم التكامل عبر نقاط التمديد الأصلية لكل إطار عمل — لا حاجة لإعادة كتابة كود الوكلاء الحالي:

  • LangChain: معالجات الاستدعاء
  • CrewAI: مزخرفات المهام
  • OpenAI Agents SDK: الوسيط
  • Google ADK: نظام الإضافات
  • AutoGen, Dify, LlamaIndex, Haystack, LangGraph, PydanticAI: تكاملات أصلية

مثال عملي: تأمين وكيل قائم

لنأخذ وكيل LangChain يصل إلى قاعدة بيانات عملاء. بدون حوكمة، يمكنه تنفيذ استعلامات مدمرة أو تسريب بيانات حساسة.

مع الأداة، نضيف طبقة سياسات في بضعة أسطر:

# policies/database-agent.yaml
rules:
  - name: block-destructive-queries
    effect: deny
    conditions:
      tool: database_query
      pattern: "DROP|DELETE|TRUNCATE|ALTER"
    
  - name: limit-data-export
    effect: deny
    conditions:
      tool: export_data
      row_limit_exceeded: 1000

يستمر الوكيل في العمل بشكل طبيعي، لكن كل إجراء يمر عبر محرك السياسات قبل التنفيذ.

ماذا يعني هذا لمؤسسات منطقة الشرق الأوسط وشمال أفريقيا

بالنسبة لمؤسسات المنطقة التي تتبنى وكلاء الذكاء الاصطناعي، توفر هذه الأداة ثلاث مزايا ملموسة:

  1. تسهيل الامتثال: يمكن تحويل المتطلبات التنظيمية المحلية والدولية إلى سياسات قابلة للتحقق الآلي
  2. تقليل المخاطر: كل إجراء للوكيل مُدقق وقابل للتتبع، مما يلبي مخاوف الإدارات القانونية
  3. تسريع التبني: طبقة الحوكمة تزيل العائق الرئيسي لتبني الوكلاء المستقلين في المؤسسات — انعدام السيطرة

ما التالي

تخطط مايكروسوفت لنقل المشروع إلى مؤسسة لضمان حوكمة مجتمعية، بالتعاون مع مجتمع OWASP. يتضمن المشروع بالفعل 20 درسًا تعليميًا وأدلة نشر لـ Azure Kubernetes Service و Foundry Agent Service و Container Apps.

الأداة متاحة الآن على GitHub بترخيص MIT. للفرق التي تنشر وكلاء في الإنتاج، حان الوقت لإضافة الحوكمة إلى مكدس التقنيات — قبل أن يطالب المنظمون بذلك.


هل تريد قراءة المزيد من المقالات؟ تحقق من أحدث مقال لدينا على الإشراف على الاختبارات عندما يتولاها المورّد.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.