OpenAI تطلق Codex Security: وكيل ذكاء اصطناعي يكتشف الثغرات الأمنية ويتحقق منها ويصلحها

Noqta Team
· بواسطة Noqta Team

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

أعلنت شركة OpenAI رسمياً عن إطلاق Codex Security، وهو وكيل أمني للتطبيقات يعمل بالذكاء الاصطناعي ومصمم لاكتشاف الثغرات الأمنية والتحقق منها وإصلاحها تلقائياً عبر قواعد الأكواد المؤسسية ومفتوحة المصدر. الأداة متاحة الآن في نسخة بحثية تجريبية لعملاء ChatGPT Enterprise وBusiness وEdu.

أبرز النقاط

  • نشأ Codex Security من أداة داخلية تدعى Aardvark طورتها OpenAI لتدقيق قاعدة أكوادها الخاصة
  • خلال مرحلة الاختبار التجريبي، فحص الوكيل 1.2 مليون عملية commit واكتشف 792 ثغرة حرجة و10,561 ثغرة عالية الخطورة
  • انخفض الضجيج بنسبة 84% في بعض المستودعات، والإنذارات الكاذبة بأكثر من 50%، والمبالغة في تقدير الخطورة بأكثر من 90%
  • اكتشفت OpenAI وأبلغت عن 14 ثغرة CVE رسمية في مشاريع مفتوحة المصدر رئيسية تشمل OpenSSH وGnuTLS وPHP
  • كشفت النسخة التجريبية الخاصة عن ثغرات حقيقية منها ثغرة SSRF وثغرة مصادقة عبر المستأجرين — تم إصلاحهما خلال ساعات

آلية العمل

يتبع Codex Security نهجاً مختلفاً جذرياً عن أدوات التحليل الثابت التقليدية. عندما يمنح المطور حق الوصول إلى مستودع الأكواد، ينشئ الوكيل نسخة معزولة مؤقتة ويجري تحليلاً عميقاً لإنتاج نموذج تهديد خاص بالمشروع — وثيقة مفصلة بلغة طبيعية تصف كيفية عمل التطبيق وأين قد توجد الثغرات.

يمكن للمطورين تخصيص نموذج التهديد لإعطاء الأولوية للمكونات الحساسة. ثم يفحص الوكيل قاعدة الأكواد باستخدام هذا النموذج الواعي بالسياق، ويختبر الثغرات المكتشفة في بيئة sandbox معزولة لتحديد قابلية الاستغلال، ويصفي الإنذارات الكاذبة مع ترتيب المشاكل الحقيقية حسب خطورتها.

لكل ثغرة مؤكدة، يوفر Codex Security كود الإصلاح مع شرح بلغة طبيعية، مما يتيح للمطورين مراجعة التصحيحات ونشرها بنقرة واحدة. كما يتعلم الوكيل من ملاحظاتك — عندما يعدّل المطور درجة خطورة اكتشاف ما، يحدّث الوكيل نموذج التهديد للفحوصات القادمة.

التأثير على أمن المصادر المفتوحة

الجانب الأبرز في هذا الإطلاق هو التزام OpenAI بأمن المصادر المفتوحة. قامت الشركة بفحص المستودعات الرئيسية والإبلاغ المسؤول عن الثغرات، مما أسفر عن تسجيل 14 ثغرة CVE في مشاريع بنية تحتية حيوية يعتمد عليها ملايين المطورين يومياً.

كما وسّعت OpenAI صندوق Codex للمصادر المفتوحة (مليون دولار) ليشمل وصولاً مشروطاً إلى Codex Security لمشرفي المشاريع العامة واسعة الاستخدام. كما يحصل المطورون المؤهلون على ستة أشهر من ChatGPT Pro مع Codex لاستخدامات البرمجة والفرز اليومية.

🚀 تبني تطبيقات تعتمد على الذكاء الاصطناعي وقلق بشأن الأمان؟ Noqta متخصصة في حلول أتمتة الذكاء الاصطناعي المبنية بأمان من اليوم الأول.

التوفر والأسعار

Codex Security متاح اليوم كنسخة بحثية تجريبية عبر Codex على الويب لمستويات ChatGPT Enterprise وBusiness وEdu. تقدم OpenAI استخداماً مجانياً للشهر الأول لجميع العملاء المؤهلين.

ما التالي؟

يأتي هذا الإطلاق بعد أسبوعين فقط من تقديم Anthropic لأداة Claude Code Security الخاصة بها، مما يشير إلى سباق متصاعد بين شركات الذكاء الاصطناعي للهيمنة على مجال أمن التطبيقات. مع تزايد قدرات وكلاء الأمن المدعومين بالذكاء الاصطناعي، قد يصبح النموذج التقليدي لمراجعة الأكواد يدوياً واستخدام أدوات التحليل الثابت المزعجة شيئاً من الماضي قريباً.

بالنسبة لفرق التطوير في منطقة MENA، هذا تحوّل واضح: مراجعة الأمان تنتقل من عملية يدوية تفاعلية إلى عملية أصلية بالذكاء الاصطناعي واستباقية. الفرق التي تتبنى هذه الأدوات مبكراً ستحظى بأفضلية حقيقية في شحن برمجيات آمنة بسرعة أكبر.

💡 تحتاج إلى إرشاد خبير لدمج وكلاء الذكاء الاصطناعي في سير عمل التطوير لديك؟ تحدث مع فريق Noqta لبناء أنظمة ذكاء اصطناعي آمنة.


المصدر: OpenAI


هل تريد قراءة المزيد من الأخبار؟ تحقق من أحدث مقال إخباري لدينا على قمة BIGTECH أفريقيا 2024: الابتكار والتميز في الذكاء الاصطناعي في تونس.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.