OpenAI تطلق Codex Security: وكيل ذكاء اصطناعي يكتشف الثغرات الأمنية ويتحقق منها ويصلحها

أعلنت شركة OpenAI رسمياً عن إطلاق Codex Security، وهو وكيل أمني للتطبيقات يعمل بالذكاء الاصطناعي ومصمم لاكتشاف الثغرات الأمنية والتحقق منها وإصلاحها تلقائياً عبر قواعد الأكواد المؤسسية ومفتوحة المصدر. الأداة متاحة الآن في نسخة بحثية تجريبية لعملاء ChatGPT Enterprise وBusiness وEdu.
أبرز النقاط
- نشأ Codex Security من أداة داخلية تدعى Aardvark طورتها OpenAI لتدقيق قاعدة أكوادها الخاصة
- خلال مرحلة الاختبار التجريبي، فحص الوكيل 1.2 مليون عملية commit واكتشف 792 ثغرة حرجة و10,561 ثغرة عالية الخطورة
- انخفضت نسبة الإنذارات الكاذبة بأكثر من 50% مقارنة بأدوات التحليل الثابت التقليدية
- اكتشفت OpenAI وأبلغت عن 14 ثغرة CVE رسمية في مشاريع مفتوحة المصدر رئيسية تشمل OpenSSH وGnuTLS وPHP
آلية العمل
يتبع Codex Security نهجاً مختلفاً جذرياً عن أدوات التحليل الثابت التقليدية. عندما يمنح المطور حق الوصول إلى مستودع الأكواد، ينشئ الوكيل نسخة معزولة مؤقتة ويجري تحليلاً عميقاً لإنتاج نموذج تهديد خاص بالمشروع — وثيقة مفصلة بلغة طبيعية تصف كيفية عمل التطبيق وأين قد توجد الثغرات.
يمكن للمطورين تخصيص نموذج التهديد لإعطاء الأولوية للمكونات الحساسة. ثم يفحص الوكيل قاعدة الأكواد باستخدام هذا النموذج الواعي بالسياق، ويختبر الثغرات المكتشفة في بيئة sandbox معزولة لتحديد قابلية الاستغلال، ويصفي الإنذارات الكاذبة مع ترتيب المشاكل الحقيقية حسب خطورتها.
لكل ثغرة مؤكدة، يوفر Codex Security كود الإصلاح مع شرح بلغة طبيعية، مما يتيح للمطورين مراجعة التصحيحات ونشرها بنقرة واحدة.
التأثير على أمن المصادر المفتوحة
الجانب الأبرز في هذا الإطلاق هو التزام OpenAI بأمن المصادر المفتوحة. قامت الشركة بفحص المستودعات الرئيسية والإبلاغ المسؤول عن الثغرات، مما أسفر عن تسجيل 14 ثغرة CVE في مشاريع بنية تحتية حيوية يعتمد عليها ملايين المطورين يومياً.
كما أطلقت OpenAI برنامج وصول مجاني لمشرفي المشاريع مفتوحة المصدر، مما يمكنهم من استخدام Codex Security لتدقيق قواعد أكوادهم دون أي تكلفة.
التوفر والأسعار
Codex Security متاح اليوم كنسخة بحثية تجريبية عبر Codex على الويب لمستويات ChatGPT Enterprise وBusiness وEdu. تقدم OpenAI استخداماً مجانياً للشهر الأول لجميع العملاء المؤهلين.
ما التالي؟
يأتي هذا الإطلاق بعد أسبوعين فقط من تقديم Anthropic لأداة Claude Code Security الخاصة بها، مما يشير إلى سباق متصاعد بين شركات الذكاء الاصطناعي للهيمنة على مجال أمن التطبيقات. مع تزايد قدرات وكلاء الأمن المدعومين بالذكاء الاصطناعي، قد يصبح النموذج التقليدي لمراجعة الأكواد يدوياً واستخدام أدوات التحليل الثابت المزعجة شيئاً من الماضي قريباً.
المصدر: OpenAI
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.