OpenAI gpt-oss: أول نماذج مفتوحة الأوزان وما يعنيه ذلك للمطورين

في أغسطس 2025، فاجأت OpenAI مجتمع الذكاء الاصطناعي بإطلاق gpt-oss-120b وgpt-oss-20b — أول نماذجها مفتوحة الأوزان منذ GPT-2 في 2019. يتوفر النموذجان بترخيص Apache 2.0، وينافسان أفضل النماذج المغلقة مع إمكانية التشغيل على أجهزة متاحة للجميع. منذ ذلك الحين، أعادا تشكيل مشهد الذكاء الاصطناعي مفتوح المصدر.
لماذا هذا التحول تاريخي؟
أصبحت OpenAI مرادفة للنماذج المغلقة. GPT-3 وGPT-4 وo1 — كلها متاحة فقط عبر API. في المقابل، استحوذت Meta بنماذج Llama وMistral وDeepSeek على مجتمع المصدر المفتوح.
مع gpt-oss، تستعيد OpenAI موقعها في هذا الميدان. ليس بنموذج تجريبي، بل بنموذجين من مستوى الإنتاج يتفوقان على عروضها المدفوعة في عدة معايير.
البنية: قوة Mixture-of-Experts
يستخدم كلا النموذجين بنية Mixture-of-Experts (MoE) التي تُنشّط جزءاً فقط من المعاملات لكل رمز:
| النموذج | إجمالي المعاملات | المعاملات النشطة | الحد الأدنى للأجهزة |
|---|---|---|---|
| gpt-oss-120b | 117 مليار | 5.1 مليار | GPU واحد بسعة 80 جيجابايت |
| gpt-oss-20b | 21 مليار | 3.6 مليار | 16 جيجابايت رام (حاسوب محمول) |
يتيح نهج MoE أداء النماذج الضخمة بتكلفة حوسبة النماذج الصغيرة. نموذج gpt-oss-20b يعمل حتى في المتصفح عبر WebGPU باستخدام Transformers.js وONNX Runtime.
الأداء: الأرقام تتحدث
الأداء مذهل لنماذج مفتوحة:
gpt-oss-120b:
- MMLU-Pro: 90.0% — متقدم على GLM-4.5 بنسبة 84.6% وQwen3 بنسبة 84.4% وDeepSeek R1 بنسبة 85.0%
- AIME 2025: 97.9% مع الأدوات — أفضل نتيجة بين النماذج المفتوحة
- ينافس o4-mini في البرمجة التنافسية واستدعاء الدوال
gpt-oss-20b:
- يعادل أو يتفوق على o3-mini في معظم المعايير
- يتفوق على o3-mini في الرياضيات التنافسية والصحة
- سرعة 178 رمز/ثانية على مجموعات H100
نموذج 20b في وضع "جهد تفكير منخفض" يقع باستمرار على حدود باريتو — أفضل نسبة أداء مقابل تكلفة متاحة.
كيفية استخدام gpt-oss عملياً
الخيار 1: واجهات API السحابية (الأسهل)
النماذج متوفرة على المنصات الرئيسية:
- AWS Bedrock — مع دعم الضبط الدقيق بالتعزيز
- Fireworks AI — محسّن للإنتاجية
- Together AI وGroq وClarifai — خيارات متعددة
الخيار 2: النشر المحلي باستخدام vLLM
# تثبيت vLLM
pip install vllm
# تشغيل الخادم مع gpt-oss-20b
vllm serve openai/gpt-oss-20b \
--tensor-parallel-size 1 \
--max-model-len 32768نموذج 20b يعمل بسلاسة على MacBook Pro M4 بذاكرة 32 جيجابايت أو أي GPU بذاكرة 16 جيجابايت أو أكثر.
الخيار 3: مباشرة في المتصفح
نموذج gpt-oss-20b المضغوط (حوالي 12.6 جيجابايت) يعمل عبر WebGPU بدون خادم — مثالي للتطبيقات الخاصة تماماً على جانب العميل.
الخيار 4: الحوسبة الطرفية والأنظمة المدمجة
حسّنت NVIDIA نموذج gpt-oss لمنصة Jetson AGX Thor، ويدعم النموذج ضغط MXFP4 للنشر فائق الخفة.
ماذا يتغير بالنسبة للمطورين؟
1. نهاية الاعتماد على API
مع نموذج عالي الأداء بترخيص Apache 2.0، لا حاجة لدفع رسوم لكل رمز. أنت تستضيف وتتحكم وتدفع فقط مقابل الحوسبة.
2. الخصوصية من التصميم
gpt-oss-20b في المتصفح يعني صفر بيانات تُرسل للسحابة. للتطبيقات الصحية والمالية والبيانات الحساسة، هذا تحول جذري.
3. ضبط دقيق بلا قيود
ترخيص Apache 2.0 يسمح بالضبط الدقيق التجاري بدون أي قيود. AWS Bedrock تقدم بالفعل ضبط دقيق بالتعزيز على gpt-oss دون الحاجة لخبرة عميقة في تعلم الآلة.
4. ضغط على النماذج المدفوعة
عندما ينافس نموذج مجاني o4-mini، يجب أن تتطور القيمة المقترحة لواجهات API المدفوعة. نشهد بالفعل سباقاً نحو الأسفل في أسعار API لدى جميع المزودين.
gpt-oss مقابل المنافسة مفتوحة المصدر
مشهد المصدر المفتوح أصبح تنافسياً للغاية:
- Qwen3.5-9B (علي بابا) — يتفوق على gpt-oss-120b في بعض معايير الاستدلال بـ 9 مليار معامل فقط
- Llama 4 (Meta) — لا يزال الخيار المهيمن من حيث المجتمع والنظام البيئي
- DeepSeek R1 — ممتاز في الاستدلال لكن أثقل في النشر
- Mistral Large — حضور قوي في أوروبا مع قدرات متعددة اللغات
يتميز gpt-oss بـنسبة المعاملات النشطة إلى الأداء والتوافق الأصلي مع أدوات OpenAI (استدعاء الدوال، استخدام الأدوات).
نقاش open-weight مقابل open source
نقطة مهمة: gpt-oss هو مفتوح الأوزان وليس مفتوح المصدر بالمعنى الدقيق. تنشر OpenAI أوزان النموذج لكن ليس بيانات التدريب أو كود التدريب المسبق الكامل. وفقاً لتعريف OSAID 1.0، لا يعتبر هذا مصدراً مفتوحاً حقيقياً.
عملياً، بالنسبة لمعظم المطورين، هذا الفرق لا يهم كثيراً: يمكنك التحميل والتعديل والضبط الدقيق والنشر التجاري بدون أي قيود.
لمن يناسب gpt-oss؟
- الشركات الناشئة التي تحتاج نموذج LLM قوي بدون ميزانية API
- المؤسسات التي لديها متطلبات سيادة البيانات
- مطورو الحوسبة الطرفية وإنترنت الأشياء الذين يحتاجون استدلالاً محلياً
- فرق تعلم الآلة التي تريد ضبط نموذج أساس متين
- تطبيقات الويب التي تتطلب استدلالاً على جانب العميل
الخلاصة
مع gpt-oss، لا تقدم OpenAI مجرد لفتة نحو المصدر المفتوح — إنها تغير قواعد اللعبة. نموذج من 20 مليار معامل يعمل في المتصفح وينافس النماذج المدفوعة الرائدة، كل ذلك بترخيص Apache 2.0، كان أمراً لا يُتصور قبل عامين.
للمطورين والشركات في منطقة الشرق الأوسط وشمال أفريقيا، هذه فرصة حقيقية: الوصول إلى ذكاء اصطناعي متطور بدون اعتماد على السحابة، بدون تكلفة لكل طلب، ومع حرية كاملة في التخصيص.
السؤال الآن ليس ما إذا كان الذكاء الاصطناعي مفتوح المصدر قابلاً للتطبيق — بل كيف ستدمجه في مشاريعك.
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.