أندريه كارباثي يطلق Autoresearch مفتوح المصدر: وكلاء ذكاء اصطناعي يُجرون 100 تجربة أثناء نومك

أطلق أندريه كارباثي، رئيس الذكاء الاصطناعي السابق في تسلا والعضو المؤسس في OpenAI، أداة Autoresearch مفتوحة المصدر — وهي أداة بسيطة تتيح لوكلاء الذكاء الاصطناعي إجراء تجارب تدريب نماذج اللغة الكبيرة (LLM) بشكل مستقل على وحدة معالجة رسومات (GPU) واحدة. حقق المشروع انتشارًا سريعًا على GitHub بعد إطلاقه في 7 مارس 2026.
كيف تعمل الأداة؟
الفكرة بسيطة بشكل مدهش. تجمع Autoresearch بين ملف تعليمات يكتبه الإنسان (program.md) وسكريبت تدريب واحد (train.py) يتكون من حوالي 630 سطرًا من الكود. يقرأ وكيل الذكاء الاصطناعي — مثل Claude أو GPT — التعليمات، ثم يعدّل كود التدريب، ويُجري تجربة مدتها 5 دقائق بالضبط، ويقيّم النتيجة باستخدام مقياس val_bpb، ويقرر ما إذا كان سيحتفظ بالتغيير أو يتجاهله. ثم يعيد الدورة من جديد.
تستغرق كل تجربة 5 دقائق بالضبط بغض النظر عن العتاد المستخدم، مما ينتج حوالي 12 تجربة في الساعة وقرابة 100 تجربة خلال الليل. يعمل الوكيل على فرع git مستقل، ويجمع الـ commits كلما اكتشف إعدادات أفضل لبنية الشبكة العصبية ومعاملات التحسين.
أبرز المميزات
- وحدة GPU واحدة فقط: لا حاجة لتدريب موزّع أو بنية تحتية معقدة — تم اختبارها على NVIDIA H100 واحدة
- مستقلة تمامًا: الحد الأدنى من التبعيات وراء PyTorch، بدون إعدادات خارجية
- تصميم يُبقي الإنسان في الحلقة: يكتب الباحث تعليمات عالية المستوى بلغة Markdown؛ والوكيل يتولى تفاصيل التنفيذ
- رخصة MIT: مفتوح بالكامل للاستخدام التجاري والبحثي
لماذا هذا مهم؟
طالما كان البحث في التعلم الآلي مقيّدًا بدورة مملة من الفرضيات والتنفيذ والتدريب والتقييم. تعمل Autoresearch على أتمتة حلقة التنفيذ والتقييم، مما يتيح للباحثين التركيز على العمل الإبداعي في صياغة الفرضيات وتفسير النتائج.
تمثل الأداة اتجاهًا متناميًا نحو البحث الذكي الوكيلي — استخدام وكلاء الذكاء الاصطناعي ليس فقط كمساعدين في البرمجة، بل كمجرّبين مستقلين يمكنهم استكشاف مساحات واسعة من المعاملات بسرعة تفوق أي إنسان.
ردود فعل المجتمع
أثار المشروع حماسًا كبيرًا في مجتمع الذكاء الاصطناعي. أشاد المطورون بتصميمه البسيط وسهولة الوصول التي يوفرها لتجارب التعلم الآلي المستقلة. شارك الرئيس التنفيذي لشركة Shopify، توبي لوتكي، نتائجه علنًا بعد تشغيل autoresearch طوال الليل، مسجلًا تحسنًا بنسبة 19% في درجات التحقق على نموذج مخصص.
ما التالي؟
تركز Autoresearch حاليًا على تجارب تدريب LLM صغيرة النطاق باستخدام بنية nanochat. يستكشف مجتمع المصادر المفتوحة بالفعل توسعات لإعدادات متعددة الـ GPU وبنى نماذج أوسع. المشروع متاح على GitHub بموجب رخصة MIT.
المصدر: karpathy/autoresearch على GitHub
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.