كيف كيّفنا Autoresearch من Karpathy لمسابقات Kaggle

فريق نقطة
بواسطة فريق نقطة ·

جاري تحميل مشغل تحويل النص إلى كلام الصوتي...

الفكرة: ماذا لو استطاع الذكاء الاصطناعي إجراء أبحاثه بنفسه؟

في أوائل مارس 2026، أطلق Andrej Karpathy مشروع autoresearch — إطار يُمكّن وكيل ذكاء اصطناعي من تشغيل تجارب تعلم آلي بشكل مستقل على معالج الرسوميات المحلي. المفهوم أنيق: الوكيل يقترح فرضية، يكتب الكود، يُشغّل التجربة، يُقيّم النتائج، ويُقرّر إذا كان سيحتفظ بالتغييرات أو يتخلى عنها. حوالي 12 تجربة في الساعة.

تغريدة Karpathy الأصلية لخّصت الفكرة: دع الذكاء الاصطناعي يقوم بالعمل الشاق بينما أنت نائم.

فكّرنا: ماذا لو وجّهنا هذا النظام نحو مسابقة Kaggle حقيقية؟

النتيجة هي فرعنا من autoresearch (فرع: kaggle/rna-3d-folding)، مُكيّف للمنافسة في Stanford RNA 3D Folding 2 — مسابقة بجوائز $75,000 للتنبؤ بالبنية ثلاثية الأبعاد للـ RNA، موعدها النهائي 25 مارس 2026.

التحدي: GPU محلي مقابل قيود Kaggle

الميزةالأصلي (محلي)تكييفنا (Kaggle)
الوصول للـ GPUمتاح دائماًأقصى جلستين متزامنتين
وقت التجربة~5 دقائق30-60 دقيقة
حلقة التغذية الراجعةفوريةمؤجلة
سرعة التكرار~12/ساعة~1-2/ساعة

الفكرة الجوهرية: مسابقات Kaggle تتطلب إيقاع حلقة مختلف جذرياً.

المعمارية

OpenClaw يعمل كبيئة تشغيل الوكيل — يدير جدولة cron، تنفيذ الأدوات، والإشعارات التي تُبقي الحلقة المستقلة تعمل 24/7.

الخطوة 1: فهم حلقة Autoresearch الأصلية

  1. الذكاء الاصطناعي يقترح فرضية ويكتب كود التجربة
  2. الكود يعمل على GPU المحلي (~5 دقائق)
  3. تُقيّم النتائج — هل تحسّن المقياس؟
  4. احتفظ أو تخلّى — مثل git commit مقابل git reset
  5. كرّر — الوكيل يستخدم التاريخ لتوجيه الفرضية التالية

الخطوة 2: التكييف لـ Kaggle

التغييرات الرئيسية

من حلقات 5 دقائق إلى حلقات ساعية بـ cron:

بدلاً من حلقة محلية مستمرة، نستخدم نظام cron في OpenClaw لتشغيل التجارب وفق جدول زمني. كل دورة:

  1. تتحقق من تقييم التقديم السابق عبر Kaggle API (حقل publicScoreNullable)
  2. تُسجّل النتيجة في experiments.json
  3. تُقرّر: احتفظ (تحسّن النتيجة) أو تخلّى (انخفضت)
  4. تُولّد معلمات التجربة التالية
  5. تُرسل إشعار WhatsApp بالنتائج

المحاكاة المحلية للفحص المسبق:

وقت GPU في Kaggle ثمين. أضفنا simulate.py — محاكاة محلية خفيفة تفحص المعلمات في ~40 ثانية قبل الالتزام بتشغيل Kaggle كامل.

🚀 تبني أنظمة ذكاء اصطناعي مستقلة لفريقك؟ نقطة تُصمّم وتُنفّذ حلول أتمتة ذكية تعمل في الإنتاج — ليس مجرد عروض.

الخطوة 3: المسابقة — Stanford RNA 3D Folding 2

المسابقة تتحدى المتنافسين للتنبؤ بالبنية ثلاثية الأبعاد لجزيئات RNA. مقياس التقييم: TM-score.

نهجنا: خط أنابيب هجين

  1. النمذجة بالقوالب (TBM) — تجد بنيات RNA معروفة مشابهة وتُكيّفها
  2. التعلم العميق Protenix — تنبؤ بالبنية بالشبكات العصبية

الاكتشاف الرئيسي: التوجيه الذكي بين الطريقتين أهم من ضبط أي منهما على حدة.

وكيلنا تعلّم هذا بنفسه — بعد ~14 تجربة، أكبر قفزات النتيجة جاءت من تحسين منطق التوجيه، ليس من ضبط المعلمات الفائقة.

أفضل نتيجة حالية: 0.378 TM-score (تتحسّن باستمرار).

يمكنك رؤية دفترنا هنا: Stanford RNA 3D Folding 2 Baseline v1.

الخطوة 4: إعداد الحلقة المستقلة

المتطلبات

  • OpenClaw مُثبّت ومُهيّأ
  • بيانات اعتماد Kaggle API
  • دفتر أساسي يُسجّل نتيجة على لوحة المتصدرين

سكربت loop.py

قلب النظام. كل تشغيل cron يُنفّذ هذا التدفق:

  1. تحقق من تقييم التقديم السابق
  2. سجّل النتيجة
  3. احتفظ أو تخلّى
  4. ولّد التجربة التالية
  5. افحص محلياً (محاكاة ~40 ثانية)
  6. ادفع إلى Kaggle
  7. أرسل إشعار

ما تعلّمناه حتى الآن

  1. الصبر يتفوّق على السرعة — على Kaggle، اختيار التجارب بذكاء أهم من التكرار السريع
  2. المحاكاة المحلية ضرورية — الفحص المسبق بـ 40 ثانية يوفر ساعات من وقت GPU
  3. توجيه الطريقة > ضبط المعلمات — أكبر التحسينات جاءت من منطق التوجيه بين TBM و Protenix
  4. تاريخ التجارب ذهب — سجل JSON يعطي الوكيل سياقاً متزايداً للاقتراحات
  5. الإشعارات تحفظ عقلك — استيقظ على "جرى 3 تجارب أثناء الليل، تحسّنت النتيجة بـ 0.015"

💡 تريد بناء سير عمل ذكاء اصطناعي مستقل لمشاريعك؟ تحدث مع فريقنا حول تنفيذ أنظمة وكلاء ذكاء اصطناعي تعمل وأنت نائم.

أعد إنتاجه بنفسك

  1. افرع مستودعنا: github.com/anis-marrouchi/autoresearch-kaggle (فرع: kaggle/rna-3d-folding)
  2. ادرس الأصلي: github.com/karpathy/autoresearch
  3. ثبّت OpenClaw: github.com/openclaw/openclaw
  4. اختر مسابقتك وكيّف loop.py
  5. ابدأ بالمحاكاة — افحص محلياً قبل حرق وقت GPU

ما التالي

موعد المسابقة 25 مارس 2026. نستمر في تشغيل تجارب مستقلة، وسننشر متابعة بالنتائج النهائية.

المغزى الأوسع: البحث المستقل بالذكاء الاصطناعي لم يعد حكراً على المختبرات. بالتكييف الصحيح، يمكنك تشغيله على بنية Kaggle المجانية.

تابع تقدمنا على Kaggle و noqta.tn.

الأسئلة الشائعة

ما هو autoresearch؟

إطار من Andrej Karpathy يُمكّن وكلاء الذكاء الاصطناعي من تشغيل تجارب تعلم آلي بشكل مستقل — حوالي 12 تجربة في الساعة على GPU محلي.

هل يمكن استخدام هذا النهج في أي مسابقة Kaggle؟

نعم، الإطار لا يعتمد على المسابقة. تحتاج فقط تكييف loop.py لمقياس التقييم وصيغة التقديم.

ما هو OpenClaw؟

OpenClaw بيئة تشغيل وكلاء ذكاء اصطناعي مفتوحة المصدر. نستخدمها لجدولة cron، تنفيذ الأدوات، والإشعارات.

ما هي نتيجة TM-score الجيدة؟

فوق 0.5 تعني عادة بنية طوي صحيحة. نتيجتنا 0.378 في النطاق التنافسي مع مجال للتحسين.

قراءة ذات صلة


هل تريد قراءة المزيد من الدروس التعليمية؟ تحقق من أحدث درس تعليمي لدينا على بناء واجهات REST API باستخدام Go و Fiber: دليل عملي للمبتدئين.

ناقش مشروعك معنا

نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.

دعنا نجد أفضل الحلول لاحتياجاتك.

مقالات ذات صلة

البدء مع ALLaM-7B-Instruct-preview

تعلم كيفية استخدام نموذج ALLaM-7B-Instruct-preview مع Python، وكيفية التفاعل معه من JavaScript عبر واجهة برمجة تطبيقات مستضافة (مثل Hugging Face Spaces).

8 د قراءة·