Comment Nous Avons Adapté Autoresearch de Karpathy pour les Compétitions Kaggle

Équipe Noqta
Par Équipe Noqta ·

Chargement du lecteur de synthèse vocale...

L'Idée : Et Si l'IA Pouvait Faire Sa Propre Recherche ML ?

Début mars 2026, Andrej Karpathy a publié autoresearch — un framework où un agent IA exécute de manière autonome des expériences de machine learning sur votre GPU local. Le concept est élégant : l'agent propose une hypothèse, écrit le code, exécute l'expérience, évalue les résultats, et décide de garder ou d'écarter les changements. Environ 12 expériences par heure.

Le tweet original de Karpathy résumait l'idée : laissez l'IA faire le travail de recherche ML pendant que vous dormez.

Notre question : et si on pointait ça vers une vraie compétition Kaggle ?

Le résultat : notre fork d'autoresearch (branche : kaggle/rna-3d-folding), adapté pour Stanford RNA 3D Folding 2 — 75 000 $ de prix, date limite 25 mars 2026.

Le Défi : GPU Local vs. Contraintes Kaggle

FonctionnalitéOriginal (Local)Notre Adaptation (Kaggle)
Accès GPUToujours disponibleMax 2 sessions simultanées
Temps d'expérience~5 minutes30-60 minutes
Boucle de feedbackImmédiateDécalée
Vitesse d'itération~12/heure~1-2/heure

L'insight clé : les compétitions Kaggle nécessitent un rythme de boucle fondamentalement différent.

Architecture

OpenClaw sert de runtime d'agent — il gère la planification cron, l'exécution des outils et les notifications qui maintiennent la boucle autonome 24/7.

Étape 1 : Comprendre la Boucle Autoresearch Originale

  1. L'IA propose une hypothèse et écrit le code
  2. Le code tourne sur GPU local (~5 min)
  3. Résultats évalués — la métrique s'améliore-t-elle ?
  4. Garder ou écarter — comme git commit vs git reset
  5. Répéter — l'agent utilise l'historique pour la prochaine hypothèse

Étape 2 : Adaptation pour Kaggle

Les Changements Clés

De boucles de 5 minutes à des boucles horaires pilotées par cron :

Chaque cycle :

  1. Vérifie si la soumission précédente a été notée via l'API Kaggle (publicScoreNullable)
  2. Enregistre le résultat dans experiments.json
  3. Décide : garder (score amélioré) ou écarter (score baissé)
  4. Génère les paramètres de la prochaine expérience
  5. Envoie une notification WhatsApp

Simulation locale pour le pré-filtrage :

simulate.py pré-filtre les paramètres en ~40 secondes avant d'engager du temps GPU Kaggle.

🚀 Vous construisez des systèmes IA autonomes ? Noqta conçoit et implémente des solutions d'automatisation IA qui tournent en production — pas seulement en démo.

Étape 3 : La Compétition — Stanford RNA 3D Folding 2

La compétition met au défi les participants de prédire la structure 3D de molécules d'ARN. Métrique : TM-score.

Notre Approche : Pipeline Hybride

  1. Modélisation par Templates (TBM) — Trouve des structures ARN connues similaires
  2. Deep Learning Protenix — Prédiction par réseaux de neurones

Découverte clé : le routage intelligent entre ces méthodes compte plus que le réglage de chacune.

Notre agent l'a appris seul — après ~14 expériences, les plus grands gains venaient de l'amélioration du routage basé sur la confiance.

Meilleur score actuel : 0.378 TM-score (en amélioration continue).

Notebook : Stanford RNA 3D Folding 2 Baseline v1.

Étape 4 : Mise en Place de la Boucle Autonome

Prérequis

  • OpenClaw installé et configuré
  • Identifiants API Kaggle
  • Un notebook de base qui obtient un score

Le Script loop.py

  1. Vérifier le score de la soumission précédente
  2. Enregistrer le résultat
  3. Garder ou écarter
  4. Générer la prochaine expérience
  5. Pré-filtrer localement (simulation ~40s)
  6. Pousser vers Kaggle
  7. Envoyer une notification

Ce Que Nous Avons Appris

  1. La patience bat la vitesse — Sur Kaggle, la sélection d'expériences intelligentes prime
  2. La simulation locale est essentielle — Le pré-filtrage en 40 secondes économise des heures
  3. Routage de méthode > réglage d'hyperparamètres — Les plus grands gains viennent du routage entre TBM et Protenix
  4. L'historique d'expériences est de l'or — Le log JSON donne un contexte croissant à l'agent
  5. Les notifications préservent votre santé mentale — Réveillez-vous avec un résumé des expériences nocturnes

💡 Envie de construire des workflows IA autonomes ? Parlez à notre équipe pour implémenter des systèmes d'agents IA qui travaillent pendant que vous dormez.

Reproduisez-le

  1. Forkez notre repo : github.com/anis-marrouchi/autoresearch-kaggle
  2. Étudiez l'original : github.com/karpathy/autoresearch
  3. Installez OpenClaw : github.com/openclaw/openclaw
  4. Choisissez votre compétition et adaptez loop.py
  5. Commencez par la simulation — pré-filtrez toujours localement

Prochaines Étapes

Date limite : 25 mars 2026. Nous continuons les expériences autonomes et publierons un suivi avec les résultats finaux.

Suivez notre progression sur Kaggle et noqta.tn.

FAQ

Qu'est-ce qu'autoresearch ?

Un framework d'Andrej Karpathy qui permet aux agents IA d'exécuter des expériences ML de manière autonome — environ 12 expériences par heure sur un GPU local.

Puis-je utiliser cette approche sur n'importe quelle compétition Kaggle ?

Oui. Adaptez loop.py pour la métrique et le format de soumission de votre compétition.

Qu'est-ce qu'OpenClaw ?

OpenClaw est un runtime d'agents IA open-source. Nous l'utilisons pour la planification cron, l'exécution d'outils et les notifications.

Qu'est-ce qu'un bon TM-score ?

Au-dessus de 0.5 indique généralement une topologie de repliement correcte. Notre 0.378 est dans la zone compétitive.

Lectures Connexes


Vous voulez lire plus de tutoriels? Découvrez notre dernier tutoriel sur Contrôle Vocal pour Cline : VS Code + MCP ElevenLabs.

Discutez de votre projet avec nous

Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.

Trouvons les meilleures solutions pour vos besoins.

Articles connexes

Demarrer avec ALLaM-7B-Instruct-preview

Apprenez a utiliser le modele ALLaM-7B-Instruct-preview avec Python, et comment interagir avec lui depuis JavaScript via une API hebergee (ex: sur Hugging Face Spaces).

8 min read·