Comment Nous Avons Adapté Autoresearch de Karpathy pour les Compétitions Kaggle

L'Idée : Et Si l'IA Pouvait Faire Sa Propre Recherche ML ?
Début mars 2026, Andrej Karpathy a publié autoresearch — un framework où un agent IA exécute de manière autonome des expériences de machine learning sur votre GPU local. Le concept est élégant : l'agent propose une hypothèse, écrit le code, exécute l'expérience, évalue les résultats, et décide de garder ou d'écarter les changements. Environ 12 expériences par heure.
Le tweet original de Karpathy résumait l'idée : laissez l'IA faire le travail de recherche ML pendant que vous dormez.
Notre question : et si on pointait ça vers une vraie compétition Kaggle ?
Le résultat : notre fork d'autoresearch (branche : kaggle/rna-3d-folding), adapté pour Stanford RNA 3D Folding 2 — 75 000 $ de prix, date limite 25 mars 2026.
Le Défi : GPU Local vs. Contraintes Kaggle
| Fonctionnalité | Original (Local) | Notre Adaptation (Kaggle) |
|---|---|---|
| Accès GPU | Toujours disponible | Max 2 sessions simultanées |
| Temps d'expérience | ~5 minutes | 30-60 minutes |
| Boucle de feedback | Immédiate | Décalée |
| Vitesse d'itération | ~12/heure | ~1-2/heure |
L'insight clé : les compétitions Kaggle nécessitent un rythme de boucle fondamentalement différent.
Architecture
OpenClaw sert de runtime d'agent — il gère la planification cron, l'exécution des outils et les notifications qui maintiennent la boucle autonome 24/7.
Étape 1 : Comprendre la Boucle Autoresearch Originale
- L'IA propose une hypothèse et écrit le code
- Le code tourne sur GPU local (~5 min)
- Résultats évalués — la métrique s'améliore-t-elle ?
- Garder ou écarter — comme
git commitvsgit reset - Répéter — l'agent utilise l'historique pour la prochaine hypothèse
Étape 2 : Adaptation pour Kaggle
Les Changements Clés
De boucles de 5 minutes à des boucles horaires pilotées par cron :
Chaque cycle :
- Vérifie si la soumission précédente a été notée via l'API Kaggle (
publicScoreNullable) - Enregistre le résultat dans
experiments.json - Décide : garder (score amélioré) ou écarter (score baissé)
- Génère les paramètres de la prochaine expérience
- Envoie une notification WhatsApp
Simulation locale pour le pré-filtrage :
simulate.py pré-filtre les paramètres en ~40 secondes avant d'engager du temps GPU Kaggle.
🚀 Vous construisez des systèmes IA autonomes ? Noqta conçoit et implémente des solutions d'automatisation IA qui tournent en production — pas seulement en démo.
Étape 3 : La Compétition — Stanford RNA 3D Folding 2
La compétition met au défi les participants de prédire la structure 3D de molécules d'ARN. Métrique : TM-score.
Notre Approche : Pipeline Hybride
- Modélisation par Templates (TBM) — Trouve des structures ARN connues similaires
- Deep Learning Protenix — Prédiction par réseaux de neurones
Découverte clé : le routage intelligent entre ces méthodes compte plus que le réglage de chacune.
Notre agent l'a appris seul — après ~14 expériences, les plus grands gains venaient de l'amélioration du routage basé sur la confiance.
Meilleur score actuel : 0.378 TM-score (en amélioration continue).
Notebook : Stanford RNA 3D Folding 2 Baseline v1.
Étape 4 : Mise en Place de la Boucle Autonome
Prérequis
- OpenClaw installé et configuré
- Identifiants API Kaggle
- Un notebook de base qui obtient un score
Le Script loop.py
- Vérifier le score de la soumission précédente
- Enregistrer le résultat
- Garder ou écarter
- Générer la prochaine expérience
- Pré-filtrer localement (simulation ~40s)
- Pousser vers Kaggle
- Envoyer une notification
Ce Que Nous Avons Appris
- La patience bat la vitesse — Sur Kaggle, la sélection d'expériences intelligentes prime
- La simulation locale est essentielle — Le pré-filtrage en 40 secondes économise des heures
- Routage de méthode > réglage d'hyperparamètres — Les plus grands gains viennent du routage entre TBM et Protenix
- L'historique d'expériences est de l'or — Le log JSON donne un contexte croissant à l'agent
- Les notifications préservent votre santé mentale — Réveillez-vous avec un résumé des expériences nocturnes
💡 Envie de construire des workflows IA autonomes ? Parlez à notre équipe pour implémenter des systèmes d'agents IA qui travaillent pendant que vous dormez.
Reproduisez-le
- Forkez notre repo : github.com/anis-marrouchi/autoresearch-kaggle
- Étudiez l'original : github.com/karpathy/autoresearch
- Installez OpenClaw : github.com/openclaw/openclaw
- Choisissez votre compétition et adaptez
loop.py - Commencez par la simulation — pré-filtrez toujours localement
Prochaines Étapes
Date limite : 25 mars 2026. Nous continuons les expériences autonomes et publierons un suivi avec les résultats finaux.
Suivez notre progression sur Kaggle et noqta.tn.
FAQ
Qu'est-ce qu'autoresearch ?
Un framework d'Andrej Karpathy qui permet aux agents IA d'exécuter des expériences ML de manière autonome — environ 12 expériences par heure sur un GPU local.
Puis-je utiliser cette approche sur n'importe quelle compétition Kaggle ?
Oui. Adaptez loop.py pour la métrique et le format de soumission de votre compétition.
Qu'est-ce qu'OpenClaw ?
OpenClaw est un runtime d'agents IA open-source. Nous l'utilisons pour la planification cron, l'exécution d'outils et les notifications.
Qu'est-ce qu'un bon TM-score ?
Au-dessus de 0.5 indique généralement une topologie de repliement correcte. Notre 0.378 est dans la zone compétitive.
Lectures Connexes
Discutez de votre projet avec nous
Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.
Trouvons les meilleures solutions pour vos besoins.
Articles connexes

Créez votre propre interpréteur de code avec génération dynamique d'outils
Apprenez à créer un interpréteur de code personnalisé utilisant la génération et l'exécution dynamiques d'outils avec o3-mini, permettant une résolution de problèmes flexible et adaptative.

Explorer la segmentation améliorée d'images et de vidéos avec SAM 2 pour des résultats précis et contextuels
Découvrez les capacités de SAM 2 en segmentation d'images et de vidéos, alors que nous vous guidons à travers notre tutoriel sur le prétraitement, l'entraînement de modèles et le suivi pour des segmentations précises.

Demarrer avec ALLaM-7B-Instruct-preview
Apprenez a utiliser le modele ALLaM-7B-Instruct-preview avec Python, et comment interagir avec lui depuis JavaScript via une API hebergee (ex: sur Hugging Face Spaces).