Définition complète
Le zero-shot learning est la capacité d'un modèle IA à effectuer une tâche pour laquelle il n'a reçu aucun exemple d'entraînement spécifique. Les LLM modernes excellent dans ce paradigme : on leur décrit simplement la tâche en langage naturel et ils la réalisent. Exemple : "Classifie ce texte comme positif, négatif ou neutre" - sans avoir entraîné un classifieur spécifique. C'est possible grâce aux connaissances générales acquises pendant le pre-training. Le zero-shot révolutionne le déploiement de l'IA en éliminant le besoin de données d'entraînement pour chaque nouvelle tâche.
Questions fréquentes
Comment fonctionne le zero-shot learning avec les LLM ?
En zero-shot, on décrit simplement la tâche dans le prompt sans fournir d'exemples. Le LLM utilise ses connaissances générales pour exécuter la tâche. Exemple : "Identifie la langue de ce texte : 'Bonjour le monde'." Le modèle répond "Français" sans avoir été entraîné explicitement sur cette tâche. Cela fonctionne grâce aux patterns linguistiques appris sur des milliards de textes pendant le pre-training.
Quand préférer zero-shot vs few-shot vs fine-tuning ?
Utilisez le zero-shot quand : la tâche est simple et standard, vous voulez tester rapidement, ou vous n'avez aucun exemple. Préférez le few-shot quand : le format de sortie est spécifique, ou la tâche nécessite des nuances. Optez pour le fine-tuning quand : la tâche est complexe et critique, vous avez des centaines d'exemples, ou les performances zero-shot/few-shot ne suffisent pas.
Quelles sont les limites du zero-shot learning ?
Le zero-shot a des limites : performances inférieures au fine-tuning sur des tâches spécifiques, sensibilité à la formulation du prompt (un mot peut changer le résultat), difficulté avec le vocabulaire métier très spécialisé, et incapacité à capturer des patterns que le modèle n'a jamais vus. Pour les applications critiques, validez les performances zero-shot sur vos cas réels avant déploiement.