Définition complète
Le few-shot learning est la capacité d'un modèle IA a effectuer une nouvelle tache apres avoir vu seulement quelques exemples (typiquement 1 a 10). Les grands modèles de langage (LLM) excellent dans cette approche : en fournissant quelques exemples dans le prompt, ils généralisent au pattern demande. Cela contraste avec l'apprentissage classique qui nécessite des milliers d'exemples. Le few-shot rend l'IA accessible sans dataset massif.
Questions fréquentes
Comment fonctionne le few-shot learning avec les LLM ?
Dans le prompt envoye au LLM, on inclut quelques exemples du format attendu avant de poser la vraie question. Exemple : 'Classifie le sentiment. Texte: Super produit! -> Positif. Texte: Decevant... -> Negatif. Texte: Service correct. -> ?'. Le LLM comprend le pattern et répond. C'est l'in-context learning : le modèle apprend 'a la volee' sans modification de ses poids.
Quelle différence entre zero-shot, few-shot et fine-tuning ?
Zero-shot : le modèle execute la tache sans aucun exemple (juste une instruction). Few-shot : quelques exemples sont fournis dans le prompt. Fine-tuning : le modèle est re-entraîné sur de nombreux exemples, modifiant ses paramêtres. Le zero-shot est le plus simple, le fine-tuning le plus précis mais le plus couteux. Le few-shot offre un bon compromis.
Quand utiliser le few-shot plutot que le fine-tuning ?
Preferez le few-shot quand : vous avez peu d'exemples (<100), le cas d'usage est simple (classification, extraction), vous voulez experimenter rapidement, ou le modèle de base est suffisamment performant. Optez pour le fine-tuning quand : vous avez des centaines d'exemples, la tache est complexe ou spécifique, la précision est critique, ou vous voulez reduire les couts d'inference a long terme.