Définition complète
Une hallucination en IA désigne la generation par un modèle de langage d'informations fausses, inventees ou non fondees, presentees avec le même niveau de confiance que des faits verifies. Les LLM n'ont pas de notion de verite : ils predisent le texte le plus probable. Cela peut les amener a inventer des faits, des citations, ou des references inexistantes. C'est un risque majeur pour les applications d'entreprise qui nécessite des stratégies d'attenuation.
Questions fréquentes
Pourquoi les LLM hallucinent-ils ?
Les LLM ne 'savent' pas au sens humain : ils predisent statistiquement le prochain token le plus probable. Si une réponse plausible n'existe pas dans leurs poids, ils en construisent une coherente linguistiquement mais potentiellement fausse. Ils n'ont pas de mecanisme interne pour distinguer le vrai du faux. C'est inhérent à leur architecture probabiliste.
Comment reduire les hallucinations dans un chatbot ?
Les stratégies anti-hallucination incluent : le RAG (ancrer les réponses dans des documents reels), des instructions strictes dans le prompt ('réponds uniquement si tu es certain'), une temperature basse (moins de creativite), la demande de citations de sources, des verifications factuelles automatiques, et la supervision humaine pour les cas critiques. Aucune méthode n'elimine 100% des hallucinations.
Comment détecter les hallucinations automatiquement ?
La détection automatique des hallucinations reste un defi. Les approches incluent : verification croisee avec des sources externes, détection de contradictions au sein d'une même réponse, modèles de verification factuelle entraînés sur des exemples d'hallucinations, et analyse de la confiance du modèle (qui reste imparfaite). Pour les applications critiques, la verification humaine reste souvent nécessaire.