Plus de 100 termes IA expliqués clairement pour les décideurs. Chaque définition répond directement à la question que vous vous posez, sans jargon inutile.
Un embedding est une representation numerique dense qui capture le sens sémantique d'un mot ou d'un texte.
Un embedding (ou plongement lexical) est une representation vectorielle d'un mot, phrase ou document sous forme de nombres. Ces vecteurs capturent le sens sémantique : des mots similaires ont des embeddings proches dans l'espace vectoriel. 'Roi' et 'Reine' seront plus proches que 'Roi' et 'Voiture'. Les embeddings sont essentiels pour le RAG (recherche sémantique), la classification de texte, et la détection de similarite. Les modèles comme BERT où OpenAI produisent des embeddings de haute qualité.
Les chatbots utilisent les embeddings pour : la recherche sémantique dans la base de connaissances (RAG), la détection de similarite entre questions (même question formulee differemment), le clustering de conversations pour identifiér les themes, et la classification d'intentions. L'embedding transforme le texte en vecteur, permettant des comparaisons mathematiques entre phrases.
Le word embedding represente un mot unique (ex: Word2Vec, GloVe). Le sentence embedding represente une phrase ou un paragraphe entier (ex: BERT, Sentence-BERT). Pour les chatbots et le RAG, nous utilisons les sentence embeddings car ils capturent le sens global de la requête utilisateur, pas juste les mots individuels. La dimension typique est 384 a 1536 nombres.
Le choix depend de : la langue (modèles multilinguels ou français spécifique), la taille des vecteurs (précision vs vitesse), le cas d'usage (recherche, classification), et le budget (API payantes vs open source). Pour le français, CamemBERT ou les modèles Sentence-Transformers multilinguels sont pertinents. OpenAI ada-002 est un bon choix généraliste en API.
L'entraînément est le processus par lequel un modèle d'IA apprend à partir de données pour améliorer ses performances.
L'entraînément (training en anglais) est la phase ou un modèle de machine learning ajuste ses paramêtres internes en analysant des données d'exemple. Le modèle apprend a minimiser les erreurs entre ses predictions et les résultats attendus. Pour les LLM, l'entraînément initial (pre-training) consomme des milliards de textes. Le fine-tuning affine ensuite sur des données spécifiques. L'entraînément est la phase la plus couteuse en ressources et en données.
La duree varie enormêment : quelques minutes pour un classifieur simple sur un laptop, des heures pour un modèle de taille moyenne sur GPU, des semaines a mois pour les grands LLM sur des clusters de milliers de GPU. les plus grands LLM nécessitent des mois d'entraînement. En entreprise, le fine-tuning d'un LLM existant prend typiquement quelques heures a quelques jours.
Le pre-training est l'entraînément initial sur de vastes données générales (tout Internet pour les LLM), creant un modèle de base. Le fine-tuning adapte ce modèle pre-entraîné a une tache ou domaine spécifique avec des données ciblees (ex: conversations assurance). Le pre-training est couteux et rare, le fine-tuning est accessible aux entreprises pour personnaliser les modèles existants.
Un modèle bien entraîné montre de bonnes performances sur des données qu'il n'a jamais vues (jeu de test). Les metriques varient selon la tache : accuracy pour la classification, BLEU/ROUGE pour la generation, et F1-score pour l'extraction. Il faut aussi vérifier l'absence d'overfitting (le modèle memorise au lieu d'apprendre) et tester sur des cas reels.
Une entite nommee est une information spécifique extraite du texte, comme un nom, une date ou un montant.
Une entite nommee (Named Entity) est un element d'information spécifique identifié dans un texte : noms de personnes, organisations, lieux, dates, montants, numeros de contrat. La reconnaissance d'entites nommees (NER - Named Entity Recognition) est une technique NLP qui détecte et categorise automatiquement ces elements. Dans un chatbot, le NER extrait les informations clés de la requête utilisateur pour les traiter.
Le NER extrait les informations essentielles des messages utilisateur : dans 'Je veux annuler ma reservation du 15 mars au nom de Dupont', le NER détecte la date (15 mars) et le nom (Dupont). Ces entites alimentent ensuite les appels API ou la recherche en base. Sans NER, le chatbot ne saurait pas quelles informations manipuler.
Les entites standards sont : PERSON (noms de personnes), ORG (organisations), LOC/GPE (lieux), DATE (dates), TIME (heures), MONEY (montants), PERCENT (pourcentages). En entreprise, nous ajoutons des entites métier : numero de contrat, reference produit, code postal. Les modèles NER peuvent être entraînés pour détecter des entites personnalisées.
Les modèles NER modernes atteignent 90-95% de F1-score sur le français pour les entites classiques (personnes, lieux, organisations). Les performances diminuent sur les entites métier spécifiques sans fine-tuning. Les LLM modernes extraient les entités de façon zero-shot avec une bonne précision, mais les modèles NER spécialisés restent plus rapides et économiques à l'échelle.
L'escalade est le transfert d'une conversation du bot vers un agent humain lorsque l'IA ne peut pas résoudre la demande.
L'escalade (ou handover) est le processus par lequel un chatbot ou callbot transfere une conversation a un agent humain. Elle se declenche quand le bot détecte une demande trop complexe, une insatisfaction de l'utilisateur, ou une demande explicite de parler a un humain. Une bonne escalade transmet le contexte complet a l'agent pour eviter que le client repete ses informations. C'est un element cle de l'expérience client hybride bot + humain.
L'escalade doit se declencher quand : le bot ne comprend pas apres 2-3 tentatives, l'utilisateur exprime de la frustration, le sujet est sensible (reclamation grave, resiliation), l'utilisateur le demande explicitement, ou la demande depasse le perimêtre du bot (negociation commerciale). Le seuil de confiance des réponses peut aussi declencher l'escalade automatiquement.
Une escalade fluide requiert : transfert du contexte complet (historique de conversation, entites collectees), pas de temps d'attente excessif avant la prise en charge humaine, confirmation a l'utilisateur que l'agent a bien reçu les informations, et possibilite de revenir au bot pour des questions simples ulterieures. L'integration avec les outils de centre de contact est essentielle.
Les metriques d'escalade incluent : taux d'escalade global (cible : 10-30%), temps avant escalade, raisons d'escalade (pour identifiér les lacunes du bot), satisfaction apres escalade, et taux de resolution finale. Un taux d'escalade trop bas peut indiquer que le bot répond mal sans l'admettre. Un taux trop haut indique un bot sous-performant.
L'extraction d'information identifié et structuré automatiquement des données spécifiques à partir de textes non structurés.
L'extraction d'information (Information Extraction) est l'ensemble des techniques NLP permettant d'identifiér et de structurér des données spécifiques à partir de documents non structurés. Elle englobe la reconnaissance d'entites (NER), l'extraction de relations entre entites, et le remplissage de formulaires automatique. Applications : extraction de données de factures, analyse de contrats, parsing d'emails. C'est la brique qui transforme du texte libre en données exploitables.
L'extraction d'information sur les emails détecte : le type de demande (reclamation, question, commande), les entites cles (references, dates, montants), le sentiment et l'urgence, et les pieces jointes pertinentes. Ces informations alimentent le routage automatique, le pre-remplissage des tickets support, et les réponses automatisees. Un mailbot utilise massivement l'extraction d'information.
La précision varie selon le type de document et la qualité. Pour des factures structurées et lisibles : 95%+ sur les champs principaux. Pour des documents manuscrits ou de mauvaise qualité : 70-85%. Les modèles doivent être adaptes au format spécifique. La validation humaine reste souvent nécessaire pour les cas critiques (montants financiers, données legales).
Le parsing analyse la structuré syntaxique d'un texte (grammaire, dependances). L'extraction d'information va plus loin en identifiant les elements sémantiquement significatifs (qui ? quoi ? quand ?). Le parsing dit 'ceci est un complement de temps', l'extraction dit 'la date de livraison est le 15 mars'. L'extraction utilise souvent le parsing comme étape intermediaire.
Un expert Webotit analyse vos flux, identifie les quick-wins et vous propose une feuille de route personnalisee.
Un expert Webotit analyse vos flux, identifie les quick-wins et vous propose une feuille de route personnalisée.
45 min · Gratuit · Réponse sous 24h
Voir les disponibilités