Chatbots à règles : réponses scriptées, pas de compréhension réelle
80% des questions tombent dans 'Je n'ai pas compris'
Notre chatbot combine compréhension du langage naturel, accès à vos documents via RAG, et connexion sécurisée à vos APIs. Chaque réponse est sourcée et vérifiable.
Les chatbots à base de règles sont rigides et frustrants. Les chatbots purement LLM inventent des réponses. Notre architecture résout les deux problèmes.
80% des questions tombent dans 'Je n'ai pas compris'
Hallucinations, informations fausses, perte de confiance
Impossible de donner l'état d'un dossier ou le solde d'un compte
Aucune traçabilité, impossible de vérifier
Design technique
Notre chatbot orchestre 5 composants pour chaque message : NLU, RAG, LLM, API, et vérification.
chatbot-architecture-diagram
nlu
Classification intention + extraction entités
rag
Recherche sémantique dans vos documents
api
Appels API avec token sécurisé
llm
Génération avec contexte enrichi
verifier
Vérification cohérence avant envoi
Flux d'exécution
Le message utilisateur est analysé pour identifier l'intention (suivi_sinistre, demande_attestation, etc.) et extraire les entités (numéro contrat, nom client, dates).
Si la question nécessite des informations documentaires, le système recherche les passages pertinents dans votre base de connaissances via recherche sémantique vectorielle.
Pour les données temps réel (état dossier, solde compte), le chatbot appelle vos APIs via un token d'authentification sécurisé et révocable.
Le LLM génère une réponse naturelle en combinant : l'intention détectée, les documents RAG pertinents, et les données API. Chaque information est liée à sa source.
Un second modèle vérifie la cohérence de la réponse : les chiffres correspondent-ils aux sources ? Le ton est-il approprié ? Des données sensibles sont-elles exposées ?
LLM compact fine-tuné
Classification intentions + extraction entités
text-embedding-4-large (OpenAI)
Vectorisation des documents et requêtes
Pinecone / Qdrant
Stockage et recherche vectorielle
LLM dernière génération (sélection par cas d'usage)
Génération des réponses contextuelles
LLM vérificateur distinct
Vérification cohérence et anti-hallucination
Kong / AWS API Gateway
Authentification et routage API
L'architecture NLU+RAG+API est le meilleur compromis pour les cas d'usage entreprise où la fiabilité est critique.
Arbres de décision scriptés
Avantages
Inconvénients
LLM directement exposé sans garde-fous
Avantages
Inconvénients
Architecture hybride complète
Avantages
Inconvénients
Précision NLU
≥95%
Intentions correctement classifiées sur 50+ catégories
Internal benchmark - LLM compact fine-tuned on 50+ intents
Temps de réponse
<800ms
P95 incluant NLU, RAG, API, et génération
Internal benchmark - P95 latency including NLU, RAG, LLM, and API calls
Hallucinations
<0.1%
Après vérification automatique
Internal benchmark - Measured with automated fact-checking on 10k+ queries
Réponses sourcées
100%
Chaque affirmation liée à une source
Internal benchmark - RAG architecture ensures all responses cite sources
RAG recall@5
92%
Document pertinent dans les 5 premiers résultats
Internal benchmark - Pinecone vector search with OpenAI embeddings
Via un token OAuth 2.0 avec scope limité. Chaque appel est authentifié, loggé, et révocable. L'API Gateway gère le rate limiting et les autorisations par endpoint.
L'historique de conversation est maintenu dans le contexte LLM (jusqu'à 128K tokens). Les entités extraites sont persistées pour résolution d'anaphores ('mon dossier' → 'SIN-45678').
Oui. Avec validation appropriée, il peut créer des tickets, mettre à jour des dossiers, ou déclencher des workflows. Les actions sensibles requièrent confirmation ou validation humaine.
Fine-tuning d'un LLM compact sur vos exemples annotés (100-500 exemples par intention). Le modèle est réévalué hebdomadairement sur un test set holdout. Nous sélectionnons le LLM offrant le meilleur ratio coût/performance pour votre cas d'usage.
Pas de limite technique. Nous avons des déploiements avec 10M+ documents. La latence de recherche reste <50ms grâce à l'indexation vectorielle.
45 minutes avec un architecte solution pour explorer comment notre chatbot s'intègrerait à vos systèmes.
Un expert Webotit analyse vos flux, identifie les quick-wins et vous propose une feuille de route personnalisee.
Un expert Webotit analyse vos flux, identifie les quick-wins et vous propose une feuille de route personnalisée.
45 min · Gratuit · Réponse sous 24h
Voir les disponibilités