Définition complète
La mémoire dans un système d'IA conversationnelle désigne la capacité à conserver et réutiliser les informations des interactions passées. Elle peut être à court terme (contexte de la conversation en cours), à moyen terme (session utilisateur), ou à long terme (profil utilisateur persistant). Sans mémoire, chaque message est traité indépendamment, obligeant l'utilisateur à répéter les informations. Une bonne gestion de la mémoire est essentielle pour des conversations naturelles et personnalisées.
Questions fréquentes
Comment les LLM gèrent-ils la mémoire de conversation ?
Les LLM n'ont pas de mémoire intégrée : chaque appel est indépendant. La mémoire est gérée en incluant l'historique de conversation dans le prompt. Pour les longues conversations, des techniques de résumé, de compression, ou de RAG sur l'historique sont utilisées. La limite de contexte du modèle (4K à 128K tokens) contraint la quantité de mémoire directe.
Comment implémenter une mémoire à long terme pour un chatbot ?
La mémoire à long terme s'implémente via : un profil utilisateur stocké en base de données (préférences, historique), un résumé des conversations précédentes injecté dans le prompt, un système RAG sur les interactions passées, ou une base de connaissances personnalisée par utilisateur. L'architecture dépend du cas d'usage et des contraintes de confidentialité (RGPD pour les données personnelles).
Quels sont les enjeux de la mémoire pour la conformité ?
La mémoire soulève des questions de conformité : durée de rétention des données (RGPD), droit à l'oubli (suppression sur demande), minimisation des données (ne garder que le nécessaire), et sécurisation du stockage. Pour les données sensibles (santé, finance), la mémoire doit être chiffrée et les accès tracés. La transparence envers l'utilisateur sur ce qui est mémorisé est une bonne pratique.