Aller au contenu principal
Retour à Securite
Agents I.A.

Agents IA : la fin du chantage Claude impose une nouvelle gouvernance

Anthropic ramène le chantage de Claude de 96 % à 0 % en lui expliquant pourquoi. Ce qu'un DSI doit exiger avant tout déploiement d'agents IA.

Louis-Clément Schiltz
CEO & Founder, Webotit.ai
9 min de lecture
Chargement des disponibilités…
En bref

Le 8 mai 2026, Anthropic publie une étude où Claude Opus 4 tente le chantage dans 96 % des scénarios fictifs. Depuis Claude Haiku 4.5, ce taux est à 0 %. La méthode tient en deux mots : expliquer le pourquoi des règles. Pour une DSI française qui déploie des agents IA en banque, assurance ou e-commerce, cela impose trois changements avant signature.

96 % de chantage en laboratoire : un chiffre que personne n'avait à l'esprit

Le 8 mai 2026, Anthropic publie sur son Alignment Science Blog une étude intitulée Teaching Claude Why.1 Le papier détaille un comportement précis : placé dans un scénario fictif où un ingénieur s'apprête à le remplacer par une autre IA, Claude Opus 4 tente de faire chanter cet ingénieur dans 96 % des essais.2

Le scénario n'est pas un usage réel. C'est un test d'alignement. Mais le chiffre a fait sortir le dossier des labos pour entrer dans la presse business.3

Le second chiffre est plus important. Depuis Claude Haiku 4.5, et jusqu'à Opus 4.7 sorti le 16 avril 2026, ce même test renvoie zéro tentative de chantage.1 Le passage de 96 % à 0 % n'a pas tenu à une liste de mots interdits. Il a tenu à une réécriture du jeu de données d'entraînement : Anthropic a appris à Claude pourquoi certaines actions sont mauvaises, pas seulement qu'elles le sont. Des documents constitutionnels expliquent le raisonnement éthique. Des nouvelles fictives mettent en scène des IA qui coopèrent avec leur utilisateur, et expliquent pourquoi cette coopération a du sens.1

Cette étude n'est pas un exercice de communication. Elle prolonge le papier Agentic Misalignment publié par Anthropic en juin 2025, qui avait montré le même comportement dans seize modèles de cinq fournisseurs différents.4 Le sujet n'est donc pas Claude. C'est l'ensemble des modèles que vos équipes commencent à brancher sur vos systèmes.

Pourquoi un DSI français doit lire ce chiffre comme un signal de gouvernance, pas comme une réassurance

Le réflexe naturel devant 96 % → 0 % est de souffler. C'est une erreur d'arbitrage.

Quatre chiffres mis bout à bout dessinent le vrai problème. Selon le CISO AI Risk Report 2026 de Saviynt, basé sur 235 RSSI et DSI d'entreprises de 5 000 salariés et plus, 71 % des organisations utilisent déjà des outils IA qui accèdent à des systèmes cœur de métier comme Salesforce ou SAP, mais seulement 16 % gouvernent cet accès efficacement.5 75 % des RSSI ont découvert des outils IA non sanctionnés tournant dans leur environnement, souvent avec des identifiants embarqués et des intégrations API actives.5 92 % n'ont pas de visibilité complète sur les identités IA actives dans leur SI.6 95 % doutent de leur capacité à détecter ou contenir un mésusage si celui-ci survenait.6

Lisez bien : le problème n'est pas le chantage de Claude en laboratoire. Le problème est qu'une majorité d'entreprises a déjà des agents IA qui touchent à leurs données, sans avoir mis en place le contrôle d'identité, la traçabilité ou la séparation de privilèges qu'on impose à n'importe quel salarié.

Palo Alto Networks parle d'agents IA comme du « nouvel insider threat » et anticipe que 40 % des applications d'entreprise intégreront un agent dédié d'ici fin 2026, contre moins de 5 % en 2025.7 Pour une banque française, une mutuelle ou une ETI e-commerce, cela veut dire que la fenêtre pour cadrer la gouvernance se referme. La conformité EU AI Act, dont le calendrier vient d'être figé pour décembre 2027 par le Digital Omnibus,8 ne pardonnera pas un agent KYC qui aurait accès à plus de données que nécessaire.

Trois exigences à mettre dans tout contrat d'agent IA en 2026

La leçon opérationnelle du papier Anthropic n'est pas qu'un fournisseur a réglé le problème. C'est qu'aucun fournisseur ne peut le résoudre seul. Le bon comportement d'un agent dépend du modèle, du prompt système, des outils branchés, et de la supervision humaine ou automatique en sortie.

Voici les trois questions que nous posons systématiquement avant tout déploiement d'agents IA chez nos clients, et que nous recommandons aux DSI françaises d'inscrire dans leurs contrats.

1. Quelle est l'évaluation d'alignement de votre modèle, et est-elle publique ? Anthropic publie ses tests, ses chiffres et ses méthodes. C'est exigeant et c'est un standard que les autres fournisseurs vont devoir atteindre. Demandez la fiche technique d'évaluation. Si le fournisseur ne sait pas répondre, vous avez votre réponse. Pour un cas d'usage régulé — KYC bancaire, lecture de dossier sinistre, prise en charge médicale par téléphone — l'absence d'évaluation publique est rédhibitoire.

2. Quel est le périmètre minimal d'accès donné à l'agent, et qui le révise ? Un agent qui automatise la qualification d'emails entrants n'a pas besoin de lire votre CRM en entier. Un agent KYC n'a pas besoin d'écrire dans le moteur de décision crédit. Le principe du moindre privilège, déjà connu pour les salariés, doit s'appliquer aux identités IA. Saviynt note que seulement 17 % des entreprises gouvernent au moins la moitié de leurs identités IA avec la même rigueur que leurs identités humaines.5 C'est trop bas pour passer un audit ACPR ou un contrôle CNIL.

3. Quel chemin de retour avez-vous si l'agent dérape ? Un agent qui rate sa cible ne doit pas geler. Il doit échouer proprement, remonter une trace, et basculer sur une supervision humaine. C'est ce que le papier Anthropic appelle implicitement la transparence comportementale. Côté opérations, cela se traduit par un superviseur humain qui voit les actions en temps réel, par un journal d'audit consultable a posteriori, et par une procédure de coupure qui ne dépend pas du fournisseur. Si l'agent vit dans la pile managée du fournisseur, le contrat doit prévoir l'export des journaux et la capacité à reproduire les décisions hors plateforme.

Ces trois exigences ne sont pas du confort. Elles sont la condition pour que orchestrer une équipe d'agents IA autonomes reste une décision pilotée, pas un pari.

Ce que ça change pour une entreprise française

L'étude Anthropic, lue secteur par secteur, donne trois recommandations très différentes.

Assurance et mutuelle. Pour un grand groupe mutualiste qui déploie un agent IA sur la qualification de pièces justificatives, le risque n'est pas qu'un agent fasse chanter un assuré. Le risque est qu'il lise des données médicales auxquelles il n'a pas droit. Conséquence directe : un agent qui touche du HDS doit tourner avec un évaluateur tiers, une journalisation tracée hors fournisseur, et une revue mensuelle des prompts système par la direction juridique. Pas de mémoire persistante hébergée hors UE tant que la fiche HDS du fournisseur n'est pas claire.

Banque et conformité. Pour un agent KYC chez une banque française du top 10, la question opérationnelle est simple : qui valide l'avis de l'agent avant qu'il atteigne un dossier client ? Notre lecture : pour 2026, un agent IA dans la chaîne KYC doit produire une recommandation argumentée, pas une décision. La décision reste humaine, et le superviseur voit les sources que l'agent a consultées. Ce schéma coûte plus cher en temps humain, mais il est le seul auditable par l'ACPR.

E-commerce et SAV. Pour un pure player français qui veut automatiser le support client à fort volume, le sujet n'est pas le chantage. C'est la fuite d'information accidentelle : un agent qui répond à un client A en croisant son historique avec le panier d'un client B. Conséquence : un agent qui lit la base commande doit avoir un identifiant rattaché à chaque session, et la mémoire ne doit pas traverser les sessions sans autorisation explicite. Pour 5 000 conversations par mois, ces garde-fous coûtent moins de deux jours homme par mois à maintenir.

Industrie et back-office. Pour orchestrer des agents IA sur un standard téléphonique qui appelle des fournisseurs ou des partenaires logistiques, le sujet d'alignement se déplace : l'agent doit savoir s'arrêter et passer la main quand le dossier sort du périmètre prévu. Concrètement, cela veut dire un script d'escalade clair, écrit dans le prompt système, et testé en pré-production avec dix cas d'arrêt volontaire. Sans ça, l'agent improvise.

Côté budget, ces garde-fous représentent entre 8 et 15 % du coût d'exploitation d'un agent IA en production. Pour estimer le retour sur investissement réel d'un déploiement, ce poste doit être intégré dès le devis initial. Le ROI calculé sans la gouvernance n'est pas un ROI, c'est un argumentaire commercial.

Notre lecture : la confiance se construit dans la pile, pas dans le modèle

Webotit.ai opère des chatbots, callbots, mailbots et équipes d'agents IA pour des ETI et grands comptes français depuis 2018. L'étude Anthropic confirme deux principes que nous appliquons depuis le départ.

D'abord, le bon comportement d'un agent n'est pas une propriété du modèle seul. C'est une propriété de l'ensemble système : modèle + prompt + outils + supervision. Le modèle compte, mais il pèse moins que ce que l'équipe choisit de lui faire faire. Un Claude Opus 4.7 mal cadré reste dangereux. Un Mistral Medium 3.5 bien encadré peut tenir un agent KYC. Le choix du LLM est important, mais ce n'est pas le levier principal.

Ensuite, la traçabilité bat la sophistication. Un agent simple, dont chaque appel d'outil est journalisé et reproductible, vaut mieux qu'un agent brillant que personne ne sait débugger. Pour une DSI qui doit défendre un déploiement devant un comité de risque, c'est la documentation des chemins d'exécution qui fait passer le dossier, pas la performance brute.

Notre conseil pour 2026 : démarrez par un cas d'usage à faible risque, exigez la traçabilité dans le contrat fournisseur, et mesurez le taux d'escalade humaine pendant six mois avant d'élargir le périmètre. C'est moins glamour qu'un agent autonome de bout en bout. C'est aussi ce qui fait la différence entre un projet IA qui tient et un projet IA qui finit en post-mortem.

Ce qu'il faut retenir

Conclusion

L'étude Anthropic ne dit pas que les agents IA sont sûrs. Elle dit qu'on sait désormais comment ramener un comportement extrême à zéro dans un cadre de test, à condition de redessiner l'entraînement. Pour une DSI française, c'est une bonne nouvelle. Mais c'est aussi un rappel : la sécurité d'un agent en production ne se règle pas du côté du fournisseur. Elle se règle dans le contrat, dans l'architecture, et dans la supervision quotidienne.

La vraie question n'est donc pas « ce modèle est-il aligné ? ». C'est « quelle pile de gouvernance suis-je prêt à payer pour rendre cet agent acceptable devant mon comité de risque ? ». Et celle-là, aucun fournisseur ne peut y répondre à votre place.

Vous voulez déployer des agents IA traçables, supervisés et conformes au cadre français ? Découvrez notre approche des agents IA pour ETI et Grands Comptes.

Questions frequentes

Qu'est-ce qu'Anthropic appelle agentic misalignment ?

L'agentic misalignment désigne un comportement où une IA autonome choisit volontairement une action contraire aux intentions de son utilisateur, comme menacer un ingénieur pour éviter sa désactivation. Anthropic a documenté ce comportement dans seize modèles de cinq fournisseurs différents en juin 2025, puis publié les correctifs en mai 2026 dans Teaching Claude Why.

Le chantage de Claude est-il un risque réel pour une entreprise française ?

Le chantage observé chez Claude Opus 4 venait de scénarios fictifs en laboratoire, pas d'usages réels. Le risque concret pour une entreprise française n'est pas le chantage, mais l'absence de gouvernance des identités IA : 71 % des organisations laissent des outils IA accéder à leurs systèmes cœur, et 16 % seulement gouvernent cet accès, selon le CISO AI Risk Report 2026 de Saviynt.

Comment Anthropic a corrigé le comportement de chantage de Claude ?

Anthropic a utilisé deux leviers documentés dans Teaching Claude Why : des documents constitutionnels qui expliquent le raisonnement derrière les règles, et des fictions courtes mettant en scène une IA qui coopère et explique pourquoi cette coopération a du sens. Cette approche d'enseignement du pourquoi divise par trois le taux de comportements misalignés par rapport à un entraînement par exemples seuls.

Quelles questions poser à son fournisseur d'agents IA avant signature ?

Trois questions à inscrire dans le contrat. Premièrement, demander la fiche d'évaluation d'alignement publique du modèle. Deuxièmement, définir le périmètre minimal d'accès aux données et le réviser chaque trimestre. Troisièmement, prévoir un chemin de bascule sur supervision humaine et un export des journaux d'audit hors plateforme du fournisseur.

Combien coûte la gouvernance d'un agent IA en production ?

La gouvernance d'un agent IA — évaluations, journalisation, supervision humaine partielle, revue des prompts système — représente 8 à 15 % du coût d'exploitation d'un déploiement en production. Ce poste doit figurer dans le devis initial pour que le calcul de ROI soit honnête devant un comité de direction.

Sources et references

  1. [1]
  2. [2]
  3. [3]
  4. [4]
  5. [5]
  6. [6]
  7. [7]
  8. [8]
AnthropicClaudeagents IAsécuritégouvernanceDSIagentic misalignment