Klarna a remplacé 853 collaborateurs par un agent IA, économisé $60M, puis tout défait. Ce que cette histoire révèle sur l'intent engineering — la prochaine frontière après le prompt engineering.
853
équivalents temps plein remplacés
60M$
économisés... puis défaits
95%
des pilots IA n'atteignent pas la production
Une histoire en trois actes : décision, résultats, et l'erreur que personne n'avait anticipée.
Klarna déploie un agent IA de service client et annonce qu'il remplace 853 équivalents temps plein. L'objectif affiché : réduire les coûts, accélérer les temps de résolution.
853 ETP remplacés
Sur le papier, l'agent performe : 2,3 millions de conversations gérées, 23 marchés couverts, 35 langues supportées. Le temps de résolution passe de 11 minutes à 2 minutes. $60M économisés.
2,3M conversations / 11 → 2 min
Les clients se plaignent. Réponses génériques, ton robotique, zéro jugement. Le CEO admet publiquement sur Bloomberg que "le coût était un facteur prédominant d'évaluation, et le résultat était une qualité inférieure". Klarna recommence à recruter.
$60M puis marche arrière publique
L'agent optimisait pour la vitesse de traitement des tickets. L'objectif réel de Klarna était la valeur client sur le long terme. Personne n'avait dit à l'agent la différence.
La technologie fonctionnait parfaitement. Le problème était ailleurs.
Ce que cinq ans d'expérience encode chez un humain — et que personne n'a transmis à l'agent.
Trois générations de pratiques. Chacune répond à une question différente — et la troisième est celle que presque personne ne pose encore.
Comment parler à l'IA ?
Optimiser les instructions données au modèle pour obtenir de meilleures réponses. Techniques de few-shot, chain-of-thought, formatage des outputs.
Que doit savoir l'IA ?
Enrichir le contexte de l'agent avec les données pertinentes : RAG, mémoire, outils, historique. Ce que le modèle sait avant de répondre.
Que doit vouloir l'IA ?
Définir les objectifs profonds, les valeurs implicites et le jugement que l'agent doit incarner. Non pas ce qu'il dit ou sait, mais ce qu'il cherche à accomplir pour l'organisation.
Klarna n'est pas un cas isolé. Ce pattern se reproduit dans toutes les organisations qui déploient des agents IA sans définir leur intention.
95%
des pilotes Gen AI n'atteignent pas la production
42%
des entreprises ont abandonné leurs initiatives IA en 1 an (2x l'année précédente)
85%
des Fortune 500 ont adopté Microsoft Copilot
5%
seulement l'ont déployé à grande échelle au-delà du pilote
La technologie n'est pas en cause. Les modèles sont performants. Ce qui échoue systématiquement, c'est l'alignement : les organisations n'ont pas encore appris à rendre lisible pour une machine ce que leurs employés expérimentés savent faire instinctivement.
Nous ne livrons pas juste un agent. Nous alignons l'agent sur vos objectifs réels — en définissant l'intention avant de déployer.
Nous ne partons pas des KPIs de surface. Nous interrogeons ce que votre organisation valorise vraiment dans ses décisions quotidiennes — le savoir tacite de vos employés expérimentés.
Nous définissons formellement ce que votre agent doit chercher à accomplir : les objectifs hiérarchisés, les valeurs de jugement, les cas où l'agent doit prioriser la relation sur l'efficacité.
Nous testons l'agent sur des situations ambiguës où un agent sans jugement échouerait : le client mécontent proche du départ, la règle à plier intelligemment, la décision à escalader.
Avant de déployer un agent IA, définissons ensemble ce que vous voulez qu'il cherche à accomplir.