Retour aux ressources
Stratégie IA

L'IA qui coûte cher

Klarna a remplacé 853 collaborateurs par un agent IA, économisé $60M, puis tout défait. Ce que cette histoire révèle sur l'intent engineering — la prochaine frontière après le prompt engineering.

853

équivalents temps plein remplacés

60M$

économisés... puis défaits

95%

des pilots IA n'atteignent pas la production

L'affaire Klarna

Une histoire en trois actes : décision, résultats, et l'erreur que personne n'avait anticipée.

1

La décision

Début 2024

Klarna déploie un agent IA de service client et annonce qu'il remplace 853 équivalents temps plein. L'objectif affiché : réduire les coûts, accélérer les temps de résolution.

853 ETP remplacés

2

Les résultats immédiats

Premier mois

Sur le papier, l'agent performe : 2,3 millions de conversations gérées, 23 marchés couverts, 35 langues supportées. Le temps de résolution passe de 11 minutes à 2 minutes. $60M économisés.

2,3M conversations / 11 → 2 min

3

L'échec visible

Fin 2024

Les clients se plaignent. Réponses génériques, ton robotique, zéro jugement. Le CEO admet publiquement sur Bloomberg que "le coût était un facteur prédominant d'évaluation, et le résultat était une qualité inférieure". Klarna recommence à recruter.

$60M puis marche arrière publique

Ce que l'agent avait — et ce qu'il n'avait pas

L'agent optimisait pour la vitesse de traitement des tickets. L'objectif réel de Klarna était la valeur client sur le long terme. Personne n'avait dit à l'agent la différence.

Ce que l'agent avait

  • Un prompt bien formulé
  • Des données clients structurées
  • Des KPIs de vitesse (temps de résolution)
  • Un accès à 23 marchés et 35 langues
  • Des métriques de performance claires

La technologie fonctionnait parfaitement. Le problème était ailleurs.

Ce que l'agent n'avait pas

  • L'intention organisationnelle réelle
  • La valeur client à long terme (CLV)
  • Le jugement contextuel des agents expérimentés
  • Les valeurs implicites encodées dans les décisions quotidiennes
  • La capacité à "plier les règles" au bon moment

Ce que cinq ans d'expérience encode chez un humain — et que personne n'a transmis à l'agent.

L'évolution de l'ingénierie IA

Trois générations de pratiques. Chacune répond à une question différente — et la troisième est celle que presque personne ne pose encore.

1
2022-2023

Prompt Engineering

Comment parler à l'IA ?

Optimiser les instructions données au modèle pour obtenir de meilleures réponses. Techniques de few-shot, chain-of-thought, formatage des outputs.

2
2023-2024

Context Engineering

Que doit savoir l'IA ?

Enrichir le contexte de l'agent avec les données pertinentes : RAG, mémoire, outils, historique. Ce que le modèle sait avant de répondre.

3
Maintenant

Intent Engineering

Que doit vouloir l'IA ?

Définir les objectifs profonds, les valeurs implicites et le jugement que l'agent doit incarner. Non pas ce qu'il dit ou sait, mais ce qu'il cherche à accomplir pour l'organisation.

La vraie question

Pourquoi ça échoue partout

Klarna n'est pas un cas isolé. Ce pattern se reproduit dans toutes les organisations qui déploient des agents IA sans définir leur intention.

95%

des pilotes Gen AI n'atteignent pas la production

42%

des entreprises ont abandonné leurs initiatives IA en 1 an (2x l'année précédente)

85%

des Fortune 500 ont adopté Microsoft Copilot

5%

seulement l'ont déployé à grande échelle au-delà du pilote

La technologie n'est pas en cause. Les modèles sont performants. Ce qui échoue systématiquement, c'est l'alignement : les organisations n'ont pas encore appris à rendre lisible pour une machine ce que leurs employés expérimentés savent faire instinctivement.

Notre approche : l'IA qui reflète vos valeurs

Nous ne livrons pas juste un agent. Nous alignons l'agent sur vos objectifs réels — en définissant l'intention avant de déployer.

Étape 1

Audit des objectifs réels

Nous ne partons pas des KPIs de surface. Nous interrogeons ce que votre organisation valorise vraiment dans ses décisions quotidiennes — le savoir tacite de vos employés expérimentés.

Étape 2

Conception de l'intention

Nous définissons formellement ce que votre agent doit chercher à accomplir : les objectifs hiérarchisés, les valeurs de jugement, les cas où l'agent doit prioriser la relation sur l'efficacité.

Étape 3

Validation sur cas critiques

Nous testons l'agent sur des situations ambiguës où un agent sans jugement échouerait : le client mécontent proche du départ, la règle à plier intelligemment, la décision à escalader.

Évitez le piège de Klarna

Avant de déployer un agent IA, définissons ensemble ce que vous voulez qu'il cherche à accomplir.