L’équation sur la serviette pour une décision assumée

Dans les organisations, les comités de décision sont souvent le théâtre de discussions longues et peu productives : une fonctionnalité urgente opposée à un projet de RPA, puis à une initiative d’IA stratégique. Les opinions s’affrontent, les experts argumentent… et souvent la décision se dilue.

L’équation sur la serviette est une manière d’amener le focus sur la décision.

Pour trancher vite, sans débat stérile, il faut recentrer la conversation sur l’impact réel et les conséquences assumées.

L’inspiration vient d’un principe simple popularisé en 2008 dans un livre devenu une référence pragmatique : The Back of the Napkin: Solving Problems and Selling Ideas with Pictures (Dan Roam). L’idée maîtresse est qu’une décision vraiment comprise doit pouvoir être formalisée rapidement, “sur une serviette au café”, de façon concise, visuelle et actionnable.

Ce qui suit est une réinterprétation de ce livre appliquée aux arbitrages technologiques – notamment entre fonctionnalité produit, RPA et IA – en utilisant une équation de décision à poser sur une serviette.

Comment trancher entre une fonctionnalité urgente, un RPA ou une IA

Il arrive toujours un moment où la discussion déraille.
Une fonctionnalité « urgente ».
Un RPA « simple et rapide ».
Une IA « stratégique, forcément ».

Les arguments s’empilent.
Les convictions s’opposent.
La décision se dilue.

Dans ces moments-là, la technologie n’est pas le vrai sujet.
La responsabilité de décider, si.

Alors je propose une règle simple :
👉 si une décision ne peut pas s’écrire sur une serviette, elle n’est pas mature.

Transformer en équation les besoins exprimés par les décideurs permet de prioriser et de désamorcer le côté déceptif d’une demande qui ne sera pas traitée par l’équipe.


L’équation sur la serviette

Je demande au client de prendre un stylo.
Et d’écrire ceci :

Décision = (Valeur × Urgence × Fréquence) ÷ (Risque × Effort)

Cinq mots.
Cinq chiffres.
Pas de décimales.
Pas d’atelier de trois heures.


1- Ce que cette équation change immédiatement

  • Elle déplace la discussion de la solution vers l’impact.
  • Elle met sur le même plan une feature, un RPA ou une IA.
  • Elle rend visible ce qui était implicite : peurs, paris, angles morts.
  • Elle oblige à assumer un arbitrage, pas à le justifier après coup.

2- Comment l’utiliser concrètement (en 10 minutes)

Chaque critère est noté de 1 à 5.
Pas de débat interminable. Une estimation honnête suffit.

Le numérateur — ce que ça crée

Si cette solution disparaissait demain, qu’est-ce que l’organisation perdrait vraiment ?
Temps humain, argent, conformité, image, sécurité, sérénité.

Que se passe-t-il si rien n’est fait dans les trois prochains mois ?
Blocage, risque légal, perte business… ou simple inconfort.

À quelle fréquence ce problème revient-il ?
Exceptionnel ou quotidien ?


Le dénominateur — ce que ça coûte ou fragilise

À quel point cette solution peut-elle nous échapper ?
Dette technique, dépendance fournisseur, opacité, dérive réglementaire.

Pas l’effort rêvé. L’effort probable dans notre contexte.
Intégration, acculturation, support, charge mentale des équipes.


La règle de décision (celle qui coupe court)

  • Score élevé → on fait maintenant
  • Score moyen → on sécurise ou on prototype
  • Score faible → on arrête d’en parler

Et surtout :

Deux solutions ne peuvent pas coexister si leurs scores sont éloignés.

C’est souvent là que l’IA « stratégique » attend…
et que le RPA discret passe devant.


L’équation radicale

Quand le débat oppose RPA et IA, l’équation radicale est

Décision = Temps humain libéré demain ÷ Complexité cognitive créée après-demain

Si un RPA libère massivement du temps sans créer de dépendance mentale, il gagne.
Si une IA promet beaucoup mais ajoute de l’opacité, de l’anxiété ou du contrôle diffus, elle attend.

Ce n’est pas un rejet de l’IA.
C’est un refus de l’illusion.


Ce que fait le DPM dans ce moment-là

Le DPM— Data Product Manager ne choisit pas. Il conduit le COMEX, les métiers à prendre conscience de leur choix.
Il ne conseille pas la technologie.
Il tient le cadre.

Et il pose la seule question qui compte :

« Êtes-vous prêts à assumer ce score devant vos équipes ? »

À cet instant, la décision cesse d’être une préférence.
Elle devient une responsabilité explicite.

Décider, ce n’est pas choisir la meilleure technologie.
C’est assumer la conséquence humaine de ce que l’on met en production.



Exemple de fonctionnement contextualisé

Un client hésite entre trois options concurrentes pour traiter un irritant métier :

  1. Une fonctionnalité produit urgente
  2. Un RPA pour automatiser un traitement manuel
  3. Une IA générative pour “aller plus loin”

Je lui demande :
👉 On note de 1 à 5. Pas de débat. On fonctionne à l’intuition


Option 1 — Fonctionnalité produit urgente

Hypothèse
Bug fonctionnel bloquant, signalé régulièrement par les utilisateurs.

  • Valeur : 4 (impact direct sur la satisfaction client)
  • Urgence : 5 (plaintes + risque churn)
  • Fréquence : 4 (quasi quotidien)
  • Risque : 1 (maîtrisé, connu)
  • Effort : 2 (équipe déjà en place)

Calcul

(4 × 5 × 4) ÷ (1 × 2) = 40


Option 2 — RPA (automatisation ciblée)

Hypothèse
Traitement manuel répétitif côté back-office.

  • Valeur : 5 (fort gain de temps humain)
  • Urgence : 3 (pas bloquant mais usant)
  • Fréquence : 5 (tous les jours, plusieurs fois)
  • Risque : 2 (dépendance outil, mais lisible)
  • Effort : 3 (intégration + supervision)

Calcul

(5 × 3 × 5) ÷ (2 × 3) = 12,5


Option 3 — IA générative “stratégique”

Hypothèse
Assistant IA pour aider à la prise de décision ou au traitement avancé.

  • Valeur : 4 (prometteur mais indirect)
  • Urgence : 2 (pas critique à court terme)
  • Fréquence : 2 (usage encore flou)
  • Risque : 4 (opacité, conformité, acculturation)
  • Effort : 4 (data, sécurité, change)

Calcul

(4 × 2 × 2) ÷ (4 × 4) = 1


Comparaison entre les 3 options

OptionScore
Fonctionnalité40
RPA12,5
IA1

👉 Il n’y a plus de débat :

Pas parce qu’elle est mauvaise.
Mais parce qu’elle ne mérite pas encore l’énergie collective.


Le moment clé (là où tout se joue)

Je pose alors la question :

« Êtes-vous prêts à expliquer à vos équipes que l’IA passe avant un problème noté 40 ? »

Dans 90 % des cas, le client sourit.
La décision est déjà prise.


Variante express (RPA vs IA)

Sur une autre serviette :

CritèreRPAIA
Temps humain libéré demain42
Complexité créée après-demain14

RPA = 4 ÷ 1 = 4
IA = 2 ÷ 4 = 0,5

Silence.
Puis : « OK. On commence par le RPA. »


Quand les chiffres sont simples, ce n’est pas la décision qui est difficile —
c’est ce qu’elle révèle.

La serviette COMEX – avec des euros

Contexte

Organisation de service (banque / assurance / industrie tertiaire).
Trois options concurrentes sur la table pour le prochain trimestre :

  1. Fonctionnalité produit (irritant client)
  2. RPA (automatisation back-office)
  3. IA générative (assistant “stratégique”)

Je pose le cadre :

« On raisonne en euros par an, pas en opinions. Ordres de grandeur acceptés. »


Option 1 — Fonctionnalité produit (irritant client)

Hypothèses chiffrées

  • 2 000 clients concernés
  • 5 % de churn potentiel
  • Valeur client annuelle : 3 000 €

👉 Risque business évité
2 000 × 5 % × 3 000 € = 300 000 € / an

Coûts

  • Développement + tests : 80 000 €
  • Risque faible, maîtrisé

Score “serviette”

300 000 ÷ 80 000 = 3,75


Option 2 — RPA (automatisation ciblée)

Hypothèses chiffrées

  • 6 ETP sur des tâches répétitives
  • Coût chargé moyen : 65 000 € / an
  • Automatisation réaliste : 60 %

👉 Temps humain libéré
6 × 65 000 × 60 % = 234 000 € / an

Coûts

  • Mise en place RPA : 120 000 €
  • Maintenance annuelle : 30 000 €
  • Dépendance outil maîtrisable

👉 Coût total année 1 : 150 000 €

Score “serviette”

234 000 ÷ 150 000 = 1,56


Option 3 — IA générative “stratégique”

Hypothèses chiffrées

  • Gains espérés diffus (qualité, aide à la décision)
  • Estimation optimiste du gain : 200 000 € / an
    (et déjà, le COMEX grimace)

Coûts visibles

  • Cadrage + POC : 120 000 €
  • Sécurisation data / conformité : 180 000 €
  • Acculturation + support : 100 000 €

👉 Coût année 1 : 400 000 €

Coûts invisibles (mais réels)

  • Risque réglementaire
  • Effet boîte noire
  • Charge mentale managériale

(On ne les chiffre même pas pour rester “gentils”)

Score “serviette”

200 000 ÷ 400 000 = 0,5


Lecture immédiate (COMEX-friendly)

OptionGain annuel estiméCoût année 1Ratio
Fonctionnalité300 k€80 k€3,75
RPA234 k€150 k€1,56
IA générative200 k€400 k€0,5

👉 La hiérarchie est indiscutable.

Pas idéologique.
Pas anti-IA.
Responsable.


La question qui fait basculer la décision

Je regarde le COMEX et je demande :

« Qui ici est prêt à expliquer que nous finançons une initiative à 0,5
alors qu’une action à 3,75 reste en attente ? »

Silence.
Puis réalignement.

Variante encore plus percutante (quand le COMEX hésite), j’ajoute une ligne, sans calcul :

Combien d’euros de charge mentale managériale créons-nous avec cette décision ?

La fonctionnalité : quasi zéro.
Le RPA : faible.
L’IA : élevée, diffuse, durable.

À ce moment-là, la décision est déjà prise.


Une bonne décision technologique n’est pas celle qui promet le plus,
mais celle dont le coût humain et financier est assumable.


Clairement oui.
Mais pas pour les raisons qu’on invoque d’habitude.

👉 L’IA devient prioritaire quand elle n’est plus une “option technologique”, mais une réponse directe à un problème économique ou humain.

1️⃣ Quand le coût marginal humain explose (scalabilité cassée)

Signal faible → signal fort

  • Volume qui double sans possibilité de doubler les équipes
  • Recrutement lent, cher ou impossible
  • Expertise rare, concentrée sur quelques personnes
  • 10 experts à 90 k€ chargés
  • Croissance d’activité attendue : +50 %
  • Besoin humain équivalent : +5 ETP = 450 k€ / an
  • IA d’assistance experte (tri, pré-analyse, aide à décision)
  • Coût total année 1 : 300 k€
  • Gain : éviter 450 k€ / an + réduire dépendance aux experts clés

👉 Ratio = 1,5 dès la première année
👉 IA prioritaire, car aucune autre option ne passe à l’échelle

📌 Ici, le RPA ne suffit pas. La feature non plus.


2️⃣ Quand la non-décision coûte plus cher que l’erreur

  • Fraude
  • Conformité
  • Risque opérationnel
  • Détection tardive d’anomalies
  • Pertes annuelles liées à la fraude : 1,2 M€
  • Détection actuelle trop lente
  • IA de détection (scoring, patterns faibles)
  • IA (données + modèles + sécurité) : 500 k€
  • Gain conservateur : –30 % de pertes

👉 Gain : 360 k€ / an
👉 Ratio brut : 0,72

❗️Sur la serviette, ça a l’air d’un chiffre acceptable mais le COMEX comprend autre chose :

« Quel est le coût politique, réglementaire et médiatique d’une fraude que l’on pourrait éviter ? »

📌 L’IA est prioritaire ici non pour le ROI, mais pour le risque systémique.


3️⃣ Quand la valeur est dans le discernement, pas dans l’exécution

  • Cas trop variables
  • Décisions contextualisées
  • Arbitrages multi-critères
  • Analyse de dossiers complexes
  • Support expert de niveau 2 ou 3
  • Aide à la décision réglementaire
  • 20 % des dossiers prennent 80 % du temps
  • Retards = pénalités + insatisfaction

IA d’assistance :

  • Réduction du temps de traitement : –40 % sur les cas complexes
  • Gain estimé : 300 k€ / an
  • Coût IA : 250 k€

👉 Ratio = 1,2
👉 Suffisant si la qualité est au rendez-vous

📌 L’IA est prioritaire parce qu’elle aide à penser, pas à faire plus vite.


4️⃣ Quand l’alternative est… ne rien faire

Cas très fréquent, rarement nommé.

  • Dette cognitive accumulée
  • Données inexploitées
  • Organisation saturée d’arbitrages manuels
  • 50 managers passent 2 h / semaine à consolider de l’info
  • Coût moyen manager : 100 k€

👉 Coût caché :
50 × 2 h × 45 semaines ≈ 4 500 h
250 k€ / an

IA d’aide à la synthèse / décision :

  • Coût : 180 k€
  • Gain : temps + qualité + sérénité managériale

👉 IA prioritaire, car l’inaction est déjà coûteuse


La vraie grille (celle qui ne trompe pas)

L’IA est prioritaire quand au moins une de ces phrases est vraie :

  • « Nous ne pouvons pas recruter à la hauteur du besoin »
  • « L’erreur nous coûte plus cher que l’investissement »
  • « La complexité dépasse l’automatisation simple »
  • « Le coût caché de l’inaction est déjà supérieur »

Sinon ?
👉 Feature
👉 RPA
👉 Ou on attend


L’IA devient prioritaire quand elle permet de décider ou d’agir, là où l’humain seul ne tient plus.

Continuer le chantier 2026 du Campus

Cet article s’inscrit dans la dynamique du chantier 2026 du Campus : Décider, livrer, gouverner — moment charnière où ce qui est livré n’est plus seulement produit, mais assumé.

Ici, livré ne signifie pas « terminé ».
Il signifie décidé, porté, rendu responsable.