Aller au contenu
NAARI

Systèmes & IA

15 avril 2026 · 9 min de lecture

Quand l’IA accélère le chaos.

En pharmacologie, un mauvais diagnostic est souvent pire que pas de traitement. Le même principe vaut pour une organisation. Sur ce que nous voyons, mission après mission, dans les équipes santé qui veulent intégrer l’IA sans avoir cartographié ce qu’elles font.

En pharmacologie, on apprend très tôt qu’un mauvais diagnostic est souvent pire que pas de traitement. Le mauvais médicament prescrit pour les bonnes raisons fait plus de dégâts que le placebo lucide. La même règle vaut pour une organisation : un outil déployé sur un système qu’on ne maîtrise pas n’améliore pas la situation. Il l’accélère.

Onze missions à travers la santé l’ont rendu évident. Dans presque chaque équipe — pharma, medtech, biotech, digital health — on retrouve les mêmes trois choses avant qu’une seule ligne d’IA n’entre dans le système.

Les trois choses qu’on trouve, presque toujours.

Des validations que personne n’a challengées depuis des années.

Une étape de relecture juridique sur un type de contenu qui n’a plus le même statut réglementaire. Une approbation médicale sur un workflow qui ne contient plus de claim médical. Une signature qui passait sur une version papier d’un process disparu depuis trois ans. La validation reste, parce que personne n’a jamais eu mandat de la retirer. L’équipe perd dix jours par cycle. La direction ne le voit pas — la latence est intégrée au planning depuis si longtemps qu’elle a l’air normale.

Des process qui dépendent d’une seule personne.

Ils ne sont pas écrits, ou alors ils sont écrits dans une version qui n’a plus de rapport avec ce qui se fait. Quelqu’un sait. Cette personne est en arrêt, en mission ailleurs, ou en train de partir. L’équipe découvre à ce moment-là que le process n’existait pas comme système — il existait comme habitude logée dans un cerveau.

Des données qui existent, mais que personne ne connecte.

L’information de marché vit dans une feuille Excel sur un disque local. La donnée client vit dans un CRM auquel deux personnes ont accès. Le résultat d’un test produit vit dans un PDF envoyé par email. Personne n’a tort techniquement — chaque source est correcte. Personne n’a la chaîne complète sous les yeux, et donc personne ne peut s’en servir pour décider.

Pourquoi l’IA amplifie ces problèmes.

L’IA — qu’il s’agisse d’un agent, d’un copilot, d’une automatisation — fait toujours la même chose : elle prend ce qu’on lui donne et elle le multiplie. Plus vite, plus souvent, plus loin. Si ce qu’on lui donne est propre, elle fait gagner du temps. Si ce qu’on lui donne est confus, elle produit du confus à grande échelle.

Concrètement, dans une équipe marketing pharma : si la bibliothèque de contenu n’a pas de référentiel partagé, un générateur de variantes produira deux cents versions d’un même asset, dont aucune n’est rattachée à une décision médicale. Si les règles de validation ne sont pas cartographiées, un agent autonome déclenchera la mauvaise étape sur le mauvais produit. Si les rôles ne sont pas définis, l’IA fera son travail ; mais personne ne saura qui contrôle la sortie, et personne n’osera la signer.

L’IA n’efface pas les problèmes d’organisation. Elle les amplifie.

Ce que NAARI fait à la place.

Quand le terrain est prêt, NAARI déploie directement : assistants, automatisations, premiers usages dans les workflows réels. Quand il manque des éléments structurants, NAARI clarifie le niveau nécessaire avant d’intégrer. La méthode dépend du point de départ, pas l’inverse.

Quand le travail demande la version complète, il tient en quatre temps.

D’abord, écouter. Pas les managers — les opérateurs. Les analystes qui font tourner le workflow, les spécialistes réglementaires qui se battent avec les étapes de validation, les marketeurs qui poussent du contenu à travers six handoffs. C’est là qu’on trouve le verbatim, les contournements, les choses que management ne voit pas.

Ensuite, cartographier. Chaque workflow, chaque source de données, chaque règle de validation. On chiffre les points de friction. On marque ce qui fonctionne, ce qui bloque, ce qui n’a pas de propriétaire clair. Le tableau devient un document de travail — pas une slide.

Puis, structurer. L’architecture cible se dessine. Les rôles. La gouvernance. Les règles d’usage. Les outils — IA comprise — sont choisis dans l’ordre où ils tombent juste. Les premiers à déployer sont ceux qui soulagent une douleur réelle.

Enfin, intégrer. Par paliers. L’équipe sait quand utiliser l’outil, comment le contrôler, comment le faire évoluer. À la sortie, le système appartient à l’équipe — pas au cabinet.

Ce que ça donne, en pratique.

Sur une mission récente dans le marketing opérationnel d’un grand groupe pharmaceutique français, l’équipe avait été pitchée par trois fournisseurs de plateformes d’automatisation intelligente dans le trimestre précédent. Aucun n’avait passé plus de deux heures sur le terrain. La directrice nous a confié un brief différent : passer huit semaines à comprendre ce que l’équipe fait réellement, avant de décider quoi automatiser.

Visible : une machine à contenu qui produisait du volume. Réel : 22 workflows distincts, 6 redondants entre eux, 3 bloquant tout le reste quand un input arrivait en retard. Une bibliothèque de contenu réutilisée à la main, des règles de validation que personne n’avait challengées, des posts copiés d’une plateforme à l’autre sans système de référence partagé.

Il a fallu huit semaines pour cartographier. Trois mois pour structurer. Trois automatisations à fort impact ont été déployées dans le palier suivant — les bonnes, parce que la cartographie avait permis de les choisir. Une feuille de route 6 à 18 mois a été validée par le comité exécutif. L’équipe possède le système.

C’est le seul ordre qui marche en santé. Pas parce qu’il est plus rigoureux. Parce qu’en santé, un workflow porte toujours des responsabilités, des validations, des règles d’usage et parfois des contraintes réglementaires. Automatiser ce qu’on n’a pas compris, c’est demander à un système qu’on ne maîtrise pas de produire à grande échelle.

Primum non nocere, appliqué à l’organisation.

La règle première de la médecine — d’abord, ne pas nuire — vaut pour le changement organisationnel. Avant d’ajouter, comprendre ce qui est. Avant d’automatiser, savoir ce qu’on automatise. Avant l’outil, le diagnostic.

C’est plus long. C’est moins spectaculaire. C’est le seul moyen pour que la transformation tienne après le départ du cabinet.

Questions
Pourquoi l’IA ne fonctionne pas sur des process opaques ?
Parce qu’elle multiplie ce qu’on lui donne. Si l’input est confus, l’output est du confus à grande échelle — produit plus vite, plus souvent, plus loin. La technologie est bonne ; ce qui manque, c’est la matière propre sur laquelle elle peut s’appuyer.
Combien de temps dure un diagnostic en pratique ?
Quatre à huit semaines selon la taille de l’équipe et la profondeur du périmètre. Au bout de cette phase, l’équipe dispose d’un document de travail — pas d’une slide — qui devient sa base de discussion interne pour la suite.
Si notre équipe pense que le diagnostic est inutile, comment on tranche ?
Le diagnostic n’est utile que si l’équipe ne sait pas ce qu’elle ne sait pas. Si elle a déjà une cartographie partagée de ses workflows, une définition claire des rôles, et un inventaire de ses données — alors oui, on peut sauter la phase. Dans onze missions, je ne l’ai jamais vu.
Peut-on faire un POC IA en parallèle du diagnostic ?
Oui, sur un périmètre étroit où le risque d’erreur est limité — par exemple un assistant de recherche interne, ou une automatisation sur un workflow déjà documenté. Pas sur un workflow critique, pas sur un agent qui prend des décisions, pas sur un process réglementé.
Contact

Une situation que cet article décrit ?

Dites-nous ce qui ralentit votre équipe. Nous vous dirons si nous pouvons aider.