Trois faits qui redessinent la gouvernance IA

Newsletter Décider l'IA — Christophe Picou — Mai 2026

Publiés entre décembre 2025 et mai 2026, ils dérangent quand on les tient ensemble.

Pris isolément, chacun semble anodin. Pris ensemble, ils dessinent une géographie de la décision IA que les organes de gouvernance n'ont pas encore intégrée. La gouvernance de l'intelligence artificielle dans les conseils d'administration français et suisses entre dans une phase nouvelle. Trois sources institutionnelles indépendantes - un verbatim du président d'OpenAI, une enquête mondiale du Boston Consulting Group, une étude de l'OCDE sur six pays - convergent vers un même diagnostic. La prudence vient du sommet de la chaîne d'offre IA, l'urgence vient de l'anxiété des conseils, et la décision a déjà glissé hors du périmètre que les administrateurs croient gouverner.

Premier fait : le président d'OpenAI déconseille l'IA pour préparer un conseil

Le 23 février 2026, Bret Taylor, président du conseil d'administration d'OpenAI, déclare dans un podcast : « I think most companies should be run this way. The other thing that is really interesting : don't write it with AI. It's so funny to have to say that now, but I find that the process of writing is a process of clarifying your thoughts. »

Le contexte mérite d'être tenu. Bret Taylor n'est pas un sceptique de l'intelligence artificielle. Il préside le board de l'entreprise qui a popularisé ChatGPT, et il est par ailleurs co-fondateur de Sierra AI, l'une des startups les plus financées du secteur des agents IA. La phrase qu'il prononce, il a passé deux décennies à la rendre techniquement possible. Et c'est précisément lui, à la tête de l'organisation qui propose au monde de déléguer l'écriture aux modèles de langage, qui formule à l'attention des administrateurs : ne le faites pas. L'écriture, dit-il, est le processus par lequel on clarifie sa pensée. Y renoncer dans la préparation d'un conseil, c'est renoncer à la pensée elle-même.

La précision est importante. Taylor ne dit pas que l'IA ne sert à rien. Dans le même entretien, il prédit même que les régulateurs en viendront à exiger des agents IA pour superviser les processus sensibles, considérant le contrôle humain seul comme un risque. Sa position n'est donc pas technophobe. Elle est doctrinale. Elle distingue le terrain où l'IA accélère la performance et le terrain où elle décompose le jugement. La gouvernance appartient au second.

Deuxième fait : 61 % des dirigeants constatent que leur conseil les pousse trop loin sur l'IA

Le 4 mai 2026, le Boston Consulting Group publie Split Decisions : The BCG CEOs and Boards Survey. Six cent vingt-cinq dirigeants interrogés, 351 directeurs généraux et 274 administrateurs, dans des entreprises pesant plus de cent millions de dollars de chiffre d'affaires.

Les chiffres saillants sont nets. 61 % des PDG estiment que leur conseil les pousse à accélérer la transformation IA au-delà du raisonnable. Plus de la moitié considèrent que leur conseil ne mesure pas l'écart entre le discours marketing et la réalité opérationnelle. Près de 40 % estiment que leur conseil n'a pas une vision informée de la manière dont l'IA reconfigure la stratégie de croissance. 35 % considèrent que leur conseil surestime ce que l'IA peut substituer au travail humain.

Mais c'est une autre donnée du même rapport qui mérite d'être tenue, parce qu'elle dérange plus encore. Les administrateurs qui se sentent les moins compétents en IA sont aussi ceux qui poussent le plus pour accélérer son déploiement. L'urgence n'est pas pilotée par la stratégie. Elle est pilotée par l'anxiété. Plus on craint de manquer, plus on précipite. Plus on précipite, moins on comprend ce qu'on précipite. L'inversion de logique est saisissante : ce sont les organes les moins outillés pour évaluer le risque qui exigent que le risque soit pris plus vite.

Le rapport contient une autre asymétrie qui résume le moment. 75 % des administrateurs disent que leur compréhension de l'IA est au niveau de leurs pairs, voire supérieure. 40 % de leurs propres directeurs généraux pensent le contraire. La confiance déclarée d'un côté du tableau, l'inquiétude exécutive de l'autre côté. Entre les deux, la décision.

Troisième fait : 81 % des firmes françaises utilisent déjà du management algorithmique

L'Organisation de coopération et de développement économiques publie en février 2025, complétée par un policy brief en décembre 2025, une enquête conduite auprès de plus de six mille managers intermédiaires dans six pays : France, Allemagne, Italie, Japon, Espagne, États-Unis. L'objet de l'enquête est précis : la prévalence du management algorithmique, défini comme « l'usage de logiciels, y compris d'intelligence artificielle, pour automatiser totalement ou partiellement des tâches traditionnellement effectuées par des managers humains ».

Les résultats sont les suivants. En France, 81 % des firmes ont adopté au moins un outil de management algorithmique. La moyenne européenne s'établit à 79 %. Les États-Unis montent à 90 %. La France n'est donc pas en avance ; elle est dans la moyenne haute d'un phénomène désormais généralisé. Les outils concernés instruisent les travailleurs, distribuent les horaires, assignent les clients, suivent les performances, fixent des objectifs, récompensent et sanctionnent.

Les managers interrogés citent trois préoccupations majeures, et ces préoccupations comptent autant que les chiffres. Premièrement, une responsabilité floue en cas de décision algorithmique défaillante. Deuxièmement, une incapacité à suivre la logique interne des outils. Troisièmement, une protection insuffisante de la santé des travailleurs. Trois préoccupations qui désignent un même phénomène : l'opacité décisionnelle s'est installée dans les couches managériales sans que les chaînes de responsabilité aient été reconfigurées pour la tenir.

Ce que ces trois faits dessinent ensemble

Ils dessinent une géographie de la décision IA que les organes de gouvernance n'ont pas encore intégrée.

Le premier fait nomme la frontière. Il vient du sommet de la chaîne d'offre, et il dit que la décision stratégique ne se délègue pas au modèle. Ce n'est pas un avis. C'est un seuil opérationnel formulé par quelqu'un dont la légitimité ne peut être contestée sur ce terrain.

Le deuxième fait nomme le moteur. L'urgence qui pousse les conseils à accélérer la transformation IA n'est pas une urgence stratégique. Elle est une réponse à l'inconfort de ne pas comprendre. L'anxiété produit la précipitation, la précipitation produit l'engagement, l'engagement produit l'irréversibilité. Trois pas, et l'arbitrage initial est consommé.

Le troisième fait nomme le terrain. Pendant que les conseils débattent de l'opportunité de déployer l'IA, l'IA est déjà déployée dans 81 % des firmes françaises sous la forme d'outils qui distribuent le travail, évaluent les performances et sanctionnent les comportements. Le débat porte sur une question résolue. La révolution n'est pas à venir. Elle est faite.

Tenir ces trois faits ensemble change la conversation. Cela ne dit pas que l'intelligence artificielle est mauvaise. Cela ne dit pas qu'il faut ralentir l'adoption. Cela dit autre chose, plus précis. Cela dit que la question n'est pas l'intégration. La question est la décision. Qui décide, sur quelle base d'information, avec quelle réversibilité, avec quel seuil clair de ce qui peut être délégué à la machine et de ce qui ne peut pas l'être.

Les questions qui font la gouvernance IA d'un conseil

La gouvernance IA, en 2026, est devenue l'un de ces sujets où la sophistication du discours masque l'absence de doctrine. Tout le monde en parle. Peu posent les questions qui décomposent le problème. Et lorsqu'on les pose, on s'aperçoit qu'elles ne sont, à ce jour, pratiquement formulées par aucune institution.

Quelles décisions, dans votre entreprise, sont déjà prises par un système algorithmique sans audit explicite du conseil ? Quelle proportion des notes que vous lisez en séance a été co-produite par un modèle de langage sans mention d'auteur ? Quelles sont les cinq couches de dépendance - infrastructure, modèle, données, cognitive, stratégique - que vous signez à chaque déploiement IA ? Quels sont les seuils que vous refusez de franchir, et où sont-ils écrits ?

Ces questions ne sont pas techniques. Elles sont décisionnelles. Et elles forment, en mai 2026, le seul sol stable sur lequel un conseil peut tenir sa fonction.

La première décision IA de l'année

Le président du board d'OpenAI a écrit son propre mémo, sans l'aide d'aucun modèle. C'était il y a trois mois. Personne, dans les conseils français et suisses, n'a publiquement repris cette discipline. Ce sera peut-être la première décision IA de l'année.

Aller plus loin

VEIA conduit des diagnostics de gouvernance IA auprès de conseils d'administration, comités exécutifs et comités de direction en France et en Suisse. La doctrine : décider avant d'intégrer. Échanger avec VEIA ou tester votre maturité de gouvernance en 10 questions.

Sources

Bret Taylor, Uncapped with Jack Altman, podcast, 23 février 2026.

Boston Consulting Group, Split Decisions : The BCG CEOs and Boards Survey, 4 mai 2026. Échantillon : 625 dirigeants (351 PDG, 274 administrateurs), entreprises au-delà de 100 millions de dollars de revenus.

OCDE, How widespread is algorithmic management in workplaces ?, policy brief décembre 2025 et rapport complet février 2025. Échantillon : plus de 6 000 firmes, six pays (France, Allemagne, Italie, Japon, Espagne, États-Unis), enquête conduite via Ipsos auprès de managers intermédiaires.

Christophe Picou

Christophe Picou

Fondateur, VEIA.AI - Cabinet de conseil stratégique indépendant en intelligence artificielle

Discuter de cette analyse ?

Quinze à vingt minutes pour échanger sur ce sujet appliqué à votre organisation.

Réserver via Calendly
Lectures suggérées

Trois lectures qui prolongent cette réflexion.