top of page

La complémentarité humain-IA n'est pas perdue. Elle n'a jamais été construite.

  • Photo du rédacteur: Christophe Picou
    Christophe Picou
  • 10 avr.
  • 4 min de lecture

Dernière mise à jour : 13 avr.


Une mission d'information à l'Assemblée nationale, présidée par Roger Chudeau et dont Céline Calvez est rapporteure, a auditionné récemment Luc Ferry (Officiel) , laurent alexandre et Olivier Babeau sur la transformation de l'éducation et de la connaissance par l'intelligence artificielle. Au-delà du casting et des registres parfois prophétiques, leur convergence porte sur l'alerte. Pas encore sur le modèle d'action. Et c'est précisément là que se joue ce que les dirigeants doivent en faire.



Trois points, dans cette audition, méritent qu'on s'y arrête.


Le premier : l'intelligence artificielle est intelligente. Cela paraît une évidence, mais c'est encore une thèse minoritaire dans les comités de direction français et suisse. On continue, en 2026, à parler de l'IA comme d'un projet américain ou chinois qui ne nous toucherait pas vraiment. Comme d'un outil parmi d'autres, à intégrer le moment venu. Cette posture est une forme de mise à l'écart volontaire, et elle a un coût qui s'accumule chaque trimestre.


Le deuxième : la vitesse. Les auditionnés évoquent un dépassement cognitif annoncé pour 2027 ou 2028. Je ne reprends pas ces calendriers, qui restent des projections discutées. Mais je retiens ce qu'ils signalent : un écart de tempo qui s'élargit entre la courbe des modèles et la courbe d'apprentissage des organisations. C'est cet écart, et non telle ou telle date précise, qui doit préoccuper les dirigeants. La vitesse est devenue la variable critique. Elle ne se traite pas par l'intuition.


Le troisième : le déni cognitif des décideurs. Sur ce point, les trois auditionnés sont sévères, et le diagnostic est solide. Beaucoup de dirigeants n'ont pas testé sérieusement les modèles actuels. Beaucoup confondent encore les versions grand public et les capacités réelles des systèmes les plus avancés. Beaucoup délèguent la question à la DSI ou à un comité technique, comme s'il s'agissait d'un sujet d'outillage. Or ce n'est pas un sujet d'outillage. C'est un sujet de gouvernance, d'attribution de responsabilité, et de souveraineté décisionnelle.


C'est sur le quatrième point que ma lecture diverge.


Devant l'Assemblée, la complémentarité humain-IA est présentée comme un combat largement perdu. Cette thèse est forte, mais elle reste une thèse, étayée par quelques études convergentes et par l'expérience de praticiens. Je l'utilise pour ce qu'elle est : un stress test utile. Si l'on prend leur scénario au sérieux, alors quelle gouvernance reste tenable ? Quelle décision continue de relever du dirigeant ? À quelles conditions ? C'est en passant par ces questions, plutôt qu'en débattant de leur prophétie, qu'on extrait la valeur de leur alerte.


Ma divergence ne porte pas sur la violence de la rupture. Elle porte sur ce que je vois sur le terrain. Dans les comités de direction et les conseils d'administration que j'accompagne en France et en Suisse, la complémentarité n'est pas perdue. Elle n'a jamais été construite.


La nuance change tout.


Une chose perdue est derrière nous. Une chose à construire est devant nous.

À condition d'accepter que cette construction ne se fait pas spontanément par simple adoption d'outils. Elle suppose un cadre de décision, une doctrine d'usage, des responsabilités attribuées, des zones d'interdiction explicites, des métriques de contrôle, et une capacité réelle d'escalade et de retrait. Sans cela, parler de complémentarité est un vœu. Avec cela, c'est une discipline institutionnelle.


Cette construction ne se joue pas d’abord sur la puissance cognitive brute. Elle se joue sur quatre exigences dont la responsabilité ne se délègue pas au système.


  1. Le Sens : formuler la finalité que l'IA est autorisée à servir, avant tout déploiement.

  2. La Valeur : définir ce qui reste sous contrôle souverain de l'organisation, ses données propriétaires, ses logiques métier, ses processus distinctifs.

  3. L'Intégrité : exiger une chaîne de responsabilité identifiable et auditable pour chaque système engagé.

  4. L'Autonomie : préserver la capacité de sortir d'un système sans effondrement opérationnel - une réversibilité qui se construit avant le contrat, pas après.



Ces quatre exigences ne sont pas négociables, et aucune d'entre elles ne se délègue à un modèle, aussi puissant soit-il. Elles sont l'expression institutionnelle de ce qui reste irréductiblement humain : décider de ce qu'on veut, choisir ce qu'on garde, répondre de ce qu'on engage, conserver la possibilité de revenir en arrière.


Cette compréhension a un nom : l'acculturation. Pas la formation technique. L'acculturation au sens de la capacité à dialoguer avec ces systèmes, à reconnaître ce qu'ils savent faire mieux que nous, à identifier ce qu'ils ne devront jamais décider à notre place.


Il y a, dans l'audition, un parallèle qui n'a pas été nommé mais qui me paraît central. Le raccourci d'un élève qui utilise un assistant conversationnel pour son devoir et le shadow AI d'un salarié qui traite ses dossiers à l'insu de son employeur procèdent du même mécanisme. L'institution n'a pas posé le cadre. L'utilisateur final, lui, a optimisé son intérêt immédiat. Le coût se reporte sur le collectif. Perte des fondamentaux d'un côté, perte de souveraineté décisionnelle et de traçabilité de l'autre. On ne peut en vouloir ni à l'élève ni au salarié. On peut en vouloir à l'institution qui n'a pas pris le temps de cadrer.


Quand l'institution ne pose pas le cadre, l'utilisateur final l'écrit à sa place.

C'est exactement le terrain de VEIA.AI . Ma doctrine tient en trois mots : décider avant d'intégrer. Décider qui décide, sur quoi, avec quelles métriques, avec quelle traçabilité, avec quelle marge de retrait possible. Ces questions ne se posent pas une fois la solution déployée. Elles se posent avant. Et elles se posent au plus haut niveau, parce qu'elles engagent ce qui ne se délègue pas.


L'audition Ferry-Alexandre-Babeau aura été utile sur le diagnostic. Là où elle s'arrête à l'opposition entre remplacement et complémentarité, je crois que la question utile est ailleurs. Quelles décisions doivent rester humaines, à quelles conditions, avec quelle responsabilité, dans une organisation où l'intelligence est devenue une ressource externe abondante. C'est cette question, et pas celle du remplacement, qui définira les dix prochaines années. Et c'est à cette question que mon métier répond, un comité de direction à la fois.


Les quatre exigences évoquées dans ce texte - Sens, Valeur, Intégrité, Autonomie - sont développées dans le Manifeste de Souveraineté Décisionnelle IA, publié en 2026 et librement diffusable.


La souveraineté commence par la décision.

Christophe Picou - Fondateur, VEIA.AI Cadrer la décision IA avant qu'elle s'engage. Conseil stratégique indépendant auprès des COMEX et conseils d'administration. France et Suisse .





bottom of page