Un directeur de rédaction découvre, par hasard, qu'une enquête en cours sur un industriel local a été préparée à l'aide de ChatGPT - notes d'entretien off, mails de sources confidentielles, premiers brouillons. Le journaliste n'a pas commis de faute consciente. Il a gagné trois jours. La source, elle, ne sait pas que sa parole transite par un modèle américain dont les logs sont saisissables en justice. Quelques semaines plus tard, dans un autre titre, un papier signé par un rédacteur expérimenté contient une citation inventée. Plausible, contextuelle, fausse. L'outil IA était mentionné dans la chaîne de production - mais sans validation humaine documentée. Ces gestes se multiplient. Ils ne sont pas des fautes. Ce sont des symptômes.
Le constat de fond
Plus d'un journaliste sur deux utilise désormais des outils d'IA générative dans son travail. En France, 68 % des salariés utilisent l'IA sans informer leur direction. En Suisse, 53 % des entreprises ont intégré l'IA mais dans une logique tactique, sans cadre stratégique. Les chartes existent - Le Monde (mars 2024), Le Figaro (décembre 2023), Radio France (mars 2025), RTS (mars 2025), Mediapart (janvier 2025) - mais seulement 21,5 % des rédactions françaises en disposent effectivement (enquête CFDT-Journalistes, mars 2025).
Ce qui distingue le secteur des médias des autres industries face à l'IA tient en trois points. La responsabilité éditoriale est personnelle : le directeur de publication français (articles 42-43 de la loi de 1881) et le rédacteur responsable suisse (article 28 et 322bis du Code pénal, confirmé par l'arrêt 6B_1033/2023 du Tribunal fédéral du 8 juillet 2024) restent juridiquement comptables des contenus, hallucinations IA comprises. Aucun fournisseur d'IA ne se substitue à eux dans la chaîne de responsabilité - et aucune jurisprudence française n'a tranché à ce jour la qualification de ces fournisseurs.
La protection des sources est exposée à un risque sans équivalent dans les autres secteurs. Un journaliste qui colle un document confidentiel dans un modèle grand public expose la source. Les contrats enterprise protègent contractuellement contre l'entraînement, mais ne neutralisent pas les obligations légales américaines (Cloud Act) ni la possibilité de réquisitions judiciaires. Aucun fournisseur ne reconnaît à ce jour le secret rédactionnel comme cas d'usage particulier.
La dépendance aux plateformes de distribution s'aggrave. Le trafic search des éditeurs européens a baissé de 17 % entre novembre 2024 et novembre 2025, et de 33 % au niveau mondial. Les dirigeants de médias anticipent une baisse de 43 % du trafic search sur les trois prochaines années. Une rédaction qui dépend pour 70 % de son audience de Google News et Discover est sous arbitrage algorithmique permanent - et l'arrivée d'AI Overviews déplace une partie de la valeur dans le moteur lui-même.
Ce que les accords de licence avec les éditeurs de modèles changent
Plusieurs groupes médias de premier rang ont signé des accords de licence pluriannuels avec des éditeurs de modèles IA. Le Monde avec OpenAI en mars 2024, puis avec Perplexity en mai 2025. Axel Springer avec OpenAI en décembre 2023. News Corp avec OpenAI pour un montant supérieur à 250 millions de dollars sur cinq ans, en mai 2024. Le Financial Times en avril 2024. Hearst, AP, Reddit. En France, l'AFP a signé avec Mistral en janvier 2025.
Ces accords sont des choix stratégiques rationnels. Ils sécurisent un revenu certain, marginal mais non négligeable, dans un contexte de baisse de trafic structurelle. Ils ont aussi une fonction de couverture juridique : ce qui est sous licence n'est plus sous contentieux. Ils créent en contrepartie une relation économique entre le média signataire et le fournisseur technologique.
Cette relation économique n'invalide pas le jugement éditorial - elle le complique. La rédaction d'un journal partenaire commercial d'un éditeur de modèles peut-elle évaluer ces mêmes modèles avec la même liberté qu'une rédaction non liée ? La réponse n'est pas binaire ; elle est structurelle. C'est précisément ce qu'un conseil sans aucun revenu lié à un éditeur ou à une plateforme peut traiter sans tension d'allégeance.
« Une rédaction qui dépend économiquement de l'outil qu'elle évalue ne peut pas être juge et partie sur ses propres dépendances. Décider avant d'intégrer, c'est se donner le temps de regarder cet arbitrage en face - avant qu'il soit verrouillé contractuellement. »
Le Shadow IA dans les rédactions
56 % des journalistes britanniques utilisent l'IA au moins une fois par semaine (Reuters Institute UK Journalist Survey 2025). En France, l'écart entre l'usage individuel et le cadre éditorial est documenté : 19 % des rédactions traitent l'IA en mode "vas-y comme je te pousse", 15 % ne l'abordent pas du tout (CFDT-Journalistes, mars 2025). Le Shadow IA est devenu la norme implicite.
Le risque central est celui de la protection des sources. Une note de contact, un document de fuite, un PV de réunion off injectés dans un modèle grand public ne sont plus protégés. La donnée ne peut être retirée. Une enquête en cours, partagée avec un assistant IA, devient potentiellement saisissable. Aucun audit technique a posteriori ne permet de reconstituer ce qui a transité - parce que cela passe par des comptes personnels, hors du système d'information de la rédaction.
Ce risque ne se traite pas par interdiction. L'expérience industrielle montre que les interdictions strictes produisent davantage de Shadow IA, pas moins. Il se traite par une doctrine interne explicite : quelles données sont rigoureusement interdites de transmission externe, sur quels outils, sous quelles conditions contractuelles, avec quelle traçabilité minimale.
Ce que la gouvernance éditoriale doit couvrir
Quatre périmètres structurent une gouvernance éditoriale IA opérationnelle.
L'inventaire réel des outils en usage. Pas la liste officielle ; la liste vécue. Quels modèles, accessibles par quels comptes, sur quelles données. Cet inventaire est rarement fait, parce qu'il est inconfortable - il révèle l'écart entre la charte affichée et la pratique. Il est le préalable de toute décision sérieuse.
La cartographie des données interdites de transmission externe. Les sources, les enquêtes en cours, les documents soumis à embargo, les données personnelles sensibles, les contenus protégés par le droit des tiers. Cette liste se construit avec la rédaction, pas contre elle. Elle est opposable individuellement.
Les conditions contractuelles réelles avec les éditeurs de modèles. Réversibilité, traçabilité, juridiction applicable, conditions de sortie, garanties sur l'entraînement, position face aux réquisitions judiciaires. Ces clauses se lisent avant la signature - elles ne se renégocient pas après le premier incident.
Une doctrine interne opposable. Pas une charte vague - un document qui précise ce qui est autorisé, encadré, interdit, et qui peut être invoqué devant le Conseil de presse, devant le juge, devant les annonceurs et les lecteurs. Cette doctrine est portée par la direction, pas par la DSI.
Le timing est décisif. Une rédaction qui pose ces quatre périmètres avant ses engagements technologiques structurants conserve son arbitrage. Une rédaction qui les pose après le premier incident ou après la signature d'un accord pluriannuel arrive trop tard - les dépendances sont devenues irréversibles, et l'arbitrage est devenu un dommages-intérêts.