Le constat

Les rédactions utilisent l'IA plus vite qu'elles ne la gouvernent.

En 2025, plus d'un journaliste sur deux utilise des outils d'IA générative dans son travail quotidien (Cision, State of the Media 2025, périmètre incluant la France). En France, 68 % des salariés utilisent l'IA sans informer leur direction (INRIA-Datacraft, juin 2025). En Suisse, 53 % des entreprises ont intégré l'IA, mais les déploiements restent tactiques plutôt que stratégiques (On Future / ICT Journal, septembre 2025).

Les grands groupes ont publié leurs chartes. Le Monde en mars 2024, Le Figaro en décembre 2023, Les Echos-Le Parisien en mai 2023, Radio France en mars 2025, Mediapart en janvier 2025. En Suisse, la RTS a validé sa charte le 25 mars 2025. SRF, Tamedia, Keystone-ATS et Blick/Ringier ont publié les leurs. Le Code de conduite IA des médias suisses adopté le 8 mai 2026 réunit l'ensemble du secteur autour d'un ombudsman IA indépendant.

Entre la charte publiée et la pratique des rédactions, l'écart est documenté. L'enquête CFDT-Journalistes de mars 2025 montre que seulement 21,5 % des rédactions françaises disposent d'une charte effective. Le sujet est traité, mais rarement décidé. C'est précisément ce que la gouvernance éditoriale doit corriger - avant que les dépendances soient irréversibles.

Trois dimensions engagées simultanément

Ce que chaque usage de l'IA mobilise dans une rédaction.

Un outil IA déployé dans une rédaction n'est pas un outil technique. Il engage trois dimensions distinctes - chacune relève d'une responsabilité différente, chacune appelle un arbitrage propre.

Risques opérationnels

Ce que le conseil habituel ne pose pas.

Les cabinets historiques du secteur médias accompagnent l'intégration technique de l'IA. La question préalable - quel outil, sur quelles données, sous quelles conditions, avec quelle réversibilité - reste largement non posée. Les risques suivants sont documentés et structurants pour une rédaction.

01

Protection des sources journalistiques et modèles IA tiers Un journaliste qui co

Protection des sources journalistiques et modèles IA tiers Un journaliste qui colle une note d'enquête, un PV de réunion off ou un document confidentiel dans ChatGPT grand public expose la source. La donnée ne peut pas être retirée. Les contrats enterprise protègent contre l'entraînement mais ne neutralisent pas les obligations légales américaines (Cloud Act). Aucun fournisseur IA ne reconnaît actuellement le secret rédactionnel comme cas d'usage particulier.

02

Responsabilité civile et pénale sur erreur factuelle introduite par IA Le direct

Responsabilité civile et pénale sur erreur factuelle introduite par IA Le directeur de publication français (articles 42-43 loi 1881) et le rédacteur responsable suisse (article 28 / 322bis CP, ATF 150 IV 433 du 8 juillet 2024) restent juridiquement responsables des contenus, y compris des hallucinations IA. Aucune jurisprudence française n'a tranché à ce jour la qualification du fournisseur d'IA dans la chaîne de responsabilité.

03

Dépendance aux algorithmes de distribution Le trafic search des éditeurs europée

Dépendance aux algorithmes de distribution Le trafic search des éditeurs européens a chuté de 17 % entre novembre 2024 et novembre 2025 ; -33 % au niveau mondial (Chartbeat / Reuters Institute). Les dirigeants anticipent une baisse de 43 % du trafic search sur 3 ans (Reuters Institute, sondage 280 responsables, 51 pays). Une rédaction qui dépend pour 70 % de son trafic de Google News et Discover est sous arbitrage algorithmique permanent.

04

Shadow IA dans les rédactions Les usages individuels précèdent largement le cadr

Shadow IA dans les rédactions Les usages individuels précèdent largement le cadre éditorial. 56 % des journalistes britanniques utilisent l'IA au moins une fois par semaine ; en France, 68 % des salariés utilisent l'IA sans informer leur direction. Sans inventaire des outils et des données qui y transitent, la direction ne pilote pas - elle découvre les incidents après coup.

05

Droit voisin et accords de licence : conflits d'intérêts documentés Plusieurs gr

Droit voisin et accords de licence : conflits d'intérêts documentés Plusieurs groupes médias français et internationaux ont signé des accords de licence pluriannuels avec des éditeurs de modèles IA. Ces accords créent une relation économique entre le média et le prescripteur technologique - ce qui rend délicate l'évaluation indépendante de ces mêmes outils par la rédaction concernée.

06

AI Act et recommandation algorithmique de contenus L'article 50 du règlement eur

AI Act et recommandation algorithmique de contenus L'article 50 du règlement européen IA est applicable au 2 août 2026 : marquage des contenus synthétiques, déclaration des deepfakes, traçabilité. L'exemption journalistique vaut uniquement lorsqu'un examen humain est réalisé et qu'une personne assume la responsabilité éditoriale - encore faut-il que la chaîne de validation soit documentée et opposable.

Enjeu spécifique

Droit voisin, accords de licence et indépendance d'évaluation.

Le Monde a signé un accord pluriannuel avec OpenAI en mars 2024, puis avec Perplexity en mai 2025. Axel Springer a signé avec OpenAI en décembre 2023. News Corp a signé un accord à plus de 250 millions de dollars sur cinq ans en mai 2024. Le Financial Times, Hearst, AP, Reddit ont conclu des partenariats équivalents. En France, l'AFP a signé avec Mistral en janvier 2025.

Ces accords sont des choix stratégiques rationnels - ils sécurisent un revenu certain dans un contexte de baisse de trafic. Ils créent en contrepartie une dépendance économique entre le média et le fournisseur technologique. Une rédaction liée commercialement à un éditeur de modèles évalue cet éditeur depuis une position où la neutralité devient structurellement plus difficile à tenir.

C'est précisément l'angle où un conseil structurellement indépendant intervient. Un cabinet qui n'a aucun revenu lié à un éditeur de modèles peut poser sur la table les arbitrages réels - réversibilité contractuelle, traçabilité des contenus ingérés, conditions de sortie, plan B technologique - sans tension d'allégeance.

Spécificité suisse

Un cadre déontologique en avance, un cadre réglementaire en construction.

La Suisse a adopté le 8 mai 2026 un Code de conduite IA des médias signé par VSM, Médias Suisses, Stampa Svizzera, la SSR, Keystone-ATS et les organisations de radios et TV privées. Il introduit un ombudsman IA indépendant et un label de qualité accessible à tous les médias suisses. C'est le premier code sectoriel multipartite européen avec ombudsman IA.

Le Conseil suisse de la presse a publié dès le 6 mars 2024 ses lignes directrices IA en six principes : responsabilité finale des journalistes, signalement explicite, sources connues, interdiction des contenus trompeurs, protection des données confidentielles, respect du droit d'auteur. Sa position constante : les règles déontologiques existantes suffisent, l'IA ne change pas la nature du métier - elle change les conditions de son exercice.

La SSR/RTS conduit sa propre doctrine sous l'autorité de Susanne Wille (directrice générale depuis fin 2024), avec un plan de transformation "Enavant" qui combine réduction budgétaire de 17 %, suppression d'environ 900 ETP et industrialisation de l'IA. Tamedia a structuré son AI Lab sous la responsabilité directe de la CEO depuis le 1er mars 2026. Ringier rapporte son AI au CEO depuis mai 2023 via un Chief Innovation and AI Officer.

Le contraste avec la France est éclairant. La Suisse mise sur l'autorégulation sectorielle multipartite et un ombudsman indépendant. La France dispose d'un appareil réglementaire dur (AI Act, DSA, EMFA, SREN, droit voisin) mais pas d'instance déontologique IA sectorielle équivalente. La gouvernance d'un groupe média actif dans les deux pays doit composer avec ces deux logiques simultanément.

Interventions VEIA

Trois formats, un même niveau d'exigence.

Conseil structurellement indépendant - le seul positionnement compatible avec une rédaction qui ne peut pas être juge et partie sur ses propres outils.

FORMAT 01

Diagnostic Gouvernance Éditoriale IA

Cartographie des outils IA en place dans la rédaction et les services support. Identification des dépendances structurelles et des angles morts. Note de route avec les arbitrages prioritaires à porter en COMEX ou en conseil. Ce que la rédaction décide avant que les dépendances soient irréversibles.

FORMAT 02

Atelier de doctrine IA pour la direction

Construire un langage commun et un cadre d'arbitrage partagé sur l'IA éditoriale. La direction sort avec les critères pour évaluer chaque outil, les seuils de non-délégation à poser, et la doctrine interne opposable - sans dépendre d'un expert technique pour chaque décision ultérieure.

Voir le service →
FORMAT 03

Advisor permanent - CAIO fractionnel

Présence régulière aux instances dirigeantes, notes trimestrielles d'analyse, avis ad hoc sous 48 heures sur les décisions IA structurantes. Tenir l'horizon stratégique IA de la direction indépendamment des sollicitations commerciales des éditeurs et des plateformes.

Voir le service →
Cinq services pour ancrer la décision

Engager VEIA : cinq formats.

Chaque intervention sectorielle s'appuie sur l'un des cinq formats standards du cabinet. Ils sont calibrés pour des décideurs COMEX et conseils d'administration.

01

Atelier de doctrine IA

Cadrage des principes décisionnels avec le comité de direction ou le conseil.

Voir le service →
02

Lecture post-POC

Cadrage stratégique d'un projet ou POC IA en sortie de phase pilote.

Voir le service →
03

Advisor permanent CAIO

Présence régulière aux instances, notes trimestrielles, disponibilité ad hoc.

Voir le service →
04

Board Review IA

Lecture indépendante à destination du conseil d'administration.

Voir le service →
05

Diagnostic Shadow AI

Cartographie des usages IA officieux et cadrage de la doctrine d'autorisation.

Voir le service →
Engager VEIA

Cadrer la gouvernance IA de votre rédaction ou de votre groupe.

Premier échange sans pression commerciale.

Réserver via Calendly
Pourquoi VEIA

La gouvernance éditoriale de l'IA appartient à la direction. Pas à la plateforme.

VEIA.AI est un cabinet de conseil structurellement indépendant en gouvernance de l'intelligence artificielle, fondé par Christophe Picou. Il accompagne les directions générales, les comités de direction et les conseils d'administration en France et en Suisse. Aucun revenu n'est lié à un éditeur de modèles, à une plateforme de distribution ou à un intégrateur technologique.

La doctrine VEIA tient en une formule : décider avant d'intégrer. Le diagnostic gouvernance IA en est l'application opérationnelle, déclinée pour chaque secteur dont les enjeux de responsabilité dépassent la simple question technique.