Pourquoi l'IA publique se traite à part
L'intelligence artificielle dans le secteur public se distingue du déploiement en entreprise par trois caractéristiques structurelles. La décision administrative individuelle engage des droits opposables et un régime de transparence spécifique, codifié au Code des relations entre le public et l'administration depuis 2016. La signature de l'élu ou du directeur général des services emporte une responsabilité personnelle qu'aucun contrat d'éditeur ne dilue. Et les données traitées — état civil, situation sociale, fiscale, médicale, judiciaire — relèvent d'un régime de protection renforcé.
Le constat de terrain est sans ambiguïté. L'enquête publiée en avril 2026 par la Direction interministérielle de la transformation publique documente que 55 % des agents publics interrogés utilisent des outils d'IA générative hors cadre validé. Le baromètre 2025 de l'Observatoire Data Publica indique que 77 % des collectivités de plus de 3 500 habitants ont engagé un projet IA, mais 48 % n'ont donné aucune directive interne à leurs agents. L'usage précède la gouvernance.
Ce que l'AI Act change pour les administrations déployeurs en 2026
Le règlement européen sur l'intelligence artificielle entre en application générale le 2 août 2026. Les administrations publiques sont classées comme déployeurs au sens du texte. Plusieurs catégories d'usage relevant directement de la sphère publique sont rangées en haut risque par l'annexe III : éligibilité aux prestations sociales, gestion de l'emploi public, accès à l'éducation, certaines fonctions de police et de justice, gestion de l'asile et de la migration.
Pour ces systèmes, les administrations doivent organiser une supervision humaine qualifiée, conserver une journalisation pendant au moins six mois, informer les personnes concernées et conduire une analyse d'impact sur les droits fondamentaux. Cette analyse, dite FRIA, se cumule avec l'analyse d'impact RGPD. Son absence ouvrira vraisemblablement un moyen d'annulation contentieuse dès les premiers recours.
« La souveraineté technique totale est hors d'atteinte. La souveraineté décisionnelle est à construire. C'est elle qui rend la signature publique défendable devant l'usager, devant le juge administratif et devant l'assemblée délibérante. — Doctrine VEIA »
La souveraineté des données publiques, enjeu politique et opérationnel
Les administrations françaises et suisses opèrent leurs systèmes d'information majoritairement sur des infrastructures cloud américaines. Les offres dites de confiance — Bleu en coentreprise Capgemini-Orange-Microsoft, S3NS en coentreprise Thales-Google — qualifiées SecNumCloud à des stades divers, reposent sur des technologies sous licence des hyperscalers américains. La souveraineté capitalistique ne lève pas la dépendance technologique structurelle.
En Suisse, la sensibilité à cette question structure le cadre. La Chancellerie fédérale a publié fin 2025 une stratégie IA pour l'administration, le Conseil fédéral a décidé en février 2025 d'intégrer la Convention du Conseil de l'Europe sur l'IA. Les cantons de Vaud, Genève et Zurich pilotent les usages les plus formalisés. La question n'est pas de s'interdire les meilleurs outils, mais de cartographier les dépendances et de prévoir un plan B européen ou souverain pour chaque dépendance critique.
Ce que la gouvernance doit couvrir
Une gouvernance IA opérationnelle pour une administration ou une collectivité couvre cinq plans articulés. Une doctrine d'usage signée au plus haut niveau qui définit les principes, les lignes rouges et les règles d'arbitrage. Un registre interne des systèmes d'IA déployés, condition de la conformité AI Act et du droit à communication d'algorithme. Une matrice de responsabilité explicite qui distingue ce qui relève de la signature politique, de la chaîne administrative et de l'obligation contractuelle du prestataire. Une cartographie des dépendances technologiques avec, pour chaque dépendance critique, l'identification d'un plan B européen ou souverain. Un dispositif d'instruction et de supervision humaine documenté, calibré aux usages à haut risque.
Cette gouvernance se construit en quelques semaines lorsque le cadrage est posé au niveau direction générale. Elle se subit pendant des années lorsque l'usage clandestin s'est installé sans cadre. Le moment opportun pour décider est antérieur au déploiement, pas postérieur au contentieux.