Le constat

Le constat

Le secteur public français a basculé dans l'adoption généralisée de l'IA générative entre 2024 et 2026, sans avoir stabilisé sa gouvernance. Le secteur public suisse engage la même bascule à un rythme légèrement décalé, avec une exigence de souveraineté des données plus structurante.

En France, 77 % des collectivités de plus de 3 500 habitants déclarent un projet IA engagé ou prévu (Observatoire Data Publica, baromètre 2025). 84 % des collectivités engagées utilisent l'IA générative. Mais 48 % n'ont donné aucune directive interne à leurs agents sur ces outils.

Au niveau de l'État, l'enquête de la Direction interministérielle de la transformation publique d'avril 2026 documente que 55 % des agents publics utilisent des outils d'IA hors cadre validé. La négociation sociale sur l'IA dans la fonction publique est ouverte avec objectif d'accord à l'automne 2026.

En Suisse, la Chancellerie fédérale a publié fin 2025 une stratégie IA pour l'administration fédérale (directive SB021). Le Conseil fédéral a décidé en février 2025 d'intégrer la Convention du Conseil de l'Europe sur l'IA. Les cantons de Vaud, Genève et Zurich pilotent les usages les plus avancés. Un groupe inter-cantonal sur l'IA réunit Saint-Gall, Grisons, Appenzell, Thurgovie et le Liechtenstein.

Le décalage entre vitesse d'usage et maturité de gouvernance constitue le fait structurant de la période. Il appelle un cadrage de niveau direction générale.

Trois dimensions engagent la signature publique

Trois dimensions engagent la signature publique

01

Dépendance technologique

Les administrations françaises et suisses opèrent majoritairement sur des infrastructures cloud américaines (AWS, Microsoft Azure, Google Cloud) ou sur des offres dites de confiance reposant sur des technologies sous licence. Cette dépendance reste un choix politique réversible, à condition d'être cartographiée et arbitrée explicitement.

02

Exposition réglementaire

L'AI Act entre en application générale le 2 août 2026, avec un régime renforcé pour les systèmes IA classés à haut risque dans le secteur public (prestations sociales, éducation, emploi public). Le CRPA, le RGPD côté français, la LPD côté suisse encadrent la transparence algorithmique et le droit au contrôle humain. Le contexte est dense, la lecture opérationnelle est rare.

03

Responsabilité personnelle

Le directeur général des services et l'élu référent demeurent les signataires des décisions assistées par algorithme. La conformité documentée devient un instrument de protection juridique personnelle. Le prestataire technologique fournit l'outil, pas la signature.

Les risques opérationnels documentés

Les risques opérationnels documentés

Les rapports institutionnels publiés en 2024-2026 (Conseil d'État, Défenseur des droits, Cour des comptes, CNIL, Sénat, Observatoire Data Publica côté français ; Chancellerie fédérale, Préposé fédéral à la protection des données côté suisse) convergent sur plusieurs points d'attention.

Lorsque la collectivité n'encadre pas, l'agent utilise quand même. Les données traitées peuvent inclure des informations relatives aux usagers, des éléments budgétaires confidentiels, des délibérations en préparation. Le passage par un service externe non validé crée une exposition contractuelle et juridique.

La Défenseure des droits souligne dans son rapport de novembre 2024 que l'intervention humaine dans les décisions partiellement automatisées est souvent une validation de pure forme. Le biais d'automatisation réduit la qualité réelle du contrôle. Le risque contentieux porte sur la requalification en décision exclusivement automatisée.

Les hyperscalers américains restent soumis au CLOUD Act et au FISA Section 702, indépendamment de la localisation des données. Pour les données sensibles (santé, fiscalité, sécurité publique, action sociale), seuls les hébergements qualifiés SecNumCloud ou les infrastructures internes maîtrisées écartent réellement le risque extraterritorial.

La majorité des collectivités et de nombreux établissements publics ne disposent pas d'un registre interne des systèmes d'IA en usage. L'inventaire conditionne pourtant la mise en conformité AI Act et la capacité à répondre à une demande de communication d'algorithme prévue par le CRPA.

Les grands cabinets de conseil et intégrateurs présents sur le segment public cumulent souvent partenariats hyperscalers, revente d'éditeurs et conseil stratégique. La même entité oriente la doctrine puis vend la solution. Cette configuration limite la latitude d'arbitrage du dirigeant public.

Spécificité suisse

Spécificité suisse

La sensibilité helvétique à la souveraineté des données façonne un cadre distinct. Les attentes citoyennes sont élevées : selon les enquêtes consolidées en 2025, une large majorité de Suisses exigent un hébergement européen des données traitées par IA et une conformité aux standards de protection comparable au RGPD.

La Loi fédérale sur la protection des données entrée en vigueur en septembre 2023 encadre l'usage de l'IA par les administrations cantonales et fédérales. Elle impose la transparence sur la finalité, le fonctionnement et les données mobilisées par tout système algorithmique, et reconnaît un droit d'opposition au traitement exclusivement automatisé.

La stratégie fédérale IA pour l'administration publiée fin 2025 articule trois priorités : montée en compétences des agents, établissement de la confiance institutionnelle, amélioration de l'efficacité interne. Un projet de loi sectoriel sur la transparence et la non-discrimination algorithmique est en préparation pour mise en consultation.

Au niveau cantonal, Vaud déploie chatbots et modèles d'aide à la décision, Genève a adopté une charte sur l'IA et les algorithmes encadrant leur usage éthique, Zurich appuie son action sur un écosystème de recherche dense (EPF, ZHAW). Le pilotage reste majoritairement décentralisé : chaque secrétariat général cantonal arbitre sa propre doctrine.

Les interventions VEIA

Les interventions VEIA

Trois formats calibrés pour les directions générales des services, les élus référents numérique, les secrétariats généraux cantonaux et les boards d'agences publiques. Chaque intervention démarre par un cadrage de niveau stratégique. Les livrables sont conçus pour une lecture COMEX ou bureau exécutif.

Ce que cela produit

Ce que cela produit

L'intervention vise une transformation tangible de la posture institutionnelle. Cinq impacts opérationnels sont attendus à l'issue d'un cycle complet.

Cinq services pour ancrer la décision

Engager VEIA : cinq formats.

Chaque intervention sectorielle s'appuie sur l'un des cinq formats standards du cabinet. Ils sont calibrés pour des décideurs COMEX et conseils d'administration.

01

Atelier de doctrine IA

Cadrage des principes décisionnels avec le comité de direction ou le conseil.

Voir le service →
02

Lecture post-POC

Cadrage stratégique d'un projet ou POC IA en sortie de phase pilote.

Voir le service →
03

Advisor permanent CAIO

Présence régulière aux instances, notes trimestrielles, disponibilité ad hoc.

Voir le service →
04

Board Review IA

Lecture indépendante à destination du conseil d'administration.

Voir le service →
05

Diagnostic Shadow AI

Cartographie des usages IA officieux et cadrage de la doctrine d'autorisation.

Voir le service →
Engager VEIA

Cadrer la gouvernance IA avant de décider d'un nouveau déploiement

Échange initial de 25 à 30 minutes avec Christophe Picou pour qualifier la situation, identifier les leviers de cadrage et déterminer si un diagnostic est pertinent.

Réserver via Calendly
Pourquoi VEIA

Conseil structurellement indépendant. Aucun partenariat éditeur, aucune activité d'intégration.

Le secteur public et les collectivités sont sollicités par un écosystème de conseil dont les acteurs principaux cumulent partenariats hyperscalers, revente de licences et activité d'intégration. Ces acteurs cumulent souvent partenariats hyperscalers, revente de licences et activité d'intégration, ce qui réduit leur indépendance d'évaluation.

VEIA n'a aucune de ces affiliations. Le seul produit du cabinet est le conseil. La recommandation n'engage que l'analyse, sans dépendance commerciale au choix technologique qui en résulte. C'est cette indépendance structurelle qui rend la posture défendable devant un conseil ou une assemblée délibérante.