Les dossiers d'admission, les algorithmes de scoring des candidats, les systèmes d'évaluation assistés par intelligence artificielle et les plateformes pédagogiques engagent simultanément la responsabilité juridique de l'établissement, ses accréditations internationales et sa réputation. Cette gouvernance appartient au conseil d'administration et à la direction générale.
L'adoption de l'intelligence artificielle dans l'enseignement supérieur français et suisse a basculé en 2024-2025. L'enquête de la Conférence des Grandes Écoles publiée le 8 décembre 2025, conduite auprès de 4 942 répondants, établit que 75 % des étudiants utilisent l'IA de manière régulière, contre 48 % des enseignants. 56 % des établissements déclarent avoir formalisé une gouvernance IA, mais 23 % seulement disposent d'un plan stratégique écrit. L'écart entre les écoles de management (89 % ont fait évoluer leurs référentiels de compétences) et les écoles d'ingénieurs (55 %) reste significatif.
En Suisse, le sondage HES-SO et Université de Fribourg du printemps 2025 chiffre l'adoption à 75 % des étudiants en usage quotidien ou hebdomadaire et 65 % des enseignants. Une étude UNIL de 2024 rapporte que 87 % des enseignants-chercheurs jugent les outils IA utiles à leur travail, tandis que 79 % d'entre eux expriment une préoccupation sur les biais algorithmiques et 69 % sur la confidentialité des données.
Cette adoption massive s'est installée avant que la gouvernance institutionnelle ait été construite. Le rapport Taddei-Pascal remis au ministère de l'Enseignement supérieur en juillet 2025 recommande explicitement la désignation d'un responsable IA au niveau de la direction générale et l'adoption d'une charte d'établissement. La décision incombe désormais aux conseils d'administration.
Les plateformes d'apprentissage intègrent désormais nativement l'IA - Moodle 4.5 connecte OpenAI et Azure, Blackboard a lancé AVA en 2025, Microsoft 365 Copilot et Google Workspace exposent les données étudiantes au régime extraterritorial américain. Les détecteurs de plagiat et de contenu IA présentent une fiabilité contestée par les études académiques.
Dossiers d'admission, résultats académiques, traces comportementales LMS, données financières, données de placement transmises aux employeurs partenaires. Le traitement repose principalement sur la mission d'intérêt public au sens du RGPD. La CNIL a mis en demeure plusieurs établissements en 2023 pour conservation excessive, information incomplète et sécurisation insuffisante.
L'AI Act européen, à l'Annexe III point 3, classe en système à haut risque tout outil IA déterminant l'accès, l'admission, l'évaluation ou la surveillance des examens. Les obligations applicables aux établissements déployeurs - supervision humaine, journalisation, analyse d'impact - engagent la responsabilité personnelle des dirigeants et de la gouvernance institutionnelle.
Un algorithme de scoring d'admission entraîné sur des données historiques reproduit les biais de sélection antérieurs - origine sociale, parcours en classes préparatoires, style rédactionnel des essais personnels. Un détecteur de production IA signale à tort des étudiants non natifs : l'étude Stanford de janvier 2024 documente 61 % de faux positifs pour les anglophones non-natifs contre 5 % pour les locuteurs natifs. Ces biais demeurent souvent indétectés pendant des cycles d'admission entiers.
Le shadow IA dans les équipes pédagogiques et administratives reste largement non mesuré. Une étude Qualinsight publiée début 2026 chiffre à 72 % la part des actifs romands utilisant l'IA dans leur travail, dont 79 % sans formation institutionnelle. Les enseignants et personnels d'établissement opèrent dans des conditions équivalentes.
La dépendance aux suites collaboratives américaines crée une exposition structurelle au Cloud Act, indépendamment de la localisation européenne des serveurs. La suspension en octobre 2025 de la migration de l'École polytechnique vers Microsoft 365, après intervention au titre de l'article L123-4-1 du Code de l'éducation, illustre la tension entre dépendance pratique et doctrine institutionnelle.
Les organismes d'accréditation déplacent leurs exigences. L'AACSB a introduit dès la mise à jour de juillet 2024 dans son Standard 5.1 la notion d'« usage responsable de la technologie, incluant l'éthique de l'intelligence artificielle ». Le projet de Standards 2026 ajoute un Standard 4.3 « Digital Agility » formellement autonome, couvrant la culture IA et la prise de décision informée par les données. Le vote du Conseil de l'AACSB du 14 avril 2026 a confirmé son adoption avec effet sur les cycles d'évaluation 2027-2028.
En France, la Commission des Titres d'Ingénieur a structuré son colloque annuel 2025 sur « Former à et par l'intelligence artificielle » et publié en mars 2025 des Références et Orientations qui intègrent l'IA dans les stratégies pluriannuelles. Le colloque CTI de février 2026 annonce une approche plus normative. La Conférence des Grandes Écoles a renouvelé sa convention avec la CNIL en février 2024 et porte la position institutionnelle d'usage responsable.
Côté suisse, le papier de position de swissuniversities d'avril 2024 fixe une doctrine ouverte d'intégration pragmatique. L'Agence d'accréditation et d'assurance qualité maintient une approche d'assurance qualité interne sans standard IA dédié, ce qui transfère la charge de la doctrine sur la gouvernance propre de chaque établissement.
Pour un établissement engagé dans un cycle d'accréditation, la gouvernance IA cesse d'être une option : elle devient un point d'évaluation explicite et un facteur de réputation.
Trois formats calibrés selon le degré de formalisation de la gouvernance. Les grandes écoles dotées de boards et d'accréditations internationales et les établissements à gouvernance moins formalisée présentent une exposition équivalente, traitée par des dispositifs différents.
Trois à quatre sessions sur site avec la direction générale, le DPO et le responsable numérique. Cartographie des dépendances technologiques, lecture des obligations applicables, identification des décisions à prendre. Livrable : note de lecture stratégique destinée au comité de direction.
Mission de deux à quatre mois en appui de la gouvernance institutionnelle. Préparation des décisions d'investissement, rédaction de la charte d'usage, structuration du comité IA, articulation avec les exigences d'accréditation. Livrables : feuille de route et tableau de bord de pilotage.
Voir le service →Retainer mensuel adossé à la direction générale ou au président. Veille régulatoire France-Suisse, préparation des conseils d'administration sur les sujets IA, arbitrage des décisions d'outillage et de dépendance. Cadence ajustable aux cycles de gouvernance de l'établissement.
Voir le service →Une décision IA documentée, défendable devant le conseil d'administration et lisible par les organismes d'accréditation.
Une cartographie claire des dépendances technologiques de l'établissement et des alternatives européennes disponibles, par couche fonctionnelle.
Une lecture opérationnelle des obligations AI Act applicables aux systèmes haut risque éducation, avec qualification des outils en place.
Une posture alignée avec les exigences émergentes des accréditations internationales et des organismes français et suisses.
Un cadre de gouvernance interne lisible pour le COMEX, le board, les enseignants, les étudiants et les parties prenantes.
Chaque intervention sectorielle s'appuie sur l'un des cinq formats standards du cabinet. Ils sont calibrés pour des décideurs COMEX et conseils d'administration.
Cadrage des principes décisionnels avec le comité de direction ou le conseil.
Voir le service →Cadrage stratégique d'un projet ou POC IA en sortie de phase pilote.
Voir le service →Présence régulière aux instances, notes trimestrielles, disponibilité ad hoc.
Voir le service →Lecture indépendante à destination du conseil d'administration.
Voir le service →Cartographie des usages IA officieux et cadrage de la doctrine d'autorisation.
Voir le service →Vingt-cinq minutes pour situer la maturité de votre établissement, les décisions en cours et les angles morts. À l'issue de l'échange, vous décidez de la suite.
La souveraineté technique couche par couche est hors d'atteinte. La souveraineté décisionnelle est à construire. VEIA accompagne les directions d'établissement à choisir le meilleur outil disponible, y compris américain, en documentant la dépendance, en organisant un plan B européen et en gardant la décision réversible.
VEIA est un cabinet de conseil structurellement indépendant. Aucun partenariat commercial avec un éditeur de logiciel, un intégrateur ou un hyperscaler. La recommandation appartient à votre établissement, pas à un fournisseur.