Une école de management déploie un outil de scoring algorithmique pour aider à trier ses 4 800 candidatures annuelles au programme grande école. L'outil est entraîné sur les huit dernières promotions admises. Pendant deux ans, il sous-évalue de manière systématique les candidats issus de classes préparatoires moins réputées et pénalise les essais personnels rédigés par des étudiants non francophones de naissance. Personne ne le voit. L'AACSB programme sa visite quinquennale. Le rapport d'autoévaluation mentionne l'outil sans le qualifier.
Le constat : shadow IA partout, gouvernance encore minoritaire
L'enquête de la Conférence des Grandes Écoles publiée en décembre 2025, conduite auprès de 4 942 répondants, établit que 75 % des étudiants utilisent l'IA régulièrement contre 48 % des enseignants. 56 % des établissements ont formalisé une gouvernance, mais 23 % seulement disposent d'un plan stratégique écrit. Côté suisse, l'enquête HES-SO et Université de Fribourg du printemps 2025 mesure 75 % d'usage quotidien ou hebdomadaire chez les étudiants. Une étude UNIL 2024 indique que 87 % des enseignants-chercheurs jugent les outils utiles - mais 79 % expriment une préoccupation sur les biais et 69 % sur la confidentialité.
Cette adoption massive a précédé la gouvernance. Les enseignants utilisent ChatGPT pour préparer des supports, les services administratifs pour rédiger des réponses, les career centers pour pré-trier des candidatures. Aucun établissement français ou suisse n'a publié à ce jour un état des lieux exhaustif de ses usages internes. Le rapport Taddei-Pascal remis en juillet 2025 au ministère de l'Enseignement supérieur recommande explicitement la désignation d'un responsable IA au niveau de la direction générale et l'adoption d'une charte d'établissement. La décision incombe au conseil d'administration.
Ce que l'AI Act change pour les établissements déployeurs
L'AI Act européen, dans son Annexe III point 3, qualifie de système à haut risque tout outil IA qui détermine l'accès, l'admission ou l'affectation à un établissement d'enseignement, évalue les résultats d'apprentissage, détermine le niveau approprié d'éducation ou surveille les épreuves. Les obligations applicables aux établissements déployeurs incluent la supervision humaine, la conservation des journaux, l'information des personnes concernées et, pour les organismes de droit public ainsi que pour les entités privées chargées de missions de service public, une analyse d'impact sur les droits fondamentaux préalable à la mise en service.
Le calendrier est en cours de finalisation. Le paquet Digital Omnibus présenté par la Commission européenne en novembre 2025 et ayant fait l'objet d'un accord politique provisoire en mai 2026 repousse probablement l'application des obligations Annexe III du 2 août 2026 au 2 décembre 2027. Cette fenêtre, loin de relâcher la pression, donne aux établissements le temps nécessaire pour qualifier leurs outils, documenter leurs choix et structurer leur gouvernance avant la date opposable. Les sanctions atteignent 15 millions d'euros ou 3 % du chiffre d'affaires mondial pour non-conformité haut risque.
La Suisse a choisi en février 2025 une régulation sectorielle, signé la Convention IA du Conseil de l'Europe en mars 2025 et prépare un avant-projet législatif pour fin 2026. L'effet extraterritorial de l'AI Act s'impose néanmoins aux établissements suisses dès lors qu'ils traitent des candidats ou des étudiants ressortissants de l'Union européenne.
« La souveraineté technique couche par couche est hors d'atteinte. La souveraineté décisionnelle est à construire. Pour un établissement, cela commence par savoir quel algorithme décide à sa place. Doctrine VEIA.AI »
Accréditations internationales : un déplacement silencieux
L'AACSB a introduit dès la mise à jour de juillet 2024 dans son Standard 5.1 la notion d'usage responsable de la technologie incluant l'éthique de l'intelligence artificielle. Le projet de Standards 2026 ajoute un Standard 4.3 « Digital Agility » formellement autonome, couvrant la culture IA et la prise de décision informée par les données. Le vote du Conseil de l'AACSB du 14 avril 2026 a confirmé son adoption avec effet sur les cycles d'évaluation 2027-2028. La Commission des Titres d'Ingénieur a tenu son colloque 2025 sur l'IA et annoncé une approche plus normative pour le colloque 2026.
Pour un établissement en cycle de revue d'accréditation, la gouvernance IA cesse d'être un sujet annexe. Elle devient un point d'évaluation explicite, mesuré sur la formalisation des politiques, la traçabilité des décisions et l'articulation entre direction générale, conseil d'administration et corps professoral. Un outil de scoring d'admission non documenté, ou produisant un biais détecté en cours d'audit, devient un facteur de réputation et d'accréditation au même titre qu'une défaillance pédagogique.
Ce que la gouvernance d'établissement doit couvrir
Quatre objets relèvent du conseil d'administration et de la direction générale, pas de la seule DSI. La cartographie des dépendances technologiques - LMS, suites collaboratives, détecteurs IA, outils de career center - et l'identification des alternatives européennes disponibles par couche fonctionnelle. La qualification des outils de sélection algorithmique au regard de l'Annexe III de l'AI Act, avec décision documentée sur leur maintien, leur encadrement ou leur substitution. La charte d'usage interne, articulée avec une mesure réelle de l'écart entre usage déclaré et usage constaté chez les enseignants et les personnels administratifs. Le comité IA validé par le conseil d'administration, avec mandat, composition et cadence de reporting au board.
Ces quatre objets sont des décisions de gouvernance. Ils ne se délèguent ni à un éditeur partenaire, ni à un intégrateur, ni à un cabinet de conseil dont le modèle économique dépend d'une alliance commerciale avec un hyperscaler. Ils relèvent d'un tiers de confiance structurellement indépendant.