PwC est le premier client commercial d'OpenAI. McKinsey co-brande avec Amazon Web Services. Capgemini est Google Cloud Partner of the Year. Ce n'est pas un jugement, c'est un fait documenté. Un cabinet dont le modèle économique dépend des outils qu'il recommande ne peut pas vous dire ce qu'il faut refuser. Ce diagnostic évalue ce que la plupart des conseils en IA évitent de poser.
PwC
1er client commercial d'OpenAI dans le monde
McKinsey
40% du CA tech-enabled, co-branding Amazon Web Services
Capgemini
Google Cloud Partner of the Year, partenaire Bleu
Ce diagnostic en 10 questions évalue la maturité de gouvernance IA de votre organisation sur les cinq dimensions du Dependency Governance Framework : cartographie des dépendances, seuils de non-délégation, réversibilité contractuelle, plans de bascule et stress-tests géopolitiques.
Il ne demande ni inscription ni coordonnées. Le résultat est immédiat et personnalisé selon votre niveau d'exposition.
10 questions · 4 minutes · Résultat immédiat
Progression1 / 10
Question 1 sur 10
Dimension 01 · Cartographie
Votre organisation a-t-elle documenté ses dépendances IA couche par couche, du modèle fondationnel jusqu'à l'infrastructure réseau ?
Pour chaque processus IA critique : qui contrôle le modèle ? Le cloud ? Le matériel ? Existe-t-il une alternative testée ?
A
Oui, une cartographie complète est disponible et tenue à jour.
B
Partiellement - certains processus sont documentés, d'autres non.
C
Non - nous n'avons pas de vue consolidée sur nos dépendances IA.
Question 2 sur 10
Dimension 01 · Cartographie
Si votre principal fournisseur de modèle IA devenait inaccessible demain, combien de temps avant que l'impact opérationnel soit critique ?
Ce scénario couvre aussi bien une restriction réglementaire qu'une défaillance technique ou une décision commerciale unilatérale du fournisseur.
A
Nous avons un plan de continuité testé - moins de 48h pour basculer.
B
Nous pourrions trouver une alternative, mais sans calendrier défini.
C
L'impact serait immédiat et nous n'avons pas d'alternative identifiée.
Question 3 sur 10
Dimension 02 · Non-délégation
Votre organisation a-t-elle défini formellement les décisions qui ne peuvent pas être déléguées à un système d'intelligence artificielle ?
Scoring de crédit final, diagnostic médical, arbitrage stratégique, licenciement, tarification propriétaire. Ces seuils varient par secteur mais doivent exister.
A
Oui, une liste formelle de seuils de non-délégation est documentée et approuvée en comité de direction.
B
Il existe une compréhension implicite, mais rien de formellement arrêté.
C
Cette question n'a pas encore été posée formellement dans notre organisation.
Question 4 sur 10
Dimension 02 · Non-délégation
Lorsqu'un système IA formule une recommandation structurante, la traçabilité de la décision finale reste-t-elle documentée et attribuable à un responsable humain identifié ?
La responsabilité décisionnelle ne se délègue pas à un algorithme. En cas de litige ou d'audit, qui répond ?
A
Oui, chaque décision IA-assistée est tracée avec un responsable humain identifié.
B
Sur certains processus seulement, pas de façon systématique.
C
La traçabilité n'est pas formalisée à ce niveau.
Question 5 sur 10
Dimension 03 · Réversibilité
Vos contrats avec les fournisseurs IA incluent-ils des clauses de portabilité des données et de réversibilité avec coûts de sortie chiffrés ?
Un contrat sans clause de réversibilité est un contrat d'enfermement. Ces clauses se négocient avant la signature, pas après deux ans d'usage.
A
Oui, nos contrats incluent des clauses explicites de portabilité et de sortie chiffrées.
B
Partiellement - certains contrats en ont, d'autres non.
C
Nos contrats ne contiennent pas de clauses de réversibilité structurées.
Question 6 sur 10
Dimension 03 · Réversibilité
Avez-vous évalué votre exposition au Cloud Act américain sur les données que vos systèmes IA traitent ?
Le Cloud Act s'applique à toute entité juridique de droit américain, quelle que soit la localisation physique des serveurs. La localisation en Europe ne protège pas si l'entité contrôlante est américaine.
A
Oui, une analyse juridique documentée a été produite et présentée en comité de direction.
B
Le sujet a été évoqué mais sans analyse formelle.
C
Cette exposition n'a pas été évaluée à notre niveau.
Question 7 sur 10
Dimension 04 · Plans de bascule
Pour vos dépendances IA critiques, avez-vous identifié et testé des alternatives européennes ou open-weight opérationnelles ?
Mistral, OVH, Aleph Alpha, modèles open-weight déployables en infrastructure propre. Ces alternatives doivent être documentées avant d'en avoir besoin.
A
Oui, des alternatives sont documentées et au moins partiellement testées.
B
Nous connaissons les alternatives sans les avoir formellement évaluées.
C
Nous n'avons pas de plan de bascule identifié.
Question 8 sur 10
Dimension 04 · Plans de bascule
Les usages IA qui se sont développés dans vos équipes sans arbitrage formel ont-ils été inventoriés et évalués ?
Le shadow AI - ChatGPT, Copilot, Gemini utilisés sans cadre - représente souvent 60 à 80% des usages réels en entreprise. Il crée des dépendances invisibles et des risques de données non documentés.
A
Oui, un inventaire des usages IA non sanctionnés a été réalisé et des décisions prises.
B
Nous avons conscience du phénomène mais sans inventaire formalisé.
C
Nous n'avons pas de visibilité sur les usages IA informels de nos équipes.
Question 9 sur 10
Dimension 05 · Stress-tests géopolitiques
Votre comité de direction a-t-il évalué les scénarios géopolitiques susceptibles d'affecter vos dépendances IA dans les 24 prochains mois ?
Restrictions d'exportation US-UE, instrumentalisation réglementaire, activation Cloud Act : la probabilité d'un scénario restrictif partiel est estimée entre 30 et 50% à horizon 24 mois selon plusieurs analyses de risques souverains.
A
Oui, des scénarios ont été modélisés et présentés en comité de direction.
B
Le sujet géopolitique est suivi mais sans modélisation formelle pour nos dépendances spécifiques.
C
Ce niveau d'analyse géopolitique n'est pas intégré à notre gouvernance IA.
Question 10 sur 10
Dimension 05 · Gouvernance dirigeante
La gouvernance de l'intelligence artificielle est-elle un sujet de comité de direction dans votre organisation, avec un responsable identifié, un cadre défini et une revue régulière ?
83% des entreprises du S&P 500 citent l'IA comme risque matériel. 2,7% seulement de leurs membres de board ont une expertise IA documentée. La gouvernance IA est un sujet de direction, pas un sujet de DSI.
A
Oui, la gouvernance IA est formellement intégrée à l'agenda du comité de direction avec un responsable désigné.
B
L'IA est discutée en comité mais sans cadre de gouvernance formalisé.
C
La gouvernance IA reste essentiellement un sujet technique géré par la DSI ou la direction digitale.
La gouvernance de l'IA est un acte de direction. Pas une question technique.
Ce diagnostic est produit par VEIA.AI, cabinet de conseil stratégique indépendant spécialisé en gouvernance de l'intelligence artificielle, à destination des comités de direction, conseils d'administration et dirigeants institutionnels en France et Suisse.
VEIA ne détient aucun partenariat commercial avec un éditeur ou un intégrateur. Le conseil produit ne finance pas une relation commerciale parallèle. C'est la condition structurelle d'un avis utilisable - et ce qui distingue VEIA des cabinets dont le modèle économique dépend des outils qu'ils recommandent.
La doctrine complète est disponible sur veia.ai/doctrine. Le document de référence "Gouverner la dépendance" est accessible sur veia.ai/publications.