Un associé, en déplacement, charge le mémoire de plaidoirie dans un assistant IA pour préparer la réplique. L'outil reformule, structure, anticipe les objections. Deux heures de travail en vingt minutes.
Il vient aussi de transmettre les arguments de son client, ses thèses tactiques et ses angles de faiblesse à un modèle dont les conditions d'utilisation autorisent, dans certaines versions, l'utilisation des données pour l'amélioration du modèle. Sans y penser. En faisant son travail. Bien.
La question n'est pas de savoir si les outils IA sont utiles pour les cabinets d'avocats. Ils le sont. La question est de savoir ce qu'ils garantissent - et ce qu'ils ne peuvent structurellement pas garantir.
Ce que les outils IA juridiques reposent sur.
Harvey, Jimini, Lexis+, Doctrine, Legalstart - les outils IA dédiés au droit se multiplient. La plupart sont construits sur des modèles fondationnels tiers : OpenAI, Anthropic, Mistral, selon les éditeurs et les versions. Cette architecture crée une chaîne de dépendances que le cabinet ne maîtrise pas entièrement.
Les conditions d'utilisation varient. Certaines versions stipulent que les données ne sont pas utilisées pour l'entraînement. D'autres ne l'excluent pas explicitement. Les sous-traitances de traitement de données ne sont pas toujours documentées de façon exhaustive dans les contrats standards. Et surtout : la localisation effective des données, les durées de rétention et les accès possibles de tiers dépendent d'acteurs dont le siège social est hors d'Europe.
Le Cloud Act américain s'applique à toute entité de droit américain, quelle que soit la localisation physique de ses serveurs. Un outil IA juridique hébergé en Europe par une filiale d'un groupe américain n'est pas à l'abri d'une requête d'accès fondée sur le droit américain. Ce n'est pas une hypothèse théorique. C'est une exposition juridique documentable.
Le devoir de conseil ne se délègue pas au modèle.
La valeur d'un cabinet d'avocats repose sur son jugement, son expérience, sa connaissance du dossier et de son client. Ce que l'IA produit - une analyse, une reformulation, un projet de mémoire - peut être utile comme matière première. Ce n'est pas du conseil. C'est une suggestion.
La distinction est décisive pour deux raisons. La première est déontologique : le devoir de conseil est personnel et incessible. Un associé qui signe une consultation dont le fond a été produit par un modèle IA assume l'entière responsabilité du contenu - y compris les erreurs que le modèle a introduites avec assurance. La deuxième est pratique : les modèles hallucinent. Pas souvent, mais de façon imprévisible. Dans un mémoire ou une consultation, une référence jurisprudentielle inventée mais plausible peut passer inaperçue jusqu'à l'audience.
"La souveraineté n'est pas l'autarcie. C'est la capacité à choisir en conscience - et à conserver le devoir de conseil sur ce que l'IA ne saura jamais faire."
Ce qui se passe déjà dans les équipes.
Dans la majorité des cabinets, le shadow AI est déjà installé. Les collaborateurs utilisent ChatGPT, Copilot ou Gemini depuis leurs comptes personnels sur des données de dossiers. Ce phénomène n'est pas marginal : selon les études disponibles pour 2026, 78% des professionnels utilisent des outils IA non validés par leur structure, et 46% le font alors même que leur organisation s'y oppose officiellement.
Ce n'est pas un problème de discipline. C'est un problème de cadre. Les collaborateurs ne contournent pas des règles qu'ils connaissent et approuvent. Ils utilisent des outils efficaces parce que leur cabinet ne leur en fournit pas d'aussi performants - ou n'a pas posé de politique claire sur ce qui est admissible et ce qui ne l'est pas.
Pour un cabinet d'avocats, l'enjeu est particulier. Chaque usage d'un outil non validé sur des données de dossier engage potentiellement l'article 226-13 du Code pénal sur le secret professionnel, les obligations RGPD et le Code de déontologie des avocats. Sans alerte technique. Sans trace dans les systèmes du cabinet. Sans recours a posteriori.
Ce que la gouvernance doit couvrir.
Gouverner l'IA dans un cabinet d'avocats ne consiste pas à interdire les outils. Cela ne fonctionne pas et prive le cabinet d'un avantage compétitif réel. Cela consiste à décider : quels outils, sur quelles données, avec quelle traçabilité, sous quelle responsabilité.
Quatre périmètres doivent être couverts avant le déploiement du prochain outil. L'inventaire des outils en usage - validés et non validés. La définition des données que le cabinet refuse de confier à un modèle externe, quelle que soit la nature du dossier. Les conditions contractuelles avec les éditeurs : localisation des données, réversibilité, sous-traitance documentée. Et la doctrine interne d'usage, connue de tous les membres du cabinet et opposable.
Cette gouvernance se pose avant les engagements. Une fois qu'un outil est déployé, que les habitudes sont prises et que les dépendances sont installées, les marges de manoeuvre rétrécissent. Le bon moment pour poser le cadre, c'est avant la signature - pas après le premier incident.
VEIA.AI accompagne les cabinets d'avocats sur la gouvernance de l'intelligence artificielle. Diagnostic, atelier de doctrine IA, accompagnement dans la durée. Indépendant de tout éditeur ou intégrateur.
Gouvernance IA pour les cabinets d'avocats →