Un pharmacien titulaire valide une dispensation. Le LGO a signalé une interaction médicamenteuse, proposé une alternative, généré une fiche conseil patient. Le titulaire confirme. La carte vitale passe. Trois mois plus tard, l'éditeur publie une mise à jour de ses conditions générales. Le module d'aide clinique repose sur un modèle hébergé chez un opérateur américain. Les données de prescription transitent par des serveurs dont la localisation n'est pas explicitée. Personne n'a menti. Personne n'a alerté non plus. Le titulaire signe encore, chaque jour, des actes qui engagent sa responsabilité personnelle sur des chaînes techniques dont il ne maîtrise pas les couches profondes.
Le constat : des modules IA partout, une gouvernance nulle part
Aucun taux d'adoption consolidé de l'intelligence artificielle en officine française n'est publié par l'Ordre, la FSPF, l'USPO, l'UNPF ou la HAS au printemps 2026. L'écart entre la diffusion des outils et la maturité de gouvernance est patent. id. genius (Equasens, lancement novembre 2024) cible les 8 400 officines équipées d'id. Phealing, intégré à Smart Rx, équipe également Leo, Pharmony, PharmaVitale et Pharmaland. Le taux d'activation réel de ces modules optionnels demeure non communiqué.
L'oligopole français des logiciels de gestion d'officine — Smart Rx, LGPI, id., Winpharma, Pharmaland — concentre l'essentiel du parc. Les acteurs sont français, cotés Euronext Paris. Cette assise capitalistique limite l'exposition au Cloud Act au niveau corporate. Elle ne supprime pas les sous-traitances cloud sur services annexes, ni les modules tiers intégrés. Aucun éditeur ne publie de cartographie précise des dépendances engagées par ses outils d'aide clinique. Le titulaire n'a pas les moyens de la reconstituer seul.
Ce que la responsabilité du titulaire engage, à chaque acte
Les articles L.5125-15, R.4235-13 et R.4235-48 du Code de la santé publique forment la chaîne juridique de l'acte pharmaceutique : exercice personnel, surveillance attentive, intégrité de l'analyse pharmaceutique et du devoir particulier de conseil. Cette chaîne s'étend par construction à tout module IA intégré au LGO. L'algorithme assiste, il ne se substitue pas. Une confiance aveugle dans la suggestion d'un module constituerait une faute personnelle au regard de l'article R.4235-12 — soin et attention.
Le secret professionnel pharmaceutique (article L.1110-4 CSP, article 226-13 du Code pénal) prolonge cette responsabilité. Toute transmission de données de prescription à un modèle tiers sans contrat de sous-traitance conforme, sans hébergement certifié HDS et sans base légale valable, cumule manquement RGPD et violation du secret professionnel. La sanction CNIL contre Cegedim Santé en septembre 2024 (800 000 euros) atteste de la sévérité doctrinale sur les traitements algorithmiques en santé sans cadre formel.
« La responsabilité pharmaceutique se déplace là où la décision se prend. Quand l'algorithme suggère et que le titulaire signe, la responsabilité reste au comptoir. La gouvernance commence ici : avant le clic, pas après. Doctrine VEIA »
Shadow IA dans les équipes officinales
Aucune enquête publique n'a quantifié l'usage d'IA générative grand public — ChatGPT, Claude, Gemini, Copilot, Mistral — par les équipes officinales françaises. Le faisceau d'indices est solide : formations commerciales explicites, tribunes professionnelles, témoignages de titulaires pionniers. La HAS et la CNIL ont publié conjointement en octobre 2025 leurs premières clefs d'usage de l'IA générative en santé. Le guide d'accompagnement a suivi en mars 2026. Ces textes constituent la première brique doctrinale sur le Shadow IA en santé. Ils sont postérieurs aux usages.
Les évaluations cliniques disponibles convergent. Les LLM grand public obtiennent environ sept bonnes réponses sur dix sur des questions factuelles, mais seulement quatre sur dix sur des questions cliniques complexes, avec un quart d'omissions. Le risque iatrogène est documenté. Le risque amont — les patients arrivant au comptoir avec une question préformatée par un LLM grand public — n'est pas mesuré.
Ce que la gouvernance doit couvrir
Quatre lignes méritent un cadrage explicite à l'échelle de l'officine. Premièrement, la cartographie des modules IA actifs dans le LGO et l'identification des sous-traitants techniques effectifs derrière chaque fonctionnalité. Deuxièmement, la doctrine d'usage de l'IA générative en équipe : ce qui est toléré au comptoir, ce qui est fermé, ce qui exige un canal sécurisé. Troisièmement, la traçabilité de la surveillance humaine sur les décisions assistées, condition de défense disciplinaire et assurantielle. Quatrièmement, la lecture critique des CGU des éditeurs et des conditions de réversibilité, particulièrement en contexte de pression d'un groupement.
Près de 90 % des officines françaises adhèrent à un groupement. Le groupement choisit l'outil. Le titulaire porte la responsabilité juridique des actes réalisés avec cet outil. Cette dissociation entre prescripteur technologique et responsable juridique constitue l'angle le plus exigeant du secteur. Une politique IA de groupement est un acte de gouvernance, pas un acte d'achat. Une politique IA de titulaire indépendant est un acte de souveraineté professionnelle. Dans les deux cas, la séquence importe : décider avant d'intégrer.