Une femme consulte ses souvenirs comme on consulte un historique de navigation. Un homme reçoit un score social qui détermine où il peut dormir, manger, parler. Une identité est reconstruite à partir de traces numériques, sans consentement, sans limite. Des drones autonomes exécutent un verdict collectif. Une vie entière est exploitée comme contenu, à l'insu de son auteur.
Vous reconnaissez ces scènes. Elles datent de dix ans. Elles s'appellent The Entire History of You, Nosedive, Be Right Back, Hated in the Nation, Joan is Awful.
Elles s'appellent surtout : aujourd'hui.
Ce que la série ne montrait jamais
Black Mirror est une série sur la technologie - c'est ce qu'on croit au premier visionnage. Au second, on comprend autre chose.
Dans chaque épisode, la technologie arrive. Intégrée, évidente, désirée. Les personnages l'adoptent sans résistance, souvent avec enthousiasme. Et dans chaque épisode, une seule question n'est jamais posée : qui gouverne ça ?
Qui détient le serveur où sont stockés vos souvenirs ? Qui administre l'algorithme qui fixe votre score ? Qui a le droit d'effacer, d'auditer, de corriger ? Qui répond quand le système se retourne contre vous ?
Ce silence est une hypothèse culturelle. Celle d'un monde où la plateforme est neutre par définition - infrastructure, comme l'électricité. On ne demande pas à qui appartient le réseau.
C'est une hypothèse américaine. Et elle a contaminé vingt ans de décisions technologiques en Europe.
Le miroir, c'est nous
Ce qui rend Black Mirror prophétique tient à autre chose que les technologies représentées. L'implant mémoriel reste à venir. Le score social à l'occidentale aussi - pas exactement, pas encore.
Sa force est ailleurs : le comportement humain face à la technologie. La capitulation consentie. L'adoption avant la réflexion. Le confort qui précède la dépendance. La dépendance qui précède la prise de conscience. Et la prise de conscience qui arrive toujours trop tard - au moment où les dépendances sont irréversibles.
C'est exactement ce que vivent aujourd'hui des milliers d'organisations en Europe. Des outils IA déployés avant que les contrats soient lus. Des données hébergées dans des infrastructures dont personne ne connaît la localisation exacte. Des décisions algorithmiques sans auditabilité. Des équipes techniques qui ont, de facto, pris les décisions de gouvernance - non par malveillance, mais parce que personne d'autre ne les avait prises.
Black Mirror est un diagnostic.
L'Europe se réveille là où la série s'arrêtait
Le RGPD. L'AI Act. Le Data Act. Le DMA.
Ces textes sont des réponses institutionnelles à des scénarios que Black Mirror avait déjà joués - sans que personne, à l'époque, n'en tire les conséquences.
Le droit à l'effacement : c'est Be Right Back. La transparence algorithmique : c'est Nosedive. L'encadrement des systèmes autonomes à haut risque : c'est Hated in the Nation. Le consentement réel sur l'utilisation des données personnelles pour entraîner des modèles : c'est Joan is Awful, en temps réel.
L'Europe a posé les garde-fous là où la série montrait leur absence. C'est un fait. C'est même, à l'échelle mondiale, une position singulière.
Mais un écart reste entier : les textes existent. La gouvernance effective reste à construire. La majorité des organisations européennes vivent encore dans les épisodes — adoptent avant de décider, intègrent avant de cadrer, subissent avant de comprendre.
La leçon est décisionnelle
Ce que Black Mirror enseigne aux dirigeants qui la regardent avec ce regard :
Ce que Black Mirror enseigne aux dirigeants qui la regardent avec ce regard :
Poser les questions que les personnages esquivaient. Qui détient ? Qui accède ? Qui décide ? Que se passe-t-il si je veux sortir ? Quel contrat de dépendance suis-je en train de signer ?
Ces questions sont décisionnelles. Elles appartiennent au dirigeant, pas à la DSI.
La vraie question
Dans l'épisode que vous n'avez pas encore vécu - celui qui met en scène votre organisation dans cinq ans - qui pose la question de gouvernance ?
Et à quel moment le fait-il ?
Christophe Picou - Fondateur, VEIA.AI Conseil stratégique indépendant - IA, gouvernance, souveraineté décisionnelle www.veia.ai
