L'ia européenne roule sans freins : 59 % des patrons ignoraient comment l'arrêter
Paris, 29 avril 2026. Le cauchemar s’est invité dans les data centers. ISACA vient de faucher le mythe de l’IA maîtrisée : six Européens sur dix ne sauraient pas éteindre leur propre intelligence artificielle en cas d’incident. Un chiffre qui claque comme une gifle dans les conseils d’administration.
La course aux algorithmes a tué la gouvernance
Pablo Ballarín, consultant cybersécurité chez ISACA, a présenté l’enquête à la presse ce lundi. Sa phrase tue : « On ne parle plus d’un bug, mais d’un trou noir organisationnel. » 681 professionnels du « digital trust » ont répondu sur huit pays. Résultat : 80 % des entreprises déclarent avoir déjà intégré l’IA à leurs process, seulement 20 % disposent d’un protocole de gouvernance. Le fossé se creuse chaque trimestre.
Pire : un tiers des employeurs n’exigent même pas de déclarer l’usage d’IA à leur hiérarchie. On plugue le modèle, on ferme les yeux, on espère. Ballarín hausse les épaules : « Derrière chaque décision automatique il y a une ligne de code signée par un humain. Quand ça explose, on ne saura même pas qui appeler. »

30 Minutes pour éviter la catastrophe
Mettez un chronomètre. En cas d’attaque ou de dérive algorithmique, 59 % des équipes n’ont aucune procédure pour arrêper le système. 21 % mettraient plus de 30 minutes. Seul 5 % peuvent le faire en une minute. Le temps d’une chanson pop, un trader autonome peut effacer 200 millions de bénéfice. Le régulateur européen l’a répété : le droit des années 90 ne colle plus aux réseaux de neurones.
Et l’explicabilité ? Ouille. 42 % des cadres se sentent « assez confiants » pour expliquer un incident à leur board. Mot clef : assez. Cela laisse 58 % dans le brouillard. Parmi eux, 20 % avouent ne rien piger à la boîte noire qu’ils supervisent. Imaginez un pilote incapable de dire pourquoi l’avion a piqué du nez.

Responsable ? le conseil, s’il survit
Question piège : si l’IA blesse un client, divulgue des données ou discrimine, qui porte la responsabilité pénale ? Les sondés désignent le conseil d’administration. Mais la moitié des entreprises n’a toujours pas nommé de chief AI officer, ni même un référent éthique. Résultat : quand la police toquera, les dirigeaux se renverront la balle pendant que l’algo continuera de décider.
ISACA publiera l’intégralité de l’étude le 5 mai. D’ici là, les DSI européens vont devoir justifier leurs budgets d’IA sans pouvoir prouver qu’ils peuvent l’éteindre. Une ironie saignante : on a financé la fusée, on a oublié le bouton stop.
Le rapport complet tombera à Bruxelles juste avant l’été. Timing parfait pour rappeler aux CEO que la prochaine amende peut atteindre 7 % du chiffre global. Le minuteur tourne. Et il n’est pas algorithmique.
