Quand l’ia envoie une innocente en prison : le cauchemar d’angela lipps
Angela Lipps ne connaîtra plus jamais le goût d’un dimanche tranquille. Le 14 mars, elle gardait quatre enfants à Nashville quand une équipe SWAT a défoncé sa porte. Cinq mois plus tard, elle en sortait avec des plaques de psoriasis, sans emploi, sans toit, sans chien. Sa faute ? Un algorithme de reconnaissance faciale l’a confondue avec une fraudeuse recherchée au Dakota du Nord. Le logiciel a parlé, la police a obéi, le juge a scellé. Personne n’a vérifié.
Le match a eu lieu à 1 500 km de là
Les faits pourtant étaient têtus. À l’heure où la mystérieuse « Angela » retirait 4 800 dollars à Fargo, la vraie Angela achetait des cigarettes au coin de la rue Church Street et encaissait son chèque de sécurité sociale devant le guichet du First Tennessee Bank. Deux transactions horodatées, deux cartes bancaires, une seule femme enfermée. L’avocat commis d’office, David Raybin, a mis dix minutes à décrocher l’évidence : « Ma cliente n’a jamais mis les pieds dans votre État, elle n’a même pas de passeport. » Il a eu beau jeu : la prison ne distribue pas de récompenses pour les erreurs.
Le rapport d’incident, que Inforum s’est procuré, est un chef-d’œuvre de confiance technologique. Le détective note : « Le logiciel indique 92 % de similarité », puis conclut « c’est elle » sans autre forme de procès. Pas d’analyse biométrique approfondie, pas d’enquête de terrain, juste un clic et un mandat. Le même scénario s’est déjà joué huit fois aux États-Unis depuis 2019 ; Angela est le neuvième cas documenté par le Georgetown Center on Privacy & Technology. La liste s’allonge plus vite que les correctifs.

Le vrai poison, c’est la paresse humaine
Les éditeurs vendent leurs moteurs comme « outils d’aide à la décision », mais dans les commissariats sous-staffés l’aide devient verdict. Le procureur de Davidson County a reconnu « un manquement » tout en refusant toute compensation. Angela, elle, attend toujours ses excuses par écrit. Entre-temps, elle dort sur le canapé d’une cousine et accumule les heures de Uber Eats pour payer les frais vétérinaires de son chien, récupéré à la fourrière trois jours avant l’euthanasie.
Le fabricant du logiciel, la start-up FaceLogix, n’a pas répondu à nos sollicitations. Leur brochure promettait « 99 % de précision » ; elle oubliait de préciser que le 1 % restant peut coûter cinq mois de vie, un loyer et un peu de dignité. Pendant ce temps, les municipalités continuent d’acheter ces systèmes à la pelletée, séduites par la promesse d’économiser 30 % de temps d’enquête. La cifra habla por sí sola : 3 200 agences américaines utilisent aujourd’hui la reconnaissance faciale sans cadre légal contraignant.
Angela Lipps ne veut pas de leçon de techno-éthique ; elle veut un chèque et un chien en bonne santé. Tant que les algorithmes seront jugés plus crédibles que les alibis, le prochain « 92 % » dort peut-être à côté de vous. Le cauchemar n’est pas l’erreur de la machine, c’est la facilité avec laquelle on s’en remet à elle. Et, contrairement à un humain, l’IA ne perd pas le sommeil.
