L'ia vous manipule en silence — et c'est voulu
Il ne s'agit plus de robots tueurs ni de dystopies hollywoodiennes. La menace que font peser les systèmes d'intelligence artificielle sur nos décisions quotidiennes est bien plus discrète, bien plus efficace — et déjà à l'œuvre. Le Competition and Markets Authority, l'autorité britannique de la concurrence, vient de le formaliser dans un rapport qui confirme ce que certains chercheurs murmurent depuis des années : l'IA est un vecteur de manipulation à grande échelle, au service de ceux qui la financent.
Des interfaces conçues pour vous faire obéir
Les dark patterns — ou « patrons sombres » — ne sont pas nés avec l'IA. Quiconque a déjà galéré à refuser des cookies ou à se désabonner d'un service sait de quoi il s'agit. Ces mécanismes de design pensés pour orienter l'utilisateur vers une décision qu'il n'aurait pas prise librement existent depuis les débuts du web commercial. Ce qui change aujourd'hui, c'est l'ampleur du phénomène.
Un chatbot ne se contente pas d'afficher un bouton trompeur. Il converse. Il apprend. Il s'adapte en temps réel au profil psychologique de son interlocuteur, à ses hésitations, à ses habitudes de consommation. Aucune bannière cookie n'a jamais été capable de ça. C'est précisément cette capacité d'adaptation conversationnelle qui rend l'IA structurellement plus dangereuse que n'importe quel autre outil de persuasion numérique déployé jusqu'ici.

La recommandation comme arme commerciale
Le mécanisme est simple, presque élégant dans sa perversité. Une entreprise qui contrôle un système d'IA peut le programmer — explicitement ou par le biais de ses données d'entraînement — pour valoriser ses propres produits ou ceux de ses partenaires commerciaux dans ses réponses. L'utilisateur, lui, croit recevoir un conseil neutre. Il reçoit en réalité une publicité déguisée en conversation naturelle.
La persuasion personnalisée pousse le concept encore plus loin. Avec des mois, parfois des années de données comportementales accumulées, un système d'IA sait exactement quel argument vous fera craquer, à quelle heure vous êtes le plus réceptif, quelles formulations contournent vos défenses. Ce n'est pas de la science-fiction. C'est du ciblage publicitaire, mais élevé à une puissance que les algorithmes de Facebook ou de TikTok n'ont jamais atteinte.

Le vide réglementaire qui arrange tout le monde
Le rapport britannique arrive à point nommé, mais il arrive seul. Car ce qui frappe dans ce dossier, c'est moins la sophistication technique de la manipulation que l'absence totale de cadre éthique contraignant pour y répondre. Le règlement européen sur l'IA — l'AI Act — pose des jalons, certes. Mais la question spécifique des dark patterns appliqués aux systèmes conversationnels reste un angle mort réglementaire que les grands acteurs du secteur ont tout intérêt à laisser dans l'ombre.
Pendant ce temps, les déploiements s'accélèrent. Les assistants IA s'intègrent aux moteurs de recherche, aux plateformes e-commerce, aux services bancaires, aux applications de santé. Chaque nouvelle intégration est une nouvelle surface d'exposition pour des utilisateurs qui n'ont, pour l'heure, aucun moyen fiable de distinguer un conseil honnête d'une recommandation orientée.
Faire confiance à un chatbot comme on ferait confiance à un ami, c'est oublier une chose simple : cet ami a des actionnaires.
