Wikipedia tranche dans le vif : l’ia générative bannie de ses articles
Fini la langue de bois : les administrateurs de Wikipedia viennent de déclarer la guerre à l’intelligence artificielle générative. Leur verdict tombe comme une hache : les textes produits par des algorithmes dénaturent la connaissance et menacent la crédibilité de l’encyclopédie. Une prise de position radicale qui détonne dans un Web de plus en plus saturé de « AI slop ».
Les éditeurs craignent la distorsion silencieuse des faits
Contrairement à un copier-coller classique, un article généré par IA ne repose sur aucune source directement tracable. Le bot reconstruit l’information, lisse les angles, fusionne les contextes et, sans crier gare, glisse des approximations ou des hallucinations. Résultat : une phrase peut paraître limpide, mais le détail qui tue la vérité s’est évaporé.
Pire, l’erreur se lit avec la même assurance qu’un fait avéré. « Les modérateurs passent plus de temps à vérifier une écriture fluide qu’un copié-collé grossier », confie un contributeur actif depuis quinze ans. Le triplé de la perte : temps, fiabilité, confiance.

La détection reste un jeu de chat et de souris
Les outils anti-IA promettent 98 % de précision ; dans la vraie vie, ils avouent 30 % de faux positifs. Un taux inacceptable pour une plateforme qui compte 60 millions d’articles et plus d’un milliard de modifications. Quand un contributeur repasse un texte à la moulinette grammaticale, même léger, le score de probabilité saute et l’algorithme crie au loup. Résultat : des bons contributeurs bloqués, des bots impunis.
C’est pourquoi Wikipedia préfère couper d’emblée : sauf cas ultra-justifiés, tout contenu soupçonné d’être généré par une IA est rejeté. Point. Pas de demi-mesure, pas de filet de sécurité.

Google, youtube et les forêts de contenu auto-produits
Le timing fait froid dans le dos. Les moteurs de recommandation débordent de vidéos résumées par des synthèses vocales, de scripts traduits à la volée, de articles produits en série pour capter les clics. Une étude récente de NewsGuard recense plus de 800 sites d’information entièrement alimentés par ChatGPT, sans mention explicite. Le Web devient une usine à saumure informationnelle.
Wikipedia refuse d’alimenter la chaîne. « Si nous tolérons l’IA, nous transformons l’encyclopédie en hub de contenus interchangeables », martèle un administrateur sous le pseudonyme BlueSky. L’enjeu : rester l’ultime bouée factuelle dans un océan de bouillie textuelle.
Derrière l’interdiction, un appel à la communauté
La décision n’est pas technologique, elle est politique. En clair, les éditeurs lancent un signal aux 270 000 bénévoles actifs : votre temps, votre regard, votre doute critique valent plus qu’un algorithme. Ils espèrent relancer la contribution humaine, source première de fiabilité depuis 2001.
Objectif affiché : maintenir le taux d’erreur sous la barre de 0,5 % alors que la croissance des articles s’accélère dans les langues du Sud. Une gageure. Mais l’alternative — une encyclopédique purée de données — les horripile davantage.
Alors, oui, l’IA continuera de corriger les fautes d’orthographe, de proposer des liens ou de traduire certains extraits. Mais la rédaction, la sélection des sources, la pondération des points de vue : ça restera du sang, pas du silicium. Wikipedia vient de tracer une frontière rouge au milieu du cyber-désert. Le reste du Web la regardera-t-il franchir le pas ?
