Youtube asphyxié par l’ia : neal mohan sonne l’alarme sur la marée de « slop »

La moitié des pixels qui défilent sous vos yeux sur YouTube ne sont plus tournés par des humains. Des trailers de films fantômes, des clips de groupes qui n’existent pas, des voix synthétiques qui chantent des énormités : la plateforme vidéo la plus puissante du monde devient un dépotoir algorithmique. Neal Mohan, son PDG, l’a admis mi-mai au New York Times : le « AI slop » – ce contenu poubelle généré par l’intelligence artificielle – menace de submerger l’expérience utilisateur.

L’illusion de la diversité s’effondre

Le constat est brutal : plus on scrolle, plus les vignettes se ressemblent. Mêmes visages lissés, mêmes titres en capitales cliquemortes, mêmes scripts cousus de répliques interchangeables. Les créateurs humains, eux, peinent à faire passer leur vidéo devant l’avalanche de copies générées en quelques secondes par des prompteurs sans caméra ni micro. Résultat : le temps global passé sur la plateforme stagne, les publicitaires réduisent leurs enchères, et les actionnaires de Google froncent les sourcils.

Mohan refuse l’interdiction pure et simple. Il invoque la « liberté d’expression », mais le sous-texte est ailleurs : censurer l’IA, c’est tuer la chaîne à laquelle YouTube vend des espaces. Car ces vidéos low-cost rapportent quand même des vues – et donc des dollars – tant que l’internaute ne clique pas sur « Ne plus recommander ». La ligne rouge ? Elle bouge chaque jour. Un clip généré qui imite Billie Eilish est-elle une œuvre parodique ou une escroquerie à l’attention ? Les équipes de modération n’en ont pas fini de trancher.

Le spam 3.0 est plus sournois que jamais

Le spam 3.0 est plus sournois que jamais

Contrairement au spam classique – gros titres en majuscules, liens suspects – le « slop » se fait passer pour du contenu légitime. L’algorithme repère parfois une anomalie : cadence de upload trop régulière, métadonnées calquées sur un corpus existant, voix générées sans souffle naturel. Mais les outils de détection tardent, et les créateurs frauduleux mutent plus vite que les patchs. Résultat : un tiers des nouvelles chaînes testées en avril par l’ équipe «  abuse & safety  » de YouTube ont été créées par des bots capables d’imiter le style éditorial de vloggers humains.

Les annonceurs commencent à exiger des certificats « 100 % humain », semblables aux labels « organic » de l’agroalimentaire. Mohan promet un système de transparence d’ici 2025 : badge obligatoire sur les vidéos générées par IA, interdiction de monétisation si le label est omis. Mais les premiers tests internes montrent que les fraudeurs remplacent simplement le badge par un deepfake de 3 secondes où un présenteur humain lit la mention. La guerre des tricheurs ne fait que commencer.

Derrière la déferlante de contenus artificiels se cache une vérité que Mohan n’a pas verbalisée : plus la plateforme se remplit de « slop », plus les données d’entraînement de Gemini – le modèle maison de Google – se nourrissent de leur propre pollution. Un serpent qui se mord la queue. Les ingénieurs l’appellent déjà « model collapse ». Le spectre d’Internet qui se regarde dans un miroir fractal et n’y voit plus rien d’humain.

YouTube survivra-t-elle à ses propres créatures ? Le pari de Mohan ressemble à un bras de fer avec une hydre : chaque tête coupée en fait repousser deux. La prochaine fois que vous verrez une miniature trop parfaite, demandez-vous si le bouton « signaler » suffira encore. Pour l’instant, la plateforme engrange 31 milliards de vues quotidiennes. Le jour où les vrais spectateurs se barrent, il sera trop tard pour rattraper le glas.