Bots devoreront la web : d'ici 2027, plus de machines que d'humains sur internet
Matthew Prince, PDG de Cloudflare, a déclenché une onde de choc à SXSW : le trafic généré par les agents d’IA dépassera celui des humains d’ici trois ans. Une simple requête à ChatGPT ou Gemini peut aujourd’hui provoquer 5 000 visites de pages, contre 5 pour un internaute classique. Le Web, conçu pour les hommes, devient un buffet ouvert aux robots affamés de données.
Le cout énergétique d’une question
Derrière la réponse fluide d’un assistant virtuel se cache une tornade de requêtes HTTP. Chaque prompt déclenche l’exploration de centaines de sites, l’extraction de contenus, le résumé de forums, le téléchargement d’images. Le tout en moins d’une seconde, mais avec une empreinte carbone réelle. Les centres de données, déjà saturés par le boom des GPU, doivent désormais dimensionner leur infrastructure pour satisfaire la faim algorithmique, pas celle des humains.
Imperva, spécialiste en cybersécurité, affirme que la ligne a déjà été franchie : 51 % du trafic mondial serait aujourd’hui produit par des bots, dont 37 % malveillants. Cloudflare tempère, mais reconnaît que le cap des 50 % sera atteint en 2026 si la pente actuelle se poursuit. Le Web devient alors un miroir sans tain : les IA s’y regardent, s’y copient, s’y entraînent, dans une boucle autoréférentielle.

Sam alton sonne l’alarme : internet pourrait s’effondrer sur lui-même
Le fondateur d’OpenAI évoque ouvertement la thèse du « Dead Internet » : un réseau où les contenus seraient majoritairement générés par des IA, puis recyclés par elles-mêmes jusqu’à la saturation. « Si nous continuons à entraîner nos modèles sur leurs propres exutoires, la qualité informationnelle s’effondrera en moins de 36 mois », a-t-il confié à un confrère en coulisses. Le risque : une spirale de dégénérescence où faits et hallucinations deviennent indiscernables.
Les plateformes tentent de réagir. Cloudflare teste des en-têtes HTTP dédiés aux agents IA, permettant d’identifier, limiter ou taxer leurs requêtes. Google envisage un tarif spécial pour les crawlers non humains. Mais les éditeurs de sites, eux, ne veulent pas être les dindons de la farandole : bloquer les bots, c’est renoncer au référencement ; les laisser passer, c’est payer la facture de bande passante.
Le Web originel, celui des pages statiques et des liens bleus, pourrait devenir un vestige. À terme, seuls les contenus payants ou fortement authentifiés survivront à la marée mécanique. Le reste ? Un sable mouvant de textes générés, traduits, résumés, puis regénérés, jusqu’à ce que plus aucun humain ne clique. Le trafic comptera encore, mais plus les yeux.
