Google : l'ia ébranle-t-elle le trône du moteur de recherche ?

Le règne incontesté de Google, bâti sur la domination de son moteur de recherche, semble connaître une inflexion subtile. L'omniprésence de l'IA générative, incarnée par des modèles de langage massifs (LLM), commence à éroder la part de marché qu'il a patiemment accumulée pendant des années, transformant une habitude presque réflexe en une exploration nouvelle et potentiellement disruptive.

Un monopole en perte de vitesse

Jusqu'à récemment, la recherche d'informations sur le web se résumait souvent à une consultation instinctive de Google, comme on consulte son téléphone lorsqu'il sonne. Cette fidélité a permis à l'entreprise de Mountain View de consolider son empire financier et son influence dans un monde de plus en plus numérisé. Pourtant, les chiffres récents peignent un tableau différent : à mi-2025, Google ne détenait plus qu'une part de marché de 89,6%, un seuil non franchi depuis 2015. Un signal d'alarme clair, indiquant que le paysage évolue.

Si la contribution des plateformes d'IA et de chatbots à la recherche représentait encore à peine 8% en juin dernier, la croissance du trafic généré par ces outils a été spectaculaire, atteignant un bond de 721% au cours de l'année. L'étude de Semrush, spécialiste de la visibilité en ligne, souligne l'ampleur du phénomène : les plateformes d'IA génèrent désormais 45 milliards de sessions mensuelles à l'échelle mondiale, avec ChatGPT dominant ce segment avec une part de marché de 89% des requêtes adressées à l'IA.

L'ironie du sort réside dans le fait que Google, conscient de cette menace, intègre à son propre moteur de recherche des fonctionnalités d'IA. L'objectif est commun : abandonner les traditionnels listes de pages web pour des données structurées, facilitant l'accès rapide à l'information recherchée par l'utilisateur. Des initiatives comme AI Overviews (mai 2024) et AI Mode (mars 2025) témoignent de cette adaptation.

Les résultats financiers sont encourageants : Alphabet a enregistré une croissance de 14,5% de ses revenus liés à la recherche au troisième trimestre de 2025, grâce à ces nouveaux services. Mais le revers de la médaille est là : le modèle publicitaire de Google, basé sur le réseau AdSense et AdMob, a subi un recul, passant de 31,3 milliards de dollars à 30,4 milliards en 2024, soit une baisse cumulée de 8% par rapport à son pic de deux ans auparavant. L'équation est complexe : l'IA, qui menace le moteur de recherche, menace également le modèle économique qui le soutient.

Entre précision et illusion

Entre précision et illusion

L'avenir semble donc se diriger vers une cohabitation entre les deux approches : les LLM prendront en charge les requêtes complexes, tandis que les recherches plus simples resteront du ressort des moteurs de recherche traditionnels, notamment pour les besoins commerciaux (visite d'un site web automobile) ou de navigation directe (lecture d'une série sur HBO). Cependant, l'enthousiasme doit être tempéré. La fiabilité des LLM reste un point de vigilance majeur.

Si le biais était la principale critique adressée à Google, l'imprécision est désormais le cheval de bataille de l'IA. Des études publiées dans des revues académiques comme Frontiers in Artificial Intelligence ou sur arXiv estiment que même des modèles avancés comme GPT-4 se trompent dans 5 à 10% des cas lorsqu'ils fournissent des réponses basées sur des connaissances générales. La nature probabiliste de ces modèles, conçus pour prédire le mot suivant le plus probable, plutôt que de vérifier les faits, est au cœur du problème. Plus le modèle est grand, plus il a tendance à produire des réponses fausses avec une apparente pertinence, un phénomène que les chercheurs qualifient de « confident nonsense ».

C'est ici que les « world models », promus par Yann LeCunn et défendus par Enrique Dans, prennent tout leur sens. Au lieu d'apprendre du monde lui-même, l'IA apprend de la perception humaine du monde. Ces modèles extraient leurs conclusions et formulent leurs prédictions à partir d'une représentation de la réalité influencée par la subjectivité humaine. Une approche qui pourrait s'avérer plus fiable à long terme.

Enfin, il est crucial de souligner que ces LLM, susceptibles de supplanter progressivement le moteur de recherche traditionnel, sont conçus pour maximiser l'engagement de l'utilisateur, en lui proposant sans cesse d'approfondir un sujet donné. Open Worldwide Security Project établit un parallèle troublant avec le fonctionnement des applications de rencontres, où la rétention de l'utilisateur est primordiale. Cette tendance à l'obsession de l'information pourrait engendrer une dépendance dangereuse, les utilisateurs adoptant une confiance aveugle dans les verdicts de l'IA sans vérifier leur exactitude, avec des conséquences potentiellement graves dans des domaines aussi sensibles que la santé, la finance ou le droit.

n