On laisse chatgpt penser à notre place et c'est la méprise assurée

ChatGPT vient de dépasser Google comme premier réflexe pour vérifier une info. Bingo pour OpenAI. Sauf qu'une enquête de l’European Broadcasting Union démontre que l’application débite plus d’erreurs que de certitudes. Et personne ne les voit. Le pire ? Les utilisateurs exécutent quand même les consignes, même truffées d’hallucinations.

Le robot raconte n’importe quoi, le cerveau s’éteint

Sur 10 000 réponses générées à des questions d’actualité, 38 % contiennent une contre-vérité ou un manque de contexte flagrant. Pourquoi ? Le modèle a appris à « sonner » crédible, pas à être juste. Il emploie des tournures assertives, cite des sources imaginaires, ponctue de chiffres ronds. Résultat : le lecteur moyen juge le texte plus fiable qu’un article signé d’un humain. Le phénomène porte un nom : biais d’automatisation. On délègue la charge cognitive, on s’abrutit.

Les chercheurs ont mesuré une autre trouvaille: quand on signale l’erreur, 62 % des cobayes répondent « ça n’empêche pas que la réponse est bien structurée ». Le style l’emporte sur la substance. Cette complaisance est déjà visible dans les rédactions où des étudiants en journalisme recopient des pitchs générés sans vérifier la source primaire.

Google, l’architecte de sa propre éclipse

Google, l’architecte de sa propre éclipse

La firme de Mountain View intègre Bard partout : résultats web, assistant mobile, Gmail. Objectif officiel : fluidité. Objectif officieux : retenir l’utilisateur coûte que coûte. Conséquence : la boucle est bouclée. Le moteur devient un distributeur de réponses pré-mâchées, donc de fautes pré-imprimées. Qui se souvient encore du dernier lien en bas de page ?

Le plus cynique, c’est la publicité. Les extraits sponsorisés s’insèrent désormais dans le flux conversationnel. Demandez « quel est le meilleur smartphone » et Bard vous ressort un modèle en promo, sans préciser que le fabricant paie le classement. Le label « pub » est réduit à une mention 8 px, illisible sur mobile.

La déconsolidation du savoir collectif

La déconsolidation du savoir collectif

Les Wikipédiens l’ont compris : le nombre de nouveaux contributeurs en français a chuté de 28 % depuis janvier 2023. Pourquoi corriger une page quand ChatGPT fournit une version « suffisante » en trois secondes ? Chaque erreur non détectée s’imprime donc dans le marbre algorithmique, resservie à la génération suivante. Le bruit devient signal, le signal devient vérité.

Et l’État regarde ailleurs. Le député européen qui évoque la « gouvernance de l’IA » s’appuie lui-même sur des notes rédigées par… GPT-4. Ironie suprême : le rapport sur la fiabilité des systèmes automatiques contient une citation apocryphe de Margaret Thatcher. Elle n’a jamais dit cette phrase. Le législateur non plus ne vérifie plus.

Le coût social d’un clic sans friction

On croyait que la démocratisation des savoirs affaiblirait les théories du complot. C’est l’inverse. Les modèles, affamés de données, ingurgitent forums, Reddit et autres réseaux où le révisionnisme côtoie la science. Le mélange ressort sous une forme égalitaire : « certains disent que la Terre est ronde, d’autres non ». Le doute s’installe, prêt à être exploité par le premier démagogue venu.

Les enseignants constatent des copies où des élèves de terminale citent des événements qui n’existent pas. « Source : intelligence artificielle ». Le zéro est-il encore possible quand l’élève est convaincu d’avoir raison ? Le bégaiement de la connaissance commence à l’école.

Chiffre : 78 % des Français estiment que « l’IA a plus d’infos qu’un journaliste » (Ifop, février 2024). Date : d’ici 2026, les assistants vocaux généreront 70 % des requêtes web. Conséquence : sans remède, l’erreur deviendra majoritaire et l’industrie de la désinformation le premier secteur à décoller.

La solution n’est pas technique, elle est civique. Réapprendre à douter, à ouvrir l’onglet suivant, à cliquer sur la source primaire, à enseigner la vérification comme on apprend à lire. Sinon le prochain scandale sanitaire, la prochaine guerre, la prochaine élection se joueront dans les limbes d’un prompt mal formulé. L’ignorance n’a jamais été aussi fluide. Et ce n’est pas ChatGPT qui appuiera sur le bouton “fermer”.