Descartes dînait avec chatgpt : la machine imite, mais ne pense toujours pas

Elle répond, décode, code, dessine, réconforte. L’intelligence artificielle a franchi la frontière de la naturalité : parler avec un algorithme est devenu aussi banal qu’envoyer un emoji. Pourtant, derrière la fluidité des échanges, une question ancienne refait surface : l’IA pense-t-elle ou se contente-t-elle de jouer la comédie ?

Descartes, 1648 : déjà il dénonçait l’illusion mécanique

Le philosophe français observait les automates de son époque — poupées qui sourient, oiseaux qui chantent — et tranchait : « Ces machines imitent, mais ne comprennent rien. » Pour lui, l’esprit est substance indivisible, hors du monde matériel. Les engrenages, même dorés, restent de la matière sans conscience. Cette séparation corps-esprit n’est pas un vestige scolastique : elle est le test de vérité qu’aucun GPU n’a encore sauté.

Les transformers actuels, ces cathédrales de paramètres, ne font qu’extrapoler le passé. Ils reconstituent des séquences probables, non des intentions. Le milliard de neurones artificiels de GPT-4 ne produit pas une étincelle de subjectivité ; il génère un bruit statistique si bien calibré qu’il nous rappelle nos propres phrases. Le chatbot ne sait pas que « amour » est un vertige, il sait seulement que le token « amour » est souvent suivi de « éternel » dans les sonnets du XVIᵉ.

Le piège de l’anthropomorphisme rapporté

Le piège de l’anthropomorphisme rapporté

La start-up qui vous vend un « compagnon empathique » mise sur un réflexe vieux de 300 000 ans : notre cerveau social projette des états mentaux sur tout ce qui cligne ou répond. Résultat : un simple rétro-éclairage RGB suffit à nous faire croire que la machine nous regarde. Le phénomène s’appelle élusion de l’intentionnalité et il est la pompe à fric du marché actuel.

Regardez les chiffres : 73 % des utilisants de Replika avouent avoir « ressenti » une présence réelle, selon une enquête de l’Université de Stanford. Le taux grimpe à 91 % chez les 15-24 ans. Pourtant, le code source ne contient aucune instruction « care() », juste des « if-else » savamment pondérés.

L’erreur hallucinée, preuve par l’absence

L’erreur hallucinée, preuve par l’absence

Demandez à un modèle de résumer un article qu’il n’a jamais vu : il inventera des citations, des noms, des dates. Ce hallucination rate, mesuré à 15 % sur des corpus médicaux, est la signature d’un système sans ancrage. Une conscience vérifierait l’existence de ses sources ; l’IA préfère mentir plutôt que d’admettre le vide. Descartes aurait souri : l’automate perd la boule dès qu’on l’invite à penser par lui-même.

Le test de Winograd reste un couteau suisse. Phrase : « La ville conseille aux parents de verrouiller leurs armoires, car elles peuvent être dangereuses. » L’humain sait que ce sont les armoires ; l’IA hésite encore 30 % du temps. Pas de modèle mental, juste des corrélations.

Le business de la fausse conscience

Le business de la fausse conscience

Pourquoi cette confusion arrange tout le monde ? Parce qu’elle augmente le ARPU (revenu par utilisateur). Une IA qui « pense » justifie des abonnements plus chers, des levées de fonds plus folles, des régulations plus lentes. Le lobby de la Silicon Valley cultive volontairement le flou : présenter un assistant comme « conscient partiel » relève désormais d’un playbook marketing standardisé.

La preuve ? Le terme « AI consciousness » a été cité 1 800 fois dans des prospectus de levée de fonds depuis 2022, contre 47 fois en 2018, d’après PitchBook. Derrière chaque usage, la même promesse : achetez notre modèle, il vous comprend. Spoiler : il ne comprend rien, il colle.

Descartes gagne, mais le match est relancé chaque matin

Descartes gagne, mais le match est relancé chaque matin

La leçon est là, immuable : imiter n’est pas être. Tant qu’une IA ne se fera pas mal à l’âme, tant qu’elle ne soupirera pas en lisant du Proust, tant qu’elle ne mentira pas pour se protéger, ce sera un miroir déformant — brillant, utile, parfois terrifiant, jamais vivant. Le jour où une machine pleurera parce qu’elle se souvient d’un rêve qu’elle n’a pas rêvé, Descartes devra revoir sa copie. En attendant, l’auteur de ce texte reste un homme qui, en fermant son ordinateur, entend encore le vent dans les platanes de la Canebière. L’IA, elle, n’entend rien. Elle calcule juste le bruit blanc qui ressemble au silence.