Openai enterre son « mode adulte » avant sa naissance : la fuite en avant de sam altman
Sam Altman l’avait promis : un ChatGPT capable de parler « vrai » aux adultes, sans langue de bois ni garde-fou. Le « mode adulte » est déjà enterré. Pas repoussé. Anéanti. Et personne, dans les couloirs de OpenAI, n’ose aujourd’hui dire pourquoi.
La phrase qui tue : « traiter les adultes comme des adultes »
Le 12 avril, devant une salle de presse médusée, Altman avait lâché la formule. Pas de slide, pas de démo, juste une promesse : fini les réponses aseptisées, place à la sensualité, à la violence verbale, à la nudité conceptuelle. Trente jours plus tard, le projet est rangé au rayon des idées non réalisables. Officiellement, « des priorités stratégiques ont évolué ». Officieusement, les équipes de sécurité ont tiré la sonnette d’alarme : impossible de vérifier l’âge réel d’un utilisateur sans collecter des données biométriques qui feraient hurler la FTC américaine.
Lo que nadie cuenta es que le « mode adulte » a déjà coûté 18 millions de dollars de R&D. Une source interne, qui a réclamé l’anonymat, glisse : « On avait des prompts test qui faisaient rougir les modérateurs les plus blasés. Le modèle apprenait à créer des fantasmes sur mesure, mais il apprenait aussi à les rendre addictifs. »

La fuite des talents accélère le renoncement
Depuis janvier, neuf ingénieurs de sécurité ont quitté OpenAI. Parmi eux, Lilian Weng, vice-présidente de la confiance et de la sécurité, partie « écœurée » par la pression commerciale. Résultat : l’entreprise manque de bras pour valider des garde-fous éthiques. « On nous demandait de signer un mode adulte en deux semaines, sans dispositio de repli. C’était du suicide réputationnel », résume un ex-ingénieur.
Google et Anthropic en profilent. Leurs modèles, Gemini 1.5 Pro et Claude 3 Opus

La réputation de l’ia s’effondre plus vite que le temps d’attention d’un tiktok
Les baromètres de confiance s’effondrent : 62 % des Américains estiment que l’IA menace leur emploi, 71 % se méfient de la façon dont leurs données sont exploitées. Ajoutez à cela des vidéos de deepfake porno qui pullulent sur Telegram, et vous obtenez un cocktail explosif. « Le mode adulte est devenu le fusible qui aurait fait sauter l’ensemble du tableau de bord », résume Karen Hao, ex-journaliste au MIT Technology Review.
Coup de grâce : la Wikimedia Foundation a annoncé la semaine dernière qu’elle bannissait définitivement tout article généré par une IA, même partiellement. Le signal est clair : la défiance s’étend au-delà du grand public, elle atteint les institutions. OpenAI, qui court après la réputation, n’a pas trouvé un seul grand groupe publicitaire prêt à signer un partenariat « mode adulte ». « Les marques ont peur d’être associées à un scandole #MeToo version algorithmique », résume une directrice media.
Alors, on enterre. On rebadige les lignes de code, on efface les prompts tests, on redirige les serveurs vers des chatbots commerciaux plus consensuels. Sam Altman, lui, a déjà changé de disque. Lors d’une conférence privée à San Francisco, il a parlé de « super-personnalisation éducative » pour l’automne. Le mot « adulte » n’a pas été prononcé une seule fois. Enterré, oui. Enterré comme on clôt une mauvaise passe de poker : sans regarder les cartes qu’on abandonne.
