Openai dégaine deux modèles ultra-rapides pour faire taire gemini 3 flash

OpenAI vient de remettre la pendule à l’heure. Alors que Google se vantait d’avoir le petit modèle le plus vif du marché avec Gemini 3 Flash, la maison mère de ChatGPT riposte par un one-two punch : GPT-5.4 Mini et GPT-5.4 Nano. Deux noms sobres, des specs qui font mal. Le premier dépasse désormais le « grand » GPT-5.4 sur plusieurs benchmarks de code et de raisonnement, tout en crachant les réponses 2,3× plus vite. Le second, taillé pour la classification et l’extraction de données, coûte 0,20 $ le million de tokens en entrée — soit dix fois moins que le frère cadet d’il y a six mois.

Le trou béant que mini et nano comblent

Depuis l’été dernier, OpenAI avait laissé le champ libre à Anthropic, Mistral et Google dans le créneau des modèles « légers ». Résultat : des PME et des start-up ont migré leurs agents de support, leurs bots de scraping et leurs co-pilotes code vers la concurrence. Le Mini de l’époque traînait la patte, le Nano n’existait pas. Le retard s’est chiffré en millions de requêtes détournées. Aujourd’hui, la donne change. Le nouveau Mini tient 400 000 tokens de contexte — l’équivalent d’un gros livre technique — et digère image + texte en un seul appel. Il consomme 70 % de tokens en moins sur Codex, ce qui ramène la facture moyenne d’un agent de build nocturne à 3 $ par semaine. Le Nano, lui, se contente de texte, mais il le dévore à 1,25 $ le million de sortie, de quoi faire passer une start-up de 10 000 requêtes/jour d’une facture de 800 $ à 95 $.

Les développeurs l’ont déjà testé. Sur le benchmark HumanEval, GPT-5.4 Nano atteint 82 % de réussite, soit 21 points de plus que GPT-4 Turbo alors qu’il est… 15× moins cher. Côté latence, Mini répond en 180 ms contre 430 ms pour Gemini 3 Flash sur le même hardware TPU v5e. La guerre des chiffres est relancée.

Chatgpt gratuit devient une arme marketing

Chatgpt gratuit devient une arme marketing

Coup de grâce : les utilisateurs free de ChatGPT peuvent basculer sur Mini via l’interrupteur «Penser». Un geste apparemment généreux qui, en réalité, verse directement le trafic vers le nouveau modèle. Plus d’API, plus de bouche-à-oreille, plus de données. Les abonnés Pay et Pro en profitent aussi : dès que GPT-5.4 est en saturation, le système bascule automatiquement sur Mini. Résultat : fini l’écran « Nous sommes à capacité ». OpenAI garde l’utilisateur captif, tout en réduisant ses coûts serveur de 40 %.

Reste la question de la souveraineté. Les deux modèles tournent pour l’instant sur les GPU H100 de Microsoft à l’Arizona. L’UE, déjà suspicieuse, va scruter les flux de données. Mais la donne commerciale est là : avec Nano, une entreprise européenne peut traiter 5 millions de tickets de support par mois pour 1 250 $, contre 12 000 $ avec Claude 3 Haiku. La grille tarifaire parle plus fort que les déclarations d’intention.

OpenAI ne résout pas que la guerre des prix. Elle transforme le paysage technique : Mini devient le premier modèle « petit » capable d’utiliser des outils, de lancer des recherches web et d’exécuter du code en bac à sable. Autrement dit, il remplace à lui seul une pile complète d’agents spécialisés. Les équipes infra qui cherchaient à optimiser cinq micro-services n’en auront plus qu’un. L’effet consolidation sera visible d’ici l’été, quand les S-1 des start-up IA devront justifier pourquoi elles brûlent encore 30 000 $ de compute par mois.

Coup d’arrêt à la fragmentation, retour à la centralisation. OpenAI vient de signifier que la guerre ne se joue plus sur le nombre de paramètres, mais sur la densité de tokens par dollar. Les dévelopteurs qui ont basculé chez Google hier reçoivent ce matin un e-mail bien calibré : « Re-testez nos modèles, la migration prend cinq minutes. » La riposte ne saurait tarder. Pour l’instant, le chronomètre affiche 180 millisecondes — le temps qu’OpenAI a mis pour remettre la pression sur tout le secteur.