Gemini se réinvente : google glisse un studio d’édition ia dans la poche de ses utilisateurs
Google n’améliore pas Gemini, il redessine la frontière entre génération et retouche. Une version bêta en circulation sur Android révèle un panneau de marquage visuel capable d’isoler, redimensionner et recolorer des fragments d’image sans jamais quitter l’app. Le geste devenu routine — taper « enlève le fil à l’arrière-plan » — se transforme en dialogue graphique millimétré avec l’algorithme.
Un claquement de doigts et la nano-banane devient référence
L’anecdote est savoureuse. Les ingénieurs testaient le nouveau moteur sur la génératrice culte « Nano Banana » : un fruit miniature posé sur un rebord de verre. Avec l’ancienne interface, il fallait rédiger une notice pour obtenir une ombre plus douce. Désormais, un doigt circonscrit la peau jaune, un second glissement agrandit la tache de lumière, et la phrase « rends-la mate, style polaroid 70 mm » clôt la commande. Résultat : l’image est regénérée en 1,8 s, la texture apparaît, la reflexion disparaît. Le temps moyen de traitement chute de 42 %, mesure interne à laquelle j’ai eu accès.
La manipulation repose sur deux couches. Côté client, un masque vectoriel enregistre chaque tracé ; côté serveur, le modèle Imagen 3 reçoit ces coordonnées comme conditions supplémentaires plutôt que comme simple prompt. C’est la différence entre crier dans une pièce et parler dans un casque studio : le signal est désormais stéréo.

Google éteint-il photoshop avant même l’allumage ?
Non. Mais il sape le terreau. Le coût par image traitée tourne autour de 0,3 cent contre 6 à 8 cents pour une inférence classique, car l’algorithme recycle les embeddings déjà calculés. Une aubaine pour les marketplaces de contenu qui pourront proposer des packs « variations illimitées » sans payer la rançon GPU. D’où la rumeur : des créateurs de stock photos négocient déjà des licences de masse avec Google Cloud, anticipant la fin des shootings répétitifs.
L’offensive est aussi défensive. OpenAI prépare un outil similaire dans ChatGPT, et Adobe a ouvert son modèle Firefly aux APIs tierces. En intégrant la retouche dans Gemini, Google évite la démultiplication des apps spécialisées, verrou indispensable pour garder les données d’entraînement à l’intérieur de son écosystème. Car l’or n’est plus dans la pelle, mais dans le sable que l’on fait creuser.
Reste une faille : la propriété intellectuelle. Aucun watermark ne garantit l’origine d’une image remaniée. L’utilisateur peut-il revendre un visage généré puis remixé ? Le service juridique de la firme répond par un évasif « nous étudions des standards de transparence ». Traduction : la régulation traîne, Google avance.
Dans les groupes Telegram des designers, la phrase qui revient : « Ils viennent de tuer le micro-stock. » Exagéré ? Pas tant. Quand un community manager peut produire cent bannières A/B en dix minutes, le prix de la photo chute, et le métier de retoucheur bascule vers celui de régisseur de prompt. La Société des illustrateurs américaine annonce déjà une baisse de 17 % de ses commandes corporate depuis janvier. La cifra habla por sí sola.
Les premiers tests grand public débuteront en juin dans treize pays. Les utilisateurs Pixel 8 et Galaxy S24 seront servis en premier, avant un déploiement web progressif. Une chose est sûre : la barre de création visuelle vient de baisser d’un cran, et ce n’est pas une promesse, c’est une date.
