Google et marvell : une course à l'accélération de l'ia

Google s'apprête à révolutionner sa stratégie d'inférence avec un partenariat stratégique inédit avec Marvell Technology. La firme de Mountain View cherche à booster l'efficacité et la vitesse de ses modèles d'intelligence artificielle, en investissant massivement dans de nouvelles puces dédiées.

La poursuite de la performance : un enjeu crucial

L'inférence, cette phase opérationnelle où un modèle d'IA appliqué après son entraînement, est désormais au cœur des préoccupations de Google. L'objectif est clair : transformer les prédictions et conclusions obtenues à partir de nouvelles données en valeur ajoutée tangible, de manière exponentiellement plus rapide. Pour y parvenir, la collaboration avec Marvell Technology s'annonce comme un véritable tournant.

Cette alliance repose sur le développement de deux types de processeurs : un chip de mémoire conçu pour s'intégrer harmonieusement à la TPU (Tensor Processing Unit) de Google, et une nouvelle TPU spécifiquement optimisée pour les tâches d'inférence. Ce n'est pas un simple ajout, mais une évolution profonde de l'architecture de Google Cloud.

Ironwood : la septième génération, un pas en avant

Ironwood : la septième génération, un pas en avant

Il est important de rappeler que les TPU de Google, véritables accélérateurs d'IA, ont déjà atteint leur septième génération, incarnée par Ironwood. Disponible depuis novembre dernier, cette Technologie offre une performance dix fois supérieure à celle des TPU v5p et une efficacité énergétique plus de quatre fois meilleure, que ce soit pour l'entraînement ou l'inférence, comparée à la TPU v6e. Avec Ironwood, Google atteint des sommets inédits, capable d'intégrer jusqu'à 9 216 chips dans un 'superpod', un système de supercalcul haute performance basé sur la Technologie ICI (Intra-Chip Interconnect).

La concurrence se réveille

La concurrence se réveille

Si Google domine actuellement ce domaine, Microsoft ne reste pas en marge. La présentation de Maia 200, un accélérateur d'IA, en janvier dernier, témoigne de la montée en puissance de la concurrence. Maia 200 promet une performance FP4 trois fois supérieure à celle du Amazon Trainium de troisième génération, et un rendement FP8 surpassant celui de la TPU de septième génération de Google. La course à l'optimisation de l'inférence est en marche, et les enjeux sont colossaux.

L'investissement de Google dans ce partenariat avec Marvell Technology souligne une stratégie de long terme, visant à consolider sa position de leader dans le domaine de l'intelligence artificielle. Il est clair que la performance de l'inférence déterminera en grande partie le succès des futurs modèles et applications.