Les géants de l'ia se coalisent pour lutter contre la piraterie chinoise

Les entreprises de Technologie OpenAI, Anthropic et Google se sont joints pour partager des informations sur les tentatives de piratage de modèles d'intelligence artificielle (IA) américains par des concurrents chinois. Selon des sources informées, ces trois géants ont créé le Frontier Model Forum, un organisme sans but lucratif fondé avec Microsoft en 2023, pour détecter et combattre les pratiques de «destillation» illégales qui violeraient leurs termes de service. Cette collaboration exceptionnelle reflète l'ampleur de la préoccupation exprimée par les entreprises américaines d'IA : que des utilisateurs, notamment en Chine, créent des versions falsifiées de leurs produits qui pourraient réduire les prix, attirer des clients et représenter un risque pour la sécurité nationale.

Les américains s

Les américains s'efforcent de se défendre contre la compétition chinoise

OpenAI a confirmé avoir participé à cet échange d'informations sur la destillation à travers le Frontier Model Forum et a récemment envoyé un mémoire au Congrès l'accusant de DeepSeek de tenter d'«exploiter les capacités développées par OpenAI et d'autres laboratoires frontaliers américains». Google, Anthropic et le Frontier Model Forum ont décliné tout commentaire. La destillation est une technique qui utilise un modèle d'IA maître pour entraîner un modèle «élève» plus récent qui répète les capacités du système précédent, souvent à un coût bien moindre que de créer un modèle original depuis zéro.

Alors que certaines formes de destillation sont largement acceptées voire encouragées par les laboratoires d'IA, comme lorsque les entreprises créent des versions plus petites et efficaces de leurs propres modèles, ou autorisent les développeurs externes à utiliser la destillation pour créer des technologies non concurrentes, la destillation a suscité des controverses lorsque des tiers, notamment en Chine ou en Russie, la utilisent pour copier des travaux brevetés sans autorisation dans des pays adverses. Les principaux laboratoires d'IA américains ont averti que les adversaires étrangers pourraient utiliser cette technique pour développer des modèles d'IA sans mesures de sécurité, comme des limites qui empêchent les utilisateurs de créer un pathogène letal.

La majorité des modèles développés par les laboratoires chinois sont des modèles open-source, disponibles publiquement et plus économiques. Cela représente un défi économique pour les entreprises américaines d'IA qui ont maintenu leurs modèles comme propriété, en espérant que les clients payeront pour accéder à leurs produits et ainsi compenser les centaines de milliards de dollars investis dans les centres de données et d'autres infrastructures.