Google, meta et microsoft scellent un pacte contre la fraude en ligne, mais sans crochets

Silence feutré dans les salles de réunion de Vienne. Le 16 mars, à la tribune de la Cumbre Global contra el Fraude de l’ONU, treize mastodontes numériques signent un accord qui ressemble à une trêve des chefs de guerre : Google, Meta, Microsoft, Amazon, OpenAI, Adobe, Match Group, Pinterest, Levi Strauss et Target s’engagent à échanger leurs données de fraude. Objectif affiché : ralentir la machine à cash des escrocs qui tournent à plein régime sur leurs plateformes. Le détail qui tue ? Ce contrat reste un simple gentlemen’s agreement, sans sanction, sans contrainte, sans même une date butoir.

Des ia contre des arnaqueurs, la bataille commence

Chaque jour, 4 milliards d’euros disparaissent dans les soutes du cybercrime mondial. Les signataires promettent de partager leurs flux suspects, d’alimenter des modèles d’IA capables de repérer les faux profils, les paiements irréguliers ou les liens piégés avant qu’ils n’atteignent l’utilisateur. Meta a déjà testé en février des alertes en pop-up sur WhatsApp dès qu’un inconnu demande un paiement. Résultat : −38 % de signalements de « maman, j’ai un problème » en une semaine au Brésil, selon des sources internes.

Google, de son côté, ouvre son Safe Browsing API à LinkedIn et Match Group. Déjà, 1,2 million de liens malveillants sont neutralisés chaque heure. L’enjeu : empêcher le rebond. Un escroc bloqué sur Gmail réapparaît aussitôt sur Tinder, puis sur Marketplace. Le nouveau mécanisme doit colmater ce trou. Mais les données restent tronquées : les géants ne livrent que des hashes anonymisés, jamais le contenu brut, histoire de préserver leur précieuse sauce propriétaire.

Pas de gendarme, pas de budget, pas de dent

Pas de gendarme, pas de budget, pas de dent

Le texte de huit pages est un bréviaire de bonnes intentions : coopérer, conseiller, former. Il ne contient ni clause pénale, ni instance d’arbitrage. OpenAI peut donc théoriquement garder pour elle les prompts de phishing qui inondent ChatGPT sans risquer le moindre euro d’amende. « C’est un accord de transparence, pas de responsabilité », résume une source diplomatique présente à Vienne. Traduction : si demain Amazon refuse de partager ses données, personne ne pourra le contraindre.

Les ONG de protection des consommateurs crient déjà à la poudre aux yeux. « On nous ressert la même soupe qu’en 2021 avec le Tech Coalition, tempête Monique Goyens, directrice générale de l’European Consumer Organisation. Les mêmes firmes, les mêmes promesses, zéro obligation. » Elle pointe du doigt l’absence de standards communs : chaque entreprise reste libre de définir ce qu’elle juge « frauduleux ». Une publicité pour fausses baskets sur Pinterest ? Peut-être. Une fausse offre d’emploi sur LinkedIn ? Peut-être pas.

Le pari de la vitesse contre le chaos juridique

Le pari de la vitesse contre le chaos juridique

La Commission européenne prépare déjà le Cyber Resilience Act, qui rendra obligatoire la notification de failles. Washington travaille sur un Digital Fraud Task Force doté de pouvoirs d’enquête. Les plateformes savent qu’elles ont six à dix-huit mois pour prouver qu’elles peuvent s’autoréguler. Sinon, la législation s’en mêlera. « On ne veut pas d’un patchwork de 27 régulateurs, glisse un cadre de Meta. Si nous montrons que le partage fonctionne, Bruxelles refera ses calculs. »

Entre-temps, les escrocs eux ne signent aucun accord. Ils migrent vers Telegram, Signal ou les réseaux sociaux chinois que les Occidentaux ne contrôlent pas. La course est lancée : qui sera le plus rapide, l’IA qui apprend ou le fraudeur qui mute ?

À Vienne, après la photo de famille, les délégations se sont dispersées sans conférence de presse. Une délégation chinoise a quitté la salle avant la signature. Sur le chemin de l’aéroport, un cadre de Google lâche : « On a gagné vingt-quatre heures de répit. Demain, les bots seront déjà nouveaux. » Il n’avait pas l’air de plaisanter.