Ils vendent leur visage aux deepfakes et alimentent l’industrie de l’arnaque en ligne
50 000 euros par an, 100 vidéos par jour, zéro jour de congé officiel. Sur Telegram, des centaines de postes ouverts pour « modèles IA » promettent un salaire rapide à ceux qui acceptent de prêter leur visage à des algorithmes de synthèse. Derrière ces offres se cache un marché criminel qui transforme les traits humains en munitions pour escroqueries sentimentales.
Le visage devient une matière première
Les recruteurs ne cherchent pas la perfection, ils veulent du réel. Pas de perruques, pas de maquillage trop visible. Le candidat doit filmer son sourire, ses micro-mouvements, la façon dont il fronce les sourcils quand il lit. Chaque séquence alimente un réseau de neurones qui, une fois entraîné, parlera russe ou turc avec la même bouche, séduira des victimes depuis Minsk ou Manille, réclamera des cryptos à 3 h 14 du matin.
Les petites annonces, repérées par Wired, ressemblent à des offres de community management : « Temps partiel flexible, télétravail, bonne rémunération. » Mais la fiche de poste détaille un rythme d’usine : 150 appels vidéo possibles par jour, messages vocaux synthétisés, photos à envoyer chaque matin. Le tout pour 1 200 à 2 000 dollars mensuels, payés en stablecoin pour effacer les traces.

L’usine à cœurs brisés
ChongLuaDao, ONG vietnamienne de lutte contre la cybercriminalité, a cartographié plus de 80 canaux Telegram actifs. Résultat : Turquie, Ukraine, Biélorussie, Russie, mais aussi Philippines et Vietnam fournissent la majorité des visages. Les équipes travaillent en trois tours de huit heures pour couvrir les fuseaux horaires des cibles : retraités européens, célibataires nord-américains, veufs australiens.
Le procédé est rodé. On commence par un match sur une appli de dating, on migre vite vers WhatsApp ou Viber. L’avatar vidéo, piloté à distance, récite des scripts optimisés par l’IA : phrases d’accroche, relances émotionnelles, demandes d’argent soigneusement calibrées. Le faux amoureux explique qu’il est bloqué à l’aéroport, que sa fille a besoin d’une opération, que sa carte bancaire vient d’être bloquée. La victime, déjà isolée, n’attend qu’un signe pour transférer.
Et le modèle humain derrière l’écran ? Il gagne sa vie, mais paie au prix fort. Pas de contrat, pas de protection sociale, pas de syndicat. Des journées de 12 heures, quatre jours et demi de « congé » par mois, un interlocuteur anonyme qui change de pseudo chaque semaine. « Si tu poses trop de questions, on te remplace », glisse un ancien « acteur » à Wired. Les photos fournies servent aussi à créer des profils secondaires, jamais effacés. Le visage continue d’arnaquer longtemps après que le salarié a disparu du groupe.

Le silence des plateformes
Telegram ferme les yeux. L’application se cache derrière son chiffrement et son modération « communautaire ». Les signalements restent lettre morte. Les autorités, quand elles sont saisies, butent sur la transnationalité du réseau : serveurs à Dubaï, équipes dispersées, paiements sur la blockchain. En Europe, seule l’Espagne a condamné une entreprise à 50 000 euros pour avoir forcé une employée à pointer via reconnaissance faciale, mais le lien avec les deepfakes reste encore à creuser.
La menace mute plus vite que la jurisprudence. Quand un visage est piraté, il devient un produit perpétuel. Les victimes d’escroquerie ne savent même plus à qui s’adresser : l’être aimé n’existe pas, le modèle non plus. Il ne reste qu’un flux de données qui circule entre Moscou, Istanbul et Hanoï, et des vies réelles qui se brisent en silence.
Demain, votre prochain match Tinder pourrait bien être une synthèse de trois visages turcs, un accent ukrainien et une voix générée à Singapour. La question n’est plus de savoir si l’arnaque arrivera, mais de comprendre que derrière chaque pixel se cache une chaîne de montage humaine, une main qui clique, une bouche qui prononce « je t’aime » pour 5 dollars l’heure. Tant que le business du visage restera le Far West du numérique, le prix à payer sera celui de notre propre image.
