Deepfake IA Trompe CZ De Binance Avec Sa Voix
  • Home
  • AI
  • Deepfake AI imite le CZ de Binance de manière troublante
Par Hamza Ahmed Photo de profil Hamza Ahmed
5 min read

Deepfake AI imite le CZ de Binance de manière troublante

CZ, ancien PDG de Binance, n'a pas reconnu une vidéo deepfake avec sa propre voix. L'intelligence artificielle reproduit les visages et les sons avec une précision dangereuse.

L'ancien PDG de Binance, Changpeng "CZ" Zhao, a raconté une expérience étonnante avec une vidéo qui imitait parfaitement sa voix grâce à la technologie de l'IA.

Zhao révèle dans un post posté jeudi que le doublage en mandarin de la vidéo était indiscernable de sa voix réelle en raison de l'extrême précision de la reproduction.

La vidéo, dans laquelle Zhao apparaît parlant chinois dans un montage de clips et d'images créés avec l'intelligence artificielle, a soulevé de vives inquiétudes quant à l'utilisation non autorisée de l'IA pour usurper l'identité de personnalités publiques. CZ a qualifié la précision de la voix et la synchronisation des lèvres de "troublantes".

0:00
/0:15

La duplication numérique des dirigeants de l'industrie des crypto-monnaies via des outils d'IA générative est en hausse, et ce cas est un exemple clair d'usurpation d'identité malveillante.
Après avoir quitté son poste de PDG de Binance en 2023, Zhao a continué à être influent dans l'industrie des crypto-monnaies et avait déjà mis en garde le public contre les risques des deepfakes.

Dans le mois d'octobre 2024, Zhao avait émis un avertissement spécifique : ne pas faire confiance aux vidéos demandant des transferts de crypto-monnaies, en raison de la propagation de contenus manipulés le mettant en scène.

Les deepfakes représentent des risques opérationnels de plus en plus graves pour le secteur des crypto-monnaies

La dernière expérience de Zhao montre comment les méthodes d'usurpation d'identité évoluent de simples escroqueries textuelles ou par images statiques vers des simulations audiovisuelles sophistiquées.

Patrick Hillmann, ancien directeur de la communication de Binance, told en 2023 que des escrocs avaient créé une deepfake vidéo pour se faire passer pour lui lors d'une réunion Zoom avec des représentants du projet.

Les escrocs ont utilisé un faux hologramme d'IA d'un cadre de Binance pour escroquer des projets cryptographiques
Les escrocs ont utilisé un faux hologramme d'IA du directeur de la communication de Binance pour des activités frauduleuses.

La vidéo avait été générée en rassemblant des années de ses interviews publiques et de son contenu en ligne, rendant la réunion fictive aussi crédible qu'un véritable appel officiel de Binance.

Aujourd'hui, les technologies avancées de clonage de voix permettent d'imiter une personne si bien que même l'original ne peut pas reconnaître le faux. Cela représente un danger qui va bien au-delà de l'usurpation d'identité sur les réseaux sociaux.

A Million Dollar Scam Montre les risques concrets des deepfakes

Un incident survenu en février met en évidence les risques financiers graves des deepfakes : des employés d'Arup à Hong Kong se sont fait escroquer en transférant quelque 25 millions de dollars au cours d'un appel vidéo sur Microsoft Teams.

Arup a perdu 25 millions de dollars dans une arnaque de deepfake vidéoconférence à Hong Kong
Un groupe d'ingénierie basé au Royaume-Uni a été identifié comme la cible d'une fraude utilisant un clone numérique du directeur financier pour tromper le personnel

Selon le South China Morning Post, tous les participants à l'appel étaient des simulations d'IA qui imitaient la voix et l'apparence du directeur financier britannique et d'autres collègues.

clonage vocal : une technologie de plus en plus accessible

La technologie qui sous-tend le clonage vocal réaliste est de plus en plus accessible et ne nécessite que très peu de données vocales pour fonctionner.ElevenLabs permettent aux utilisateurs de créer des clones de voix réalistes à partir d'un enregistrement de moins de 60 secondes.

Selon une institution financière britannique, plus de 25 % des adultes au Royaume-Uni ont eu affaire à des escroqueries basées sur des voix clonées au cours de la seule année dernière.

Les cyberattaques Deepfake pilotées par l'IA : une menace croissante pour 2025 et au-delà
Les cyberattaques pilotées par l'IA seront de plus en plus nombreuses en 2025. Découvrez comment CyFlare protège les secteurs de la santé et de la finance grâce à des solutions avancées.

Des rapports de CyFlare montrent que les API de clonage de voix peuvent être achetées sur des places de marché du darknet pour un prix aussi bas que 5$. Les modèles commerciaux incluent généralement un filigrane et nécessitent un consentement, tandis que les modèles open-source ou illégaux n'offrent aucune protection.

L'UE exige des étiquettes explicites pour les deepfakes, mais la législation n'arrivera qu'en 2026

Le règlement de l'UE sur l'intelligence artificielle, adopté en mars 2024, exige que tout contenu de deepfake visible publiquement soit clairement étiqueté.
Cependant, la mise en œuvre complète du règlement n'est prévue que pour 2026, ce qui laisse une importante période de vulnérabilité.

Article 50 : Obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d'IA | Loi européenne sur l'intelligence artificielle

En attendant, les fabricants de matériel commencent à incorporer des systèmes de détection dans les appareils grand public.Mobile World Congress 2025 à Barcelone, des outils capables de détecter des manipulations audio et vidéo en temps réel intégrées dans les appareils eux-mêmes ont été dévoilés - une étape possible vers des solutions autonomes de vérification de l'authenticité, bien qu'encore loin d'une distribution commerciale.

Par Hamza Ahmed Photo de profil Hamza Ahmed
Mise à jour le
AI Crypto Arnaques
Consent Preferences