
Deepfake AI imite le CZ de Binance de manière troublante
CZ, ancien PDG de Binance, n'a pas reconnu une vidéo deepfake avec sa propre voix. L'intelligence artificielle reproduit les visages et les sons avec une précision dangereuse.
CZ, ancien PDG de Binance, n'a pas reconnu une vidéo deepfake avec sa propre voix. L'intelligence artificielle reproduit les visages et les sons avec une précision dangereuse.
Recevez les dernières nouvelles, apprenez des experts, découvrez de nouveaux outils et trouvez l'inspiration directement dans votre boîte de réception.
Pas de spam. Se désabonner à tout moment.
L'ancien PDG de Binance, Changpeng "CZ" Zhao, a raconté une expérience étonnante avec une vidéo qui imitait parfaitement sa voix grâce à la technologie de l'IA.
Zhao révèle dans un post posté jeudi que le doublage en mandarin de la vidéo était indiscernable de sa voix réelle en raison de l'extrême précision de la reproduction.
La vidéo, dans laquelle Zhao apparaît parlant chinois dans un montage de clips et d'images créés avec l'intelligence artificielle, a soulevé de vives inquiétudes quant à l'utilisation non autorisée de l'IA pour usurper l'identité de personnalités publiques. CZ a qualifié la précision de la voix et la synchronisation des lèvres de "troublantes".
La duplication numérique des dirigeants de l'industrie des crypto-monnaies via des outils d'IA générative est en hausse, et ce cas est un exemple clair d'usurpation d'identité malveillante.
Après avoir quitté son poste de PDG de Binance en 2023, Zhao a continué à être influent dans l'industrie des crypto-monnaies et avait déjà mis en garde le public contre les risques des deepfakes.
Dans le mois d'octobre 2024, Zhao avait émis un avertissement spécifique : ne pas faire confiance aux vidéos demandant des transferts de crypto-monnaies, en raison de la propagation de contenus manipulés le mettant en scène.
Les deepfakes représentent des risques opérationnels de plus en plus graves pour le secteur des crypto-monnaies
La dernière expérience de Zhao montre comment les méthodes d'usurpation d'identité évoluent de simples escroqueries textuelles ou par images statiques vers des simulations audiovisuelles sophistiquées.
Patrick Hillmann, ancien directeur de la communication de Binance, told en 2023 que des escrocs avaient créé une deepfake vidéo pour se faire passer pour lui lors d'une réunion Zoom avec des représentants du projet.
La vidéo avait été générée en rassemblant des années de ses interviews publiques et de son contenu en ligne, rendant la réunion fictive aussi crédible qu'un véritable appel officiel de Binance.
Aujourd'hui, les technologies avancées de clonage de voix permettent d'imiter une personne si bien que même l'original ne peut pas reconnaître le faux. Cela représente un danger qui va bien au-delà de l'usurpation d'identité sur les réseaux sociaux.
A Million Dollar Scam Montre les risques concrets des deepfakes
Un incident survenu en février met en évidence les risques financiers graves des deepfakes : des employés d'Arup à Hong Kong se sont fait escroquer en transférant quelque 25 millions de dollars au cours d'un appel vidéo sur Microsoft Teams.
Selon le South China Morning Post, tous les participants à l'appel étaient des simulations d'IA qui imitaient la voix et l'apparence du directeur financier britannique et d'autres collègues.
clonage vocal : une technologie de plus en plus accessible
La technologie qui sous-tend le clonage vocal réaliste est de plus en plus accessible et ne nécessite que très peu de données vocales pour fonctionner.ElevenLabs permettent aux utilisateurs de créer des clones de voix réalistes à partir d'un enregistrement de moins de 60 secondes.
Selon une institution financière britannique, plus de 25 % des adultes au Royaume-Uni ont eu affaire à des escroqueries basées sur des voix clonées au cours de la seule année dernière.
Des rapports de CyFlare montrent que les API de clonage de voix peuvent être achetées sur des places de marché du darknet pour un prix aussi bas que 5$. Les modèles commerciaux incluent généralement un filigrane et nécessitent un consentement, tandis que les modèles open-source ou illégaux n'offrent aucune protection.
L'UE exige des étiquettes explicites pour les deepfakes, mais la législation n'arrivera qu'en 2026
Le règlement de l'UE sur l'intelligence artificielle, adopté en mars 2024, exige que tout contenu de deepfake visible publiquement soit clairement étiqueté.
Cependant, la mise en œuvre complète du règlement n'est prévue que pour 2026, ce qui laisse une importante période de vulnérabilité.
En attendant, les fabricants de matériel commencent à incorporer des systèmes de détection dans les appareils grand public.Mobile World Congress 2025 à Barcelone, des outils capables de détecter des manipulations audio et vidéo en temps réel intégrées dans les appareils eux-mêmes ont été dévoilés - une étape possible vers des solutions autonomes de vérification de l'authenticité, bien qu'encore loin d'une distribution commerciale.
Signez pour Spaziocrypto®
Pas de spam. Désabonnez-vous à tout moment.
Lire la suite
Les données des utilisateurs de crypto-monnaies vendues sur le Dark Web : un risque élevé
Les données sensibles des utilisateurs de Ledger, Gemini et Robinhood sont mises en vente sur le dark web. La sécurité des cryptomonnaies suscite de plus en plus d'inquiétudes.
Nouvelle tendance : le token GHIBLI est listé sur différentes bourses
Le jeton GHIBLI, inspiré du Studio Ghibli, gagne en popularité avec des inscriptions sur Gate.io, BingX et d'autres plateformes. Croissance de 20% en 24h.
Chatbot Grok Lance un Token via Bankr et Récolte $270K
Chatbot Grok lance son jeton via Bankr, levant 270K$. Une étape importante dans l'intégration de l'IA et de la blockchain.
Arnaque Crypto DeepSeek : La Chine Alerte
Les autorités chinoises mettent en garde contre un groupe criminel qui utilise le nom de DeepSeek pour escroquer les investisseurs au moyen de fausses plateformes et d'applications infectées.