Deepfake AI imite le CZ de Binance de manière troublante
CZ, ancien PDG de Binance, n'a pas reconnu une vidéo deepfake avec sa propre voix. L'intelligence artificielle reproduit les visages et les sons avec une précision dangereuse.
CZ, ancien PDG de Binance, n'a pas reconnu une vidéo deepfake avec sa propre voix. L'intelligence artificielle reproduit les visages et les sons avec une précision dangereuse.

Recevez les dernières nouvelles, apprenez des experts, découvrez de nouveaux outils et trouvez l'inspiration directement dans votre boîte de réception.
Pas de spam. Se désabonner à tout moment.
Un documentaire sur la façon dont le Bitcoin et la blockchain redessinent la finance mondiale et la géopolitique.
L'ancien PDG de Binance, Changpeng "CZ" Zhao, a raconté une expérience étonnante avec une vidéo qui imitait parfaitement sa voix grâce à la technologie de l'IA.
Zhao révèle dans un post posté jeudi que le doublage en mandarin de la vidéo était indiscernable de sa voix réelle en raison de l'extrême précision de la reproduction.
La vidéo, dans laquelle Zhao apparaît parlant chinois dans un montage de clips et d'images créés avec l'intelligence artificielle, a soulevé de vives inquiétudes quant à l'utilisation non autorisée de l'IA pour usurper l'identité de personnalités publiques. CZ a qualifié la précision de la voix et la synchronisation des lèvres de "troublantes".
La duplication numérique des dirigeants de l'industrie des crypto-monnaies via des outils d'IA générative est en hausse, et ce cas est un exemple clair d'usurpation d'identité malveillante.
Après avoir quitté son poste de PDG de Binance en 2023, Zhao a continué à être influent dans l'industrie des crypto-monnaies et avait déjà mis en garde le public contre les risques des deepfakes.
Dans le mois d'octobre 2024, Zhao avait émis un avertissement spécifique : ne pas faire confiance aux vidéos demandant des transferts de crypto-monnaies, en raison de la propagation de contenus manipulés le mettant en scène.
Les deepfakes représentent des risques opérationnels de plus en plus graves pour le secteur des crypto-monnaies
La dernière expérience de Zhao montre comment les méthodes d'usurpation d'identité évoluent de simples escroqueries textuelles ou par images statiques vers des simulations audiovisuelles sophistiquées.
Patrick Hillmann, ancien directeur de la communication de Binance, told en 2023 que des escrocs avaient créé une deepfake vidéo pour se faire passer pour lui lors d'une réunion Zoom avec des représentants du projet.
La vidéo avait été générée en rassemblant des années de ses interviews publiques et de son contenu en ligne, rendant la réunion fictive aussi crédible qu'un véritable appel officiel de Binance.
Aujourd'hui, les technologies avancées de clonage de voix permettent d'imiter une personne si bien que même l'original ne peut pas reconnaître le faux. Cela représente un danger qui va bien au-delà de l'usurpation d'identité sur les réseaux sociaux.
A Million Dollar Scam Montre les risques concrets des deepfakes
Un incident survenu en février met en évidence les risques financiers graves des deepfakes : des employés d'Arup à Hong Kong se sont fait escroquer en transférant quelque 25 millions de dollars au cours d'un appel vidéo sur Microsoft Teams.
Selon le South China Morning Post, tous les participants à l'appel étaient des simulations d'IA qui imitaient la voix et l'apparence du directeur financier britannique et d'autres collègues.
clonage vocal : une technologie de plus en plus accessible
La technologie qui sous-tend le clonage vocal réaliste est de plus en plus accessible et ne nécessite que très peu de données vocales pour fonctionner.ElevenLabs permettent aux utilisateurs de créer des clones de voix réalistes à partir d'un enregistrement de moins de 60 secondes.
Selon une institution financière britannique, plus de 25 % des adultes au Royaume-Uni ont eu affaire à des escroqueries basées sur des voix clonées au cours de la seule année dernière.
Des rapports de CyFlare montrent que les API de clonage de voix peuvent être achetées sur des places de marché du darknet pour un prix aussi bas que 5$. Les modèles commerciaux incluent généralement un filigrane et nécessitent un consentement, tandis que les modèles open-source ou illégaux n'offrent aucune protection.
L'UE exige des étiquettes explicites pour les deepfakes, mais la législation n'arrivera qu'en 2026
Le règlement de l'UE sur l'intelligence artificielle, adopté en mars 2024, exige que tout contenu de deepfake visible publiquement soit clairement étiqueté.
Cependant, la mise en œuvre complète du règlement n'est prévue que pour 2026, ce qui laisse une importante période de vulnérabilité.
En attendant, les fabricants de matériel commencent à incorporer des systèmes de détection dans les appareils grand public.Mobile World Congress 2025 à Barcelone, des outils capables de détecter des manipulations audio et vidéo en temps réel intégrées dans les appareils eux-mêmes ont été dévoilés - une étape possible vers des solutions autonomes de vérification de l'authenticité, bien qu'encore loin d'une distribution commerciale.
Signez pour Spaziocrypto®
Pas de spam. Désabonnez-vous à tout moment.
Lire la suite
Les mineurs de bitcoins dans la veine de l'IA : un rallye tiré par l'infrastructure
Les actions des mineurs de bitcoins tels que BitMine et Cipher Mining ont grimpé en flèche après l'annonce par Amazon d'un investissement colossal dans l'infrastructure de l'IA. Les mineurs se repositionnent en tant que partenaires énergétiques clés.
Le réseau Pi entre progrès technique et frustration du réseau principal : le prix chute de 10%.
L'équipe Pi Core a publié la mise à jour 0.5.4, mais les progrès techniques contrastent fortement avec la réalité de la chaîne. La faible activité du Mainnet et la vente du gagnant du hackathon WorkforcePool signalent de sérieux problèmes.
DeepSeek Chat V3.1 domine le marché des crypto-monnaies avec un rendement de 35 % en trois jours
Lors d'un challenge de trading en direct, DeepSeek Chat V3.1 a surpassé tous les modèles d'IA et de Bitcoin, augmentant de $35%$ en seulement trois jours. Découvrez la stratégie gagnante et les échecs des autres concurrents.
La BCE choisit une start-up spécialisée dans l'IA pour prévenir la fraude à l'euro numérique
La BCE a sélectionné une entreprise portugaise spécialisée dans l'intelligence artificielle pour développer des systèmes de protection contre la fraude dans le cadre d'une initiative visant à protéger la future monnaie numérique de la banque centrale.