Le 26 juillet, Bloomberg a publié un article qui a secoué les médias et alerté les entreprises du monde entier sur la menace d'une fraude deepfake alimentée par l'IA. L'article décrit comment un cadre de haut rang de Ferrari a failli être victime d'une arnaque deepfake sophistiquée dans laquelle un appelant a pu reproduire la voix de Benedetto Vigna, le PDG de Ferrari. Alors que les entreprises mondiales risquent de perdre des millions, cette nouvelle a souligné l'importance de mettre en œuvre des logiciels et des protocoles avancés de vérification d'identité dans toutes les opérations.
Fraude Deepfake et étude de cas Ferrari : que s’est-il passé ?
Un mardi matin comme tous les autres, un cadre supérieur de Ferrari a commencé à recevoir plusieurs SMS qui semblaient provenir du PDG Benedetto Vigna. Les messages provenaient d'un numéro inhabituel. L'un d'eux disait : « Hé, avez-vous entendu parler de la grande acquisition que nous prévoyons ? J'aurais besoin de votre aide. »
L'usurpateur a ensuite déclaré qu'il aurait besoin que le dirigeant « soit prêt à signer l'accord de non-divulgation que notre avocat est prêt à vous envoyer dès que possible ». Il a poursuivi : « Le régulateur du marché italien et la bourse de Milan ont déjà été informés. Restez prêt et S'il vous plaît, la plus grande discrétion.»
Si ces messages ne semblent pas convaincants, l'appel vocal qui a suivi était bien plus trompeur. Les fraudeurs ont réussi à imiter la voix de Vigna, car l'imitation reprenait parfaitement l'accent et le ton de la voix italiens de Vigna.
L'usurpateur a tenté d'expliquer pourquoi il appelait en fait depuis un autre numéro de téléphone, car la nature de la conversation était incroyablement confidentielle, avec des répercussions potentielles pour la Chine et nécessitant une transaction de couverture de change non spécifiée.
«Désolé, Benedetto, mais J'ai besoin de t'identifier", a déclaré le responsable. Il a posé une question : "Quel était le titre du livre que vous m'avez recommandé il y a quelques jours ?"
Après cette question de vérification, l'escroc a rapidement abandonné la fraude et a mis fin à l'appel. L'incident a ensuite donné lieu à une enquête interne au sein de Ferrari, mais les représentants ont décidé de ne pas commenter l'affaire.
Comment la fraude Deepfake s'infiltre dans les entreprises
Bien que ce cas soit alarmant, il n'est certainement pas le premier du genre. Les deepfakes ont augmenté leur portée depuis plusieurs années maintenant, avec le nombre croissant de vidéos deepfake en ligne par 550% de 2019 à 2023.
Étonnamment plus d'un tiers des entreprises à travers les États-Unis ont connu un incident de sécurité deepfake au cours des 12 derniers mois.
En mai, les médias ont rapporté que le PDG de la société de publicité WPP Plc, Mark Read, avait été la cible d’une arnaque très similaire. Un deepfake élaboré a été utilisé pour imiter le PDG lors d’un appel Microsoft Teams. À mesure que ces escroqueries alimentées par l’IA deviennent plus précises, il devient plus facile pour les équipes d’en devenir les victimes et de risquer de perdre des millions.
Stefano Zanero, professeur de cybersécurité au Politecnico di Milano en Italie, a déclaré dans une interview au magazine Fortune que,
« Ce n’est qu’une question de temps et ces outils sophistiqués de deepfake basés sur l’IA devraient devenir incroyablement précis. »
Le scénario le plus probable aujourd'hui pour Les acteurs malveillants qui utilisent des deepfakes tentent de compromettre les e-mails professionnels (BEC). Les attaquants peuvent ensuite utiliser une technologie de clonage vocal et vidéo basée sur l’IA pour inciter les destinataires à effectuer des transferts de fonds d’entreprise.
Malheureusement, de nombreuses entreprises ont déjà été victimes de ce type d'escroqueries. Un exemple a été rapporté par le South China Morning Post en février après que des escrocs ont trompé des employés en utilisant des deepfakes, et une entreprise anonyme a fait face à une amende de 100 000 dollars. perte de HK$200 millions ($26 millions USD).
Réactions aux deepfakes dans le monde entier
Au Royaume-Uni, le partage de deepfakes est devenu illégal en vertu de la loi sur la sécurité en ligne, adoptée l'année dernière. Cette décision a été prise en raison de la création généralisée de deepfakes sexuellement explicites.
L'UE a publié la loi sur l'IA de l'UE, adoptée par le Parlement européen le 13 mars 2024, qui traite spécifiquement de la manière dont les deepfakes devraient être réglementés dans l'UE, en stipulant : « Les utilisateurs d'un système d'IA qui génère ou manipule des images, du contenu audio ou vidéo qui ressemble sensiblement à des personnes, des objets, des lieux ou d'autres entités ou événements existants et qui apparaîtraient faussement à une personne comme étant authentique ou véridique (« deep fake »), doit divulguer que le contenu a été généré artificiellement ou manipulés.
Bien que les deepfakes ne soient pas interdits dans l'UE, le Bureau de l'IA prépare des codes de pratique qui fourniront des conseils supplémentaires sur la classification des deepfakes. On ne sait pas encore si le Royaume-Uni suivra cette initiative ou non, mais les réponses au livre blanc du gouvernement sur l'IA ont poussé à une plus grande transparence.
La Chine a adopté une réglementation spécifique pour cibler directement les deepfakes après plusieurs scandales majeurs, ce qui a conduit à l'interdiction de l'application deepfake ZAO des magasins d'applications. Cela contraste fortement avec la position des États-Unis sur la réglementation de l'IA, sans aucune loi fédérale concernant la création ou le partage de deepfakes. Pourtant, un changement pourrait être à l'ordre du jour, avec des projets de loi tels que le projet de loi du Sénat américain Loi NO FAKES proposé.
Pourquoi nous devons agir maintenant
Malgré le fait que des escroqueries comme celle-ci soient largement médiatisées en ligne, de nombreuses organisations restent inconscientes de la menace des attaques frauduleuses alimentées par l’IA. Cependant, il existe des technologies capables d’identifier ces formes de deepfakes, et chaque entreprise doit les exploiter.
Vérification d'identité biométrique (IDV) Les logiciels de détection de vie examinent les traits du visage et les expressions subtiles des images ou des vidéos, analysant si elles présentent des signes de vie. Les deepfakes peuvent donc être repérés, mais trop peu d'organisations exploitent ces technologies.
Avantages de l'eKYC basé sur l'IA pour les entreprises
Les solutions eKYC qui exploitent l’IA sont nécessaires pour protéger les organisations. De nombreux cas de deepfakes contournant les méthodes de vérification d’identité ont été recensés, ce qui a permis à des escrocs d’infiltrer toutes sortes d’entreprises.
En 2019, une vidéo deep-fake a été utilisée pour escroquer un PDG. virement $243 000 sur un compte bancaire. De même, en 2021, un gang criminel a utilisé des deepfakes pour contourner l’authentification eKYC et accéder à des comptes bancaires contenant des millions de dollars.
En 2019, une vidéo deepfake a incité un PDG à envoyer $243 000 sur un compte bancaire. De même, en 2021, un gang de criminels a contourné l'authentification eKYC avec des vidéos et des images deepfakes, accédant à des comptes bancaires contenant des millions de dollars. En conséquence, de nombreuses entreprises ont pris conscience de la nécessité d'investir dans des technologies d'IA avancées pour détecter et empêcher l'utilisation de deepfakes dans les processus d'authentification. eKYC peut offrir :
- Solutions sur mesure : Des flux de travail automatiques qui peuvent être hautement personnalisés pour répondre à différentes exigences de conformité. Utilisant des technologies d'apprentissage automatique, les solutions eKYC peuvent rationaliser l'extraction de données tout en offrant une expérience d'intégration fluide aux utilisateurs.
- Intégration simplifiée : La mise en œuvre d'un processus eKYC robuste vous permet de vérifier les clients rapidement et efficacement, permettant ainsi aux organisations d'évoluer en toute sécurité.
- Sécurité renforcée: eKYC est bien plus efficace pour protéger les organisations contre la fraude d’identité et la criminalité financière. L'utilisation d'une vérification biométrique avancée, ainsi que d'une détection des fraudes basée sur l'IA, permettent aux organisations de minimiser les risques de fraude.
- Expérience client améliorée : Le processus d'intégration rationalisé se traduit également par une expérience utilisateur plus positive, réduisant les frictions et augmentant la satisfaction des clients.
- Portée mondiale: Les solutions eKYC permettent aux entreprises d'opérer à l'échelle mondiale, en vérifiant rapidement de nombreux clients et en prenant en charge plusieurs langues et diverses réglementations internationales.
eKYC avec ComplyCube
ComplyCube est une plate-forme tout-en-un RegTech100 pour automatiser la conformité à la vérification d'identité (IDV), à la lutte contre le blanchiment d'argent (AML) et à la connaissance du client (KYC). Elle compte des clients mondiaux dans les domaines juridique, des télécommunications, des services financiers, de la santé, du commerce électronique, des cryptomonnaies, des voyages, etc.
Notre suite complète de solutions KYC/AML basées sur l'IA, améliorées par des flux de travail automatiques, est hautement adaptée pour répondre aux exigences de conformité de nos clients. Utilisant des technologies d'apprentissage automatique développées et détenues par notre équipe, nos solutions rationalisent l'extraction de données tout en offrant une expérience d'intégration fluide à l'utilisateur.
Contacter Notre équipe d'experts aujourd'hui.