Bloomberg ha riportato una storia il 26 luglio che ha scosso i media e allertato le aziende di tutto il mondo sulla minaccia delle frodi deepfake basate sull'intelligenza artificiale. La storia ha descritto come un dirigente di alto livello della Ferrari sia quasi caduto vittima di una sofisticata truffa deepfake in cui un chiamante è stato in grado di replicare la voce di Benedetto Vigna, CEO della Ferrari. Con le aziende globali pronte a perdere milioni, questa notizia ha sottolineato l'importanza di implementare software e protocolli avanzati di verifica dell'identità in tutte le operazioni.
Frode deepfake e il caso studio della Ferrari: cosa è successo?
Un martedì mattina come tanti altri, un dirigente di alto livello della Ferrari ha iniziato a ricevere diversi messaggi di testo che apparentemente provenivano dall'amministratore delegato Benedetto Vigna. I messaggi provenivano da un numero insolito. Uno dei messaggi diceva: "Ehi, hai sentito della grande acquisizione che stiamo pianificando? Potrei aver bisogno del tuo aiuto".
L'imitatore ha poi dichiarato che avrebbe avuto bisogno che il dirigente "fosse pronto a firmare l'accordo di riservatezza che il nostro avvocato è pronto a inviarti il prima possibile". Ha continuato, "L'autorità di regolamentazione del mercato italiano e la borsa di Milano sono già stati informati. Restate pronti e si prega di usare la massima discrezione."
Sebbene questi messaggi possano non sembrare convincenti, la chiamata vocale che seguì fu molto più ingannevole. I truffatori riuscirono a replicare la voce di Vigna, poiché l'imitazione riecheggiava perfettamente l'accento e il tono di voce italiani di Vigna.
L'imitatore ha tentato di spiegare perché in realtà stava chiamando da un numero di telefono diverso, poiché la natura della conversazione era estremamente riservata, con potenziali ripercussioni per la Cina e richiedeva l'esecuzione di una transazione di copertura valutaria non specificata.
“Mi dispiace, Benedetto, ma Ho bisogno di identificarti,” ha detto il dirigente. Ha fatto una domanda: “Qual era il titolo del libro che hai consigliato qualche giorno fa?”
Dopo questa domanda di verifica, il truffatore ha rinunciato rapidamente allo schema e ha chiuso la chiamata. L'incidente ha poi portato a un'indagine interna alla Ferrari, ma i rappresentanti hanno deciso di non commentare la questione.
Come la frode Deepfake si infiltra nelle aziende
Sebbene questo caso sia allarmante, non è certamente il primo del suo genere. I deepfake stanno aumentando la loro portata da diversi anni ormai, con il numero di video deepfake online in aumento da 550% dal 2019 al 2023.
Sorprendentemente oltre un terzo delle aziende negli Stati Uniti si è verificato un incidente di sicurezza deepfake negli ultimi 12 mesi.
A maggio, i notiziari hanno riferito che il CEO della società pubblicitaria WPP Plc, Mark Read, è stato preso di mira in una truffa molto simile. Un elaborato deepfake è stato utilizzato per imitare il CEO in una chiamata di Microsoft Teams. Man mano che queste truffe basate sull'intelligenza artificiale diventano più accurate, diventa più facile per i team diventarne vittime e rischiare di perdere milioni.
Stefano Zanero, professore di Cybersecurity al Politecnico di Milano, ha dichiarato in un'intervista alla rivista Fortune che,
"È solo questione di tempo e si prevede che questi sofisticati strumenti di deepfake basati sull'intelligenza artificiale diventeranno incredibilmente accurati".
Lo scenario più probabile oggi per Gli autori delle minacce utilizzano i deepfake nei tentativi di compromissione della posta elettronica aziendale (BEC). Gli aggressori possono quindi utilizzare la tecnologia di clonazione vocale e video basata sull'intelligenza artificiale per indurre i destinatari a effettuare trasferimenti di fondi aziendali.
Sfortunatamente, molte aziende sono già state vittime di questo tipo di truffe. Un esempio è stato segnalato dal South China Morning Post a febbraio, dopo che i truffatori hanno ingannato i dipendenti usando deepfake e un'azienda senza nome ha dovuto affrontare un perdita di HK$200 milioni ($26 milioni di USD).
Reazioni ai deepfake in tutto il mondo
Nel Regno Unito, la condivisione di deepfake è stata resa illegale ai sensi dell'Online Safety Act, approvato l'anno scorso. Questa decisione è stata presa a causa della creazione diffusa di deepfake sessualmente espliciti.
L'UE ha pubblicato l'EU AI Act, adottato dal Parlamento europeo il 13 marzo 2024, che affronta specificamente il modo in cui i deepfake dovrebbero essere regolamentati nell'UE, affermando: "Gli utenti di un sistema di intelligenza artificiale che genera o manipola contenuti di immagini, audio o video che assomigliano in modo apprezzabile a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente a una persona come autentici o veritieri ("deep fake"), deve rivelare che il contenuto è stato generato artificialmente o manipolati."
Sebbene i deepfake non siano vietati nell'UE, l'AI Office sta preparando codici di condotta che forniranno ulteriori consigli sulla classificazione dei deepfake. Se il Regno Unito seguirà o meno questa iniziativa è ancora da vedere, tuttavia le risposte al Whitepaper sull'IA del governo hanno spinto per una maggiore trasparenza.
La Cina ha adottato normative specifiche per colpire direttamente i deepfake dopo diversi scandali importanti, portando al bando dell'app deepfake ZAO dagli app store. Ciò contrasta nettamente con la posizione degli Stati Uniti sulla regolamentazione dell'intelligenza artificiale, senza leggi federali in merito alla creazione o alla condivisione di deepfake. Tuttavia, il cambiamento potrebbe essere dietro l'angolo, con progetti di legge come quello del Senato degli Stati Uniti Legge NO FAKES viene proposto.
Perché dobbiamo agire ora
Nonostante il fatto che truffe come questa siano ampiamente pubblicizzate online, molte organizzazioni rimangono ignare della minaccia di attacchi fraudolenti basati sull'intelligenza artificiale. Tuttavia, esistono tecnologie in grado di identificare queste forme di deepfake e ogni azienda deve sfruttarle.
Verifica dell'identità biometrica (IDV) software con rilevamento della vitalità esamina i tratti del viso e le espressioni impercettibili nelle immagini o nei video, analizzando se mostrano segni di vita. I deepfake possono quindi essere individuati, ma non sono ancora sufficienti le organizzazioni che sfruttano queste tecnologie.
Vantaggi dell'eKYC basato sull'intelligenza artificiale per le aziende
Le soluzioni eKYC che sfruttano l'intelligenza artificiale sono necessarie per proteggere le organizzazioni. Ci sono stati molti casi di deepfake che hanno aggirato i metodi di verifica dell'identità, portando i truffatori a riuscire a infiltrarsi in tutti i tipi di attività.
Nel 2019, un video deep-fake è stato utilizzato per truffare un CEO cablare $243.000 su un conto bancario. Allo stesso modo, nel 2021, una banda criminale ha utilizzato i deepfake per aggirare l’autenticazione eKYC e accedere a conti bancari contenenti milioni di dollari.
Nel 2019, un video deepfake ha ingannato un CEO inducendolo a inviare $243.000 a un conto bancario. Analogamente, nel 2021, una banda di criminali ha aggirato l'autenticazione eKYC con video e immagini deepfake, accedendo a conti bancari contenenti milioni di dollari. Di conseguenza, molte aziende hanno preso coscienza della necessità di investire in tecnologie di intelligenza artificiale avanzate per rilevare e impedire che i deepfake vengano utilizzati nei processi di autenticazione. eKYC può offrire:
- Soluzioni su misura: Flussi di lavoro automatici che possono essere altamente personalizzati per soddisfare diversi requisiti di conformità. Utilizzando le tecnologie di apprendimento automatico, le soluzioni eKYC possono semplificare l'estrazione dei dati fornendo allo stesso tempo un'esperienza di onboarding fluida per l'utente.
- Onboarding semplificato: L'implementazione di un solido processo eKYC ti consente di verificare i clienti in modo rapido ed efficiente, consentendo alle organizzazioni di crescere in sicurezza.
- Sicurezza avanzata: eKYC è molto più efficace nel proteggere le organizzazioni dalle frodi sull’identità e dalla criminalità finanziaria. L’uso della verifica biometrica avanzata, nonché del rilevamento delle frodi basato sull’intelligenza artificiale, consente alle organizzazioni di ridurre al minimo il rischio di frode.
- Esperienza del cliente migliorata: Il processo di onboarding semplificato si traduce anche in un'esperienza utente più positiva, riducendo gli attriti e aumentando la soddisfazione del cliente.
- Portata globale: Le soluzioni eKYC consentono alle aziende di operare a livello globale, verificando rapidamente molti clienti e supportando più lingue e varie normative internazionali.
eKYC con ComplyCube
ComplyCube è una piattaforma all-in-one RegTech100 per automatizzare la conformità di verifica dell'identità (IDV), antiriciclaggio (AML) e Know-Your-Customer (KYC). Ha clienti globali nei settori legale, delle telecomunicazioni, dei servizi finanziari, della sanità, dell'e-commerce, delle criptovalute, dei viaggi e altro ancora.
La nostra suite completa di soluzioni KYC/AML basate sull'intelligenza artificiale, potenziate con flussi di lavoro automatici, è altamente personalizzata per soddisfare i requisiti di conformità dei nostri clienti. Utilizzando tecnologie di apprendimento automatico sviluppate e di proprietà del nostro team, le nostre soluzioni semplificano l'estrazione dei dati fornendo al contempo un'esperienza di onboarding fluida per l'utente.
Contatto il nostro team di esperti Oggi.