L'Intelligenza artificiale sfruttata per clonare la voce di personaggi celebri, da parte di criminali informatici il cui obiettivo è truffare i consumatori: è una tendenza in rapido aumento a cui si riferisce una recentissima ricerca di Bitdefender.
Tra le star che, a loro insaputa, sono state coinvolte in questa campagna figurano Oprah Winfrey, Elon Musk, Jennifer Aniston, Tiger Woods, Hulk Hogan, lo youtuber Mr. Beast e molti altri. Le loro voci vengono utilizzate per sponsorizzare falsi concorsi, giochi d'azzardo e finte opportunità di investimento. Le truffe sfruttano l'immagine (e la voce) di questi personaggi pubblici per promuovere beni costosi in omaggio di marchi rinomati.
Per rendere questi schemi ancora più credibili, i truffatori hanno anche creato siti web simili a quelli di quotidiani conosciuti come, per esempio, quello del The New York Times.
Alcuni risultati dell'indagine
• L’analisi di Bitdefender stima che queste truffe di clonazione vocale abbiano preso di mira almeno 1 milione di utenti negli Stati Uniti e in Europa (Romania, Francia, Austria, Belgio, Portogallo, Spagna, Polonia, Svezia, Danimarca, Cipro e Paesi Bassi, tra gli altri). Uno degli annunci ha raggiunto 100.000 utenti ed è stato attivo per alcuni giorni. Le truffe di clonazione vocale non si circoscrivono alle zone geografiche citate, il fenomeno è infatti in rapida espansione a livello globale.
• Le truffe di clonazione vocale sponsorizzate dalle star sono presenti sulle piattaforme Meta, tra cui Facebook, Instagram, Audience Network e Messenger, e si rivolgono alla fascia di età compresa tra i 18 e i 65 anni.
• Come per la maggior parte delle truffe online, lo scopo principale è quello di rubare denaro, credenziali e informazioni personali.
• Tutti i video di clonazione vocale analizzati seguono la stessa narrazione: chi guarda il video fa parte di un "gruppo esclusivo di 10.000 individui" che possono acquistare prodotti esclusivi a fronte di un modesto pagamento che parte da 2 dollari (a seconda dell'annuncio/prodotto).
In che modo proteggersi
L'evoluzione di queste truffe è tapida e diventa sempre più difficile da individuarle man mano che l'intelligenza artificiale progredisce. Bitdefender consiglia ai consumatori di diffidare delle offerte troppo allettanti, anche se per sponsorizzarle vengono utilizzate celebrità come testimonial.
Altre raccomandazioni specifiche da tenere presente:
- Prestare attenzione alla qualità della voce. Alcune voci clonate potrebbero avere toni insoliti, essere statiche o presentare incoerenze nel modo di parlare.
- Rumori di fondo e artefatti: sebbene la clonazione vocale di alta qualità riduca al minimo i rumori di fondo, potrebbero comunque essere presenti: il suggerimento è quindi quello di ascoltare attentamente se ci sono rumori di fondo insoliti o artefatti digitali.
- Diffidare di richieste insolite, come possono esserlo quelle di informazioni personali o denaro, o domande inconsuete. L’obiettivo delle truffe con clonazione vocale è rubare denaro, quindi è opportuno cercare di verificare gli annunci e i video che promettono considerevoli ritorni sugli investimenti.
maggiori informazioni su:
www.bitfender.com
Necessità e approcci per l'innovazione nelle infrastrutture critiche della città futura
Tecnologia, applicazioni reali, impatto privacy, intelligenza artificiale
videosorveglianza, protezione dei dati e cybersecurity nell'ecosistema urbano di una smart city
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarLa cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Scenari, tecnologia e formazione sulla sicurezza in formato audio
Un'immersione a 360 gradi nella realtà dell'azienda