lunedì, 29 aprile 2024

Cyber Security

Cyber Security

Cybercrime, truffe ed estorsioni con Intelligenza artificiale e machine learning

19/09/2023

Intelligenza artificiale e machine learning impiegate per compiere truffe, estorsioni e “rapimenti virtuali”: è questa la nuova frontiera del crimine informatico.

Data la diffusione del fenomeno, negli Stati Uniti, l’FBI ha ritenuto di spiegare il modo in cui viene utilizzata la tecnologia deepfake per manipolare foto e video innocui e convertirli in redditizi schemi di sextortion. Da parte della Federal Trade Commission è stato stimato che le perdite causate da queste attività illecite siano state equivalenti a 2,6 miliardi di dollari nel 2022.

Alcune recenti ricerche evidenziano come una truffa comune preveda l’utilizzo di file vocali falsi generati dall’intelligenza artificiale - conosciuti come audio deepfake - che possono essere creati servendosi di anche minime informazioni biometriche raccolte da contenuti personali pubblicati in fonti pubbliche come TikTok, Facebook, Instagram e altre piattaforme social, inclusi i portali governativi. 

A elaborare la biometria vocale sono strumenti di intelligenza artificiale come VoiceLab; in questo modo si dà vita a un vocale deepfake che riproduce in modo esatto la voce di una determinata persona. Il processo, definito anche "clonazione vocale", si verifica quando la biometria vocale è utilizzata per commettere atti illeciti come estorsioni o frodi.

Alle luce di uno studio dell’University College di Londra, che chiarito come le persone possono riconoscere il parlato generato artificialmente solo il 73% delle volte, gli scienziati temono che governi e criminali informatici possano iniziare ad abusare di queste nuove funzionalità. 

(Fonte testo: www.key4biz)



Tutte le news