Il riconoscimento facciale è sempre più utilizzato in numerosi contesti, dai gate aeroportuali ai processi di onboarding bancario. L’idea diffusa è che il volto sia difficile da falsificare e che il confronto tra un volto reale e una fonte attendibile rappresenti un segnale di identità affidabile. Una convinzione che Jake Moore, Global Cybersecurity Advisor di ESET, ha deciso di mettere alla prova con una serie di test pratici che dimostrano come questa tecnologia possa essere sia sfruttata impropriamente sia aggirata.
In uno dei primi esperimenti, Moore ha utilizzato un paio di smart glasses commerciali modificati in grado di identificare le persone in tempo reale. Camminando in uno spazio pubblico, ha acquisito i volti dei passanti e li ha confrontati con dati disponibili online, ottenendo nel giro di pochi secondi nomi e profili social partendo semplicemente da uno sguardo.
Un secondo test ha riguardato il settore dei servizi finanziari. Utilizzando immagini generate dall’intelligenza artificiale e software facilmente reperibili, Moore ha creato il volto di una persona inesistente e lo ha utilizzato per aprire realmente un conto bancario. Il sistema di riconoscimento facciale e la piattaforma eKYC (know your customer) dell’istituto hanno accettato l’identità come autentica. Dopo aver dimostrato la vulnerabilità, Moore ha chiuso il conto e condiviso tutte le informazioni con la banca, che ha successivamente bloccato quella specifica modalità di abuso dell’identità.
In un terzo scenario, Moore ha inserito il proprio volto in una watchlist di un sistema di riconoscimento facciale utilizzato in una trafficata stazione ferroviaria di Londra. Attraversando l’area monitorata ha utilizzato un software di face swap in tempo reale che sovrapponeva il volto di Tom Cruise al proprio nel flusso video delle telecamere. Il sistema, utilizzato anche dalla polizia britannica, non lo ha mai riconosciuto né segnalato: per le telecamere era come se non fosse presente e chiunque lo avesse cercato tramite CCTV avrebbe visto l’attore al suo posto.
Gli esperimenti evidenziano come molti sistemi di riconoscimento facciale vengano implementati con un livello di fiducia che non sempre corrisponde alla loro reale capacità di resistere a tentativi di manipolazione. Anche utilizzando hardware consumer e software facilmente disponibili, come nel caso delle prove condotte da Moore, è possibile compromettere meccanismi di verifica dell’identità basati esclusivamente sul confronto del volto.
Per questo, secondo Moore, i sistemi di riconoscimento facciale e di verifica dell’identità dovrebbero essere testati anche in scenari di attacco simulato e in condizioni avverse, per valutarne la reale robustezza quando qualcuno tenta deliberatamente di aggirarli.
Jake Moore mostrerà nel dettaglio questi esperimenti durante RSA Conference 2026, dal 23 al 26 Marzo.
La cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarScenari, tecnologia e formazione sulla sicurezza in formato audio