della Redazione
Lo scenario attuale che riguarda AI e Cybersicurezza trova la propria genesi in una profonda crisi etica e sociale. L’argomento è di quotidiana attualità sospinto da fatti ed episodi, talvolta sconcertanti, che fanno dell’AI ben più di un solo motore di innovazione. Abbiamo fatto una chiacchierata con Luca Moroni, Cyber Risk Manager e Co-Founder di Cyber Security Angels (CSA) - Gruppo di persone d’azienda, come ICT & Security Manager, costituito per creare una rete di conoscenze dirette per risolvere le problematiche nascenti sul fronte Cyber Security - e Founder di Via Virtuosa - Broker di servizi di terza parte in ambito Cybersecurity e IT governance - per capire quanto c’è dietro all’universo AI.
Partiamo da una sua affermazione: “ci sono rischi a livello informatico ma anche in termini etici”. La narrazione dominante sull’AI tende a ignorare un elemento cruciale: il contesto sociale in cui è emersa. Moroni è stato chiaro nell’individuare ciò che si può definire il “dopare” le persone, in particolar modo le nuove generazioni, attraverso dispositivi connessi: questo doping è stato in grado di creare una dipendenza a tutti gli effetti. Ed è in questo terreno fertile che si innesta l’AI, proponendo un modello molto rapido che però svaluta il pensiero critico, suggerendo che “il pensare non è più una cosa utile”. L’intento dell’AI è quello di soddisfare la “debolezza” umana che cerca risposte immediate e semplici, ma ciò alimenta un crescente problema sociale. Non è un caso se nel nostro paese le nuove generazioni – in particolare gli adolescenti – vivono uno stato di ansia e solitudine. Di questi, quasi la metà chiede supporto emotivo all’intelligenza artificiale.
In questo contesto le Big Tech hanno una grandissima responsabilità: le aziende che prima hanno creato la dipendenza dai dispositivi, sono le stesse ad aver puntato poi sul business dei dati. Moroni sottolinea l’enorme sbilanciamento negli investimenti, dove i colossi d’oltreoceano dominano in modo schiacciante, in una corsa per il rientro economico in cui l’etica è spesso molto sacrificata.
La minaccia deepfake e il rischio cessione dati
L’impatto più immediato e tangibile dell’AI nel campo della cybersicurezza è la creazione di artefatti falsificati,in particolare di figure apicali aziendali, che hanno già portato a clamorosi episodi di frode e hanno l’enorme potenziale per crearne delle nuove. La minaccia è così reale che c’è chi, per potersi proteggere, sta considerando di regredire a metodi analogici: per avere la garanzia che l’interlocutore dall’altra parte sia una persona vera bisogna tornare agli antichi pizzini tramite codici o parole d’ordine. Tuttavia, il rischio non si ferma alla singola truffa: la velocità esponenziale con cui l’AI evolve rende la manipolazione dell’opinione pubblica un’arma potentissima. Ciò è ampiamente dimostrato attraverso esempi di notizie manipolate che, ben prima dell’AI, hanno causato impatti politici ed economici.
L’AI Act Europeo: un freno messo a durissima prova
Di fronte a questa sorta di “digitanarchia”, l’UE tenta di porre un argine con l’AI Act. Gli intenti del pacchetto sono molteplici: creare fiducia nel pubblico, favorire un’adozione proficua dell’IA, stimolare l’innovazione e la competitività del Vecchio Continente. L’AI Act, entrato in vigore nel 2024, va a classificare i rischi e vieta esplicitamente alcune pratiche considerate inaccettabili, come la manipolazione cognitivo-comportamentale, il social scoring o sorveglianza massiva e l’uso distorto dell’identificazione biometrica. Una risposta diretta al modello di business delle Big Tech e dei social media, per i quali queste pratiche sono la fonte principale di profitto. Tuttavia, Moroni evidenzia come l’Europa abbia recentemente fatto un “passo indietro” con il cosiddetto Decreto (Digital) Omnibus, che mira a semplificare le norme tecnologiche di GDPR, cybersecurity e AI, ma che piace poco alle Big tech. L’Europa, infatti, subisce pressioni notevoli provenienti da oltreoceano da coloro che mettono sul piatto un’offerta non da pocom come la riduzione dei dazi (sull’acciaio). L’obiettivo di questo possibile cedimento è l’allentamento delle restrizioni legate alla privacy, ossia l’accesso ai dati che riguardano tutte le persone. Queste informazioni devono poter essere date alle società che usano e spingono molto sull’AI. In sostanza, un’apertura all’utilizzo dei dati personali dei cittadini europei sarebbe necessaria per alimentare e istruire i motori AI e ciò varca decisamente i confini di un’adeguata valutazione del rischio.
Etica aziendale
In tutto questo contesto, com’è la situazione a livello aziendale? Di sostanziale stallo, conferma Moroni specificando come la maggior parte delle aziende abbia imposto un blocco all’uso dell’AI perché la panoramica dei rischi non è ancora chiara. Sono poche le realtà che dispongono di una policy sull’AI che risulti definita. Il problema si aggrava sul fronte dell’offerta tecnologica poiché, per molti fornitori, l’AI viene usata per lo più come arma di marketing, ovvero qualcosa di particolarmente “cool”. L’approccio è orientato sulla possibilità di ampliare il business, e quindi acquistare o mettere in azienda l’AI senza porsi troppi dubbi. In questo modo, il fornitore che propone un prodotto basato sull’AI senza effettuare una corretta valutazione dei rischi, sta di fatto violando la legge.
La missione etica del tecnologo
In uno scenario negativo il rischio è quello di una tecnologia talmente progredita che sia in grado di prendere il sopravvento sull’uomo. Ipotesi di questo tipo sono state formulate recentemente da personaggi come Musk o Friedman, i quali hanno collocato un possibile punto di non ritorno attorno al 2027. Quindi? Luca Moroni ribadisce un concetto: non si tratta di essere contro l’AI, ma di essere ben consapevoli dei rischi. Questa è una tematica che esce dal perimetro di un contesto meramente di cyber security e si spinge oltre. Una consapevolezza di questo tipo assume una dimensione etica di vasta portata e, secondo Moroni, diventa una funzione di alerting sui rischi.
Alerting sui rischi
Ed è in questo caso che la cybersicurezza amplia la propria visione: non solo attacchi informatici ma funzioni di controllo e segnalazione da parte di coloro che possiedono le competenze, ovvero agli specialisti di cybersicurezza. Questa è una responsabilità enorme che diventa una vera e propria missione etica: segnalare e allertare società e aziende sui pericoli. In un mondo in cui l’Europa deve operare per bilanciare gli scambi commerciali, e di conseguenza subisce pressioni per negoziare la privacy dei suoi cittadini, l’unica vera difesa resta la diffusione della conoscenza e l’esigenza di riportare l’etica al centro dell’innovazione digitale.
Segui la Via Virtuosa: Spunti di vita, famiglia e Cybersecurity lungo la via è il racconto dell’imprenditore Luca Moroni che ha trasformato la cybersecurity da mestiere a missione di vita. Il percorso dell’autore dimostra che il successo può definirsi tale se è possibile misurarlo nella coerenza tra valori proclamati e scelte quotidiane.
La cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarScenari, tecnologia e formazione sulla sicurezza in formato audio