mercoledì, 28 febbraio 2024

Cyber Security

Cyber Security

Artificial Intelligence Act: le preoccupazioni per le aziende su privacy e sicurezza informatica

16/01/2024

L'approvazione preliminare dell'Artificial Intelligence Act (AI Act) in Europa segna un passo significativo nella regolamentazione dell'intelligenza artificiale, con l'obiettivo di garantire che l'uso dell'IA sia sicuro, rispetti i diritti fondamentali e la democrazia. Tuttavia, questa normativa solleva preoccupazioni in termini di privacy e sicurezza informatica per le aziende.

Questo regolamento, di cui siamo ancora in attesa del testo definitivo alla data odierna, mira a stabilire un quadro per l'uso responsabile e sicuro dell'IA, con particolare attenzione ai sistemi ad alto rischio e alle eccezioni per le forze dell'ordine nell'uso della biometria. Tuttavia, le implicazioni di queste normative sono complesse e potrebbero avere un impatto significativo sul trattamento dei dati personali e sulla sicurezza informatica aziendale.

Alcuni aspetti di rilievo 

Uno degli aspetti chiave del regolamento è la distinzione tra sistemi di IA ad alto rischio e non, con un focus particolare sui primi. Questi sistemi sono soggetti a norme rigorose per garantire che non causino danni gravi o violazioni dei diritti fondamentali. Tuttavia, questa classificazione solleva preoccupazioni sulla capacità delle aziende di navigare in un panorama normativo complesso, specialmente per le piccole e medie imprese che potrebbero non avere le risorse per conformarsi pienamente.

Un altro punto di discussione è l'uso della biometria da parte delle Forze dell'ordine. Sebbene il regolamento preveda eccezioni per limitarne l'uso, la possibilità che le autorità di polizia utilizzino la biometria negli spazi pubblici solleva preoccupazioni significative per la privacy e la sicurezza dei dati personali. Questo aspetto del regolamento potrebbe portare a un aumento della sorveglianza e a potenziali abusi, mettendo a rischio la privacy dei cittadini.

Il regolamento affronta la questione dei sistemi di IA per scopi generali e dei modelli fondazionali, come GPT (Generative Pre-trained Transformer). Sebbene questi sistemi offrano vantaggi significativi in termini di innovazione e sviluppo, presentano anche rischi per la privacy e la sicurezza. Il regolamento richiede che questi sistemi soddisfino specifici obblighi di trasparenza prima di essere immessi sul mercato, ma rimangono dubbi su come questi requisiti influenzeranno l'innovazione e la competitività nel settore tecnologico.

Sanzioni e misure a sostegno dell'innovazione

La nuova architettura di governance prevista dal regolamento include un Ufficio AI all'interno della Commissione Europea, un comitato scientifico indipendente e un Consiglio AI. Queste entità avranno il compito di vigilare sui modelli di IA e contribuire allo sviluppo di standard e pratiche di test. La complessità e l'efficacia di questa struttura di governance rimangono però da vedere. Le sanzioni previste per le violazioni del regolamento sono significative, con multe che possono raggiungere milioni di euro. Questo aspetto pone un ulteriore onere sulle aziende, specialmente sulle PMI, che dovranno assicurarsi di rispettare tutte le normative per evitare pesanti sanzioni finanziarie.

Il regolamento prevede anche misure a sostegno dell'innovazione, come le sandbox di regolamentazione dell'IA, che dovrebbero creare un ambiente controllato per lo sviluppo e la sperimentazione di sistemi innovativi di IA. Tuttavia, resta da vedere come queste misure saranno implementate e se saranno sufficienti per bilanciare le esigenze di sicurezza e privacy con quelle dell'innovazione.

Le critiche al regolamento provengono da diverse fonti, tra cui l'associazione europea dei consumatori Beuc e le aziende tech. Mentre Beuc esprime preoccupazioni per la tutela dei consumatori, le aziende tech temono che il regolamento possa limitare l'innovazione e la competitività. Queste preoccupazioni evidenziano la difficoltà di trovare un equilibrio tra la promozione dell'innovazione e la protezione dei diritti dei cittadini e delle prerogative degli Stati membri.

Un importante passo avanti

L'AI Act rappresenta un importante passo avanti nella regolamentazione dell'intelligenza artificiale in Europa, ma solleva questioni complesse relative alla privacy, alla sicurezza informatica e all'innovazione.

Le aziende dovranno prestare particolare attenzione ai requisiti del regolamento e prepararsi a navigare in un ambiente normativo in continua evoluzione. La cybersecurity sarà al centro delle preoccupazioni per molte realtà aziendali, richiedendo un approccio proattivo e informato per garantire la conformità e proteggere i dati sensibili. La strada verso un'implementazione efficace del regolamento è ancora lunga e richiederà un attento equilibrio tra vari interessi e obiettivi.

Articolo di Paolo Romani, delegato Federprivacy, Consulente Privacy e Sicurezza IT 


maggiori informazioni su:
www.federprivacy.org



Tutte le news