lunedì, 20 maggio 2024

News

Normative

Ai Act, il Parlamento europeo approva la legge sull'intelligenza artificiale

18/03/2024

Lo scorso 13 marzo è stato approvato dal Parlamento europeo l'Ai Act, una legge, che è stata definita "storica", chiamata a regolare l'intelligenza artificiale nell'Unione Europea e che è stata approvata con 588 voti favorevoli, 56 contrari e 38 astenuti. 

L'Ai Act è la prima legge a livello mondiale del suo genere e rappresenta un passo importante per garantire che l'intelligenza artificiale abbia uno sviluppo responsabile e sicuro, data l'estrema celerità di evoluzione di tali sistemi. Il suo intento è quelli di definire un quadro normativo chiaro, che stabilisca diverse categorie di rischio per i sistemi di intelligenza artificiale, a seconda del loro possibile impatto sulla sicurezza e sui diritti delle persone.

Tra queste vanno considerati i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l'estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati i sistemi di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (qualora siano basate solo sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità degli individui.

Non mancheranno casi di aziende, appartenenti a settori specifici, come quelli riguardanti la sicurezza nazionale, che saranno esentati da una parte dei controlli. Un esempio concreto: se in linea di principio le forze dell’ordine non devono fare ricorso ai sistemi di identificazione biometrica, potranno farlo in alcune situazioni ben determinate, previste dalla legge. L'identificazione "in tempo reale" potrà essere utilizzata solo se verranno rispettate alcune garanzie, come l'uso limitato nel tempo e nello spazio e la presenza di un'autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di questi sistemi a posteriori è considerato molto rischioso. Per potervi fare ricorso, l'autorizzazione giudiziaria dovrà quindi essere connessa a un reato.

I sistemi ad alto rischio

Gli obblighi previsti sono chiari anche per altri sistemi di IA ad alto rischio. Porebbero infatti essere causa di danni alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto.

Appartegono a questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.) alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi la legge stabilisce l'obbligo di valutare e ridurre i rischi, mantenere registri d'uso, essere trasparenti, molto accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ottenere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che hanno un impatto sui loro diritti.

Obblighi di trasparenza- misure di sostegno

Parlando di finalità generali, i sistemi di IA e i modelli su cui si basano dovranno soddisfare specifici requisiti di trasparenza e dovranno sottostare alle norme UE sul diritto d'autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno osservare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

Le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti "deepfake") dovranno essere etichettati come tali in modo molto chiaro.

Per concludere, sono previste misure a sostegno dell'innovazione e delle PMI. I paesi dell'UE saranno tenuti a istituire e a rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), così che PMI e start-up siano nelle condizioni di sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.



Tutte le news