domenica, 14 aprile 2024

W la Privacy

W la Privacy

Parlamento Europeo, approvato l'Artificial Intelligence Act

16/06/2023

Lo scorso 14 giugno, il Parlamento Europeo ha approvato a Strasburgo l'Artificial Intelligence Act, il nuovo regolamento sull’Intelligenza Artificiale: 499 i voti favorevoli, 28 i contrari, 93 gli astenuti. Una volta approvate definitivamente, si tratterà delle prime regole al mondo sull'IA.

Queste regole intendono definire obblighi per fornitori e utenti in base al livello di rischio, che può essere ritenuto “inaccettabile”, “alto”, o “limitato”. Anche se molti sistemi di intelligenza artificiale comportano un rischio minimo, dovranno essere valutati.

Già nel mese di aprile del 2021 la Commissione europea aveva proposto il primo quadro normativo dell'UE per i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni, analizzandoli e classificandoli in base al rischio per gli utenti.

Obiettivo prioritario del Parlamento è, in definitiva, quello di garantire che i sistemi di IA utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente. I sistemi di intelligenza artificiale dovrebbero essere supervisionati dalle persone, piuttosto che dall'automazione, così da evitare esiti dannosi.

I livelli di rischio

Rischio inaccettabile - I sistemi di intelligenza artificiale che comportano un rischio inaccettabile, sono i sistemi reputati una minaccia per le persone: saranno pertanto vietati.

Questo livello di rischio include:

- Manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili: ad esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini.

- Punteggio sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali.

- Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale.

Saranno previste e accettate alcune eccezioni, come ad esempio i sistemi di identificazione biometrica remota in cui l'identificazione avviene con un ritardo significativo, e questi potranno essere autorizzati per perseguire reati gravi (solo dopo l'approvazione del tribunale).

Rischio alto – I sistemi di IA che comportano invece un rischio alto, sono quelli che incidono negativamente sulla sicurezza o sui diritti fondamentali, e saranno suddivisi in due categorie: Sistemi di intelligenza artificiale utilizzati nei prodotti soggetti alla legislazione dell'UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori; Sistemi di IA che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell'UE:

- Identificazione biometrica e categorizzazione delle persone fisiche.

- Gestione e funzionamento delle infrastrutture critiche.

- Istruzione e formazione professionale.

- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo.

- Accesso e fruizione dei servizi privati essenziali e dei servizi e benefici pubblici.

- Applicazione della legge.

- Migrazione, asilo e gestione dei controlli alle frontiere.

- Assistenza nell'interpretazione giuridica e nell'applicazione della legge.

Tutti i sistemi di Intelligenza Artificiale ad alto rischio saranno valutati prima di essere immessi sul mercato e anche nel corso del loro ciclo di vita.

In tema di IA generativa

L'IA generativa, come ChatGPT, dovrebbe rispettare i requisiti di trasparenza:

- Rivelare che il contenuto è stato generato dall'intelligenza artificiale

- Progettare il modello per evitare che generi contenuti illegali

- Pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione.

Rischio limitato - Infine, i sistemi di Intelligenza Artificiale che comportano un rischio limitato dovrebbero comunque rispettare requisiti minimi di trasparenza che consentiranno agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l'utente potrà quindi decidere se desidera continuare a utilizzarle. Gli utenti dovrebbero essere informati quando interagiscono con l'IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.

A seguito della votazione della posizione negoziale del Parlamento avvenuta il 14 giugno 2023, prenderanno l'avvio i negoziati interistituzionali con il Consiglio europeo per arrivare alla versione finale della normativa con l’obiettivo di raggiungere un accordo definitivo entro la fine dell'anno in corso.

 


maggiori informazioni su:
www.federprivacy.org



Tutte le news