sabato, 18 maggio 2024

News

Normative

Intelligenza Artificiale, la Norma ISO 42001:2023

21/03/2024

Nel panorama tecnologico, i sistemi di Intelligenza artificiale (AI) o con una componente di AI sono diventati sempre più diffusi in vari settori (sanità, produzione, risorse umane, finanza, trasporti). Tuttavia, lo sviluppo e l’uso responsabili dei sistemi di AI sono fondamentali per affrontare potenziali preoccupazioni etiche e garantire la protezione degli individui e della società nel suo insieme.

I sistemi di AI sono “sistemi ingegnerizzati che generano output come contenuti, previsioni, raccomandazioni o decisioni per un dato insieme di obiettivi definito dall’uomo e con diversi livelli di automazione”; essi devono quindi risultare “affidabili”. L'affidabilità dei sistemi di AI si riferisce alla loro capacità di soddisfare le aspettative delle parti interessate. Questo implica che i sistemi di AI:

- siano progettati e convalidati in conformità con le norme più avanzate;

- siano allineati agli obiettivi delle parti interessate;

- siano chiaramente identificate le responsabilità dei vari soggetti coinvolti;

- siano considerate le preoccupazioni, anche a livello territoriale/di cluster di destinatari durante lo sviluppo e la gestione.

Per soddisfare quanto sopra viene incontro la norma ISO/IEC 42001:2023 che fornisce un quadro completo per la gestione dei sistemi di intelligenza artificiale, fornendo misure per affrontare elementi chiave come:

- la distorsione e l'equità - per evitare la differenza sistematica nel trattamento di determinati soggetti o gruppi rispetto ad altri (bias);

- la controllabilità - per consentire agli agenti esterni di intervenire nel suo funzionamento;

- la spiegabilità - per comprendere i fattori che influenzano le decisioni dell'IA;

- la prevedibilità – per garantire ipotesi attendibili da parte delle parti interessate gli output generati;

- l'affidabilità - elemento cruciale del sistema per fornire previsioni, raccomandazioni e decisioni coerenti e corrette del funzionamento del sistema di AI;

- la resilienza - la capacità del sistema di ripristinare rapidamente le condizioni operative dopo un incidente;

- la robustezza – la capacità di mantenere le prestazioni richieste in varie circostanze, incluso il funzionamento in condizioni ambientali complesse;

- la trasparenza – per garantire che le attività e le decisioni di un’organizzazione appropriate siano comunicate ala parti interessate in modo completo, accessibile e comprensibile.

Applicando i requisiti ed i controlli previsti dalla norma ISO/IEC 42001:2023, le organizzazioni possono affrontare efficacemente le complessità dell’intelligenza artificiale e garantire che i loro sistemi di intelligenza artificiale siano sviluppati e utilizzati in modo responsabile.

L'Ing. Monica Perego - Membro del Comitato Scientifico di Federprivacy, docente qualificato TÜV Italia e docente del Master Privacy Officer e Consulente della Privacy - prosegue nel suo articolo questa trattazione.

Il link per la lettura del testo integrale

 


maggiori informazioni su:
www.federprivcy.org



Tutte le news