Nel panorama tecnologico, i sistemi di Intelligenza artificiale (AI) o con una componente di AI sono diventati sempre più diffusi in vari settori (sanità, produzione, risorse umane, finanza, trasporti). Tuttavia, lo sviluppo e l’uso responsabili dei sistemi di AI sono fondamentali per affrontare potenziali preoccupazioni etiche e garantire la protezione degli individui e della società nel suo insieme.
I sistemi di AI sono “sistemi ingegnerizzati che generano output come contenuti, previsioni, raccomandazioni o decisioni per un dato insieme di obiettivi definito dall’uomo e con diversi livelli di automazione”; essi devono quindi risultare “affidabili”. L'affidabilità dei sistemi di AI si riferisce alla loro capacità di soddisfare le aspettative delle parti interessate. Questo implica che i sistemi di AI:
- siano progettati e convalidati in conformità con le norme più avanzate;
- siano allineati agli obiettivi delle parti interessate;
- siano chiaramente identificate le responsabilità dei vari soggetti coinvolti;
- siano considerate le preoccupazioni, anche a livello territoriale/di cluster di destinatari durante lo sviluppo e la gestione.
Per soddisfare quanto sopra viene incontro la norma ISO/IEC 42001:2023 che fornisce un quadro completo per la gestione dei sistemi di intelligenza artificiale, fornendo misure per affrontare elementi chiave come:
- la distorsione e l'equità - per evitare la differenza sistematica nel trattamento di determinati soggetti o gruppi rispetto ad altri (bias);
- la controllabilità - per consentire agli agenti esterni di intervenire nel suo funzionamento;
- la spiegabilità - per comprendere i fattori che influenzano le decisioni dell'IA;
- la prevedibilità – per garantire ipotesi attendibili da parte delle parti interessate gli output generati;
- l'affidabilità - elemento cruciale del sistema per fornire previsioni, raccomandazioni e decisioni coerenti e corrette del funzionamento del sistema di AI;
- la resilienza - la capacità del sistema di ripristinare rapidamente le condizioni operative dopo un incidente;
- la robustezza – la capacità di mantenere le prestazioni richieste in varie circostanze, incluso il funzionamento in condizioni ambientali complesse;
- la trasparenza – per garantire che le attività e le decisioni di un’organizzazione appropriate siano comunicate ala parti interessate in modo completo, accessibile e comprensibile.
Applicando i requisiti ed i controlli previsti dalla norma ISO/IEC 42001:2023, le organizzazioni possono affrontare efficacemente le complessità dell’intelligenza artificiale e garantire che i loro sistemi di intelligenza artificiale siano sviluppati e utilizzati in modo responsabile.
L'Ing. Monica Perego - Membro del Comitato Scientifico di Federprivacy, docente qualificato TÜV Italia e docente del Master Privacy Officer e Consulente della Privacy - prosegue nel suo articolo questa trattazione.
Il link per la lettura del testo integrale
maggiori informazioni su:
www.federprivcy.org
La tutela dell'operatore in ambito Forze dell'Ordine, sanità, trasporti, tra tecnologie disponibili, digitalizzazione e impatto privacy
Necessità e approcci per l'innovazione nelle infrastrutture critiche della città futura
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarLa cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Scenari, tecnologia e formazione sulla sicurezza in formato audio
Un'immersione a 360 gradi nella realtà dell'azienda