L’Italia e l’Europa sono da sempre un motore propulsore dell’economia e della società: una leadership ed eccellenza che possiamo riscontrare già nel primato dell’adozione dell’Artificial Intelligence Act, che coniuga la visione strategica di favorire lo sviluppo tecnologico, con la centralità della persona umana, in un bilanciamento che deve garantire nel lungo periodo, il well-being e la fiducia.
E' infatti fuori di dubbio che l’efficacia sociale e tecnologica attesa dall’AI-Act è raggiungibile solo se tutti gli attori “navigano” compatti e insieme, senza lasciare alcuno indietro: per tale ragione, è d’uopo una riflessione sul tessuto produttivo e sul contesto sociale, in cui la tecnologia si colloca ed interagisce come “utile strumento” (e non di certo finalità, o peggio ancora “moda” del momento), non sempre scevro da rischi. Pertanto, un tale approccio poliedrico (le cui sfaccettature sono riguardano l’ambito tecnologico, sociale, legale, economico, etc.) si declina in una strategia multidimensionale, essenzialmente basata sulla consapevolezza (awareness) e sul Risk-Based-Approach.
Quattro categorie di rischio
L'AI-Act, inter alia, individua quattro differenti categorie di rischio (inaccettabile, elevato, limitato, minimo) con molteplici obiettivi strategici e tattici, tra cui rendere consapevole e responsabile l’impiego di tali tecnologie, sia a livello di singola entità utilizzatrice; ma, soprattutto, rafforzando la contestualizzazione di ruolo quale anello di una più ampia supply-chain, sin dalla ideazione, passando per la implementazione e l’applicazione.
Il tutto con un approccio “antropocentrico” (trasversale e continuo) di porre al centro dei benefici e la tutela della persona umana (end-users).
Sebbene la posizione del legislatore Europeo sia largamente condivisibile, probabilmente si registra uno “sbilanciamento di taratura” in favore di imprese/Entità di maggiori dimensioni: andrebbe ricordato come il tessuto produttivo dei singoli Paesi su tutto il globo (quindi non solo dell’Italia) è costituito da una molteplicità di Micro e PMI, certamente meno visibili, ma che costituiscono l’ossatura delle singole filiere, di tutti i settori.
Sul punto è da notare come queste potrebbero trovare significative difficoltà a condurre un AI-Risk-Assessment, sia in termini di competenze, organizzativi, tecnici quanto economici e finanziarie.
A fronte di questa difficoltà di “sostenibilità di sistema” (ossia, dell’insieme delle diverse filiere che interagiscono tra loro), insorge un nuovo rischio: un assolvimento burocratico (compilazione di schede e moduli) riducendo ad un inutile formalismo, la necessità di una avanzata digital-awareness, e di implementazione ed adeguamento a nuove misure integrate, tra Corporate Governance e IT.
Due possibile soluzioni
In tal senso, vi sono (almeno) due possibili soluzioni (complementari) in una visione strategica di approccio olistico complesso. In primis, favorendo quantomeno la predisposizione e divulgazione di una (o più) “Prassi di Riferimento” (PdR) per le micro e PMI ovvero delle best practice, che possano esemplificare e descrivere il modus operandi più idoneo ed adeguato. Questo, peraltro, è assolutamente in linea con la mission del The European AI Office istituito per sovrintendere all'applicazione ed all'attuazione della legge sull'IA negli Stati membri dell'UE nonché, inter alia, di elaborare un “codice di buone pratiche”.
Per proseguire la lettura dell'interessante articolo di Manlio d'Agostino Panebianco - Consulente di strategie organizzative aziendali ed esperto nella prevenzione e contrasto di reati digitali. Holistic Complexity Managment, Intelligence Analyst, Data Protection Specialist - questo è il link
La cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarScenari, tecnologia e formazione sulla sicurezza in formato audio