sabato, 9 maggio 2026

Articoli

Intelligenza artificiale e scelte etiche: il dilemma del carrello ferroviario

Intelligenza artificiale e scelte etiche: il dilemma del carrello ferroviario
14/11/2024

di Marco Soffientini - Esperto di Privacy e Diritto delle Nuove Tecnologie e docente Ethos Academy

Nel 1964 la filosofa inglese Philippa Ruth Foot propose il dilemma etico noto come “dilemma del carrello ferroviario”. Un carrello ferroviario, senza freni, corre su di un binario dove si trovano legate 5 persone. Prima di giungere in prossimità delle persone legate, un individuo si trova nella possibilità di azionare un deviatoio e di indirizzare il carrello verso un altro binario dove è legata una sola persona. Questa persona nei pressi del deviatoio si trova dinanzi ad un dilemma morale: lasciare che il carrello prosegua dritto la sua corsa, uccidendo le cinque persone, oppure azionare lo scambio e ucciderne una sola? La versione moderna del dilemma del carrello ferroviario è rappresentata dal dilemma morale dell’automobile a guida autonoma. 

Si pensi a questo ipotetico scenario: un’autovettura autonoma non può evitare un incidente e deve scegliere chi debba vivere e chi morire. La scelta si pone fra uccidere tre anziani pedoni che attraversano la strada con il semaforo rosso o salvare le vite dei pedoni schiantandosi contro un muro e uccidere i tre passeggeri dell’auto. Chi dovrebbe uccidere l’auto? Nel 2017 la Commissione Etica presso il Ministero tedesco dei trasporti e delle infrastrutture digitali fu la prima al mondo a pubblicare delle linee guida sulla programmazione dei software di sistemi di guida autonoma. Una di queste regole prevedeva la priorità delle vite umane da salvare rispetto agli animali e la proibizione di discriminare le persone in base all’età, al genere o ad altre caratteristiche personali. L’auto dovrebbe, quindi, essere indifferente rispetto al salvare i pedoni o i passeggeri.

L’etica è bella perché è varia 

La validità di queste linee guida è stata testata nel 2018 in uno studio pubblicato su “Nature”[Awad, E., Dsouza, S., Kim, R. et al. The Moral Machine experiment. Nature 563, 59–64 (2018)] che ha coinvolto milioni di persone in 233 paesi nel mondo. La maggior parte delle persone non condivideva le regole etiche sancite nelle linee guida e con riferimento allo scenario con i tre anziani pedoni, la maggioranza ritenne che l’I.A. doveva essere programmata per uccidere i tre anziani che passavano con il semaforo rosso. Come osserva Gerd Gigerenzer direttore dell’Harding Center for Risk Literacy presso l’Università di potsdam: [OMISSIS] Dopotutto, sono vecchi e infrangono la legge attraversando con il rosso. In generale, la maggioranza delle persone in tutto il mondo mostrò una sfrenata discriminazione e non considerava i propri simili umani allo stesso modo. Avrebbero generalmente salvato la vita di un umano a scapito di quella di un cane, ma non se l’umano fosse stato un criminale. Analogamente, le persone con uno status sociale più basso e i senzatetto furono considerati meno degni di essere risparmiati. I dilemmi morali, perfino se ipotetici come in questo studio possono aprire una finestra sui valori delle culture. Le persone nei paesi occidentali mostravano la preferenza più forte per l’inazione, vale a dire evitare la responsabilità di uccidere attivamente delle persone, per esempio sterzando e schiantandosi contro un muro. I paesi orientali, come Giappone e Cina, e i paesi islamici, quali Arabia Saudita e Indonesia, preferivano invece salvare gli anziani o i pedoni e sacrificare chi non rispetta la legge. Per contro, i paesi dell’America centrale e meridionale preferivano con forza salvare le donne, i giovani e gli individui con un alto status sociale. (G. Gigerenzer (2024), Perché l’intelligenza umana batte ancora gli algoritmi, Ed. R. Cortina, pag. 109).

Cos’è l’intelligenza artificiale? 

Il dilemma del carrello ferroviario ci consente qualche breve riflessione sul concetto di “intelligenza artificiale” e di “etica” che abbiamo visto declinarsi diversamente a seconda dei popoli e delle culture. Ma che cos’è l’intelligenza artificiale? Secondo J. Kaplan professore a Stanford: “Questa domanda è facile da formulare, ma per due diversi motivi è difficile rispondervi. In primo luogo, non esiste una definizione di intelligenza sulla quale siano tutti d’accordo. In secondo luogo, ci sono pochi motivi per ritenere che l’intelligenza delle macchine, almeno finora, e malgrado le apparenze, abbia molto a che vedere con quella umana” (J. Kaplan (2024), Generative AI, conoscere, capire e usare l’intelligenza artificiale generativa, Ed. LUISS University Press, pag. 23). Facile è, invece, risalire all’origine dell’espressione “intelligenza artificiale” (Artificial Intelligence) in quanto il suo primo uso avvenne nel 1956 ad opera di John McCarthy all’epoca assistente professore di matematica al Dartmouth College di Hanover, nel New Hampshire, allorquando insieme ai ricercatori Marvin Minsky di Harvard, Nathan Rochester della IBM e Claude Shannon dei Bell Telephone Laboratories organizzò il primo convegno sull’intelligenza artificiale. McCarthy la descrisse in questo modo: “far sì che una macchina adotti comportamenti che chiameremmo intelligenti se messi in atto da un essere umano”.

Ma cos’è l’intelligenza umana?

Questo approccio seppure ragionevole incontra un grande limite: quanto sia difficile definire e ancor più misurare l’intelligenza umana. Noi cerchiamo di misurare tutto ma non si può quantificare una cosa soggettiva e astratta come l’intelligenza. Prendiamo un parametro utilizzato spesso nel valutare l’intelligenza delle persone: i numeri e la matematica. Un numero di telefono fatto di dieci cifre occupa tutta la memoria a breve termine di una persona, cioè quella che usiamo per parlare e pensare. Una semplice calcolatrice è più veloce di qualsiasi essere umano. Possiamo allora concludere che le macchine sono più intelligenti degli umani? Ovviamente no! Albert Einstein diceva: “L’intelligenza non è la capacità di immagazzinare informazioni, ma di sapere dove trovarle”. Sebbene l’intelligenza artificiale sia inarrivabile nell’eseguire calcoli per operare egregiamente, necessita di ambienti stabili. Si pensi al gioco da tavolo “Go” molto popolare in Asia. Esso è caratterizzato da alcune regole immutabili che a loro volto possono generare un numero enorme di combinazioni (2,08x10170). In questo tipo di giochi da tempo l’intelligenza artificiale batte quella umana. Ci sono ambienti dove l’intelligenza artificiale funziona meno bene, come avviene nel mondo del traffico stradale, dove le cose possono cambiare improvvisamente e inaspettatamente (ad esempio un guidatore che compie una manovra scorretta o folle perché ubriaco). Qui l’intelligenza umana è in grado di comprendere e a volte prevenire certe situazioni anche quando non le ha mai vissute precedentemente. Si tratta del noto “principio del mondo stabile” in base al quale l’intelligenza artificiale, per poter funzionare correttamente, necessita di un ambiente che non muti o cambi poco e per aspetti non rilevanti rispetto all’apprendimento pregresso e consolidato. 

Due faccende diverse

Esiste quindi un divario incolmabile tra l’intelligenza artificiale e quella umana, che è caratterizzata dalla comprensione: una proprietà della coscienza spesso sottovalutata e inaccessibile ai computer (F. Faggin (2022), Irriducibile. La coscienza, la vita, I computer e la nostra natura, Ed. Mondadori, cit. pag.72). Il principio del mondo stabile ci consente di tornare per un momento al dilemma del carrello ferroviario applicato alla guida autonoma, sempre nell’ipotesi che l’auto non avesse il tempo per evitare l’incidente. Questo dilemma morale, per poter funzionare, deve presupporre che: l’intelligenza artificiale abbia perfette abilità di riconoscimento, sia in grado di categorizzare correttamente l’età e il comportamento degli individui, e riesca a determinare con precisione quanti dei pedoni o dei passeggeri dell’auto moriranno. Quando questa ipotetica certezza viene rimpiazzata da una realistica incertezza, i saldi giudizi morali delle persone diventano più permissivi e meno rigorosi. La psicologia morale ha una lunga tradizione di formulazione di dilemmi morali che ignorano l’incertezza. Come esperimento mentale, ciò non crea problemi. Nel traffico reale, però, rimane certamente un’illusione; sia gli umani sia l’intelligenza artificiale sono obbligati a prendere decisioni senza sapere esattamente quali conseguenze ci saranno. Questa differenza fondamentale può risparmiare agli ingegneri la fatica di preoccuparsi di come programmare una macchina affinché gestisca questo tipo di dilemma morale, e infatti la maggior parte degli ingegneri ha scartato l’illusoria certezza del dilemma del carrello come guida per l’etica. Il dilemma ipotetico di scegliere chi uccidere potrebbe non diventare mai realtà perché presuppone autovetture pienamente autonome con una perfetta predizione di quel che avverrà dopo una collisione (Gigerenzer, cit. pag. 108).

Principio del mondo stabile 

Se, in virtù del principio del mondo stabile, il dilemma del carrello ferroviario non diventerà una guida per l’etica, resta il problema concreto di regolamentare questo valore, che come abbiamo visto si declina diversamente a seconda dei popoli e delle culture. L’etica è quella parte della filosofia che studia i problemi e i valori connessi all’agire umano: “la distinzione fra bene e male è propria dell’etica (Zingarelli, 2022). La stessa enciclopedia Treccani definisce l’etica come “ogni dottrina o riflessione speculativa intorno al comportamento pratico dell’uomo, soprattutto in quanto intenda indicare quale sia il vero bene e quali i mezzi atti a conseguirlo, quali siano i doveri morali verso se stessi e verso gli altri, e quali i criteri per giudicare sulla moralità delle azioni umane”. 

Rome Call for A.I. Ethics 

Nel 2020, con la firma del documento Rome Call for A.I. Ethics (28 Febbraio), la Pontificia Accademia per la Vita insieme a FAO, IBM, Microsoft e al Ministero dell’Innovazione si è data come missione la promozione di un approccio etico all’utilizzo dell’intelligenza artificiale. 

In tema di etica il documento afferma: “Tutti gli esseri umani nascono liberi ed eguali in dignità e diritti, sono dotati di ragione e di coscienza e devono agire gli uni verso gli altri in spirito di fratellanza. Questa condizione fondamentale di libertà e dignità deve essere tutelata e garantita anche nella realizzazione e nell’impiego di sistemi di IA. È necessario che ciò avvenga salvaguardando i diritti e le libertà dei singoli affinché questi non vengano discriminati algoritmicamente “per ragioni di razza, di colore, di sesso, di lingua, di religione, di opinione politica o di altro genere, di origine nazionale o sociale, di ricchezza, di nascita o di altra condizione” (art. 2 della Dichiarazione universale dei diritti umani). 

Come “pensare” l’AI

I sistemi di IA devono essere pensati, progettati e implementati a servizio e protezione della persona umana e dell’ambiente in cui vive. Questo orizzonte basilare va tradotto nell’impegno per la realizzazione delle condizioni della vita sia sociale sia personale, che permettono tanto ai gruppi quanto ai singoli membri di adoperarsi per raggiungere possibilmente la piena espressione di sé. Un progresso tecnologico che voglia configurarsi come vero sviluppo del genere umano e rispettoso del pianeta deve soddisfare tre requisiti. Deve includere ogni essere umano, senza discriminare nessuno; deve porre al centro il bene dell’umanità e il bene di ogni essere umano; deve infine guardare alla complessa realtà del nostro ecosistema caratterizzandosi per la cura e la tutela del pianeta (la nostra “casa comune”) con caratteristiche di alta sostenibilità. Inoltre, ogni persona deve sapere quando interagisce con una macchina.

Le tecnologie basate sull’IA non debbono mai essere utilizzate per realizzare forme di sfruttamento della persona, specie i soggetti maggiormente vulnerabili, ma devono essere impiegate per realizzare contributi allo sviluppo delle capacità delle persone (empowerment/enablement) e a sostegno del pianeta.

Regolamento (UE) sull’Intelligenza artificiale 

Il Consiglio Europeo nella riunione straordinaria del 02 Ottobre 2020 - Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) - Conclusioni, EUCO 13/20, 2020, pag. 6 - precisò che l’UE deve essere un leader mondiale nello sviluppo di un’intelligenza artificiale sicura, affidabile ed etica, mentre Il Regolamento (UE) sull’Intelligenza artificiale afferma che: “il presente regolamento contribuisce all’obiettivo di promuovere l’approccio antropocentrico europeo all’IA ed essere un leader mondiale nello sviluppo di un’IA sicura, affidabile ed etica, come affermato dal Consiglio europeo, e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo”. Lo stesso regolamento ci fornisce la prima definizione normativa di un “sistema di IA” come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Come si evince da questa breve disamina, l’intelligenza Artificiale deve essere guidata da principi etici che tutelino la dignità umana. La prospettiva etica diventa di fondamentale importanza per il benessere degli individui e, come ha affermato F. Faggin, “Il computer non ha alcuna comprensione delle situazioni in cui si trova. E la scelta etica non può essere di un algoritmo”.


  X Share

Tutti gli articoli

APP for Security per la videosorveglianza

Videosorveglianza, Privacy, Cybersecurity e NIS2

Webinar

Ethos Academy

La cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia

Norme CEI

Ethos Academy

Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia

Webinar
La Norma CEI 64-8
Secsolution
Il podcast

Scenari, tecnologia e formazione sulla sicurezza in formato audio