martedì, 16 aprile 2024

W la Privacy

W la Privacy

Videosorveglianza, da strumento di tutela a minaccia per la privacy

24/05/2023

Un film degli anni ’80 intitolato “Le vite degli altri” narrava la storia di una coppia che viveva nella DDR e che era spiata nella vita quotidiana dalla Stasi. Il film racconta una storia reale, come molte altre di quel periodo storico, nella quale lo spionaggio avveniva con l’uso delle tecniche più sofisticate dell’epoca, ma che oggi risultano superate rispetto alle opportunità che la scienza e la tecnica attuali ci offrono, grazie ad algoritmi di intelligenza artificiale sempre più sofisticati.

Si pensi al clamore suscitati dal caso “Pegasus”, un software spia di natura militare concesso in licenza ai governi da una società israeliana leader nella sorveglianza informatica, capace di hackerare i cellulari e, ancor più, all’ultima invenzione salita agli onori della cronaca consistente in una soluzione tecnologica nel settore della videosorveglianza, basata sull’intelligenza artificiale e capace di modificare le immagini, sostituendo o eliminando le persone dal contesto ripreso dalle telecamere di sorveglianza. “Toka” - così si chiama questo software di videoanalisi – è stato sviluppato, anche questo, da una società israeliana impegnata nel settore dell’intelligence.

L'analisi forense

L’utilizzo di una tale tecnologia, sotto il profilo della lesione di diritti e libertà fondamentali, è potenzialmente enorme. Si pensi alle immagini delle telecamere a circuito chiuso di banche, negozi, aziende, stazioni di servizio, ecc. che riprendono aggressioni o rapine. Cosa potrebbe accadere se la persona dell’aggressore o del rapinatore venisse sostituita con quella di un’altra persona ? E’ facile smascherare un video falso ? Capire se ci sono state manomissioni ? Di questi temi si occupa l’analisi forense.

L’alterazione di un video o di un audio genera un deepfake. Grazie all’utilizzo dell’intelligenza artificiale è possibile inserire una persona in un ambiente in cui non è mai stata. Gli algoritmi di deep learning lavorano al meglio se hanno a disposizione un’enorme mole di dati audio e video della persona da riprodurre (video, fotografie, registrazioni vocali). Attraverso specifiche tecniche è possibile riprodurre il viso con le diverse espressioni facciali, aggiungere la voce e sincronizzare la voce con il video.

La necessità di una risposta legislativa coerente

Il proliferare di soluzioni tecnologiche di intelligenza artificiale richiederà una risposta legislativa coerente, articolata e al passo con i tempi come si prefigge la proposta di Regolamento UE

Il risultato finale può essere un falso grossolano se si hanno a disposizione pochi dati della persona target, ma anche un video estremamente realistico, qualora l’algoritmo sia stato addestrato con una mole enorme di dati. In quest’ultimo caso avrò un video difficile da smascherare, perché anche la ricerca forense delle c.d. “incoerenze statistiche” e cioè di quelle tracce invisibili, che rendono evidente la contraddittorietà statistica dei dati contenuti, risulterà ardua.

Questo significa che in un procedimento penale un consulente potrebbe non essere in grado di dire se il video è genuino o se è stato alterato, essendo in presenza di un dato digitale discutibile, dal momento che l’intelligenza artificiale si basa sul principio di probabilità. Le conseguenze giuridiche sarebbero a dir poco sconcertanti.

Al fine di evitare queste conseguenze, l’Autorità Garante è già intervenuta, irrogando anche sanzioni a chi aveva raccolto una mole impressionante di dati personali da internet. Si pensi al caso Clearview Artificial Intelligence Inc destinataria da parte dell’Autorità Garante per la protezione dei dati personali, di una sanzione da venti milioni di euro (Provv. 10 Febbraio 2022 – doc. web n. 9751362) per aver raccolto da internet miliardi di volti di persone, al fine di addestrare un algoritmo di intelligenza artificiale con lo scopo di riconoscere qualsiasi persona, o al più recente caso ChatGPT, dove alla società statunitense OpenAI è stato imposto di informare le persone dell’avvenuta probabile raccolta dei loro dati personali ai fini dell’addestramento degli algoritmi”(Provv. 11 aprile 2023 doc. web n. 9874702).

Sicuramente il proliferare di soluzioni tecnologiche di intelligenza artificiale (vedi google deepMind, TruthGpT, PizzaGPT , GigaChat, ecc) richiederà una risposta legislativa coerente, articolata e al passo con i tempi come si prefigge il Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale – COM(2021) 206 final -2021/0106 (COD).

Marco Soffientini - Esperto di Privacy e Diritto delle Nuove Tecnologie e docente Ethos Academy


maggiori informazioni su:
www.federprivacy.org



Tutte le news