La crescente quantità di dati a disposizione ha contribuito allo sviluppo di algoritmi di intelligenza artificiale sempre più sofisticati, in grado di alimentare macchine capaci di simulare e svolgere compiti tipici della mente umana. Si tratta di algoritmi “intelligenti” che cioè si basano sullo sviluppo di tre fattori: a) apprendimento; b) ragionamento; c) autocorrezione. Questi algoritmi c.d. di “Deep Learning” possono presentare un elevato rischio inerente il trattamento dei dati personali di molte categorie di interessati (es. ambito sanitario o di security).
Il tema dell’intelligenza artificiale è divenuto, così, sempre più presente nell’agenda dell’Autorità Garante (vedi, a mero titolo esemplificativo, l’audizione del Presidente del Garante 12 gennaio 2021 sul d.d.l. 1900 e 1549 - Commissione parlamentare d’inchiesta sulla diffusione massiva di informazioni false, doc. web n. 9518110: cfr. par. 3.1.1) e al tema degli assistenti digitali (cfr. vademecum al doc. web n. 9696995).
Marco Soffientini - Esperto di Privacy e Diritto delle Nuove Tecnologie e docente Ethos Academy - prosegue nel testo che segue questa analisi.
Il link per la lettura del suo articolo
Privacy Officer e Consulente della Privacy nel settore Videosorveglianza
Corso riconosciuto da TÜV Italia
Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia
WebinarLa cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia
Scenari, tecnologia e formazione sulla sicurezza in formato audio
Un'immersione a 360 gradi nella realtà dell'azienda