giovedì, 28 marzo 2024

News

Business & People

F-Secure: ricerca sulla manipolazione delle raccomandazioni basate su IA

27/07/2021

MILANO – I sistemi di raccomandazione basati sull'intelligenza artificiale sono utilizzati in molti servizi online. A beneficiarne sono i motori di ricerca, i siti di shopping online, i servizi di streaming e i social media. L'influenza che esercitano sugli utenti ha sollevato preoccupazioni, soprattutto perchè il loro utilizzo potrebbe avere effetti sulla diffusione di disinformazione e promozione di teorie cospirative.

Andy Patel, un ricercatore del centro di eccellenza per l'intelligenza artificiale del fornitore di sicurezza informatica F-Secure, ha recentemente completato una serie di esperimenti per apprendere come semplici tecniche di manipolazione possano influenzare le raccomandazioni basate sull'IA su un social network.  

"Campi di battaglia"

"Twitter e altre reti sono diventati campi di battaglia in cui diverse persone e gruppi spingono diverse narrazioni. Queste includono conversazioni organiche e annunci, ma anche messaggi destinati a minare ed erodere la fiducia nelle informazioni legittime" - afferma Patel. "Esaminare come questi 'combattenti' possano manipolare l'IA aiuta a far emergere i limiti di ciò che l'IA può realisticamente fare, e idealmente, come può essere migliorata."  

Un sondaggio del PEW Research Center condotto alla fine del 2020 ha scoperto che il 53% degli americani deriva notizie dai social media. Gli intervistati, di età compresa tra i 18 e i 29 anni, hanno identificato i social media come la loro fonte più frequente di notizie. La ricerca ha evidenziato i potenziali rischi di questo atteggiamento: un'indagine del 2018 ha scoperto che i post di Twitter contenenti falsità hanno il 70% di probabilità in più di essere retwittati.   

Per la sua ricerca, Patel ha raccolto dati da Twitter e li ha utilizzati per addestrare modelli di filtraggio collaborativo (o collaborative filtering, un tipo di apprendimento automatico utilizzato per codificare le somiglianze tra utenti e contenuti in base alle interazioni precedenti) da utilizzare nei sistemi di raccomandazione. Ha eseguito quindi esperimenti che prevedevano il riaddestramento di questi modelli utilizzando set di dati contenenti retweet aggiuntivi (quindi avvelenando i dati) tra account selezionati per vedere come cambiavano le raccomandazioni.

I fondamenti dell'IA affidabile 

Selezionando gli account appropriati per il retweet e variando il numero di account che eseguono retweet insieme al numero di retweet che hanno pubblicato, anche un numero molto piccolo di retweet era sufficiente a manipolare il sistema di raccomandazione per promuovere gli account il cui contenuto è stato condiviso attraverso i retweet iniettati. 

Mentre gli esperimenti sono stati condotti utilizzando versioni semplificate dei meccanismi di IA che le piattaforme di social media e altri siti web probabilmente impiegano quando forniscono raccomandazioni agli utenti, Patel ritiene che Twitter e molti altri servizi popolari stiano già affrontando questi attacchi nel mondo reale.

"Abbiamo eseguito test su modelli semplificati per comprendere meglio come i veri attacchi potrebbero effettivamente funzionare. Penso che le piattaforme di social media stiano già affrontando attacchi simili a quelli dimostrati in questa ricerca, ma per queste organizzazioni è difficile essere certi che questo è ciò che sta accadendo, perché vedono solo il risultato, non come funziona", sostiene Patel. 

Matti Aksela, Vice President of Artificial Intelligence di F-Secure, ritiene importante riconoscere e affrontare le potenziali sfide con la sicurezza dell'IA. 

"Poiché ci affideremo sempre di più all'IA in futuro, dobbiamo capire cosa fare per proteggerla da potenziali abusi. Il fatto che l'IA e il machine learning alimentino in misura crescente i servizi da cui dipendiamo ci richiede di capirne i punti di forza e di debolezza in termini di sicurezza, oltre ai benefici che possiamo ottenere, in modo da poterci fidare dei risultati. L'IA sicura è il fondamento dell'IA affidabile" - conclude Aksela. 

 


maggiori informazioni su:
https://blog.f-secure.com/it



Tutte le news