AI4Trust, l'intelligenza artificiale contro la disinformazione online. Intervista a Riccardo Gallotti
Contrastare la disinformazione online sfruttando gli strumenti che l’intelligenza artificiale mette a disposizione delle persone: è questo l’obiettivo di AI4Trust, l’iniziativa europea finanziata dal programma Horizon Europe che coinvolge 17 partner da 11 Paesi. Coordinato dalla Fondazione Bruno Kessler (FBK) di Trento, il progetto mira a creare un ambiente sicuro, che integri il monitoraggio di social network e media con le più avanzate tecnologie basate sull’intelligenza artificiale, così da rendere più efficace l’attività di giornalisti, fact-checkers e decisori politici.
La disinformazione online sta investendo in modo crescente la società, in particolare su temi quali la salute, il riscaldamento globale e i cambiamenti sociali. E anche se le cosiddette “fake news” sono sempre esistite, l’enorme quantità di contenuti online prodotta ogni giorno rende sempre più complesso identificare e contrastare le informazioni false o manipolate. La generazione e la diffusione di questi contenuti infatti – realizzati anche grazie all’intelligenza artificiale generativa – avvengono a una velocità tale da rendere molto complesso monitorarle e contrastarne gli effetti. È in questo contesto che si inserisce AI4Trust, coordinato da Riccardo Gallotti, responsabile dell’unità Complex Human Behaviour della Fondazione Bruno Kessler (FBK) a Trento. Con un background in fisica teorica, Gallotti ha girato il mondo tra Svizzera, Francia, Spagna e Argentina lavorando a vari progetti riguardo ai complessi sistemi delle reti, come quelle del trasporto pubblico o della mobilità internazionale. Lo abbiamo intervistato per discutere con lui di AI4Trust, intelligenza artificiale e deep fake.
Quando ha cominciato ad occuparsi di intelligenza artificiale?
Uno dei primi grandi progetti che mi ha visto coinvolto è stato quello relativo a una piattaforma digitale ai tempi del Corona virus. Nello specifico, si trattava di uno studio che analizzava la relazione tra l’evoluzione dell’epidemia di COVID-19 e le dinamiche informative sui social media. Condotte dalla fondazione Bruno Kessler sotto direzione del professore Manlio De Domenico, le analisi si basavano su oltre cento milioni di messaggi Twitter postati (in inglese) in 127 paesi del mondo nelle prime fasi di diffusione della pandemia (dal 22 gennaio al 10 marzo 2020). Grazie a questi dati è stato possibile classificare le notizie veicolate in base all’affidabilità delle fonti di provenienza, sviluppando un indice di rischio infodemico. Da quel momento ho cominciato a dedicarmi quasi interamente alla modellazione statistica del comportamento individuale e collettivo basato sui dati. In parole povere: non mi occupo direttamente di intelligenza artificiale, ma piuttosto delle reti di dati che essa coinvolge.
In cosa consiste AI4Trust?
Alla base del progetto c’è una piattaforma digitale che combinerà l’apporto dell’intelligenza artificiale e quello di giornalisti e fact-checker. Il sistema monitorerà diversi social media e fonti di informazione in tempo pressoché reale, utilizzando algoritmi di intelligenza artificiale più recenti per analizzare testi, audio e video in sette lingue diverse. Questa piattaforma consentirà quindi di selezionare i contenuti con un alto rischio di disinformazione e di segnalarli per la revisione a fact-checker e giornalisti, il cui contributo fornirà ulteriori dati per il miglioramento degli algoritmi stessi. Inoltre, saranno sviluppati report adattati alle esigenze di chi lavora nei media, col fine di fornire informazioni affidabili per prevenire la diffusione incontrollata della disinformazione.
L’AI sta trasformando la sfera della disinformazione, mettendo in discussione la fiducia nelle informazioni online e sollevando importanti interrogativi sulla libertà di espressione e sulla manipolazione dell’opinione pubblica. Come si inserisce in questo contesto AI4Trust?
La piattaforma mira a diventare un luogo dove poter valutare il rischio di consumo di informazioni non attendibili, ma soprattutto a creare un ambiente online affidabile che, coinvolgendo ricercatori, media professional e policy maker, possa facilitare la creazione e la distribuzione di informazioni attendibili, contrastando in modo automatico la disinformazione.
Ha parlato di giornalisti, fact checkers e media professional; sono loro i partner del progetto?
In totale si contano 17 partner provenienti da tutte Europa, inclusa la Fondazione Bruno Kessler e l’Università di Trento, SkyTG24 e Euractiv Media Network, la rete di media specializzata nelle politiche dell’Unione europea. Tra questi, molti sono esperti proprio di media, contenuti online, policies e fact checking. In questo modo, siamo in grado di identificare e classificare i contenuti informativi e contrastare le notizie manipolate o false.
E in che modo l’AI può essere utilizzata per generare e diffondere queste fake news?
Ce ne sono molteplici. Il primo caso è quello dei media sintetici, ovvero qualsiasi tipo di video, immagine, audio o oggetto virtuale prodotto dall’intelligenza artificiale. Questo è sicuramente quello che le persone conoscono meglio, dal momento che i social media e il web in generale ne sono pieni: basta pensare ai video del Papa col Moncler o del Principe Carlo che dice le parolacce. La situazione si complica quando questo tipo di media non viene più utilizzato per fare ironia, bensì per diffondere notizie false. Il secondo caso, invece, è un po’ più subdolo, e consiste nei cosiddetti “modelli di linguaggio”; attraverso questi, l’intelligenza artificiale costruisce le notizie false con un linguaggio adatto a penetrare in determinati gruppi sociali. In questo modo, le persone sono molto più spinte a credere a ciò che leggono.
Tuttavia, questa è solo una faccia della medaglia…
Assolutamente, ed è quello che vogliamo dimostrare col progetto AI4Trust. La potenza dell’intelligenza artificiale può diventare un ottimo strumento per combattere le notizie false, oltre che crearle. Ma alla fine è sempre necessario l’intervento umano, perché il vero limite delle macchine è la loro incapacità di capire il contesto e quindi di interpretare correttamente alcuni messaggi. Ciò significa che le AI come ChatGPT, ad esempio, non sono state addestrate a dire cose vere, ma soltanto a unire ogni parola con quella che è statisticamente più probabile la segua.
E come si “istruisce” l’AI?
La si alimenta con una montagna di dati. Tutto il successo che ha avuto recentemente l’intelligenza artificiale è dovuto – oltre ad una maggiore accessibilità – al fatto che sono stati creati degli archivi di dati enormi. Questi servono alla macchina per imparare a ragionare, così come a uno studente per apprendere nuovi concetti e nuove tecniche. Inoltre, proprio come il cervello umano, l’AI è in grado di apprendere dall’esperienza. Si tratta dunque di veri e propri sistemi “auto apprendenti”, nel senso che elaborando informazioni e dati, imparano autonomamente e sono in grado, nel tempo, di produrre nuovi risultati e nuovi algoritmi.
Una delle principali preoccupazioni riguarda il modo in cui questa enorme quantità di dati con cui alimentiamo l’IA possa assorbire i numerosi bias, le distorsioni nelle valutazioni dovute a pregiudizi e presenti nella nostra società…
E si tratta di una preoccupazione fondata. Dal momento che l’intelligenza artificiale si “nutre” delle informazioni generate da noi umani, è chiaro che al suo interno siano presenti non pochi pregiudizi. Purtroppo, i più evidenti sono i bias razziali: la maggior parte dei dataset, infatti, rappresenta maschi caucasici. E non c’è da stupirsene. Così come l’educazione, l’esperienza e la cultura influenzano gli esseri umani e la loro percezione del mondo, questi sistemi si basano su algoritmi che tendono a riflettere i preconcetti di chi li ha progettati.
Per concludere, come vede il futuro dell’AI nelle nostre vite e nella società?
Ovviamente, sempre più integrata nella nostra quotidianità. La paura è quella che chi la utilizza diventi acritico e ne usufruisca senza metterla in discussione. In questo senso, credo sia fondamentale continuare a lavorare sui dati con cui viene alimentata, per evitare una stagnazione di informazioni pericolosa. Bisogna fare di tutto affinché diventi uno strumento che alimenta e supporta l’innovazione, non che la rallenti.
Vittoria Battaiola
Immagine in apertura: ritratto di Riccardo Gallotti, foto di FBK Magazine