Il lavoro di David Puente, vicedirettore e responsabile del progetto di fact-checking di “Open”, si svolge in un contesto in cui l’intelligenza artificiale ha radicalmente cambiato il panorama della disinformazione. Intervistato dall’Adnkronos, Puente sottolinea come oggi i professionisti del settore debbano affrontare sfide senza precedenti, caratterizzate da contenuti sempre più sofisticati e difficili da riconoscere.
La scomparsa della fonte primaria
Il fenomeno della disinformazione si complica ulteriormente con l’uso dell’AI, che consente la creazione di contenuti privi di una fonte primaria identificabile. “Oggi è difficile risalire al ‘paziente zero’ di un’immagine o di un video”, afferma Puente. In passato, era possibile rintracciare l’origine di una notizia, ma ora i contenuti generati artificialmente circolano già in forma virale prima che venga sollevato il dubbio sulla loro autenticità. I conflitti in Gaza e Ucraina rappresentano un terreno fertile per la diffusione di notizie false. Situazioni come quelle in cui immagini di bambini siriani venivano spacciate per palestinesi, o video manipolati da Mosca, evidenziano la gravità del problema. “Ora ci troviamo a combattere contro immagini create dal nulla, il che complica ulteriormente la verifica”, spiega Puente.
Le insidie dei contenuti generati artificialmente
La qualità delle immagini e dei video generati dall’AI sta migliorando costantemente, rendendo difficile la loro identificazione. Puente osserva come, nonostante alcuni dettagli anomali, come persone con sei dita, la maggior parte delle persone non nota particolari che potrebbero rivelare la falsità del contenuto, specialmente quando visualizzano i video sui piccoli schermi dei loro smartphone. Le norme proposte per l’uso di watermark non sembrano una soluzione efficace: “Quei segni possono essere facilmente rimossi o sfocati”, avverte Puente. Anche i metadati, che potrebbero fornire indizi sulla provenienza di un video, non sono una garanzia di autenticità, poiché la registrazione dello schermo può compromettere queste informazioni.
Un esempio significativo è rappresentato dalla fondazione di Yevgeny Prigozhin, che ha diffuso false notizie sull’Ucraina, sostenendo che Kiev stesse selezionando geneticamente soldati. La verità è che il video originale, girato da un ginecologo, era stato manipolato per nascondere la sua vera origine.
Strumenti di verifica e i loro limiti
L’adozione di strumenti come le Community Notes da parte di piattaforme come X, Facebook e Instagram ha aperto la porta a un nuovo modo di moderare i contenuti. Tuttavia, Puente mette in guardia: “A volte, le note vengono accettate senza un voto preliminare, creando un effetto a catena in cui informazioni errate vengono considerate vere”. Ciò porta a una proliferazione di debunker improvvisati che contribuiscono alla confusione.
Un caso recente ha visto un errore clamoroso in cui una foto di una bambina yazida è stata erroneamente identificata come proveniente dalla Siria nel 2014, mentre in realtà risaliva a Gaza. Questo dimostra come la manipolazione possa avvenire anche attraverso la smentita di contenuti.
Le sfide delle fonti affidabili
Nemmeno le fonti tradizionali, storicamente considerate affidabili, sono esenti da errori. Puente ricorda episodi in cui agenzie fotografiche hanno diffuso materiali inaccurati, come un video attribuito a bombardamenti in Pakistan che era in realtà girato in Palestina. Altri esempi includono immagini di fossi comuni erroneamente attribuite all’esercito israeliano, mentre in realtà risalivano a conflitti siriani. “In certi casi, è fondamentale avere il coraggio di prendersi del tempo per verificare, anziché affrettarsi a pubblicare”, conclude Puente.
Bias e manipolazioni nell’era dell’AI
Uno degli aspetti più preoccupanti dell’AI applicata all’informazione è l’illusione di imparzialità. Puente avverte che i bias culturali e politici possono influenzare gli algoritmi, portando a contenuti che sembrano neutrali ma sono intrinsecamente orientati. Anche i fact-checker, essendo esseri umani, possono commettere errori e subire pressioni a seconda delle circostanze.
Il ruolo cruciale dei fact-checker
Nonostante le sfide, il lavoro dei fact-checker rimane fondamentale. “Siamo in crescita e collaboriamo in rete per tracciare l’origine delle bufale e limitarne la diffusione”, afferma Puente. Si stabiliscono regole etiche e procedure standard per ridurre al minimo gli errori. Tuttavia, Puente sottolinea che non desidera che le persone si fidino ciecamente di lui, poiché il dubbio e la verifica rimangono essenziali in un contesto così complesso.
