L’intelligenza artificiale è una nuova arma per la disinformazione? Sì, ma non solo

L’intelligenza artificiale è utilizzata da attori malevoli per diffondere menzogne e pilotare elezioni, ma le stesse tecnologie possono anche essere utilizzate per sostenere e proteggere la verità e i fatti.

Le elezioni regionali in Spagna non sono fino ad ora state coinvolte in pilotaggi, ma Irene Larraz e il suo staff di Newtral sono già preparati per gli effetti. La metà della forza lavoro di Larraz presso i media con sede a Madrid pianifica discorsi politici e dibattiti ogni mattina per prepararsi alle affermazioni dei politici checking. L’altra metà smorza le falsità, cerca falsità ampiamente diffuse e cerca di penetrare nelle organizzazioni che promuovono falsità.

fact checking intelligenza artificiale
Adobe Stock

Una volta che le elezioni nazionali devono essere detenute quando le elezioni di maggio saranno finite, il che probabilmente causerà un’impennata nelle voci su Internet. Sarà impegnativo, aggiunge Larraz. “Abbiamo già iniziato a prepararci.”

I controlli fatti in tutto il mondo affrontano una battaglia in salita a seguito della proliferazione di false informazioni e propaganda online perché devono setacciare e convalidare una voluminosa quantità di informazioni in situazioni complesse o sensibili al tempo come l’invasione russa dell’Ucraina, il Covid- 19 campagne pandemiche o elettorali. L’emergere di chatbot con enormi modelli linguistici, come il chatbot ChatGPT di OpenAI, che può generare istantaneamente il testo dal suono naturale e automatizzare efficacemente la diffusione della disinformazione, ha reso lo sforzo molto più difficile.

Usare l’intelligenza artificiale nel fact checking

I gruppi di fact checking sono costretti a creare le proprie tecnologie basate sull’IA al fine di automatizzare e accelerare il loro lavoro in risposta a questa disparità. In un momento in cui i giganti dei social media stanno riducendo i propri sforzi di moderazione, i controlli fatti sperano che questi nuovi strumenti impediscano almeno il divario tra loro e i loro avversari di crescere troppo rapidamente. È tutt’altro che una risposta adeguata o in qualche modo perfetta.

Tim Gordon, creatore di Best Practice AI, un’attività di strategia di intelligenza artificiale e consulenza di governance e fiduciario di un ente di beneficenza nel Regno Unito, afferma che la concorrenza tra i controlli dei fatti e quelli che stanno controllando è ingiusta.

Rispetto a quelli che diffondono disinformazione, i controlli di fatti sono spesso gruppi piuttosto piccoli, secondo Gordon. E questa competizione crescerà sempre più. Dato la portata di ciò che l’IA generativa può fare e la velocità con cui può farlo.

I modelli di Intelligenza Artificiale e il loro utilizzo

Nel 2020, Newtral iniziò a costruire il suo modello di lingua AI multilingue, Claimhunter. Per farlo ha usato le entrate della sua divisione TV, che crea documentari per HBO e Netflix e uno spettacolo.

Il team di controllo ha allenato il sistema per rilevare frasi che sembrano includere affermazioni fattuali. Tra qyeste  statistiche, cifre o confronti. Per farlo ha utilizzato 10.000 dichiarazioni e il modello di lingua BERT di Microsoft. L’algoritmo veniva addestrato per operare come controllo dei fatti. Questo secondo Rubén Mguez, Chief Technology Officer di Newtral.

È difficile persino identificare le asserzioni dei leader politici e dei social media che devono essere verificati. Un altro strumento converte la copertura video e audio dei politici in testo e Claimhunter usa entrambi per scoprire automaticamente le affermazioni politiche fatte su Twitter. Identificare le dichiarazioni che non sono chiare, domande o opinioni. Oltre ad evidenziare quelle che includono un reclamo significativo per la vita pubblica che può essere verificata o confutata prima di segnalarli ai fact checker di Newtral per la valutazione.

Sebbene il sistema occasionalmente classifichi erroneamente le opinioni come fatti e non sia impeccabile, le persone possono costantemente migliorarlo imparando dai suoi errori. Secondo Mguez, ha ridotto il tempo necessario per trovare asserzioni che vale la pena rivedere dal 70 all’80 %.

Avere questa tecnologia, secondo Larraz, è un grande passo verso l’ascolto di più politici. Portando ache miglioramenti nel trovare maggiori informazioni per verificare e dissipare più disinformazione. Potremmo fare solo una piccola parte del lavoro che svolgiamo ora in passato.

Impostazioni privacy