Google e Microsoft stanno per rivoluzionare il mondo dell’intelligenza artificiale, ecco come

Bing di Microsoft ha dichiarato che Bard di Google è stato bloccato perché ha erroneamente incluso un tweet scherzoso in un rapporto. Non è di buon auspicio per la diffusione di false informazioni online.

Anche se Bard  di Google chiarisce ai consumatori che si tratta di un esperimento, molti utenti potrebbero prendere la cosa sul serio. Con tutti i rischi che ne conseguono.

intelligenza artificiale google microsoft bard openai
Adobe Stock

Se non pensate che l’adozione frettolosa di chatbot alimentati da intelligenza artificiale (AI) da parte delle Big Tech possa danneggiare seriamente l’ecologia dell’informazione sul web, dobbiamo tenere conto di questo:

“In questo momento*, se chiedete al chatbot Bing di Microsoft se il chatbot Bard di Google è stato chiuso, vi risponderà di sì. Citando come prova un articolo di cronaca che parla di un tweet in cui un utente chiedeva a Bard quando sarebbe stato chiuso e Bard rispondeva che l’aveva già fatto. Citando a sua volta un commento di Hacker News in cui qualcuno scherzava su questo fatto e qualcun altro usava ChatGPT di OpenAI per scrivere notizie false sull’evento.”

(ndr. Si riporta “al momento” perché Bing ha aggiornato la sua risposta e ora afferma con precisione che Bard è ancora attivo nel mentre che si stava terminando la redazione di questo articolo. Questo può essere visto come una prova del fatto che questi sistemi sono almeno riparabili o che sono modificabili all’infinito. Rendendo difficile persino rivelare in modo affidabile i loro errori).

Gli errori delle intelligenze artificiali

Il chatbot Bing di Microsoft cita erroneamente un articolo di cronaca per affermare che il chatbot Bard di Google è stato disattivato.

Si tratta di un segnale di allarme che indica che stiamo entrando in un gioco di battaglia informativa su larga scala. Uno scenario nel quale i chatbot non sono in grado di determinare se le fonti di notizie sono affidabili. Oltre al fatto che interpretano male i racconti su se stessi ed esagerano i propri talenti. In questo caso, un singolo commento umoristico di Hacker News è stato alla base dell’intera situazione. Non è difficile a questo punto immaginare alle cose che qualcuno potrebbe fare fare per far fallire questi sistemi.

È uno scenario abbastanza grottesco quello che si delina. Ma che potrebbe avere ripercussioni importanti. Poiché i modelli linguistici dell’intelligenza artificiale (AI) non sono in grado di distinguere in modo affidabile tra realtà e finzione, la loro introduzione online rischia di lasciare una scia di falsità e sfiducia che sarà difficile da tracciare completamente o da confutare in modo autorevole. Tutto ciò è dovuto alla decisione di Microsoft, Google e OpenAI di anteporre il dominio del mercato alla sicurezza.

Queste aziende possono usare tutti gli avvertimenti che vogliono per descrivere i loro chatbot come “esperimenti”, “collaborazioni” e chiaramente non motori di ricerca. Ma è una difesa debole. Siamo consapevoli di come gli individui utilizzino questi sistemi e abbiamo già visto come propaghino informazioni false inventando nuove storie che non sono mai state pubblicate. Oppure sostenendo di essere libri che non sono mai stati pubblicati. E ora stanno anche notando gli errori degli altri.

Impostazioni privacy