Intelligenza Artificiale: debutta GPT-4, il modello più potente mai diffuso al pubblico

Il modello di intelligenza artificiale (AI) più potente di OpenAI, in grado di scrivere di fare battute, elaborare immagini e molto altro, può essere anche pericoloso per l’umanità?

Il modello di intelligenza artificiale (AI) più potente e sorprendente creato da OpenAI, l’azienda che sta dietro a ChatGPT e all’artista Dall-E AI, è GPT-4, la sua versione più recente.

GPT-4 openai chatgpt intelligenza artificiale ai
Adobe Stock

Il sistema è in grado di superare l’esame di abilitazione, di risolvere enigmi e persino di fornire una ricetta per consumare gli avanzi in base a una foto del vostro frigorifero. Tuttavia, i suoi sviluppatori avvertono che è anche in grado di diffondere informazioni false, di sancire ideologie pericolose e persino di ingannare le persone affinché svolgano compiti per suo conto.

Qui di seguito troverete tutto quello che c’è da sapere sul nostro nuovo signore dell’intelligenza artificiale.

Cos’è GPT-4 e come funziona

GPT-4 è principalmente un dispositivo per la generazione di testi. Ma è davvero oltre l’immaginazione. Questo in quanto si scopre che essere molto abili nello scrivere un linguaggio equivale quasi a essere eccezionalmente abili nel comprendere e analizzare il mondo esterno.

Così, per esempio, se si dà al GPT-4 una domanda dell’esame di abilitazione all’esercizio della professione forense negli Stati Uniti, esso scriverà un saggio che dimostra una conoscenza giuridica. Se gli si dà una molecola medicinale e gli si chiedono delle variazioni, sembrerà che applichi una competenza biochimica. Nel caso gli si chieda di raccontare una barzelletta su un pesce, sembrerà che abbia il senso dell’umorismo. O almeno una buona memoria per le cattive barzellette sui cracker.

Cosa cambia con ChatGPT

Non esattamente. GPT-4, una potente tecnologia universale che può essere adattata a una varietà di scopi, è il motore se ChatGPT è l’automobile. Poiché ha funzionato nelle ultime cinque settimane su Bing Talk di Microsoft, quello che è impazzito e ha minacciato di spazzare via tutti, potreste averla già utilizzata.

GPT-4, tuttavia, non si limita solo ai chatbot. L’azienda di tecnologie assistive Be My Eyes lo sta utilizzando per creare uno strumento in grado di descrivere il mondo a una persona non vedente e di rispondere a domande successive su di esso. Duolingo ne ha integrato una versione nella sua applicazione per l’apprendimento delle lingue, in grado di spiegare agli studenti dove hanno sbagliato, anziché limitarsi a dire la cosa corretta da dire.

Cosa distingue il GPT-4 dalla precedente versione

Rispetto ai suoi fratelli maggiori, GPT-4 li supera in una serie di compiti tecnici. Si comporta meglio nei problemi matematici, si fa ingannare meno frequentemente nel fornire risposte false. Inoltre può ottenere punteggi piuttosto buoni nei test standardizzati (ad eccezione degli esami di letteratura inglese, dove si trova comodamente nella metà inferiore della classifica) e così via.

Inoltre, rispetto alla versione precedente, ha un senso etico più forte incorporato nel sistema. ChatGPT ha utilizzato il motore GPT-3.5 come base. Inoltre vi ha aggiunto dei filtri per cercare di impedire che rispondesse a query dannose o malevole. Il sistema rifiuterà rispettosamente di svolgere compiti come classificare le razze in base alla bellezza, fare battute sessiste o fornire istruzioni per sintetizzare il sarin, ora che tali filtri sono integrati in GPT-4.

Quindi il GPT-4 non può far danni?

OpenAI ha indubbiamente fatto uno sforzo in tal senso. L’azienda ha pubblicato un lungo studio che illustra i potenziali danni che il GPT-3 potrebbe produrre e contro i quali il GPT-4 ha delle difese. Anche i ricercatori esterni dell’Alignment Research Center hanno ricevuto una prima versione del sistema. L’hanno quindi testata per vedere se potevano far agire GPT-4 come un’AI malvagia da film distopico.

La maggior parte di queste attività non ha avuto successo, compresa l’incapacità di spiegare come avrebbe potuto duplicarsi. Ottenere ulteriore potenza di elaborazione o lanciare un attacco di phishing. Il sistema di intelligenza artificiale (AI) ha persino capito che avrebbe dovuto mentire al lavoratore e fingere di essere una persona cieca che non può vedere le foto. Ma i ricercatori sono comunque riusciti a imitarlo usando Taskrabbit per convincere un lavoratore umano a superare il test “sei umano”. Non è chiaro se un vero dipendente di Taskrabbit abbia partecipato alla sperimentazione.

Tuttavia, altri temono che quanto più efficacemente si insegnano le regole a un sistema di intelligenza artificiale, tanto più efficacemente lo si educa a disobbedire. L'”effetto Waluigi”, così chiamato perché la risposta alla domanda “devo essere etico?” è molto più semplice: sì o no, sembra essere il risultato di quanto sia difficile e complesso comprendere appieno cosa definisca esattamente un’attività etica. Il sistema eseguirà volentieri qualsiasi richiesta se si riesce a convincerlo di non essere amorale.

Impostazioni privacy