L’Intelligenza artificiale controllerà i codici nucleari degli stati?

Una nuova proposta del Dipartimento di Stato chiede ai Paesi stranieri di accettare restrizioni sulla capacità dell’Intelligenza Artificiale (AI) in campo militare.

Il dipartimento di stato ha delineato la scorsa settimana una nuova visione per lo sviluppo. Oltre al collaudo e la verifica dei sistemi militari, comprese le armi, che utilizzano l’intelligenza artificiale (AI).

intelligenza artificiale ai militare nucleare
Adobe Stock

Con la Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia, gli Stati Uniti cercano di guidare lo sviluppo dell’Intelligenza Artificiale militare in un momento critico per questa tecnologia. L’esercito degli Stati Uniti non è legalmente vincolato dalla dichiarazione. Ma si spera che i Paesi alleati accettino le sue idee. Creando in tal modo una sorta di norma internazionale per lo sviluppo etico dei sistemi di intelligenza artificiale (AI).

Intelligenza artificiale e armi, si viaggia sul filo del rasoio

La dichiarazione richiede, tra l’altro, che i governi siano aperti sui principi guida della loro tecnologia, che vengano applicati criteri rigorosi per valutare l’efficacia dei sistemi di IA e che l’IA militare venga creata in conformità con le regole internazionali. Inoltre, afferma che solo le persone in carne ed ossa dovrebbero decidere se impiegare armi nucleari.

Le autorità militari statunitensi hanno spesso rassicurato che, quando si tratta di sistemi d’arma autonomi, una persona sarà comunque “coinvolta” nelle decisioni sull’uso della forza letale. Tuttavia, questo non è un requisito della politica ufficiale, che è stata modificata quest’anno dopo essere stata inizialmente rilasciata dal Dipartimento della Difesa nel 2012.

Gli sforzi per stabilire un divieto globale sulle armi autonome sono finora falliti. In seno alle Nazioni Unite, la Croce Rossa Internazionale e organizzazioni come Stop Killer Robots si sono battute per un accordo. Ma alcuni importanti Paesi, tra cui Stati Uniti, Russia, Israele, Corea del Sud e Australia, hanno mostrato riluttanza a firmare.

Una spiegazione è che molti funzionari del Pentagono ritengono essenziale e inevitabile che le forze armate impieghino più spesso l’intelligenza artificiale, soprattutto al di fuori dei sistemi non militari. Essi sostengono che un divieto ostacolerebbe il progresso tecnologico americano rispetto a concorrenti come Cina e Russia. La battaglia in Ucraina ha dimostrato quanto rapidamente l’autonomia, sotto forma di droni economici e usa e getta che stanno diventando sempre più abili grazie ad algoritmi di apprendimento automatico che ne aiutano la percezione e l’azione, possa aiutare un combattente a ottenere un vantaggio.

Google: intelligenza artificiale al servizio del Pentagono

In passato si è parlato dell’iniziativa dell’ex amministratore delegato di Google Eric Schmidt di potenziare l’intelligenza artificiale (AI) del Pentagono per evitare che gli Stati Uniti restino indietro rispetto alla Cina. Dopo mesi di reportage sugli sforzi per integrare l’IA in sistemi militari cruciali, è uscito un solo articolo che spiega come questa sia ormai una componente fondamentale della politica militare statunitense. Anche se molte tecnologie sono ancora agli albori e non sono ancora state messe alla prova in una crisi.

La nuova dichiarazione degli Stati Uniti è stata raccolta da Lauren Kahn, ricercatrice presso il Council on Foreign Relations, come una possibile pietra miliare per un’applicazione più etica dell’Intelligenza Artificiale militare a livello globale.

L’uso dell’intelligenza artificiale nei droni militari

Alcuni Paesi possiedono già armi in grado di funzionare in situazioni specifiche senza il diretto controllo umano. Come le difese missilistiche che richiedono una velocità sovrumana per avere successo. Quando i droni operano al di fuori del raggio di comunicazione umano o in sciami troppo complessi per essere controllati da un essere umano. Ad esempio, un maggiore utilizzo dell’AI può portare a un maggior numero di situazioni in cui i sistemi si comportano autonomamente.

Alcune affermazioni sulla necessità dell’Ai nelle armi, in particolare quelle fatte dalle aziende che sviluppano la tecnologia, sembrano ancora poco realistiche. Molte truppe potrebbero essere diffidenti nei confronti di sistemi che si basano su algoritmi tutt’altro che perfetti. Ci sono state affermazioni sull’impiego di armi completamente autonome in battaglie recenti e sull’aiuto dell’IA in attacchi militari mirati. Ma non sono state convalidate.

Lo sviluppo di armi autonome procederà comunque se non sarà possibile metterle fuori legge. Anche se l’ingegneria necessaria per implementare pienamente obiettivi come quelli della nuova dichiarazione degli Stati Uniti non è ancora stata finalizzata. Sarà fondamentale garantire che le Intelligenze Artificiali in questione funzionino come previsto.

Impostazioni privacy