Intelligenza Artificiale: è sostenibile l’utilizzo di massa? Ma soprattutto, chi paga?

Coloro che usano DALL-E per creare immagini uniche o ChatGPT per comporre testi elaborati da intelligenza artificiale consumano molte risorse cloud. Chi pagherà il conto per tutto questo?

L’intelligenza artificiale consuma molte risorse su qualsiasi piattaforma. Naturalmente inclusi i cloud pubblici. La maggior parte della tecnologia AI richiede frequenti calcoli di inferenza, che si traducono in maggiori requisiti di elaborazione, rete e archiviazione. Oltre a maggiori bollette elettriche, spese infrastrutturali e emissioni di anidride carbonica.

intelligenza artificiale consumi emissioni
Adobe Stock

L’avvento di sistemi di intelligenza artificiale generativa come ChatGPT ha riportato questo problema in primo piano. Con la popolarità di questa tecnologia e il previsto aumento del suo utilizzo da parte di aziende, governi e pubblico in generale, la curva di crescita del consumo energetico potrebbe assumere un arco preoccupante.

L’uso di massa dell’intelligenza artificiale sarà sostenibile

L’intelligenza artificiale è stata possibile sin dagli anni ’70. Ma inizialmente ha avuto scarso effetto commerciale a causa della grande quantità di risorse necessarie per il funzionamento di un sistema di intelligenza artificiale a tutti gli effetti. A vent’anni di distanza, ho progettato sistemi abilitati all’intelligenza artificiale che sarebbero costati più di $40 milioni in hardware, software e spazio nel data center per essere operativi. Avviso spoiler: il progetto, così come molti altri programmi di intelligenza artificiale, non ha mai visto la luce del giorno. In poche parole, gli argomenti commerciali non hanno funzionato.

Il Cloud ha cambiato tutto. Ciò che prima era irraggiungibile è ora sufficientemente conveniente da essere realizzabile con i cloud pubblici. In effetti, come ci si potrebbe aspettare, l’ascesa del cloud ha coinciso con l’emergere dell’intelligenza artificiale negli ultimi 10-15 anni. Ora sono indissolubilmente legati.

Costo e sostenibilità delle risorse cloud

Non serve molto sforzo per prevedere cosa accadrà qui. Aumenterà la domanda di servizi di intelligenza artificiale, come i sistemi di intelligenza artificiale generativa che stanno attualmente attirando l’attenzione, così come altri sistemi di intelligenza artificiale e apprendimento automatico. Questo incremento sarà guidato da aziende alla ricerca di un vantaggio competitivo. Tra queste le reti di fornitura intelligenti, o da migliaia di studenti universitari alla ricerca di un sistema di intelligenza artificiale generativa per creare le loro tesine.

L’aumento della domanda di intelligenza artificiale comporta un aumento della domanda delle risorse su cui si basano i sistemi, come i cloud pubblici e i servizi che offrono. Molto probabilmente verranno costruiti più data center contenenti computer e apparecchiature di rete ad alto consumo energetico per soddisfare questa esigenza.

Le società di cloud pubblico, come qualsiasi altro fornitore di risorse di servizi pubblici, aumenteranno i costi quando la domanda aumenta. Proprio come vediamo aumenti stagionali delle bollette elettriche domestiche (anche in base alla domanda). Di conseguenza, di solito riduciamo i nostri consumi, impostando l’aria condizionata a 74 gradi invece che a 68 gradi in estate.

Le maggiori spese di cloud computing, d’altro canto, potrebbero non avere lo stesso impatto sulle aziende. Le aziende potrebbero scoprire che queste tecnologie AI non sono opzionali e devono essere utilizzate per alimentare attività aziendali vitali. In molte circostanze, si sforzeranno di risparmiare denaro all’interno dell’azienda. Possibilmente riducendo il numero di persone per compensare la spesa dei sistemi di intelligenza artificiale. Non è un segreto che i sistemi di intelligenza artificiale generativa sostituiranno presto un gran numero di professionisti dell’informazione.

Quali opzioni ci sono al momento

Cosa possiamo fare se la necessità di risorse per far funzionare i sistemi di intelligenza artificiale porta a un aumento dei prezzi dei computer e della produzione di carbonio? Forse la soluzione è creare modi più efficienti per l’AI di utilizzare risorse come l’elaborazione, il networking e l’archiviazione.

Riducendo al minimo la quantità di dati elaborati, il campionamento di una pipeline, ad esempio, può accelerare il deep learning. Secondo la ricerca del MIT e di IBM, questa strategia può ridurre al minimo le risorse necessarie per far funzionare una rete neurale su enormi set di dati. Tuttavia, riduce la precisione, che può essere accettabile per alcuni casi d’uso commerciale. Ma non per tutti.

L’in-memory computing è un altro metodo già utilizzato in altre aree della tecnologia. Evitando il trasferimento di dati dentro e fuori la memoria, questo design può accelerare il calcolo dell’IA. Invece, i calcoli AI vengono eseguiti direttamente all’interno del modulo di memoria, il che velocizza notevolmente le cose.

Sono in fase di sviluppo tecniche alternative, come miglioramenti ai processori fisici, ad esempio l’utilizzo di coprocessori per i calcoli AI per aumentare la velocità, o modelli di calcolo di nuova generazione, come il quantistico. È probabile che i più grandi fornitori di cloud pubblico facciano diversi annunci su tecnologie che saranno in grado di superare molte di queste difficoltà.

Gestione cookie