Sono due argomenti di cui tutti parlano, ma se è vero che l’Intelligenza Artificiale finirà per penetrare tutti i nostri modelli di business, allora è necessario anche capire quale è il suo impatto dal punto di vista della sostenibilità, tematica che vincolerà sempre di più le aziende nel futuro.
Infatti per quanto ci piaccia pensare alla nostra attività come dematerializzata, il costo energetico di questa corsa al digitale è invece assolutamente percepibile.
Il costo energetico delle tecnologie digitali
Le tecnologie digitali richiedono un’imponente infrastruttura fisica per funzionare, costituita da dispositivi terminali, centri di calcolo e reti div telecomunicazione. Per sostenere tutte queste risorse si stima , in base ai diversi modelli di calcolo, che il costo energetico totale del settore ICT si aggiri su valori tra il 5 e il 10% del consumo elettrico mondiale, analoghi all’apporto del settore dell’aviazione e decisamente destinati a una crescita continua.
Con l’arrivo dei modelli IA sempre più complessi le richieste di capacità di calcolo e memoria sempre più performanti avranno un impatto significativo sul bilancio energetico mondiale , considerato che i tempi di raddoppio della capacità computazionale son passati dai 20 mesi del decennio passato ai 6 mesi attuali.
La fase di apprendimento
Per poter tradurre questa evoluzione esponenziali in termini energetici possiamo far riferimento all’analisi svolta da ricercatori di Google e dell’Università di Berkeley in California (Patterson et al., 2021) che riporta i valori di consumo energetico richiesto per l’addestramento di alcuni popolari modelli di IA, indicativamente intorno al centinaio di MegaWatt ora (MWh), con un picco di 1.287 MWh riportato per GPT-3.
Possiamo paragornare questi valori di energia con quelli che servono ad un essere umano per imparare quello che sa. Considerato un assunzione giornaliera di 2000 kcal al giorno, una persona in 14 anni di vita consuma circa 12 MWh e a 25 anni, al termine dell’università, circa 22 MWh. Con alcune sostanziali approssimazioni cui possiamo ricorrere in quanto ci interessa solo l’ordine di grandezza, possiamo stimare che circa i 2/3 delle calorie ingerite siano servite per studiare e vivere quelle esperienze che contribuiscono a creare il bagaglio culturale di una persona.
Quindi in sostanza i maggiori modelli di IA oggi esistenti hanno richiesto da dieci a cento volte l’apporto energetico che è invece necessario ad un adolescente per formulare ragionamenti più complessi di quelli che un algoritmo al momento può fare.
D’altra parte però, una volta addestrato, un singolo modello è in grado di soddisfare potenzialmente centinaia di milioni di utenti. Quindi Il problema non sta nell’addestramento, che è comunque limitato nel tempo, ma nell’utilizzo su grande scala.
La fase di utilizzo
Le reti neurali profonde (deep neural network) sono sempre più diffuse in ogni ambito: dagli smartphone alle automobili fino ai modelli di grandi dimensioni dei centri di calcolo. E questi modelli sono ormai utilizzati da oltre il 50% delle imprese in Europa e stati Uniti.
Al momento non si hanno dati certi sul consumo energetico dei sistemi in esercizio, ma alcune fonti delle Big tech suggeriscono che potrebbe essere almeno dieci volte superiore rispetto alla fase di addestramento.
Ci si può quindi attendere che, come già dimostrato in passato proprio dal settore informatico, il consumo energetico delle tecnologie IT sarà destinato ad aumentare significativamente, anche a fronte dei progressi in termini di efficienza energetica degli HW e degli algoritmi, in quanto sarà determinato dall’effetto moltiplicativo dell’utilizzo su scala mondiale di questi algoritmi. La sostenibilità di tale evoluzione digitale deve quindi entrare quanto prima nel dibattito globale o a livello tecnico, normativo e di ricerca e sviluppo, o sarà l’ennesimo ostacolo ad un efficace percorso verso un futuro sostenibile.
Lascia un commento