Analisi normativa, risposte dai bot di GenAI, e considerazioni alla luce di dati e ricerche disponibili: la sostenibilità dell’AI è un aspetto complesso con profondo impatto sulla sua evoluzione futura.
Il dilemma
Le due premesse principali sul rapporto tra intelligenza artificiale e sostenibilità ambientale ci restituiscono la dimensione di un dilemma, quasi un paradosso:
I sistemi di intelligenza artificiale inquinano, consumano, sono di per sé, intrinsecamente, sistemi energivori, tanto nella fase di interrogazione “della macchina” (quindi per “sputar fuori” gli output, i “responsi”, quando si parla di AI generativa) quanto, ancor più, nella fase di addestramento (training) della macchina;
Uno dei cosiddetti “requisiti fondamentali” per una AI “affidabile” (trustworthy) è proprio il benessere sociale e ambientale.
Vediamo insieme cosa ci dice la normativa (prossimamente applicabile), cosa ci dice la stessa genAI a riguardo, e quali possibili soluzioni si possono intravedere
Cosa dice la normativa
L’AI Act, di prossima pubblicazione in Gazzetta ufficiale UE e che diventerà applicabile per fasi fa espresso riferimento alla sostenibilità ambientale ed energetica. e ne sottolinea l’importanza in diversi punti.
Ne riportiamo solo un estratto, che a nostro avviso dà bene la dimensione dell’intero impianto, del “sentiment” che permea l’intero atto normativo.
“Con "benessere sociale e ambientale" si intende che i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia. L'applicazione di tali principi dovrebbe essere tradotta, ove possibile, nella progettazione e nell'utilizzo di modelli di IA. Essi dovrebbero in ogni caso fungere da base per l'elaborazione di codici di condotta a norma del presente regolamento. Tutti i portatori di interessi, compresi l'industria, il mondo accademico, la società civile e le organizzazioni di normazione, sono incoraggiati a tenere conto, se del caso, dei principi etici per lo sviluppo delle migliori pratiche e norme volontarie”;
“I fornitori e, se del caso, i deployer di tutti i sistemi di IA, ad alto rischio o meno, e modelli di IA dovrebbero inoltre essere incoraggiati ad applicare su base volontaria requisiti supplementari relativi, ad esempio, agli elementi degli orientamenti etici dell'Unione per un'IA affidabile, alla sostenibilità ambientale…”.
Cosa dice la GenAI di sé stessa
Alla domanda “Ti consideri un sistema green e sostenibile?”, Chat GPT ci ha risposto: “Come intelligenza artificiale, non ho un impatto ambientale diretto, ma il consumo energetico dei data center che mi ospitano può essere significativo. Tuttavia, molte aziende tecnologiche stanno adottando pratiche più sostenibili, come l'uso di energia rinnovabile, l'ottimizzazione dell'efficienza energetica e la riduzione delle emissioni di carbonio. Quindi, il mio impatto ambientale dipende in gran parte dalle pratiche ecologiche adottate dai provider di cloud computing e data center che mi ospitano”.
Un po’ pilatesco.
Abbiamo allora insistito con: “Pensi che i tool di intelligenza artificiale siano sistemi energivori?”
E allora ChatGPT ha aggiunto : “Sì, i tool di intelligenza artificiale possono essere energivori, specialmente durante la fase di addestramento dei modelli, che richiede risorse computazionali significative. L'addestramento di grandi modelli di machine learning richiede l'uso di potenti GPU e altri hardware specializzati, che consumano molta energia. Anche l'inferenza, cioè l'uso dei modelli addestrati per fare previsioni o generare risposte, può essere dispendiosa dal punto di vista energetico, sebbene in misura minore rispetto all'addestramento. Le aziende stanno lavorando per migliorare l'efficienza energetica dei loro modelli di intelligenza artificiale, utilizzando tecniche come la quantizzazione, la potatura e l'uso di hardware più efficiente dal punto di vista energetico. Inoltre, molti stanno passando a fonti di energia rinnovabile per alimentare i loro data center, cercando di ridurre l'impatto ambientale complessivo”.
Risposta forse un po’ “ruffiana”, ma interessante.
Vediamo allora, provando ad aggiungere un pizzico di creatività e pensiero umano, quali potrebbero essere alcuni scenari, o ipotetiche soluzioni percorribili, dopo un breve approfondimento sugli impatti ambientali ad oggi normalmente “imputabili” alla AI.
L'impatto energetico dei sistemi di AI
Ogni interazione online si basa perlopiù su dati archiviati in data center, che consumano energia per funzionare. Secondo i dati della International Energy Agency, i data center consumano attualmente tra l’1 e l’1,5% dell’elettricità globale.
Questa percentuale potrebbe aumentare con il boom della AI: i modelli linguistici di grandi dimensioni (gli LLM: i modelli linguistici su cui si basano le soluzioni di AI generativa) vengono addestrati con insiemi di dati testuali sempre più grandi e ciò richiede l'uso di server sempre più potenti. Considerando i benefici che l'AI produce in ogni campo in cui viene introdotta, conciliare lo sviluppo dell'AI con la sostenibilità ambientale appare come una sfida chiave.
Il processo di addestramento dei modelli di intelligenza artificiale è il primo fattore di impatto energetico: questo comporta infatti l'immissione di grandi quantità di dati negli “algoritmi”, che imparano a riconoscere modelli, a fare previsioni o a svolgere altri compiti. L’addestramento di tali modelli richiede in genere enormi risorse di calcolo, spesso sotto forma di cluster di calcolo ad alte prestazioni o di hardware specializzato come le unità di elaborazione grafica (GPU) o le unità di elaborazione tensoriale (TPU).
I modelli di “apprendimento profondo” (deep learning) hanno una particolare necessità di potenza di calcolo: come recentemente riportato da diversi studiosi e commentatori, l’addestramento di un singolo modello su larga scala può consumare energia equivalente al consumo di cinque automobili. Inoltre, man mano che le applicazioni di AI diventano più complesse e ad alta intensità di dati, la domanda di energia è destinata ad aumentare ulteriormente.
Oltre alla fase di addestramento, anche il consumo energetico operativo dei sistemi di AI merita attenzione.
Le applicazioni di AI utilizzate, come quelle che alimentano i motori di raccomandazione, i veicoli autonomi o le infrastrutture intelligenti, richiedono una potenza di calcolo continua per elaborare i dati e prendere decisioni in tempo reale. Sebbene il consumo energetico delle singole applicazioni di AI possa sembrare modesto, l'effetto cumulativo su milioni di dispositivi e server in tutto il mondo può essere significativo.
Inoltre, si prevede un aumento della domanda di energia dei sistemi alimentati dall'AI man mano che questa viene incorporata nei dispositivi e nelle infrastrutture di tutti i giorni attraverso l'Internet delle cose (IoT).
Questa proliferazione di dispositivi guidati dall’AI, unita alla crescente digitalizzazione della società, sottolinea l'importanza di affrontare il tema dell'efficienza energetica
Sul punto, vale solo la pena, per chiudere, un accenno al consumo d’acqua che la AI richiede: nel 2021 si è stimato che un data center medio, di una delle aziende che “fanno AI”, abbia consumato 2 milioni di litri d’acqua al giorno, circa la stessa quantità che servirebbe per irrigare 6,8 ettari di prato erboso una tantum; o per produrre 160 paia di jeans, compresa la coltivazione del cotone necessario (dati da ricerca Riverside dell'Università della California).
AI ibrida per una riduzione dei costi
Una possibile soluzione al problema della sostenibilità dell’intelligenza artificiale potrebbe arrivare dall’introduzione della cosiddetta AI ibrida, cioè che combini soluzioni di AI simbolica ed AI non simbolica come ad esempio quella “neurale”, provando di fatto ad “appoggiarsi” - per certe attività computazionali meno “ad alto consumo” - su un modello di AI meno dispendioso in termini di calcolo computazionale come ad esempio quello cosiddetto “simbolico”, rispetto ai modelli con approcci basati unicamente su machine learning o reti neurali: un’intensità computazionale inferiore comporta un minor consumo di energia, che si traduce a sua volta in una riduzione delle emissioni di carbonio (carbon footprint).
L’AI ibrida, una combinazione innovativa di AI simbolica e non simbolica (o sub simbolica o neurale), bilancia infatti i punti di forza di due aspetti distinti dell’AI, dando il via a una nuova ondata di soluzioni trasformative che consentono di prendere decisioni in tempo reale e di potenziare la creatività. L’AI ibrida può aiutare a ridurre i costi legati all'implementazione e alla gestione dei sistemi di AI e, quindi, a minimizzare l'impatto dell'Intelligenza Artificiale per quanto riguarda il consumo di energia.
Applicare una strategia di Intelligenza Artificiale Ibrida significherebbe tenere conto di due aspetti cruciali: soddisfare le esigenze dell'applicazione dell'AI, ma gestire la flessibilità dei costi legati all'AI e l'impatto dell'uso di questa tecnologia in termini di sostenibilità energetica.
Di seguito alcuni modi per realizzare un tale processo:
Razionalizzazione ed efficientamento delle risorse: utilizzare in modo più efficiente le risorse eterogenee, scaricando i carichi di lavoro meno intensivi su dispositivi edge o hardware meno potenti, risparmiando sui costi di calcolo e di infrastruttura;
Agilità e flessibilità: l'approccio ibrido consente di scalare l'infrastruttura in modo flessibile su richiesta, per cui è possibile, ad esempio, assegnare più risorse cloud nei periodi di picco e rilasciarle quando la domanda diminuisce, garantendo una gestione dei costi più dinamica ed efficiente;
Utilizzo di modelli “più lean”: il miglioramento dei modelli di intelligenza artificiale aiuta a ridurre i requisiti computazionali e i costi associati;
Edge computing: spostando parte del processo decisionale sui dispositivi edge, è possibile ridurre la necessità di trasferire grandi quantità di dati attraverso le reti, risparmiando risorse di trasferimento dati e sfruttando la capacità di calcolo locale;
Adattamento sulla base delle risorse disponibili: adattare le risorse di elaborazione in base alle caratteristiche particolari del carico di lavoro e di ridurre i costi dell'infrastruttura;
Utilizzare “servizi gestiti”: l'uso di servizi di cloud computing gestiti per fornire sistemi di intelligenza artificiale riduce i costi operativi e rende la gestione dell'infrastruttura snella e semplice;
Ottimizzazione del ciclo di vita del modello: il controllo e l'ottimizzazione dei modelli di intelligenza artificiale nel corso del tempo contribuiscono a mantenere buone prestazioni e a contenere i costi; ciò include la formazione ricorrente, la compressione del modello e l'ottimizzazione dei parametri.
Una questione di bilanciamento
Conciliare innovazione e sostenibilità ambientale richiede uno sforzo collettivo per sviluppare e distribuire le tecnologie di AI in modo da ridurre al minimo la carbon footprint e massimizzarne il contributo positivo alla società.
Inoltre, affrontare le implicazioni energetiche dell'AI non è solo una questione ambientale, ma anche una questione di equità e di accesso: sistemi di AI ad alta intensità energetica possono esacerbare i divari esistenti nell'allocazione delle risorse e nell'accesso alla tecnologia, in particolare nelle regioni con infrastrutture energetiche limitate o costi energetici elevati. Garantire un accesso equo a soluzioni di AI efficienti dal punto di vista energetico è essenziale per promuovere una crescita inclusiva e ridurre le disuguaglianze socioeconomiche.
In conclusione, le implicazioni energetiche dell'AI presentano sfide e opportunità significative per lo sviluppo sostenibile. Accogliendo l'innovazione, promuovendo la collaborazione e adottando un approccio più integrato alla gestione dell'energia, sarebbe possibile sia sfruttare la potenza dell'AI sia proteggere il nostro pianeta per le generazioni future. Tutto questo non può accadere senza un'azione concertata e una gestione responsabile delle migliori tecnologie “green”.
L’uso (virtuoso) di particolari applicazioni di AI (ad esempio, nella gestione e razionalizzazione proprio delle risorse energetiche e ambientali) potrebbe inoltre fornire molte delle soluzioni al tema critico della sostenibilità di questa tecnologia.
Per approfondire:
https://www.ai4business.it/intelligenza-artificiale/modelli-ibridi-per-lintelligenza-artificiale/
https://www.humai.it/lapproccio-neuro-simbolico-intuitivo-e-razionale/
https://ital-ia.it/quali-sono-le-diverse-tipologie-di-intelligenza-artificiale/
https://bitrock.it/blog/technology/the-energy-impact-of-ai-and-how-hybrid-ai-could-be-an-answer.html
https://www.revelis.eu/intelligenza-artificiale-neuro-simbolica-le-applicazioni-per-il-tuo-business/
Il filo di AIRIA
A cura della redazione e dei soci di AIRIA, Associazione per la Regolazione dell’Intelligenza Artificiale (https://www.airia.it/), “Il filo di AIRIA” raccoglie contributi, articoli e pubblicazioni relativi al rapporto osmotico e per sua natura trasversale che vede l'intelligenza artificiale influenzare - ed essere influenzata - tanti settori della nostra vita, della nostra società. Fondata nel 2024, AIRIA accoglie tra i suoi soci giuristi, manager e esperti di regolazione provenienti dal mondo delle imprese, delle professioni legali, dall’accademia, con esperienza nel settore della ricerca teorica e applicata.
Comentários