Durante il 2023 abbiamo cominciato a renderci conto dell’impatto dell’Intelligenza Artificiale sulle attività economiche e in generale sulla vita di tutti noi. Tra “apocalittici e integrati”, per citare il famoso saggio di Umberto Eco del 1964, è diventato sempre più evidente che non possiamo restare indifferenti a questa innovazione tecnologica e soprattutto non possiamo evitare di dare forma e regole all’uso dell’intelligenza artificiale.
L’anno dell’AI Act
Il 2024, durante il quale l’onda del massimo interesse verso l’AI dovrebbe ritirarsi verso un ciclo di disillusione (vedi il ciclo dell’hype definito da Gartner ), sarà l’anno in cui cominceremo a mettere alla prova l’AI Act, che ha superato un passaggio cruciale a fine dicembre con l’approvazione della versione nata dall’accordo tra Parlamento e Consiglio Europeo, ma che deve ancora affrontare gli incontri tecnici. L’iter è ancora lungo e la data stimata per l’entrata in vigore è il 2026, ma nel frattempo con l’AI Pact le aziende possono aderire in modo volontario al sistema di regole definito. Non è un documento semplice, ma quello che emerge è la volontà di tenere in equilibrio la spinta alla trasformazione e all’innovazione e i diritti inviolabili dell’individuo, quali la libertà e la privacy.
Le questioni più spinose hanno infatti riguardato l’utilizzo dei sistemi AI nell’ambito del lavoro delle polizie e nel riconoscimento delle emozioni delle persone. Molte voci critiche si sono levate, sia preoccupate sul versante dei diritti civili, sia su quello del freno burocratico all’adozione di una tecnologia che promette sviluppo per le nostre economie. Tornermo a parlarne nei prossimi editoriali.
L’impatto sull’ambiente dell’AI
C’è un altro tema che comincia ad affacciarsi e che verrà sempre più discusso: l’ingente consumo di energia necessaria per far funzionare le applicazioni AI. Sappiamo che siamo arrivati a questa rapida evoluzione dell’AI, dei Large Language Model, del Machine Learning, perché siamo in grado di costruire elaboratori con un’alta capacità di calcolo. Macchine particolarmente energivore, anche perché richiedono sistemi di raffreddamento per tenere sotto controllo la temperatura. Questo alto consumo di energia elettrica porta con sé, almeno fino a quando utilizzeremo fonti fossili, una produzione eccessiva di CO2. A proposito di questo argomento ho letto un interessante articolo su The Guardian che tra l’altro ricorda uno studio del 2019 che “ha stimato l’impronta di carbonio dell’addestramento di un singolo grande modello di linguaggio precoce (LLM) come GPT-2 a circa 300.000kg di emissioni di CO2 – l’equivalente di 125 voli di andata e ritorno tra New York e Pechino. Da allora, i modelli sono diventati esponenzialmente più grandi e le loro impronte di formazione saranno quindi proporzionalmente più grandi”.
Recentemente i ricercatori si sono anche domandati quanto consumano le singole attività e una riflessione bisognerà pur farla in questa direzione. Soprattutto per avere un uso più responsabile e consapevole di questi sistemi che all’apparenza non sembrano avere un impatto sull’ambiente. Sarà difficile farlo, ma prima o poi bisognerà cominciare a pensarci.
L’influenza a lungo termine dell’AI
Essendo immersi in questa trasformazione epocale, non abbiamo la possibilità di prevedere quale sarà l’influenza a lungo termine dell’inserimento dell’AI su tutte le attività umane. Abbiamo la certezza che vedremo gli effetti più rapidamente di altre trasformazioni del passato. Oltre all’impatto ecologico di cui sopra, ci sono almeno due altri aspetti che andranno osservati con attenzione. Il primo riguarda l’incremento delle capacità umane che otteniamo con l’AI. Di solito vengono messe in luce gli aspetti positivi, ma non possiamo dimenticare che questa potenza è a disposizioni anche delle menti criminali, che infatti non hanno esitato a iniziare ad utilizzarla.
Il secondo è relativo ai vantaggi economici che potrebbero derivare: cerchiamo di andare oltre ai proclami e capire come veramente possiamo ottenerli questi vantaggi. Sembra che di strada ce ne sia ancora tanta da fare se a dicembre Julie Sweet, chief executive di Accenture ha dichiarato che “la maggior parte delle aziende non sono pronte a implementare l’intelligenza artificiale generativa su larga scala perché mancano di una solida infrastruttura di dati o dei controlli necessari per assicurare che la tecnologia venga utilizzata in modo sicuro”.
COMMENTI