Facciamo chiarezza sull’Intelligenza artificiale

Intervista a Mariella Borghi, consulente esperta in AI

Da poco più di un anno, i discorsi sull’Intelligenza Artificiale si sono moltiplicati. Eppure l’AI è presente in tantissime applicazioni da molti anni. La viralità è nata da quando è stata resa disponibile al grande pubblico ChatGPT. Oggi sembra che tutto si riduca alla generative AI, che però rappresenta una piccola porzione dell’Intelligenza Artificiale. La confusione è tanta e per fare qualche distinguo abbiamo intervistato Mariella Borghi, esperta di AI reduce dal TedX Belluno dove ha portato un talk su questo argomento.

Chat GPT è diventato sinonimo di Intelligenza Artificiale. Forse vale la pena di chiarirlo una volta per tutte che non è così?
Da parte mia lo ripeto da tempo: l’Intelligenza Artificiale non è solo Chat GPT, ma è un universo vasto e diversificato, composto da una grande varietà di tecnologie. Sono decenni che l’AI viene applicata e utilizzata in molte situazioni, la maggior parte delle volte senza neppure saperlo. Le ricerche su Google, le foto fatte con i nostri smartphone, le interazioni con gli assistenti digitali ne sono un esempio.

Dunque l’AI generativa è solo una frazione dell’intero spettro dell’Intelligenza Artificiale, però la troviamo così affascinante perché, in fondo, ci assomiglia. Se ci pensiamo, non è la prima volta che le macchine ci parlano, per esempio Alexa, a Siri, ma anche ai chatbot di cui discutevamo già con voi di CMI nel convegno del 2017. Però è la prima volta che una macchina ci parla in modo così credibile, così umano, così ricco di toni e di sfumature. È come se ci guardassimo allo specchio. Tutto questo ci induce a pensare che l’AI generativa sia diversa dalle altre intelligenze artificiali e che sia quella più importante, quando in realtà non è esattamente così.

Chat GPT sembra saper rispondere a tutte le nostre domande. Il rischio è quello di considerare le Intelligenze Artificiali generative un oracolo capace di darci tutte le risposte che cerchiamo. Cosa ne pensi?
Le aspettative sono, ad oggi, irrealistiche anche perché l’Intelligenza Artificiale generativa viene spesso presentata come la panacea di tutti i mali, come uno strumento capace di risolvere tutto. Questo è l’aspetto più pericoloso: la stiamo sopravvalutando per quello che può fare oggi. Dobbiamo invece essere consapevoli del fatto che l’Intelligenza Artificiale non è né un oracolo né una bacchetta magica. Al contrario, si tratta di uno strumento che, in questo momento, ha bisogno di una continua supervisione umana, perché non c’è alcuna garanzia che le risposte che riceviamo siano corrette e non frutto di allucinazioni. Al momento non ci sono sistemi in grado di verificare che i risultati di un compito dato all’AI generativa siano veramente attendibili. Non ci resta che affidarci ancora a doti molto umane, come il buon senso e il pensiero critico.

Nel mio lavoro quotidiano mi trovo di fronte a molte aziende che vedono l’AI generativa come la soluzione a tutti i loro problemi. Non è così, anzi l’Intelligenza Artificiale, tutta, può essere un’arma a doppio taglio se non la si implementa con criterio. Per farlo occorre seguire dei passi precisi: per prima cosa occorre descrivere con precisione in quale ambito vogliamo applicarla, quindi definire quali problemi vogliamo risolvere e verificare se possono veramente essere affrontati con l’AI o se è sufficiente un’altra tecnologia.

Ma a cosa può servire davvero?
Che l’AI Generativa serva a creare contenuti lo abbiamo capito tutti. Può essere considerata anche un assistente nel proprio lavoro, per esempio è utile nel creare velocemente dei report o per visualizzare dei dati. Nell’ambito della relazione con il cliente può essere utilizzata sia per addestrare chatbot capaci di dare risposte più articolate e pertinenti, sia per dare uno strumento aggiuntivo agli operatori. Le tecnologie attuali consentono di unire la potenza dei large language model con la base dati aziendale e questo permette di arricchire la capacità linguistica dei chatbot. Quest’ultimo approccio, chiamato Retrieval Augmented Generation (RAG),  è molto interessante perché migliorare l’efficacia delle applicazioni degli LLM (Large Language Model) sfruttando dati personalizzati. Ciò viene fatto recuperando dati/documenti rilevanti per una domanda o un’attività e fornendoli come contesto per il LLM.

Vorrei però aggiungere che non bisogna scordare i problemi etici che l’uso dell’Intelligenza Artificiale, specie quella generativa, ha sollevato. Lo sviluppo delle tecnologie deve tenere conto anche di questo aspetto e per fortuna la maggior parte delle aziende che producono software, anche potenziato dall’AI generativa, sono molto attente al rispetto della privacy, alla protezione dei dati e al rischio di allucinazioni.

Infine c’è il tema delle competenze. Non dobbiamo diventare tutti degli informatici o degli ingegneri, però qualche competenza diversa forse dobbiamo averla. Quali sono queste competenze e come si fa a farle emergere e a coltivarle?
Nessuno di noi deve diventare un ingegnere o un’ingegnera, ma sicuramente occorre una buona dose di curiosità e di voglia di capire argomenti e tecnologie complesse. Io, che non sono ingegnera, ho sempre lavorato con dei colleghi e delle colleghe che mi hanno donato il loro sapere spiegandomi i concetti in modo semplice e quindi ho avuto una base molto molto solida. Il mio consiglio quindi è leggere, seguire dei corsi ad hoc e scegliere un divulgatore o una divulgatrice per cercare di capire davvero come funziona l’Intelligenza Artificiale seguendo e applicando ciò che scrivono. Anche perché se non capiamo di che cosa è composta l’Intelligenza Artificiale e quello che possiamo davvero fare con essa, rischiamo di voler costruire astronavi che non possono esistere perché non sono realizzabili con le tecnologie attuali. Solo con una conoscenza approfondita è possibile capire quali sono i casi d’uso realistici e come calarli nella propria realtà aziendale e professionale.

COMMENTI