Nel dibattito sull’intelligenza artificiale stiamo entrando in una fase nuova. Non parliamo più soltanto di sistemi che analizzano dati o supportano decisioni, ma di agenti capaci di agire, coordinarsi, interagire tra loro e portare a termine compiti complessi. Non è un caso che in queste settimane l’attenzione mediatica si sia concentrata su piattaforme come Moltbook, presentato come un “social network per agenti AI”. L’idea di ecosistemi in cui agenti autonomi collaborano, si scambiano informazioni e operano in rete sta rapidamente passando dalla sperimentazione alla conversazione pubblica.
L’hype è comprensibile. Ma ogni salto di autonomia tecnologica apre una domanda più profonda: chi governa questi sistemi, con quali regole, con quali responsabilità e con quali identità? L’AI che diventa agentica non introduce solo nuove opportunità di efficienza e automazione. Introduce soprattutto nuove forme di rischio, perché sposta il baricentro della fiducia: non più solo nei dati o negli algoritmi, ma nell’azione autonoma dei sistemi e nel modo in cui persone, organizzazioni e infrastrutture sono preparate a governarla.
Il lato oscuro dell’autonomia: quando l’AI amplifica l’inganno
Gli scenari descritti da Proofpoint nella sua analisi su GenAI, social engineering e workspace agentico mostrano con chiarezza cosa cambia quando la GenAI e l’ Agentic AI finiscono nelle mani sbagliate. Il social engineering diventa industriale, scalabile, personalizzato in tempo reale. Le email di phishing non sono più approssimative: sono contestuali, multilingua, credibili. Le frodi vocali sfruttano deepfake audio capaci di imitare dirigenti e figure chiave, facendo leva su urgenza e fiducia. Ancora più insidiosa è la cosiddetta shadow AI: l’uso non governato di strumenti generativi da parte di dipendenti in buona fede, che copiano codice, dati o credenziali in assistenti pubblici pur di accelerare il lavoro. In questi casi, la vulnerabilità non nasce da un attacco diretto, ma da una scelta organizzativa mancata: assenza di policy chiare, formazione insufficiente, mancanza di alternative sicure. Qui l’AI non è il problema, ma diventa il moltiplicatore.
Il workspace diventa agentico
Quando l’AI smette di essere solo uno strumento e diventa un attore, cambia anche il perimetro del lavoro digitale. Patrick Joyce, Global Resident CISO di Proofpoint, parla di workspace agentico: un ambiente in cui persone e agenti AI collaborano, scambiano informazioni, agiscono sugli stessi processi. In questo contesto, ogni interazione diventa potenzialmente un rischio. Gli strumenti di sicurezza tradizionali, progettati per email e applicazioni cloud, restano necessari ma non sufficienti. Servono controlli agent-aware, visibilità sui flussi di dati, capacità di intercettare prompt malevoli e di applicare policy non solo agli utenti umani, ma anche agli agenti.Il punto chiave è che l’autonomia senza controllo non scala. E quando scala, può farlo nella direzione sbagliata.
Le identità come nuovo perimetro di rischio
Questo cambio di paradigma emerge con forza dalla ricerca di CyberArk Labs. Nell’era dell’ Agentic AI, ogni agente è una nuova identità: ha credenziali, permessi, accesso a database, servizi cloud, strumenti di fatturazione o sviluppo. Più autonomia significa più autorizzazioni. E autorizzazioni eccessive significano superfici d’attacco più ampie. Il caso di “abuso di strumenti” citato dai CyberArk Labs è emblematico: un prompt malevolo nascosto in un campo apparentemente innocuo induce un agente AI a usare tool diversi da quelli previsti, esfiltrando dati sensibili senza violare alcuna password. La situazione sembra cambiare: non è necessario violare un sistema se si può abusare delle sue identità. Questo vale per gli agenti, ma anche per le persone. Gli sviluppatori e i builder di sistemi agentici diventano bersagli primari, così come i cookie di sessione e i token API, che consentono accessi post-autenticazione difficili da rilevare. In questo scenario, la sicurezza non è più solo “difesa perimetrale”, ma governo dinamico delle identità, umane e non umane.
La vera sfida non è tecnica, è di scelta
A questo punto il discorso si sposta dal come difendersi al perché stiamo adottando l’AI in un certo modo. Il report di SAP, The Road Ahead: Predictions and Possibilities for the Future of Work, offre una chiave di lettura interessante. Il documento parte da un presupposto netto: non esiste un unico futuro del lavoro, ma una pluralità di scenari che dipendono dalle scelte che le organizzazioni compiono oggi. Il rischio più sottile non è l’attacco, ma un futuro impoverito da un uso miope dell’automazione. Quando l’AI si limita a sostituire attività senza ripensare ruoli, autonomia e significato del lavoro, aumenta la disconnessione e diminuisce l’engagement. Il report evidenzia come un approccio puramente “AI maximalist” possa generare efficienza nel breve periodo, ma compromettere motivazione e valore nel lungo termine. L’alternativa proposta è quella della strategic symbiosis: un modello in cui l’AI amplifica le capacità umane invece di sostituirle, liberando spazio per creatività, qualità e giudizio. In questa prospettiva, l’AI non è un collega da antropomorfizzare, ma un tool-mate progettato per supportare il pensiero umano in modo trasparente e governato.
Dal singolo progetto al sistema Paese
Allargando ulteriormente lo sguardo, l’ Agentic AI non riguarda solo singole aziende, ma l’architettura digitale di un Paese. Indra Group propone di inserire l’autonomia dell’AI nel contesto del Decennio Digitale europeo. Fiducia digitale, sostenibilità tecnologica e competenze emergono come tre priorità inseparabili. La fiducia diventa un pilastro competitivo: protezione di dati e identità, continuità delle infrastrutture critiche, trasparenza degli algoritmi. La sostenibilità non è solo ambientale, ma operativa: architetture governabili, costi sotto controllo, resilienza nel tempo. Le competenze, infine, diventano una forma di sovranità: senza capacità diffuse di comprendere e governare l’AI, l’autonomia resta solo apparente. In questo senso, l’Agentic AI è una scelta cumulativa: ogni decisione presa oggi contribuisce a costruire – o indebolire – la fiducia di domani.
Fonti
Il lato oscuro della GenAI: anatomia delle nuove minacce digitali – Proofpoint
Agenti AI e rischi per l’identità: come cambierà la sicurezza – CyberArk Labs
The Road Ahead: Predictions and Possibilities for the Future of Work – SAP
L’Italia nel decennio digitale: tre priorità che non possiamo rimandare – Indra Group






COMMENTI