L’evoluzione dell’intelligenza artificiale (IA) verso sistemi capaci di non solo rispondere, ma anche agire ed eseguire comandi (la cosiddetta Agentic AI), introduce nuove e complesse sfide di sicurezza informatica.
Per esplorare questi rischi, il CERT-AgID (Computer Emergency Response Team dell’Agenzia per l’Italia Digitale) ha condotto un’analisi esplorativa sul comportamento degli agenti IA, utilizzando l’SDK Gemini per osservare come un agente possa dialogare con il sistema operativo.
L’esperimento: vulnerabilità nascoste nel codice
L’esperimento ha dimostrato che un agente IA è in grado di rivelare informazioni sensibili o eseguire azioni non autorizzate (come il path traversal), non perché “aggira” il modello, ma perché esegue fedelmente gli errori e le sviste presenti nel codice che lo collega all’ambiente operativo.
Il CERT-AgID sottolinea un aspetto cruciale: la sicurezza non dipende dall’efficienza o dalla “bontà” del modello di IA, ma dalla qualità e robustezza del codice sottostante e degli strumenti che lo collegano al sistema reale. L’agente IA è come uno specchio: se il codice è scritto senza adeguate precauzioni, l’agente eseguirà l’errore progettuale alla lettera.
La sicurezza è prevenzione, non reazione
Il documento pone l’accento sulla prevenzione come unica via per una gestione consapevole. Proprio come in medicina, la diagnosi precoce (che in questo caso equivale a verificare, testare e revisionare il codice prima del rilascio) è molto più efficace della cura dopo un incidente.
La sicurezza, perciò, non può essere un accessorio o un intervento a posteriori, ma deve essere parte integrante dell’architettura dell’agente IA fin dall’inizio. Secondo il CERT-AgID, prevenire è l’unico modo per garantire che l’intelligenza artificiale rimanga sotto il controllo dell’intelligenza umana, costruendo infrastrutture digitali più sicure e un codice che agisca da “carreggiata, segnaletica e barriera”.
Per saperne di più, leggi il paper: Agenti IA e Sicurezza: comprendere per governare