giovedì, 7 maggio 2026

Cyber Security

Cyber Security

Agentic AI: perché l’autonomia dell’IA sta aprendo nuovi fronti di rischio per le aziende

Agentic AI: perché l’autonomia dell’IA sta aprendo nuovi fronti di rischio per le aziende
06/02/2026

L’intelligenza artificiale generale è ancora oggetto di previsioni e dichiarazioni ottimistiche, ma nelle aziende la trasformazione è già in corso. L’Agentic AI non è una promessa futura: è una tecnologia che viene già adottata per automatizzare processi, collegare sistemi e accelerare l’innovazione. Ed è proprio questa operatività concreta a renderla un nuovo punto critico per la sicurezza.

A differenza della generative AI tradizionale, che risponde a singoli prompt, l’Agentic AI è progettata per agire con uno scopo preciso. È autonoma, persistente, adattabile e in grado di mantenere memoria nel tempo. Caratteristiche che aumentano il valore per il business, ma che allo stesso tempo ampliano la superficie di attacco.


L’Agentic AI è già nelle mani dei criminali

Il primo rischio è esterno ed è già attuale. I criminali informatici stanno utilizzando sistemi di Agentic AI per estrarre dati sensibili e individuare vulnerabilità in modo continuo. Non si tratta più di analisi statiche o basate su informazioni pregresse: i modelli agentici possono sondare attivamente i sistemi, apprendere dal contesto e adattare le tecniche di attacco.

Questo approccio consente di aumentare ritmo e volume degli attacchi, rendendo più efficiente l’individuazione e lo sfruttamento delle debolezze aziendali.


Velocità e automazione: un rischio interno sottovalutato

Il secondo fronte di rischio nasce dall’adozione dell’Agentic AI all’interno delle aziende. I modelli agentici vengono sempre più utilizzati per collegare e automatizzare processi aziendali, supportando cicli di sviluppo rapidi e strategie di go-to-market aggressive.

Ma la velocità, se non accompagnata da controlli adeguati, può avere un effetto collaterale critico: la perdita di dati. Senza una progettazione attenta della sicurezza, l’automazione può amplificare errori e propagare comportamenti non desiderati lungo l’intero stack tecnologico.


Mantenere il controllo sugli agenti

Gli agenti di IA sono progettati per perseguire obiettivi con intenzionalità. Questa libertà operativa, se non governata, può portare ad azioni fuori contesto. Trattare un agente come un’entità completamente affidabile in termini di accesso ai dati rappresenta un errore.

Un approccio più efficace consiste nel considerare l’Agentic AI come un utente potente e instancabile, limitandone visibilità e privilegi. L’applicazione dei principi Zero Trust consente di ridurre l’impatto di eventuali errori, attraverso controlli come accessi temporanei, privilegi minimi e segmentazione. In questo modo, un comportamento anomalo non si traduce automaticamente in un incidente sistemico.


Memoria e manipolazione: un equilibrio fragile

La memoria è una delle caratteristiche che rendono l’Agentic AI particolarmente efficace. A differenza della generative AI, che non conserva contesto tra le interazioni, un agente mantiene informazioni nel tempo per supportare ragionamenti multi-step e il raggiungimento di obiettivi complessi.

Allo stesso tempo, questa memoria rappresenta un punto di esposizione. I dati archiviati dagli agenti diventano una risorsa appetibile per criminali o per utilizzi impropri interni. Inoltre, il linguaggio stesso può essere sfruttato per tentare di aggirare l’intento dell’agente e le policy configurate.

Affidarsi a un unico livello di controllo non è sufficiente. Un modello di checks and balances, basato su agenti separati — uno orientato all’esecuzione e uno alla validazione — permette di intercettare comportamenti anomali e migliorare affidabilità e auditabilità.


Supply chain: quando gli agenti comunicano tra loro

Con l’aumento dell’adozione dell’Agentic AI, gli agenti iniziano a interagire e scambiarsi dati, sia all’interno delle organizzazioni sia all’esterno. In questo scenario, i rischi tradizionali della supply chain vengono amplificati dall’automazione.

Per mitigare queste minacce, è necessario applicare agli agenti lo stesso livello di rigore adottato per SaaS e fornitori, rendendo contrattuali i confini di condivisione dei dati. Un ulteriore rafforzamento può derivare dall’uso di architetture proxy per le API, dalla rimozione delle stesse da internet e dall’applicazione dei principi Zero Trust per segmentare i dati in base alla loro criticità.


Il nodo della responsabilità

Quando gli agenti iniziano a svolgere compiti tradizionalmente umani, emerge una questione centrale: chi è responsabile quando un workflow autonomo prende una decisione errata? La normativa fatica a tenere il passo con l’innovazione, rendendo essenziale integrare la responsabilità fin dalle prime fasi di adozione.

Strumenti come modalità di replay per i flussi critici, log delle azioni con evidenza di manomissione e controlli sul ciclo di vita della memoria permettono di garantire conformità a regolamenti come il GDPR. In questo contesto, l’utilizzo dell’IA per proteggere l’IA — con agenti che monitorano e limitano altri agenti — contribuisce a costruire fiducia e governance su larga scala.

 

Difendersi dall’Agentic AI con l’Agentic AI

Nel panorama cyber, l’uso dell’intelligenza artificiale da parte dei difensori implica inevitabilmente il suo impiego anche da parte degli attaccanti. I criminali stanno già utilizzando sistemi agentici per sondare i target e generare exploit mirati. Le architetture tradizionali e i controlli perimetrali non sono più sufficienti. Solo un approccio basato su Zero Trust, segmentazione avanzata e piattaforme integrate consente alle aziende di sfruttare i benefici dell’Agentic AI, mantenendo al contempo il controllo e riducendo l’esposizione al rischio.


  X Share

Tutte le news

APP for Security per la videosorveglianza

Videosorveglianza, Privacy, Cybersecurity e NIS2

Webinar

Ethos Academy

La cybersicurezza dei sistemi di videosorveglianza
Corso riconosciuto da TÜV Italia

Norme CEI

Ethos Academy

Corsi in programmazione riconosciuti per il mantenimento e la preparazione alla certificazione TÜV Italia

Webinar
La Norma CEI 64-8
Secsolution
Il podcast

Scenari, tecnologia e formazione sulla sicurezza in formato audio