This is the Trace Id: 847c9b2bf8cd86bf84c4f40cf3945df2

 

Cyber Pulse: il report sulla sicurezza dell'IA

Recenti analisi di dati di diagnostica e ricerche interne di Microsoft evidenziano come molte organizzazioni stiano adottando agenti IA. Per i leader è ora il momento di implementare osservabilità, governance e sicurezza.

Numero 1: Introduzione

Le organizzazioni all’avanguardia stanno ridefinendo il modo di lavorare grazie all'utilizzo simultaneo di persone e agenti per stimolare l'ambizione umana. Recenti dati di Microsoft mostrano un aumento dei team composti da persone e agenti e una loro crescente adozione su scala globale.

Gli agenti IA si stanno espandendo in modo più rapido di quanto le aziende riescano a monitorarli e un simile gap di visibilità costituisce un rischio commerciale. Le organizzazioni hanno urgente bisogno di governance e sicurezza efficaci per adottare agenti in modo sicuro, stimolare l’innovazione e ridurre i rischi. Proprio come gli utenti umani, anche gli agenti IA devono essere protetti con osservabilità, governance e una robusta sicurezza basata su principi di Zero Trust. Le imprese che avranno successo nella prossima fase di adozione dell’IA saranno quelle in grado di agire rapidamente, combinando business, IT, sicurezza e sviluppo per osservare, governare e proteggere la trasformazione IA.

Nell’intero ecosistema Microsoft, i clienti oggi creano e distribuiscono agenti su tutte le principali piattaforme, da Fabric e Foundry a Copilot Studio e Agent Builder, in linea con una generale tendenza all'adozione di automazione IA nei flussi di lavoro.

La creazione di agenti non è più limitata ai ruoli tecnici: oggi dipendenti di diversi reparti sviluppano e utilizzano agenti quotidianamente. I dati Microsoft mostrano effettivamente che oltre l’80% delle aziende Fortune 500 implementa agenti attivi sviluppati con strumenti con poco codice o senza codice.1 Con l’espansione dell’uso degli agenti e la moltiplicazione delle opportunità di trasformazione, è ora il momento di implementare controlli basilari.

Esattamente come nel caso di dipendenti umani, Zero Trust per gli agenti significa:
 

  • Accesso con privilegi minimi: concedi a ciascun utente, agente IA o sistema solo le autorizzazioni strettamente necessarie.

  • Verifica esplicita: conferma sempre chi o cosa richiede l’accesso, usando identità, integrità del dispositivo, posizione e livello di rischio.

  • Considera la possibilità di violazione: progetta sistemi considerando la possibilità che chi attacca riesca ad entrare.

Grafico che evidenzia come oltre l'80% delle aziende Fortune 500 utilizzi attivamente strumenti low code per agenti, come Ask Copilot

Gli agenti IA si stanno espandendo rapidamente — in tutte le regioni e in tutti i settori

L’adozione di agenti è in aumento in tutte le regioni del mondo — dall’EMEA alle Americhe e all’Asia.2
 Grafico a barre che illustra la distribuzione regionale: EMEA 42%, Stati Uniti 29%, Asia 19%, Americhe 10%.
Microsoft ha rilevato un aumento degli agenti in ogni settore. I servizi finanziari, la manifattura e la vendita al dettaglio guidano l’adozione degli agenti. I servizi finanziari — tra cui banche, mercati dei capitali e assicurazioni — rappresentano ora circa l’11% di tutti gli agenti attivi a livello globale.2 La manifattura copre il 13% dell’uso globale degli agenti, con un’adozione diffusa in fabbriche, catene di approvvigionamento e operazioni nel campo dell'energia.2 La vendita al dettaglio rappresenta il 9%, con agenti impiegati per migliorare l’esperienza cliente, la gestione articoli e i processi in prima linea .2

Il punto critico: alcuni di questi agenti sono approvati dall’IT, altri no. Alcuni di questi agenti sono sicuri, altri no.
Cerchi sovrapposti che illustrano la distribuzione settoriale: Software e tecnologia 16%, manifatturiero 13%, servizi finanziari 11%, retail 9%.

Il rischio degli agenti doppi

La rapida diffusione degli agenti può superare i controlli di sicurezza e conformità, aumentando il rischio di shadow IA. I malintenzionati potrebbero sfruttare accessi e privilegi degli agenti, involontariamente trasformandoli in “agenti doppi.” Come nel caso di dipendenti umani, un agente con accesso eccessivo o con istruzioni errate può diventare una vulnerabilità.

La minaccia rappresentata dall'utilizzo di agenti doppi, se lasciati senza gestione, con permessi errati o manipolati da input non attendibili, non è un rischio teorico. Recentemente, il team Defender di Microsoft ha individuato una campagna fraudolenta in cui più attori hanno sfruttato una tecnica di attacco IA chiamata “memory poisoning” per manipolare in modo persistente la memoria degli assistenti IA influenzando subdolamente risposte future e minando la fiducia nell’accuratezza del sistema.

In una ricerca indipendente e sicura in ambiente di test condotta dall' AI Red Teamdi Microsoft, i ricercatori hanno documentato come gli agenti siano stati ingannati da elementi dell’interfaccia fuorvianti, ad esempio seguendo istruzioni dannose nascoste in normali contenuti. Il Red Team ha inoltre scoperto come il ragionamento degli agenti possa essere impercettibilmente deviato attraverso la manipolazione del contesto delle attività. Questi risultati evidenziano l’importanza per le imprese di piena osservabilità e pieno controllo su tutti gli agenti che operano nell’organizzazione, così da applicare i controlli e gestire i rischi in modo centralizzato e integrato.
Secondo un sondaggio del 2025, il 29% dei dipendenti utilizza agenti di intelligenza artificiale non autorizzati per svolgere attività lavorative.
Secondo il Data Security Indexdi Microsoft, solo il 47% delle organizzazioni di vari settori afferma di avere implementato controlli specifici per la sicurezza di GenAI,3 evidenziando l’opportunità di acquisire la visibilità necessaria alla sicura adozione dell'IA. Aspetto ancora più importante, secondo un sondaggio multinazionale commissionato da Microsoft all'Hypothesis Group su oltre 1.700 professionisti della sicurezza dei dati, il 29% dei dipendenti utilizza già agenti IA non autorizzati per attività lavorative.4
Grafico a torta che evidenzia come solo il 47% delle organizzazioni disponga di controlli di sicurezza per l'utilizzo dell'IA generativa.

Con l’accelerazione dell’adozione, quanti leader riconoscono davvero i rischi nascosti? Quanti leader hanno visibilità sull'insieme degli agenti utilizzati? Gli agenti IA privi di supervisione o di governance possono moltiplicare i rischi per l'azienda, minacciando sicurezza, continuità operativa e reputazione, con conseguenze dirette per CISO e vertici aziendali. Questo rappresenta il fulcro del dilemma legato al rischio informatico. Gli agenti IA stanno creando nuove opportunità sul lavoro, integrandosi in misura crescente nelle operazioni interne. I comportamenti rischiosi degli agenti possono però amplificare le minacce interne e generare nuovi punti di vulnerabilità per le organizzazioni poco preparate a gestirli.

 

Ecco quindi la doppia natura dell’IA: innovazione straordinaria accompagnata da rischi senza precedenti.

Ottenere il massimo dai tuoi agenti IA

Le aziende all’avanguardia cavalcano l’onda dell’IA per modernizzare la governance, ridurre l’esposizione non necessaria dei dati e implementare controlli sull'intera organizzazione. A questo si aggiunge un cambiamento culturale: mentre la strategia IA rimane responsabilità dei leader aziendali, i teams IT e di sicurezza sono ora partner a tutti gli effetti a livello di osservabilità, governance e sperimentazione sicura. Per organizzazioni di questo tipo, la sicurezza degli agenti non rappresenta un limite, ma un vantaggio competitivo, che considera gli agenti IA allo stesso modo degli agenti umani e applica gli stessi principi di Zero Trust.

Tutto parte dall’osservabilità: non si può proteggere ciò che non si vede, né gestire ciò che non si comprende. L’osservabilità consiste nell'utilizzo di un piano di controllo integrato che coinvolge tutti i livelli dell’organizzazione (IT, sicurezza, sviluppatori e team AI) per comprendere:

  • Quali agenti sono presenti
     

  • Chi ne è responsabile
     

  • Quali sistemi e dati sono interessati
     

  • Come si comportano


 

L’osservabilità comprende cinque principali aspetti:

  • Un registro centralizzato opera come fonte unica e affidabile per tutti gli agenti dell’organizzazione — approvati, di terze parti o agenti ombra emergenti. Un inventario di questo tipo previene la proliferazione incontrollata degli agenti, favorisce la responsabilità e facilita l'identificazione, consentendo di limitare o isolare tempestivamente gli agenti non autorizzati.
  • Ciascun agente è gestito con gli stessi controlli di accesso basati sulle identità e sui criteri usati con utenti e applicazioni umane. Le autorizzazioni a privilegi minimi, applicate in modo coerente, garantiscono che gli agenti accedano solo ai dati, ai sistemi e ai flussi di lavoro necessari — né più né meno.
  • Dashboard e telemetria in tempo reale offrono informazioni dettagliate su come gli agenti interagiscono con persone, dati e sistemi. I leader possono vedere dove operano gli agenti, comprendere le dipendenze e monitorare comportamenti e impatti, accelerando l’individuazione di abusi, deviazioni o rischi emergenti.
  • Gli agenti operano su tutte le piattaforme Microsoft, su framework open source ed ecosistemi di terze parti per mezzo di un modello di governance uniforme. Un'interoperabilità di questo tipo consente agli agenti di collaborare con persone e con altri agenti nei flussi di lavoro mantenendo una gestione centralizzata e controllata.
  • Le protezioni integrate tutelano gli agenti da abusi interni e minacce esterne. Segnali di sicurezza, applicazione dei criteri e strumenti integrati aiutano le organizzazioni a individuare rapidamente gli agenti compromessi o non conformi, consentendo risposte tempestive prima che le problematiche si traducano in danni aziendali, normativi o di reputazione.

Colmare il divario: elenco di controllo per governance e sicurezza dell'IA

La strada per contenere i rischi legati all'IA è chiara: gestisci gli agenti IA con lo stesso rigore con cui gestisci dipendenti o account di servizio software. Ecco sette punti per il tuo elenco di controllo.
  • Documenta lo scopo di ciascun agente e concedi loro accesso esclusivamente alle risorse necessarie. Niente privilegi estesi.
  • Applica le regole di protezione dei dati anche ai canali IA. Tieni traccia dei controlli e contrassegna i contenuti generati dall'IA.
  • Offri alternative sicure per limitare shadow AI. Blocca le applicazioni non autorizzate.
  • Aggiorna i playbook di continuità operativa per includere scenari IA. Esegui esercitazioni simulate e monitora metriche di osservabilità su identità, dati e minacce.
  • Crea e regola la governance dell'IA fin da subito: documenta i dati formativi, valuta le distorsioni e istituisci supervisione umana su aspetti legali, dati e sicurezza in modo da integrare la conformità normativa fin dall’inizio, senza bisogno di aggiunte successive.
  • Eleva la gestione del rischio IA a livello aziendale, definendo responsabilità esecutive, KPI misurabili e visibilità a livello di consiglio di amministrazione, integrando rischi finanziari e operativi.
  • Forma i dipendenti sull’uso sicuro dell’IA. Incoraggia trasparenza e collaborazione.

Le organizzazioni che adottano agenti IA con successo sono quelle che danno priorità a osservabilità, governance e sicurezza. Per raggiungere questo obiettivo è necessaria la collaborazione di tutti i team e l’osservabilità degli agenti IA a ogni livello dell’organizzazione: professionisti IT, team di sicurezza, team IA e sviluppatori, tutti gestibili e monitorabili mediante una piattaforma di controllo centrale unificata.

Agent 365 è il piano di controllo unificato di Microsoft per la gestione degli agenti IA in tutta l’organizzazione. Offre un sistema centralizzato di livello enterprise per registrare, governare, proteggere, monitorare e gestire agenti IA, siano questi basati su piattaforme Microsoft, framework open source o sistemi di terze parti. Ulteriori informazioni sui prodotti e servizi Microsoft per la sicurezza di IA e agenti sono disponibili qui.
Carte risorsa Microsoft Security con guide su applicazioni, governance e conformità IA, su sfondo blu
Guide per la sicurezza dell'IA

Guide Microsoft per la sicurezza delle aziende basate sull'intelligenza artificiale

Ricevi materiale sussidiario per creare una solida base per l’IA, inclusi metodi per governare e proteggere le applicazioni IA e garantire la conformità normativa.

Altre risorse

Una persona che lavora a un portatile in uno spazio di lavoro condiviso e consulta informazioni su uno smartphone

Indice Microsoft sulla sicurezza dei dati

Ottieni informazioni dettagliate su come l'IA generativa sta rivoluzionando la sicurezza dei dati.
Relatore sul palco con didascalie sullo schermo che mostrano: comprensione dei rischi, appropriata implementazione dei controlli, misurazione e monitoraggio

Accelerare le opportunità con un'IA affidabile

Ascolta i leader di Microsoft condividere strategie pratiche per infondere fiducia in ogni fase del tuo percorso IA.
Icona blu e bianca raffigurante una busta con un foglio al suo interno e la scritta "New".

Ottieni CISO Digest

Rimani al corrente con informazioni dettagliate di esperti, tendenze del settore e ricerche sulla sicurezza in questa serie di e-mail bimestrale.
  1. [1]
    Basato sulla telemetria Microsoft proprietaria che ha monitorato gli agenti creati con Microsoft Copilot Studio o Microsoft Agent Builder attivi negli ultimi 28 giorni di novembre 2025.
  2. [2]
    Le metriche degli agenti per settore e regione sono basate sulla telemetria Microsoft proprietaria che ha monitorato gli agenti creati con Microsoft Copilot Studio o Microsoft Agent Builder attivi negli ultimi 28 giorni di novembre 2025.
  3. [3]
    Indagine multinazionale di luglio 2025 su oltre 1.700 professionisti della sicurezza dei dati, commissionata da Microsoft a Hypothesis Group
  4. [4]

    Indice Microsoft sulla sicurezza dei dati 2026: combinare protezione dei dati e innovazione AI, Microsoft Security, 2026

     

    Metodologia:

     

    Le metriche degli agenti per settore e regione sono basate sulla telemetria Microsoft proprietaria che ha monitorato gli agenti creati con Microsoft Copilot Studio o Microsoft Agent Builder attivi negli ultimi 28 giorni di novembre 2025.

     

    Indice sulla sicurezza dei dati 2026:

     

    Un sondaggio online multinazionale di 25 minuti è stato condotto dal 16 luglio all’11 agosto 2025 su 1.725 responsabili della sicurezza dei dati.

     

    Le domande hanno esplorato il panorama della sicurezza dei dati, gli incidenti, la protezione dell’uso di GenAI da parte dei dipendenti e l’impiego di GenAI nei programmi di sicurezza, per stabilire un confronto con il 2024.

     

    Sono state condotte interviste approfondite di un’ora con 10 responsabili della sicurezza dei dati negli Stati Uniti e nel Regno Unito per raccogliere testimonianze sulle strategie di sicurezza delle loro organizzazioni.

     

    Definizioni:

     

    Agenti attivi sono 1) distribuiti in produzione e 2) sono associati con “attività reale” negli ultimi 28 giorni.

     

    “Attività reale” si definisce come almeno 1 interazione con un utente (agenti assistivi) OPPURE almeno 1 esecuzione autonoma (agenti autonomi).

Segui Microsoft Security