Tecnologie

Bug Microsoft Copilot: Email Riservate Lette dall'IA

Un bug critico in Microsoft 365 Copilot ha permesso all'IA di leggere email riservate bypassando le policy DLP. Ecco cosa è successo, chi è a rischio e come proteggersi.

Cosmin-Anton Mihoc
7 min di lettura
Bug Microsoft Copilot: Email Riservate Lette dall'IA

Indice dei contenuti

Se usi Microsoft 365 Copilot nella tua azienda, devi sapere che per settimane la tua IA aziendale ha potuto leggere email contrassegnate come riservate, senza alcun permesso e senza che tu ne fossi a conoscenza. Non è fantascienza: è quello che Microsoft stessa ha confermato il 18 febbraio 2026, ammettendo un bug critico nel suo assistente AI.

Si tratta di uno degli incidenti di sicurezza più imbarazzanti degli ultimi anni per il colosso di Redmond, proprio mentre stava spingendo Copilot come soluzione "sicura" per i professionisti. Vediamo nel dettaglio cosa è successo, quali dati sono stati esposti e — soprattutto — come proteggere la tua organizzazione.

Cos'è successo: il bug CW1226324 spiegato in parole semplici

Dal 21 gennaio 2026, la funzionalità work tab di Microsoft 365 Copilot Chat — quella integrata in Word, Excel, PowerPoint, Outlook e OneNote — ha iniziato a elaborare email contrassegnate con etichette di riservatezza (sensitivity labels). In pratica, l'IA leggeva e riassumeva messaggi che le aziende avevano esplicitamente marcato come "confidenziale" o "riservato".

Il problema, tracciato internamente da Microsoft con il codice CW1226324, colpisce le cartelle Posta inviata e Bozze di Outlook. Le altre cartelle non sembrano essere interessate. Il bug ha aggirato completamente le policy DLP (Data Loss Prevention) — le stesse che le aziende configurano per impedire a strumenti automatizzati di accedere a dati sensibili.

Cosa sono le policy DLP e perché sono così importanti

Le policy DLP sono il sistema di difesa che le organizzazioni usano per proteggere informazioni sensibili. Attraverso strumenti come Microsoft Purview, le aziende possono applicare etichette di riservatezza a documenti ed email, impedendo che certi contenuti vengano elaborati da applicazioni come Copilot. In questo caso, quel sistema di difesa non ha funzionato.

Microsoft stessa ha descritto il problema come "a code issue allowing items in the Sent Items and Drafts folders to be picked up by Copilot even though confidential labels are set in place". Tradotto: un errore nel codice permetteva a Copilot di ignorare le restrizioni.

Che tipo di dati erano a rischio

Le etichette di riservatezza in Outlook vengono usate tipicamente per proteggere informazioni estremamente delicate. Tra le categorie di dati potenzialmente esposti troviamo:

  • Contratti commerciali e accordi di riservatezza (NDA)
  • Corrispondenza legale tra aziende e avvocati
  • Dati medici e sanitari dei dipendenti
  • Strategie aziendali riservate e piani di sviluppo
  • Informazioni finanziarie pre-annuncio
  • Indagini interne e comunicazioni HR
  • Dati di clienti soggetti a normative GDPR

Il fatto che Copilot potesse riassumere questi contenuti significa che l'IA li ha elaborati, indicizzati e resi disponibili nelle risposte della chat. Per le aziende soggette a normative come il GDPR europeo, questo potrebbe configurarsi come una vera e propria violazione dei dati personali.

Chi è stato colpito e per quanto tempo

Il bug era attivo dal 21 gennaio 2026. Microsoft ha iniziato a distribuire la correzione solo a inizio febbraio, con un rollout graduale monitorato fino alla terza settimana del mese. Ciò significa che le organizzazioni interessate hanno avuto le proprie email riservate esposte per almeno tre settimane.

Il servizio è disponibile per i 15 milioni di utenti paganti di Microsoft 365 Copilot. Microsoft non ha divulgato il numero esatto di organizzazioni coinvolte, limitandosi a dichiarare che "l'entità dell'impatto potrebbe cambiare man mano che l'indagine procede". Un'affermazione che non ha certo tranquillizzato i responsabili IT e i DPO aziendali.

Come Microsoft ha gestito la situazione

La vicenda è stata resa pubblica grazie alla segnalazione di BleepingComputer, che ha riportato le lamentele degli amministratori di sistema. Solo dopo l'escalade mediatica Microsoft ha confermato ufficialmente il problema, classificandolo come "advisory" — una categoria normalmente riservata a problemi con impatto limitato, il che appare quanto meno discutibile considerando la sensibilità dei dati coinvolti.

L'azienda ha promesso un post-incident report (PIR) per il 18 febbraio 2026, ma non ha fornito strumenti di audit specifici che permettessero alle organizzazioni di verificare autonomamente quali email fossero state elaborate da Copilot durante la finestra di esposizione. Una lacuna che rende molto difficile capire la reale portata del problema.

Il paradosso del prezzo

L'ironia della situazione è lampante: Microsoft ha annunciato un aumento di prezzo per Microsoft 365 fino al 16,7% esattamente mentre ammetteva questo bug critico. Per chi paga il premium di Copilot aspettandosi sicurezza aziendale, la notizia è stata un duro colpo alla fiducia.

Cosa fare adesso: le azioni concrete per proteggere la tua azienda

Se la tua organizzazione usa Microsoft 365 Copilot, ecco le azioni che ti consiglio di intraprendere immediatamente:

  • Verifica se il fix è arrivato al tuo tenant: accedi all'admin center di Microsoft 365 e controlla lo stato dell'advisory CW1226324. Se sei ancora esposto, contatta il supporto Microsoft.
  • Esporta i metadati delle email riservate: cerca nella Posta inviata e nelle Bozze tutti i messaggi con etichette di riservatezza risalenti al periodo 21 gennaio – metà febbraio 2026. Salva mittente, destinatari e timestamp per una eventuale revisione legale.
  • Richiedi un pacchetto di evidenze a Microsoft: puoi richiedere log di interazione Copilot e tracce di recupero per verificare se la tua organizzazione è stata interessata. Documenta eventuali lacune nelle informazioni fornite.
  • Valuta l'obbligo di notifica GDPR: se la tua azienda è soggetta al GDPR e dati personali di terzi erano nelle email esposte, potrebbe essere necessario notificare il Garante Privacy entro 72 ore dalla scoperta.
  • Attiva Restricted Content Discovery (RCD): questa funzionalità di SharePoint Advanced Management, disponibile per tutti i tenant con licenze Copilot, rimuove siti e contenuti sensibili dalla vista di Copilot.
  • Rivedi le DLP policy: non affidarti ciecamente agli strumenti automatici. Conduci un audit periodico per verificare che le policy siano effettivamente rispettate, soprattutto dopo aggiornamenti del software Microsoft.

Le implicazioni più grandi: fidarsi dell'IA aziendale

Questo incidente apre una questione fondamentale che va ben oltre il bug in sé: fino a che punto possiamo fidarci dell'IA integrata nei nostri strumenti di lavoro? Microsoft ha posizionato Copilot come alternativa "sicura" ai chatbot pubblici, promettendo che i dati aziendali restano aziendali. Un singolo errore nel codice ha dimostrato che queste garanzie sono fragili.

Per i responsabili IT e i developer che gestiscono infrastrutture aziendali, la lezione è chiara: l'integrazione di strumenti AI nei workflow produttivi richiede una governance rigorosa, test continui e mai la cieca fiducia nelle promesse del vendor. Le policy di sicurezza devono essere verificate attivamente, non solo configurate e dimenticate.

Come sviluppatore web freelance con anni di esperienza nella gestione di sistemi per le PMI, so bene quanto sia difficile bilanciare innovazione e sicurezza. Se stai valutando l'adozione di strumenti AI per la tua azienda o vuoi un consulto su come proteggere i dati dei tuoi clienti, posso aiutarti a costruire soluzioni solide e sicure. Scopri i miei servizi di sviluppo web e consulenza.

Leggi anche

Conclusione

Il bug CW1226324 di Microsoft Copilot non è solo una notizia tech: è un campanello d'allarme per tutte le aziende che stanno integrando l'IA nei processi lavorativi. La velocità con cui Microsoft ha spinto Copilot sul mercato, promettendo sicurezza enterprise, si è scontrata con la realtà di un errore nel codice che ha esposto dati altamente sensibili per settimane. La fiducia, una volta persa, è difficile da riconquistare.

Se hai un sito aziendale e vuoi approfondire come proteggere i dati della tua organizzazione nell'era dell'AI, contattami per una consulenza gratuita. Insieme possiamo costruire sistemi digitali più sicuri e affidabili.

Condividi questo articolo
Hai domande? Contattami

Pronto a dare vita al tuo progetto?

Contattami per discutere della tua idea e ricevere una consulenza gratuita.

Iniziamo insieme