Secondo quanto riportato da TechCrunch, i ricercatori AI di Microsoft avrebbero involontariamente esposto decine di terabyte di dati sensibili, tra cui chiavi private e password, mentre pubblicavano un repository di dati di training open source su GitHub.
Cosa è successo?
La startup di sicurezza cloud Wiz ha scoperto che un repository GitHub appartenente alla divisione di ricerca sull’intelligenza artificiale di Microsoft concedeva l’accesso a un intero account di archiviazione Azure contenente 38 terabyte di informazioni riservate.
Tra i dati esposti c’erano backup personali dei PC di due dipendenti Microsoft, password per servizi Microsoft, chiavi segrete e oltre 30.000 messaggi interni di Teams. Il repository era accessibile dal 2020 ed era configurato per consentire il pieno controllo dei dati anziché il solo accesso in lettura.
Microsoft ha completato un’indagine interna sull’impatto organizzativo dell’accaduto il 16 agosto, affermando che nessun dato dei clienti è stato esposto e nessun altro servizio interno è stato compromesso.