Microsofts AI-forskare råkar läcka terabyte av känslig data
Lyckligtvis endast intern data
Foto: Matthew Manuel
Microsofts AI-forskare har av misstag exponerat tiotals terabyte av känslig data, inklusive sådant som privata nycklar och lösenord, när de publicerade utbildningsdata för öppen källkod på GitHub.Användare av GitHub instruerades att ladda ner modellerna från en Azure Storage URL, men säkerhetsföretaget Wiz upptäckte att denna URL gav tillgång till hela lagringskontot, vilket ledde till att privat data exponerades. Den exponerade datan inkluderade 38 terabyte av känslig information, inklusive personliga säkerhetskopior av två Microsoft-anställdas persondatorer, lösenord till Microsoft-tjänster, nycklar och över 30.000 interna meddelanden från hundratals Microsoft-anställda i Microsoft Teams. URL:en var felkonfigurerad och tillät "fullständig kontroll", vilket innebar att vem som helst som visste var de skulle leta kunde radera, ersätta och infoga skadligt innehåll i dem. Microsoft ska ha åtgärdat problemet efter att ha informerats av Wiz och ingen kunddata ska ha exponerats. Företaget ska nu ha utökat övervakningen av vad man laddar upp på GitHub för att upptäcka exponering av lösenord och andra hemligheter.
techcrunch.com
Internet,
Microsoft,
AI-forskning,
känslig data,
GitHub,
Wiz
32.0°
0Hugo Engström
mån. 18 sep 2023, 17:20
+
Per månad
39 kr
Betala löpande per månad. Ingen bindningstid.
Starta prenumeration
Per år
299 kr
Enklast och billigast, bara 25 kronor i månaden. Betala löpande per år. Ingen bindningstid.
Prova 14 dagar gratis innan du bestämmer dig.
Starta gratis provperiod
Engångsköp
349 kr
Slipp återkommande betalningar, betala ett år i taget. Betala med kort eller Swish.
Köp utan prenumeration