Компанія Microsoft підтвердила наявність помилки у сервісі Microsoft 365 Copilot, через яку ШІ-помічник з кінця січня міг формувати зведення по конфіденційним листам без згоди користувачів. Про це повідомило видання Bleeping Computer.
Підпишись на наш Viber: новини, гумор та розваги!
ПідписатисяПричиною став програмний збій, що дозволяв Copilot отримувати доступ до листів у папках «Надіслані» та «Чернетки», навіть якщо на них були встановлені мітки конфіденційності. В результаті повідомлення з обмеженнями захисту могли оброблятись некоректно, що теоретично створювало ризик розкриття чутливих даних.
На початку лютого Microsoft розпочала поетапне розгортання виправлення та заявила, що продовжує відстежувати його роботу. З частиною клієнтів компанія пов'язується безпосередньо, щоб переконатися, що проблема усунена і доступ до захищеного листування більше не відбувається.
Copilot Chat – це ШІ-асистент усередині екосистеми Microsoft 365, інтегрований у такі продукти, як Word, Excel, PowerPoint, Outlook та OneNote. Масштабне впровадження серед корпоративних платних клієнтів розпочалося у вересні 2025 року.
Компанія не розкрила, скільки саме користувачів чи організацій могли зіткнутися з проблемою, зазначивши, що оцінка масштабу продовжується. Інцидент набув статусу advisory — таку класифікацію зазвичай застосовують до сервісних збоїв обмеженого характеру.
Ситуація знову наголосила, що навіть вбудовані механізми захисту не завжди гарантують абсолютну безпеку під час роботи з ШІ-інструментами. Це посилює значення додаткового контролю, аудиту та постійного моніторингу нових функцій у корпоративних сервісах.
Раніше ми писали, чи варто купувати дешеву зарядку телефону.
"Знай" повідомляв, який бойлер краще вибрати за нестабільної подачі електроенергії.
Також передавали, що ШІ може замінити юристів та бухгалтерів уже через 1,5 роки.