Компания Microsoft подтвердила наличие ошибки в сервисе Microsoft 365 Copilot, из-за которой ИИ-помощник с конца января мог формировать сводки по конфиденциальным письмам без согласия пользователей. Об этом сообщило издание Bleeping Computer.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяПричиной стал программный сбой, позволявший Copilot получать доступ к письмам в папках «Отправленные» и «Черновики», даже если на них были установлены метки конфиденциальности. В результате сообщения с ограничениями защиты могли обрабатываться некорректно, что теоретически создавало риск раскрытия чувствительных данных.
В начале февраля Microsoft начала поэтапное развертывание исправления и заявила, что продолжает отслеживать его работу. С частью клиентов компания связывается напрямую, чтобы убедиться, что проблема устранена и доступ к защищённой переписке больше не происходит.
Copilot Chat — это ИИ-ассистент внутри экосистемы Microsoft 365, интегрированный в такие продукты, как Word, Excel, PowerPoint, Outlook и OneNote. Масштабное внедрение среди корпоративных платных клиентов стартовало в сентябре 2025 года.
Компания не раскрыла, сколько именно пользователей или организаций могли столкнуться с проблемой, отметив, что оценка масштаба продолжается. Инцидент получил статус advisory — такую классификацию обычно применяют к сервисным сбоям ограниченного характера.
Ситуация вновь подчеркнула, что даже встроенные механизмы защиты не всегда гарантируют абсолютную безопасность при работе с ИИ-инструментами. Это усиливает значение дополнительного контроля, аудита и постоянного мониторинга новых функций в корпоративных сервисах.
Ранее мы писали, стоит ли покупать дешевую зарядку для телефона.
"Знай" сообщал, какой бойлер лучше выбрать при нестабильной подаче электроэнергии.
Также передавали, что ИИ может заменить юристов и бухгалтеров уже через 1,5 года.