微软承认Office漏洞致用户机密邮件泄露至Copilot AI,引发隐私安全危机

红酒作者 / 花爷 / 2026-04-19 22:22
"
    编者按:在人工智能深度融入办公场景的今天,数据安全与隐私保护再次成为焦点。微软近期曝出的Copilot AI漏洞事件,如同

  微软承认Office漏洞致用户机密邮件泄露至Copilot AI,引发隐私安全危机

  编者按:在人工智能深度融入办公场景的今天,数据安全与隐私保护再次成为焦点。微软近期曝出的Copilot AI漏洞事件,如同一记警钟,提醒我们在拥抱技术便利的同时,更需审视其潜在风险。长达数周的时间里,本应受到严格保护的机密邮件竟被AI擅自读取并生成摘要,即便用户已启用数据防泄露策略。这不仅是技术层面的失误,更关乎企业核心信息的安全防线。当欧洲议会因担忧数据外泄而禁用内置AI功能时,我们更应思考:在智能化浪潮中,如何构建真正可靠的数据安全壁垒?以下为事件详情,值得每一位数字化工作者关注。

  微软已确认,其Copilot AI因程序漏洞,在未经许可的情况下持续数周擅自汇总用户的机密邮件内容。

  该漏洞最早由Bleeping Computer披露,自今年一月起,Copilot Chat便能读取并概括邮件内容——即便用户已设置数据防泄露策略,明确禁止将敏感信息输入微软的大型语言模型。

  Copilot Chat功能面向付费的Microsoft 365企业用户,允许其在Word、Excel、PowerPoint等Office系列软件中使用AI驱动的聊天辅助服务。

  微软表示,该漏洞(管理员可追踪编号CW1226324)导致“带有机密标签的已发送邮件及草稿邮件,被Microsoft 365 Copilot聊天功能错误处理”。

  这家科技巨头称已于二月初开始逐步推送漏洞修复程序。对于受影响用户数量等询问,微软发言人未予置评。

  就在本周,欧洲议会IT部门以“AI工具可能将涉密通信内容上传至云端”为由,宣布禁用公务设备的内置人工智能功能,再度引发对云端AI数据安全的行业性反思。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读