

编者按:在人工智能深度融入办公场景的今天,数据安全与隐私保护再次成为焦点。微软近期曝出的Copilot AI漏洞事件,如同一记警钟,提醒我们在拥抱技术便利的同时,更需审视其潜在风险。长达数周的时间里,本应受到严格保护的机密邮件竟被AI擅自读取并生成摘要,即便用户已启用数据防泄露策略。这不仅是技术层面的失误,更关乎企业核心信息的安全防线。当欧洲议会因担忧数据外泄而禁用内置AI功能时,我们更应思考:在智能化浪潮中,如何构建真正可靠的数据安全壁垒?以下为事件详情,值得每一位数字化工作者关注。
微软已确认,其Copilot AI因程序漏洞,在未经许可的情况下持续数周擅自汇总用户的机密邮件内容。
该漏洞最早由Bleeping Computer披露,自今年一月起,Copilot Chat便能读取并概括邮件内容——即便用户已设置数据防泄露策略,明确禁止将敏感信息输入微软的大型语言模型。
Copilot Chat功能面向付费的Microsoft 365企业用户,允许其在Word、Excel、PowerPoint等Office系列软件中使用AI驱动的聊天辅助服务。
微软表示,该漏洞(管理员可追踪编号CW1226324)导致“带有机密标签的已发送邮件及草稿邮件,被Microsoft 365 Copilot聊天功能错误处理”。
这家科技巨头称已于二月初开始逐步推送漏洞修复程序。对于受影响用户数量等询问,微软发言人未予置评。
就在本周,欧洲议会IT部门以“AI工具可能将涉密通信内容上传至云端”为由,宣布禁用公务设备的内置人工智能功能,再度引发对云端AI数据安全的行业性反思。