突发新闻

微软扩展DLP控制保障Copilot AI全面数据安全访问

1分钟阅读来源: BleepingComputer

微软宣布扩展数据防泄漏(DLP)控制,限制Microsoft 365 Copilot AI访问敏感文档,全面覆盖所有存储位置,强化企业数据安全。

微软通过扩展DLP控制强化Copilot AI数据安全

微软近日宣布扩展其数据防泄漏(Data Loss Prevention, DLP)控制功能,以限制Microsoft 365 Copilot AI访问和处理存储在任何位置的机密Word、Excel和PowerPoint文档。此次更新旨在解决企业客户日益增长的担忧,即通过AI驱动的工具可能导致敏感数据泄露。

关键细节与技术实现

增强后的DLP控制允许管理员定义策略,阻止Copilot与包含敏感信息的文档交互,如财务数据、个人身份信息(PII)或知识产权。此前,这些控制仅限于特定存储位置,但此次更新将保护范围扩展至所有存储库,包括OneDrive、SharePoint以及与Microsoft 365集成的第三方云服务

微软已将这些控制功能集成至Microsoft Purview合规门户,使组织能够基于敏感度标签、文件类型和内容模式实施精细化策略。例如,标记为“机密”或包含信用卡号的文档可自动排除在Copilot的处理范围之外。

对企业安全的影响

Copilot DLP控制的扩展填补了AI驱动数据治理的关键空白。随着企业越来越多地采用Copilot等AI助手,意外数据泄露的风险日益增加,尤其是当敏感文档存储在传统安全环境之外时。通过扩展DLP保护,微软为企业提供了一个集中化机制,在利用AI提升生产力的同时降低风险。

安全团队现可实现以下功能:

  • 阻止Copilot访问由DLP策略标记的文档。
  • 通过Purview的审计日志监控AI驱动的数据交互
  • 混合云和多云环境实施一致的安全策略

安全团队建议

为最大化这些新控制的有效性,微软建议采取以下步骤:

  1. 审查并更新DLP策略:确保现有DLP规则明确将Copilot列为受限应用。
  2. 应用敏感度标签:使用Microsoft Purview信息保护对敏感文档进行分类和标记。
  3. 监控合规性:利用Purview的报告工具跟踪Copilot的数据访问,并识别潜在的策略违规。
  4. 培训终端用户:对员工进行AI驱动数据处理风险及正确文档分类重要性的培训。

微软的此次更新反映了AI安全与治理的行业趋势,企业在追求创新的同时亦需平衡数据保护。扩展后的DLP控制现已向所有Microsoft 365 E5及E5合规版客户开放。

更多详情,请参阅微软关于Copilot DLP集成的官方文档

分享

TwitterLinkedIn