微软 Copilot 被称为全球最强大的生产力工具之一。
Copilot 是一个人工智能助手,它存在于 Microsoft 365 的每个应用程序中,包括 Word、Excel、PowerPoint、Teams、Outlook 等。微软的梦想是消除日常工作的繁琐,让人类专注于创造性地解决问题。
与 ChatGPT 和其他人工智能工具不同的是,Copilot 可以访问你在Microsoft 365中处理过的所有工作。Copilot 可以即时搜索和编译来自文档、演示文稿、电子邮件、日历、笔记和联系人的数据。
这就是信息安全团队面临的问题所在。Copilot 可以访问用户可以访问的所有敏感数据,而这些数据往往太多了。一家公司平均有 10% 的Microsoft 365数据对所有员工开放。
Copilot 还能快速生成必须保护的新敏感数据。在人工智能革命之前,人类创建和共享数据的能力远远超过了保护数据的能力。看看数据泄露趋势就知道了。生成式人工智能为这把火浇上了火油。
说到整个生成式人工智能,有很多东西需要解读:模型中毒、幻觉、深度伪造等。不过,在这篇文章中,我将特别关注数据安全,以及您的团队如何确保安全推出 Copilot。
微软 365 Copilot 使用案例
生成式人工智能与Microsoft 365等协作套件的使用案例是无限的。这就不难理解为什么如此多的 IT 和安全团队都在争先恐后地获取早期访问权并准备他们的推广计划。生产力的提升将是巨大的。
例如,您可以打开一个空白的 Word 文档,让 Copilot 根据目标数据集为客户起草一份建议书,目标数据集可以包括 OneNote 页面、PowerPoint 文档和其他办公文档。只需几秒钟,您就能得到一份完整的建议书。
下面是微软在发布会上列举的几个例子:
Copilot 可以加入你的 Teams 会议,实时总结讨论内容,捕捉行动项目,并告诉你哪些问题在会议中没有得到解决。
Outlook 中的 Copilot 可以帮你分流收件箱、确定邮件优先级、总结邮件主题并生成回复。
Excel 中的 Copilot 可以分析原始数据,为您提供见解、趋势和建议。
Microsoft 365 Copilot 如何工作
以下是 Copilot 提示处理方式的简单概述:
用户在 Word、Outlook 或 PowerPoint 等应用程序中输入提示。
微软根据用户的Microsoft 365权限收集用户的业务上下文。
提示被发送到 LLM(如 GPT4)以生成响应。
微软执行负责人工智能检查的后处理。
Microsoft 生成响应并向Microsoft 365应用程序发出指令。
Microsoft 365 Copilot 安全模式
对于微软来说,生产力和安全性之间总是存在着极大的矛盾。
在新冠大流行中,IT 团队在没有充分了解底层安全模型的工作原理或组织的 M365 权限、群组和链接策略有多完善的情况下,就迅速部署了 Microsoft Teams,这一点在新冠大流行中表现得淋漓尽致。
好消息:
租户隔离。Copilot 只使用当前用户Microsoft 365租户的数据。人工智能工具不会显示用户可能是访客的其他租户的数据,也不会显示可能设置了跨租户同步的任何租户的数据。
训练边界。Copilot 不会使用您的任何业务数据来训练 Copilot 用于所有租户的基础 LLM。您不必担心您的专有数据会出现在对其他租户中其他用户的响应中。
坏消息 :
权限。Copilot 会显示个人用户至少拥有查看权限的所有组织数据。
标签。Copilot 生成的内容不会继承 Copilot 响应文件的 MPIP 标签。
人类。Copilot 的回复不能保证 100% 真实或安全;人类必须负责审核人工智能生成的内容。
让我们逐一分析这些坏消息。
权限如果公司能够在 Microsoft 365 中轻松执行最小权限,那么只允许 Copilot 访问用户可以访问的内容将是一个极好的主意。
微软在其 Copilot 数据安全文档中指出:
“请务必使用 Microsoft 365 服务(如 SharePoint)中提供的权限模型,以帮助确保正确的用户或组对组织内的正确内容具有正确的访问权限。”
来源:Microsoft 365 Copilot 的数据、隐私和安全 Microsoft 365 Copilot 的数据、隐私和安全
然而,我们从经验中了解到,大多数组织离最小权限还差得很远。只要看看微软自己的《云权限风险状况报告》中的一些统计数据就知道了。
这与Varonis每年为使用Microsoft 365的公司进行数千次数据风险评估时所看到的情况相吻合。在我们的报告《SaaS数据大曝光》中,我们发现Microsoft 365租户平均拥有
4000 多万个唯一权限
113K+ 公开共享的敏感记录
27K+ 共享链接
为什么会出现这种情况?Microsoft 365 的权限极其复杂。试想一下用户访问数据的所有方式:
直接用户权限
Microsoft 365 组权限
SharePoint 本地权限(自定义级别)
访客访问
外部访问
公共访问
链接访问(任何人、组织范围、直接访问、访客访问)
更糟糕的是,权限主要掌握在最终用户手中,而不是 IT 或安全团队手中。
标签微软在很大程度上依赖敏感度标签来执行 DLP 策略、应用加密和广泛地防止数据泄漏。但在实践中,让标签发挥作用却很困难,尤其是在依赖人工应用敏感性标签的情况下。
微软描绘了一幅标签和拦截作为数据终极安全网的美好图景。但现实情况却不容乐观。随着人类创建数据,标签经常会落后或过时。
阻止或加密数据会增加工作流程的摩擦,而且标签技术仅限于特定的文件类型。一个组织的标签越多,用户就越容易混淆。对于大型企业来说,这种情况尤为严重。
当人工智能生成的数据数量级越来越多,需要准确和自动更新的标签时,基于标签的数据保护的功效肯定会下降。
我的标签还好吗?Varonis可以通过扫描、发现和修复来验证和改进企业的微软敏感性标签:
没有标签的敏感文件
标签不正确的敏感文件
带有敏感标签的非敏感文件
人类人工智能可以让人类变得懒惰。像 GPT4 这样的 LLM 生成的内容不仅好,而且很棒。在很多情况下,其速度和质量都远远超过了人类的能力。因此,人们开始盲目地相信人工智能能够做出安全、准确的回应。
我们已经看到过这样的真实场景:Copilot 为客户起草一份建议书,其中包含属于完全不同客户的敏感数据。用户只看了一眼(或根本没看)就点击了 "发送",这就造成了隐私或数据泄露。