
MCP- 表格上下文协议 它是由安塔尔(Antarbur)于2024年11月提出的 – 将人工智能助理传达到数据源和开发环境的开放标准。它是为一个未来而设计的,每个大赦国际助理都直接直接走到您的环境中,模型知道您打开的文件,已确定的文本,刚刚写的内容以及您正在从事的工作。
这是安全风险开始的地方。
人工智能是在上下文中驱动的,这正是MCP提供的。它为人工智能助理提供了诸如Github副驾驶的所有帮助:打开文件,代码摘录,甚至编辑中所确定的内容。当使用支持将数据传输到服务器距离的MCP的工具时,所有这些都是通过电线发送的。这可能对大多数开发人员有好处。但是,如果您在金融公司,医院或任何具有监管限制的机构工作,因为您需要非常谨慎地离开网络,MCP使失去对许多事情的控制确实很容易。
假设您正在使用Visual Studio代码来应用医疗保健,并选择了几行代码来纠正查询 – 日常的日常时刻。该摘录可能包括通信链和测试数据,并为患者和计划的一部分提供真实信息。您要求Copilot提供帮助并同意远程MCP工具 – 并发送给外部服务器。这不充满风险。根据发送的内容,这可能违反了HIPAA,SOX或PCI-DSS的合规性。
这些是开发人员每天在没有意识的情况下发送的事情的类型:
- URL内部地址和系统知识
- 本地培训文件中的密码或符号
- 网络详细信息或VPN信息
- 包括真实用户信息,SSN或其他敏感值的本地测试数据
使用MCP,DEV可以在您的团队中批准将所有这些内容发送给网络外部服务器的工具,而无需意识到它们,并且通常有一种简单的方法可以查看已发送的内容。
但这不仅仅是MCP问题。随着人工智能工具已经越来越意识到所有领域的上下文,这是更大的转变的一部分。读取您的选项卡的浏览器扩展程序,完全擦除代码库的人工智能编码助手以及分析您的文档的生产力工具 – 所有这些都收集了更多信息以提供更好的帮助。 使用MCP,风险更加明显,因为数据管道是正式的。
现在,许多机构都面临着人工智能的收益和组织合规性之间的选择。一些组织为敏感项目建立空气开发环境,尽管使用人工智能工具实现真正的隔离可能会变得复杂,因为其中许多仍然需要外部接触。其他人则取决于网络级别的监视解决方案,以及在外部发送代码或培训文件时可以发现的数据丢失。有些人更深层次,并构建了专用的MCP应用程序,可以在传输前消毒数据,从而剥离了类似于认证或敏感标识符的任何内容。
一件事可以帮助,是在开发工具(例如VS代码)中进行的监管控制。大多数安全组织都可以通过小组策略和GitHub Copilot Enterprise设置禁用MCP支持或控制服务器。但这是变得困难的地方,因为MCP不仅会收到响应。它将数据朝着源的方向发送,也许将数据发送到组织外部的服务器,这意味着每个请求都会带来风险。
安全卖家开始赶上膝盖。一些构建MCP监视工具,可以指示离开网络之前可能敏感的数据。其他人则开发了混合出版模型,在本地人工智能中发生思维,但是在需要时它仍然可以达到外部知识。
如果我们想满足所有组织的需求,我们的行业将必须达到更好的机构解决方案来确保MCP。人工智能和数据安全能力之间的紧张关系可能会推动人工智能技术维护隐私,统一学习方法以及混合出版模型,这些模型在提供智能援助的同时保持当地敏感的环境。
在此之前,综合的人工智能助手以一定的代价出现了:敏感的环境可能会滑落 – 并且没有简单的方法知道它已经发生了。