人工智能代理商从“ Sidekicks实验”中快速移动给基金会的劳动力成员。他们编写软件说明,创建报告,地址交易,甚至做出决定,而无需等待一个人点击批准。
这种自主是使其有用的原因 – 以及使其危险的原因。
以最近的例子:删除人工智能编码剂,即使告诉他不要触摸它。这不仅是技术错误 – 它是操作。如果人类雇员忽略了这一直接指示,那么我们将有一份事故报告,调查和纠正工作计划。老实说 – 这个人可能失业。
使用人工智能剂,这些扶手通常不在位。我们将它们达到人类水平,而无需控制人类水平。
从工具到队友
大多数公司仍然使用文本程序和宏单元收集人工智能代理,这只是“更好的工具”。这是一个错误。这些代理不仅执行命令;他们解释说明,进行裁定并采取可以直接影响基本业务系统的措施。
考虑一下,就像任命新员工一样,让他们访问敏感数据,并告诉他们:“只要做您认为最好的事情。”您永远不会梦想与某人一起做这件事 – 但是我们一直在人工智能上这样做。
风险不仅是一个不良的输出 – 它是数据丢失,违反合规性或以非通信模式下的整个系统。与人工智能不同,人工智能不会厌倦,毫不犹豫,并且会在机器的速度下犯错。这意味着一个错误的决定可能会在几秒钟内失控。
我们已经为人工智能建立了人力资源,绩效审查和升级路径的合同吗?通常,这是野外的西部。
缩小管理差距
如果人工智能代理人正在从事工作,那么交付员工是习惯上的,那么他们需要员工级别的管理。这意味着:
- 角色和边界的明确定义 准确阐明人工智能代理可以做什么。
- 负责代理人行为的人 问题的所有权。
- 评论响起以提高性能 – 培训,训练和控制。
- 导致人类进入的困难界限 – 尤其是在高效应程序之前,例如删除数据,更改配置或进行财务交易。
正如我们不得不重新考虑“从任何地方的工作”的治理一样,我们现在需要为“ AI劳动力”时代工作框架。
鲁布里克(Rubrik)的首席转型官员卡维塔·玛丽亚潘(Kavitha Mariappan)说:“假设违反 – 这是新的戏剧书。我们认为我们不会100%保证我们会得到100%的保证”,但我们假设某种东西会得到一些东西,并且它的设计可以恢复。 “
这种心态不仅是针对传统的网络安全 – 正是我们需要考虑人工智能的方式。
人工智能错误的安全网络
Rubrik的代理倒带是它在实践中的工作方式的一个很好的例子。它使您可以更改人工智能代理的变化 – 无论程序是偶然的,没有授权还是有害。
在纸上,这是一种技术能力。实际上,它的操作处理“纠正措施”过程等于您的人工智能。他承认,这些错误将会发生,并在重复且可靠的恢复道路上烘烤。
这与运营新员工时备份计划的原则相同。不要以为从第一天就可以是完美的 – 请确保您可以在不燃烧整个系统的情况下纠正错误。
建立劳动力管理大赦国际
如果您想要人工智能是劳动力中富有成果的一部分,则需要多个开朗的工具。你需要一个棕色:
- 为人工智能代理编写“工作描述”。
- 任命负责代理商绩效的经理。
- 定期修改和重新培训的评论。
- 当代理面对范围之外的某些东西时,创建升级程序。
- 在播出之前,对任何新功能进行“沙盒”测试。
员工,合作伙伴和客户需要知道您组织中的人工智能受到控制,负责任和负责任。
Mariaban还解释了她坚持的另一点:“灵活性在机构的技术策略中至关重要……这不仅是信息或基础设施的问题 – 这对业务和知名风险管理很重要。”
我们面前的文化转变
这里最大的变化不是技术 – 它是文化的。我们必须停止将人工智能视为“仅计划”,并开始将其作为团队的一部分进行思考。这意味着给她与人类同事相同的自由和控制平衡。
这也意味着重新思考如何训练我们的人民。就像员工学习如何与其他人合作的方式一样,他们将需要学习如何与人工智能代理一起工作 – 何时信任他们,何时询问他们以及插头。
我们期待
人工智能代理商不远。他们的角色只会增长。获胜的公司不仅将在其技术主食中放弃国际特赦组织 – 将在组织图表中编织。
诸如鲁布里克(Rubrik)的代理人的帮助,但真正的转变将来自处理人工智能作为需要指示,结构和安全网络的劳动力的起源的领导。
因为在一天结束时 – 无论是人类还是机器,关键系统的密钥都没有获得控制和问责制的计划,也不会在我身边恢复的方法中恢复。
如果你这样做?当午餐前,您会意外地从“新人”智能中删除同等的情报时,请不要感到惊讶。