因果推理研究的替代公式-Lauren Pratt

因果推理研究的替代公式-Lauren Pratt

遵守推理是当今人工智能研究的重要而活跃的领域。实际上,最重点的洪流和尤西奥·宾吉奥(Yoshio Bingio)讲述了奖项的奖项,后者颁发了该奖项的奖项,他写了这一奖项。ML/DL中的许多人都知道因果推理是改善概括的重要方法。问题是如何做Wahida Pearl是一本书,为什么它在这一重要学科中是领先的进步。

尽管它们是有价值的,但这些举措却忽略了因果思维的一种更容易的表述 – 因为它们可能称其为“低悬浮果实”,这几乎可以为机构提供立即的价值。因此,我希望研究人员能够认真考虑其治疗方法。

因果思维的标准人工智能范围从中

我们希望提高自动人工智能系统的准确性(例如降低错误的阳性和错误的负面因素;最好的AUC;最佳R^2)。做到这一点的一种方法是整合带领人工智能模型代表的现实现象的因果机制模型。我们可以学习数据的这些因果机制。 “

但是,与因果思想有一个相关但完全不同的公式:

我们希望以他们自然思考的方式来支持决策者,以及在必须实现某些结果(结果)的情况下使用人工智能,即使我们有一些历史数据或没有与某些行动有关的历史结果,也必须采取一些措施。我们要模拟结果结果的因果关系,其中可能包括系统的复杂动力学。我们准备不仅从数据中获取这些因果信息,而且还可以通过对人类专家,研究和其他文本进行访谈。 “

在这个新公式中,Maxim“所有模型都是错误的,但是有些模型很有用”就可以自行出现。 事实证明,即使从过程到结果的路径的非常低的路径模型也可能具有很大的价值。 原因:在许多情况下,模型的准确性只是“导致好决定的信息”的代理。从这个角度看,一切都会改变。该公式是决策智能纪律(DI)的主要模型。

简而言之,请考虑一下我决定将汽车加速器推到交叉路口的决定。即使只有其他汽车的近似模型,我也可以做出一个安全的决定。我知道天气,在角落里占据建筑物的人数,许多其他因素可能不露面,而且我仍然很安全。

这似乎是一个极端的例子,但它显示了一种真实的现象,即数据科学家不知道将使用其模型的决策,专注于提供准确的“愿景”。这可能会导致某些正方形的不必要的努力(例如,在天气建模上花费大量时间),而在其他方面则不足。为了使数据科学家猜测用户的决定,这还不够。

在超过35年的时间里,人工智能解决方案和DI注意到了“数据监视/决策杂项”模式无数次。

以下是这种不同公式的四个主要影响,我希望研究人员能开始处理:

  1. 大多数因果工作包括刺激来自的因果模型 数据。但是,在大量使用案例中,很少有数据中找到足够的因果信息,因此我们通常需要从人类专家那里获得:以访谈的形式或从书面来源中提取知识的形式或提取知识(也许使用自动方法),例如研究论文。我们需要为此目的搜索NLP,我们需要UX /认知研究,以了解从人们那里提取因果知识的最佳方法。 特别是,它可以从几个月到几年中学习数据,学习和学习,因为只需几分钟即可从人类专家那里筹集相同的因果信息。
  2. 最大的工作寻求 一个代表性方案 代表因果关系。但是在实用环境中,大多数决定都包括各种因果关系。行为因素,标准经济,推理等的大多数模型包括。我们需要一项研究,该研究解释了如何在这种异质表征(不仅是Paisi因果关系)上传播因果关系。
  3. 大多数因果工作 它限制了“因果”的内涵 可以证明是因果关系,而无关。但是,当我们与人类决策者合作时,他们不会以这种方式思考,因此这在官方方法和人类认知模型之间造成了障碍,这些模型受到实践中实际使用的因果工作数量以及我们设计经验的能力的强烈限制。因此,我们需要研究如何) 提供“因果”知识 人(例如,如果该产品的利率较高,这会导致高融资费 – 标准经济的原因,如果我们向要求戴口罩的人提供三个视频,则应以相同的形式生活,这会导致它们增加10%的戴,而b) 转换 这种“因果”知识是制定支持的一种形式。
  4. 大多数因果作品与模拟,数字双胞胎,人工智能,标准经济,行为心理学等不整合。因此,我们需要一项研究 多学科集成为第一个级别的兴趣领域, 这不是一个次要主题,应该在“实施期间,而不是搜索”中留下。

即使没有解决因果问题(例如上述问题)的学术计划,决策情报领域也已发展到该水平,预计在未来十年中,全球价值370亿美元。如果没有其他理由,那么该学术研究是时候认真对待这种替代公式了,以便我们可以共同努力解决我们那个时代最困难的问题。人类的决定是世界上必须不可持续的可持续资源之一。最好做得更好,值得从最好的和胫骨上引起人们的关注。

Source link

Similar Posts