因果关系是缺失的拼图的人工智能吗?

高通AI研究探索基础研究将因果关系与人工智能相结合
2022年10月5日12:00点等

OnQ博客

在其核心,科学是发现因果关系。例如,它并不足以知道吸烟与癌症相关的;重要的是要知道,如果我们启动或停止吸烟,那么这将改变我们患癌症的概率。

现有机器学习(ML)通常不考虑因果关系,而不是仅仅是关心预测基于统计关联。这可能会导致问题在使用这样的模型进行决策。例如,我们可能会发现一个强大和可靠统计学的人均巧克力消费之间的相关性,人均和诺贝尔奖的数量,但如果我们将使用这个模型,为政策(鼓励人们多吃巧克力),我们可能不会获得期望的结果。

在过去的几十年里,计算机科学家和统计学家开发了一个全面的因果推理框架,使人们有可能(在某些情况下)来推断因果关系从观测和实验数据,和更一般的形式对因果推理。

这些框架允许我们回答三种问题。

  1. 联想的:如果我看到X, Y我会看到的概率是多少?
  2. 介入:如果我做X, Y我会看到的概率是多少?
  3. 反事实的:Y,我都做了X ?

我们将在下面讨论,能够回答这样的问题在许多人工智能任务是非常重要的。

因果推理也是一个人类智能的重要组成部分。这并不奇怪,因为我们的大脑的主要目的是决定如何行动——一棵没有大脑。发展心理学家们已经发现,在年轻的时候,儿童发展能力推断因果,和前面提到的因果模型很好的描述人类的因果推论。

因为因果推理是关键科学对世界的理解,和我们的常识的理解,顺理成章地,因果推理也寻求构建人工智能的关键。在高通的人工智能研究我们正在探索各种方式因果模型可以用于解决长期存在的根本问题在人工智能和ML开放。

因果关系改善表示学习如何

在许多学习问题,底层传感器数据的输入包括如图像从一个相机。学习如何行动(例如,开车或控制一个机器人)只使用这样的低级输入是非常具有挑战性的。表示领域的学习关注训练神经网络把这些低级输入,数以百万计的个人组成的毫无意义的变量如像素,到高层语义上有意义的变量对象的类和外观或立场。

一个共同的发现是,有了正确的表示,这个问题变得更加容易。然而,如何训练神经网络学习有用表示仍知之甚少。在这里,因果关系可以帮助。因果表示学习,学习是框架的问题表示为寻找因果变量,以及它们之间的因果关系。

发现使用这种方法的变量往往是更多的解释。他们还促进推理。例如,一个人工智能代理可能原因,其他车辆在路上开车慢,因为他们注意到,一辆救护车来了,即使我们还没有见过。在我们的论文中,弱监督学习因果表示,我们研究在哪些条件下可以学习高层表示“正确”——这意味着相关的数据生成过程。我们还提供了一个简单的概念验证示例学习表示,放开各种按钮和灯光从视觉输入,然后找出一个机器人的手臂应该按什么键导致不同的灯打开。

除了学习因果变量和因果关系,我们正在研究方法,可以学习如何介入因果变量。例如,对于因果知识按钮和灯光很有用,机器人需要学习实用技能实际上摁下按钮和链接这些技能的推理能力。

因果关系如何提高模仿学习吗

因果推理可以帮助的另一个领域是模仿学习。这是一个类的方法人工智能代理在哪里训练模仿专家的行为。例如,我们可以收集视频和激光雷达数据,从人类专家以及转向和制动命令司机,和训练人工智能代理的行为来预测专家当给定相同的视频和激光雷达输入。

这种方法是有吸引力的,因为它简单,但它可能会失败如果因果关系不被认为是灾难性的。一种被称为问题因果混淆。想象的视觉输入代理包括仪表盘上的一盏小灯,刹车时打开。代理,缺乏常识,可能会发现,当灯是亮着的,几乎总是如此,下次的行动步骤(30 fps)制动。统计上,这是一个正确的推论,因为大多数时候当专家刹车在一个时间步,他们将在下次做同样的步骤。但有原因地来说是错误的:专家是刹车,因为,例如,一个危险的情况或红绿灯,不是因为光的仪表板。显然,如果模仿者学会保持制动刹车时压,并保持开车否则,那么它将不会在现实世界中做得很好。

另一个问题发生在模仿者未能完全模仿专家。例如,如果模仿者管理99.9%的准确,它仍然会疏远专家司机的轨迹。因此,模仿者将发现自己在(危险)的情况下它没有见过在训练。除非它能回答一个反事实的问题,“专家会怎么做如果他们在这种情况下吗?”,模仿者会不知道如何安全驾驶。为了正确地模仿,而不是“猴子看到猴子做”类型的模仿,模仿者需要理解为什么他们选择专家选择了行动。为什么问题因果关系问题。

最后一个问题发生在专家比模仿者可以访问更多的信息,这可能会导致一个问题称为混杂在因果关系的文献。例如,想象一个机器人学习模仿专家(远程控制机器人)举起咖啡杯。如果专家知道杯子的重量,他们知道多少力量使其适用于电梯。这导致模仿者可以推断,如果过去的行动应用适量的力量,那么重量必须适中,因此在接下来的时间步施加一个温和的力是适当的。当然,当它不是专家,但代理执行的动作,过去的动作不包含关于重量的信息。相反,在这种情况下,模仿者应该采用探索性行为,例如先仔细测量杯的重量。我们可以训练安全的探索性行为通过causality-aware模仿学习算法。

因果关系如何改善计划和信贷分配吗

两个关键问题在序贯决策问题是计划和信贷分配。在规划、人工智能代理认为不同的操作序列和预测结果,然后再决定下一步要做什么。为此,代理需要回答介入的问题:如果我执行一定的动作将会发生什么?因此,代理需要一个因果模型的环境。

另一个问题是信贷分配。在许多问题,代理需要很长序列的小行动之前一些可取的或不受欢迎的结果。在这一点上,重要的是知道这些行为实际上导致的结果,这样我们就可以从这个经验中学习通过改变(或没有)的行动导致观察到的结果。目前,强化学习代理仍然有很多困难,因为他们不考虑因果关系明确。

因果关系提高健壮性和分布变化如何

当前毫升可以训练模型来预测在控制环境非常好,但是他们的性能可以很容易地降低甚至当他们被部署在一个不同的环境有点从训练环境。一个臭名昭著的例子是一个医疗诊断模型训练的医学图像,数据来自两家医院。在这种情况下,医院有更多严重的病例,而医院B更温和的情况下。此外,两家医院使用不同的扫描仪获取图像,其中一个角落里放一个小标志的形象。这使得模型来预测根据严重程度时显然将失败的标志——一个策略应用于其他医院有不同的扫描仪。

类似的例子,经常讨论的是一个图像分类器,可以在图像标签的牛。在训练数据,牛经常被看到站在草地上,因此系统需要草的存在证据表明图像包含一头牛。当系统在测试时间在海滩上看到一头牛,它可能无法识别。

ML模型在两种情况下,错误地把图像的一些特征观察标签的原因。为了避免这些问题,系统需要了解标签的真正原因;知道为什么人类贴标签机选择的标签。只有这样,我们才能希望推广新设置;构建人工智能,可以运行在一个变化的世界。

结论

因果推论并不是一个神奇的子弹,在这一点上是不完全清楚肥沃地把因果推论的工具与深度学习的成功方法。但我们认为在这篇文章中,许多开放的基本问题在人工智能相关因果关系的问题。出于这个原因,因果关系和互动学习小组高通AI研究调查方法来利用这些工具来解决长期开放的人工智能问题,并解决现实世界的AI系统的局限性。

报名参加我们的下一个移动计算技术简报

高通AI高通技术的研究是一项倡议,Inc .)

从高通

一般在高通公司研究和开发

高通:支持政策,鼓励创新

在高通公司工作好,生活好

高通和几百万女孩月球探测器

赋予多样性,在高通股票和包容

高通公司与外部机构的合作