AI可以学会推理像孩子这样的世界吗?

7.分钟阅读
视觉推理的孩子
图片由波琳娜TankilevitchPexels(有修改)

这篇文章是我们yabet468.ccAI研究论文的评论这是一系列探索人工智能最新发现的文章。www.yabovip4

甚至在他们说第一句话之前,人类婴儿就已经形成了关于物体和人的思维模式。这是让我们人类学会社交生活和相互合作(或竞争)的关键能力之一。

但对于人工智能来www.yabovip4说,即使是最基本的行为推理任务也仍然是一个挑战。

先进的深度学习模型可以完成复杂的任务,如在图像中检测人和物体,有时甚至比人类更好。但它们很难移动超越了图像的视觉特征并推断其他行为者正在做什么或希望完成什么。

为了帮助填补这一差距,IBM,Massachusetts理工学院和哈佛大学的科学家开发了一系列测试,将通过观察和理解世界来帮助评估AI模型的能力。

人工智能研究人员在一份报告中写道:“就像人类婴儿一样,机器智能为了成功地参与社会互动,发展足够的理解人类思维的能力至关重要。新文章它引入了名为AGENT的数据集。

在今年的国际机器学习会议(ICML),代理商提供了一种用于测量AI系统的推理能力的重要基准。

观察和预测agent的行为

在AI系统中测试常识和推理的大量工作。其中许多人都专注于自然语言理解,包括着名图灵测试Winograd Schemas..相比之下,AGENT项目专注于人类在能够说话之前学习的推理能力。

麻省理工学院- ibm沃森人工智能实验室的首席研究员丹·古特弗瑞德(Dan Gutfreund)说:“我们的目标是,根据发展心理学的文献,创建一个基准,用于评估婴儿在语言前阶段(在他们生命的前18个月)学习的与直觉心理学相关的特定常识能力。智能

作为儿童,我们学会通过观察我们的环境来讲述物体和代理之间的区别。当我们观看活动展开时,我们发展直观的心理技能,通过观察他们的行为来预测其他人的目标,并继续纠正和更新我们的心理。我们通过很少或没有说明来学习所有这些。

AGENT(行动、目标、效率、约束、效用)测试的目的是评估人工智能系统模仿这一基本技能的能力,开发心理推理能力的能力,以及学习到的表征在新情况下的推广能力。数据集由短序列组成,显示一个代理正在向多个对象中的一个导航。序列已经在ThreeDWorld,一个为训练人工智能代理而设计的虚拟3D环境。

AGENT测试分两个阶段进行。首先,AI会呈现一到两个描述agent行为的序列。这些例子应该让AI熟悉虚拟代理的偏好。例如,代理可能总是选择一种类型的对象,而不管它的道路上有什么障碍,或者它可能选择最近的、最容易访问的对象,而不管它的类型。

在熟悉阶段之后,AI会看到一个测试序列,它必须确定agent的行为是预期的还是出乎意料的。

共有3360个测试,横跨四种类型的场景,从非常简单的行为(代理更喜欢一种类型的对象,不管环境如何)到更复杂的挑战(代理显示成本-回报估计,衡量实现目标的难度和它将获得的奖励)。AI还必须考虑代理的行动效率(例如,当没有障碍时,它不应该做出不必要的跳跃)。在一些挑战中,场景被部分遮挡,使其更难以对环境进行推理。

在人工环境中的真实场景

这些测试的设计者包括了人类的归纳偏见,这意味着行动者和环境受人类理性规则的支配(例如,跳跃或攀爬障碍物的成本随着其高度的增加而增加)。这个决定有助于使挑战更现实,更容易评估。研究人员还指出,这些偏见对于帮助创建更好地与人类行为保持一致和兼容并能与人类对手合作的人工智能系统也很重要。

人工智能研究人员通过亚马逊土耳其机器人(Amazon Mechanical Turk)在人类志愿者身上测试了这些挑战。他们的发现表明,平均而言,通过观察熟悉序列和判断测试例子,人类可以解决91%的挑战。这意味着人类利用他们对世界和人类/动物行为的先验知识来理解行动者如何做出决策(例如,在其他条件相同的情况下,行动者会选择奖励更高的对象)。

人工智能研究人员有意限制数据集的大小,以防止解决问题的愚蠢捷径。对于一个非常大的数据集,机器学习模型可能会在不获取关于agent行为的基础知识的情况下学习做出正确的预测。“仅凭我们的数据集从头开始培训是行不通的。相反,我们建议,为了通过测试,有必要通过架构中的归纳偏差,或通过对额外数据的培训,获得额外的知识,”研究人员写道。

然而,研究人员在测试中采用了一些捷径。AGENT数据集包括场景每一帧的深度图、分割图以及物体和障碍物的边界框。这些场景在视觉细节上也非常简单,由八种不同的颜色组成。所有这些都让AI系统更容易处理场景中的信息,并专注于挑战的推理部分。

当前的人工智能是否解决了AGENT的挑战?

研究人员在两个基准人工智能模型上测试了AGENT挑战。第一个模型是贝叶斯逆规划和核心知识(BIPaCK),它是一个集物理仿真和规划为一体的生成模型。

Bipack模型
BIPaCK模型使用规划器和物理引擎来预测agent的轨迹

该模型使用数据集提供的全部地面真相信息,并将其输入其物理和规划引擎,以预测agent的轨迹。研究人员的实验表明,当BIPaCK拥有场景的全部信息时,它的表现与人类相当,甚至更好。

然而,在现实世界中,人工智能系统无法获得精确标注的地面真相信息,必须执行复杂的任务,在不同的背景和光照条件下检测物体,这是一个问题人类和动物很容易解决但对计算机视觉系统来说仍然是一个挑战。

在他们的论文中,研究人员承认BIPaCK“需要精确的3D状态重建和物理动力学的内置模型,这在现实世界场景中不一定可用。”

研究人员测试的第二个模型代号为ToMnet-G,是心理神经网络理论(ToMnet)在2018年。ToMnet-G使用图神经网络对场景的状态进行编码,包括物体、障碍物和agent的位置。然后它将这些编码输入长短期内存网络(LSTM)来跟踪agent在帧序列中的轨迹。该模型使用从熟悉视频中提取的表征来预测测试视频中的代理行为,并将其评级为预期或意外。

TOMNET-G模型
TomNet-G模型使用图形神经网络和LSTMS来嵌入场景表示和预测代理行为

Tomnet-g的优势在于它不需要预先设计的物理和对Bipack的顽皮知识。它从视频中了解了来自视频的所有东西以及其他数据集的培训。另一方面,Tomnet-G常常学习错误的表示,无法将其行为概括为新方案或当熟悉信息有限时。

“没有许多内置的前瞻,Tomnet-g在训练和测试时展示了有希望的结果,但它仍然缺乏情景和跨越的强大泛化能力,”研究人员在纸质中观察。

两种模型之间的对比突出了人类在没有任何指令的情况下学习最简单任务的挑战。

“我们必须记住,我们的基准,通过设计描绘了每次常识的一个特定方面的非常简单的合成情景,”Gutfreund说。“在现实世界中,人类能够非常快速地解析复杂的场景,同时与物理,心理学,语言和更多的常识的许多方面都在游戏中。AI模型仍然远远无法做到这一点。“

常识和人工智能的未来

Gutfreund说:“我们认为,从狭义到广义的人工智能必须包括有常识的模型。”“常识能力是理解世界和与世界互动的重要基石,可以促进新能力的获得。”

许多科学家认为,常识和推理可以解决当前人工智能系统面临的许多问题,例如他们需要大量的训练数据,他们的斗争与因果关系,以及他们的脆弱处理小说的情况.常识和推理是人工智能社区的重要研究领域,它们已经成为该领域一些最聪明的头脑的焦点,包括AG亚博

解决AGENT是创造能够在不可预测的人类世界中稳健行动的人工智能代理的一小步,但却是重要的一步。

Gutfreund说:“很难说服人们相信那些不按常理行事的自主代理。”“比如,一个帮助老人的机器人。如果机器人不遵循代理高效地追求目标的常识原则,当被要求从冰箱里拿牛奶时,它会以之字而不是直线移动,那么它就不太实用,也不值得信赖。”

代理是一部分机器常识美国国防高级研究计划局(DARPA)的MCS项目。MCS遵循两大目标。第一个目标是创造能够像孩子一样学习对物体、代理和空间进行推理的机器。AGENT就属于这一类。第二个目标是开发能够像人类研究者那样,通过阅读网络上的结构化和非结构化知识来学习的系统。这与当前的自然语言理解方法不同,后者只关注捕获单词和单词序列之间的统计相关性在非常大的文本语料库中。

“我们现在正在使用代理作为婴儿的测试环境。Together with the rest of the DARPA MCS program performers we are planning to explore more complex scenarios of common sense related to multiple agents (e.g., helping or hindering each other) and the use of tools to achieve goals (e.g., keys to open doors). We also work on other core domains of knowledge related to intuitive physics and spatial understanding,” Gutfreund said.

留下一个回复

这个网站使用Akismet来减少垃圾邮件。了解如何处理您的评论数据