混合AI模型像孩子一样推理世界物理

发布时间: 2020-04-02 08:47:53 来源:

一个新的数据集揭示了AI在推理方面有多糟糕-并暗示了一种新的混合方法可能是前进的最佳方法。

问题:

被称为CLEVRER的数据集包括20,000个简短的合成视频剪辑和超过300,000个因视频事件而引起的问答对。每个视频都展示了一个玩具对象的简单世界,它们按照模拟物理原理相互碰撞。在一个中,红色的橡胶球击中了蓝色的橡胶筒,然后继续击中了金属筒。

问题分为四类:描述性(例如“与青色圆柱体碰撞的对象是什么形状?”),解释性(“导致灰色圆柱体与立方体碰撞的原因是什么?”),预测性(例如哪个事件会发生在下一个?”)和反事实(“没有灰色物体,哪个事件不会发生?”)。这些问题反映了儿童探索周围环境时所学的许多早期概念。但是后三类,特别需要因果推理来回答,通常会阻碍深度学习系统。

失败:

该数据集由哈佛大学,DeepMind和MIT-IBM Watson AI Lab的研究人员创建,旨在帮助评估AI系统的推理能力。当研究人员用数据集测试了几种最新的计算机视觉和自然语言模型时,他们发现所有这些人在描述性问题上都做得很好,而在其他问题上做得不好。

新旧

融合团队随后尝试了一个新的AI系统,该系统结合了深度学习和符号逻辑。符号系统在1980年代后期被机器学习所取代之前曾经风靡一时。但是这两种方法都有其优势:深度学习在可伸缩性和模式识别方面表现出色;符号系统更擅长抽象和推理。

这个复合系统被称为神经符号模型,它同时利用了两者:利用神经网络来识别物体的颜色,形状和材料,并使用一个符号系统来理解其运动的物理原理以及它们之间的因果关系。它在所有类别的问题上都优于现有模型。

重要性:

在儿童时代,我们学会观察周围的世界,推断出事情发生的原因,并对接下来会发生的事情做出预测。这些预测有助于我们做出更好的决策,导航环境并保持安全。在机器中复制这种因果关系的理解将同样使它们以更智能的方式与世界互动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。
Top