当前位置:首页 > 新闻资讯 > 正文

专访贝叶斯网络之父Judea Pearl:我是AI社区的「叛徒」2018-05-16 15:06:37 | 编辑:hely | 查看: | 评论:0

人工智能领域的先驱、贝叶斯网络之父 Judea Pearl 认为 AI 深陷于概率关联的泥潭,而忽视了因果。Pearl 认为研究者应该研究因果(Cause and Effect),这可能是实现真正智能的机器的可能路径。

人工智能领域的先驱、贝叶斯网络之父 Judea Pearl 认为 AI 深陷于概率关联的泥潭,而忽视了因果。Pearl 认为研究者应该研究因果(Cause and Effect),这可能是实现真正智能的机器的可能路径。

人工智能的能力很大一部分要归功于 Judea Pearl。上世纪 80 年代,他带头推动机器进行概率推理。而现在他是这个领域最尖锐的批评者之一。他在最新著作《The Book of Why:The New Science of Cause and Effect》中指出,由于未能完全理解智能真正的含义,人工智能的发展已经受到阻碍。

 

 

30 年前,人工智能研究的一个主要挑战是对机器进行编程,以便将潜在的原因与一系列可观察到的情况联系起来。Pearl 用一种叫做贝叶斯网络的方案来解决这个问题。贝叶斯网络让机器可以回答问题——给出一个从非洲回来的发烧且身体疼痛的病人,最有可能的解释是疟疾。2011 年,Pearl 获得图灵奖这一计算机科学领域最高荣誉,这很大程度上要归功于贝叶斯网络。

但在 Pearl 看来,人工智能领域已经陷入了概率关联(probabilistic association)的泥潭。近来,新闻头条吹捧机器学习和神经网络的最新突破,比如计算机可以下围棋和驾驶汽车。但 Pearl 对此感到腻味。在他看来,当今人工智能领域的最新技术仅仅是上一代机器所做事情的强化版:在大量数据中找到隐藏的规律。他最近称:「所有令人印象深刻的深度学习成果都只是曲线拟合。」

现年 81 岁的 Pearl 在新书中阐述了一个关于真正智能的机器如何思考的愿景。他认为,关键是用因果推理来代替关联推理。机器不能只有把发烧和疟疾联系起来的能力,还要有推理「疟疾引起发烧」的能力。一旦这种因果框架到位,机器就有可能提出反事实的问题——询问在某种干预下因果关系将如何变化,Pearl 认为这是科学思考的基础。他还提出了一种使这种思维成为可能的正式语言——21 世纪版的贝叶斯框架,允许机器进行概率思维。

Pearl 期望因果推理能为机器提供人类水平的智能。他解释说,它们可以更有效地与人类沟通,甚至可以获得道德实体(moral entity)的地位,具有自由意志和作恶的能力。《量子杂志》(Quanta Magazine)对 Pearl 进行了电话采访。以下是采访内容。

为什么您的新书名为《The Book of Why》?

它是对我过去 25 年来在因果关系方面所做研究的一次总结,因果在生命中代表什么、它的应用,以及我们如何解决固有的因果关系问题。奇怪的是,这些问题被科学抛弃了。所以我要做的是弥补科学对它们的忽视。

 

 

科学已经放弃了因果关系,这听起来很有戏剧性。因果难道不正是科学正在研究的吗?

当然,在科学方程式中你看不到这种崇高的愿望。代数语言是对称的:如果 X 告诉我们 Y,那么 Y 告诉我们 X。这些是确定性关系。没有办法在数学中写出一个简单的事实——例如,即将到来的风暴会导致气压计下降,而不是上升。

数学还没有发展出非对称语言来捕捉我们的理解,即 X 引起 Y 并不代表 Y 导致 X。我知道,反对科学听起来是一件很可怕的事情。如果我对妈妈说我要反对科学,她会打我。

但科学更宽容:鉴于我们缺乏对不对称关系的计算,科学鼓励我们创造。这就是数学的来源。看到一个简单的因果关系演算解决了我们那个时代连最伟大的统计学家也定义不清或无法解决的问题,我非常激动。所有这一切都和在高中几何中找到一个证明一样让人感到轻松、充满乐趣。

几十年前,您通过教机器进行概率推理而闻名于人工智能领域。能否解释当时人工智能发生了什么?

20 世纪 80 年代初出现的问题具有预测或诊断性质。根据病人的一系列症状,医生想找出病人患疟疾或其他疾病的概率。我们希望自动系统、专家系统能够取代专业人员——无论是医生、矿产勘探人员,还是其他类型的付费专家。所以那时,我提出了一个通过概率来实现这些的想法。

不幸的是,标准概率计算需要指数空间和指数时间。所以我提出了一个叫做贝叶斯网络的方案,它需要多项式时间,而且非常透明。

您在新书中把自己描述成 AI 社区的叛徒。为什么这么说?

在研发出能够使机器对不确定性进行推理的工具后,我很快离开了 AI 社区,转而研究更有难度的任务:对因果进行推理。而我很多研究 AI 的同事仍然在研究不确定性。仍有很多研究者在继续研究诊断问题,而不去考虑问题的因果关系。他们只想得到好的预测效果和诊断结果。

举个例子,今天我们看到的所有机器学习研究都是用诊断模式实施的,即把物体标注为「猫」或「老虎」。他们不考虑干预,只想识别物体,预测它如何随时间演化。

当我开发出强大的预测和诊断工具并意识到这只是人类智能的一小部分时,我感觉自己是个叛徒。如果我们想让机器对干预(「如果禁烟会怎样?」)和反省(「如果我读完高中,会怎么样呢?」)进行推理,那我们必须开发出因果模型。仅有关联性(association)不够,并且这是一个数学事实,而非观点。

人们对 AI 带来的可能性感到振奋。您不是吗?

当我查看深度学习在做什么时,发现相关研究者都陷在关联性级别的问题中。曲线拟合。说所有深度学习的瞩目成果都只是对数据的曲线拟合似乎是一种亵渎。但从数学层级的角度来看,不管你控制数据的技能有多熟练、控制数据时你从中读取到什么信息,这都只是曲线拟合,可能是复杂和繁琐的曲线拟合罢了。

 

 

根据您对曲线拟合的观点,听起来您对机器学习并不感冒。

不,我对机器学习印象深刻,因为仅靠曲线拟合无法解决那么多问题。而现在很多问题已被成功解决。但是我在考虑未来,未来会怎么样?会出现一个能够规划实验、解决悬而未决科学难题的机器人科学家吗?我认为这是机器学习的下一步。我们还想与机器进行有意义的交流,有意义指机器与我们的认知水平相匹配。如果你剥夺了机器人对因果关系的认知,那么你们之间就不会出现有意义的交流。机器人没法像你我这样说出「我应该做得更好」。因此我们就丢失了一个重要的交流渠道。

共享人类因果认知的机器有什么前景?

我们必须使机器具备环境模型。如果机器不具备现实模型,那么你不能指望它在现实环境中有智能行为。首先,人类编程的现实概念模型可能在 10 年内出现。

下一步是机器将假设此类模型属于它们自己,并基于实验验证和修改模型。这就是科学中一直发生的事情:例如人类最初认同地心说,后来发现了日心说。

机器人也是一样,它们将彼此沟通,将这个假设的世界转换成隐喻模型(metaphorical model)。

您是何时与当前研究 AI 的人们分享这些观点的?他们有什么反应?

AI 目前是分裂的。首先,一部分人陶醉于机器学习、深度学习和神经网络的成功之中。他们不理解我的观点,只想继续进行曲线拟合。但是和在统计学习范畴以外研究 AI 的人们谈论这些时,他们立刻可以理解。我读了一些近两个月关于机器学习局限性的论文。

您是说出现了一种抛弃机器学习的趋势吗?

不是趋势,而是一个严肃的内省过程,涉及这些问题:我们去向何处?下一步是什么?

这是我最不想问您的问题。

我很高兴你没有问我关于自由意志的问题。

那么您怎么认为自由意志呢?

我们将开发出具备自由意志的机器人,绝对会。我们必须理解如何编程机器人,以及我们能从中得到什么。由于某种原因,就进化方面而言这种自由意志在计算层面也将是需要的。

以何种方式?

你具备自由意志,进化已经赋予我们这种感觉。很显然,它提供了一些计算功能。

机器人具备自由意志时会有明显的迹象吗?

我认为第一个迹象将是机器人开始反事实地彼此沟通,如「你应该做得更好」。如果一组踢足球的机器人开始用这种语言沟通,那么我们将知道它们具备了自由意志。「你应该传球给我,我刚才一直在等,但你没有把球传给我!」「你应该……」(You should have)意味着你本应该做什么,但是没做。因此第一个征兆是沟通,第二个是踢出更好的足球。

既然您提到了自由意志,我想我应该问您关于作恶能力的问题。我们通常认为作恶的能力是选择的能力。什么是恶呢?

人们认为恶是贪婪或不满取代了社会的所有规范。例如,某人具备一个类似会说「你饿了,因此你可以做一些事来满足自己的贪欲或发泄自己的不满。」的软件模块。但是你具备其他软件模块,可以指导自己遵循社会规范。其中一个叫做同理心(compassion)。当你抬高自己的贪欲,超过了社会通用规范,那么这就是邪恶。

那么我们如何知道 AI 何时掌握作恶能力?

当机器人一直忽略一些软件模块时,这对我们来说就是一个明显的迹象。还有当机器人遵循一部分软件模块的建议而不听另外模块的建议时,当机器人忽略那些维持行为规范的模块的建议时,当机器人停止遵循这些模块时。

上一篇:卡耐基梅隆大学CMU的「人工智能」专业本科生都学什么? 用机器学习构建O(N)复杂度的排序算法,可在GPU和TPU上加速计算下一篇:

公众平台

搜索"raincent"或扫描下面的二维码