当前位置:首页 > 大数据 大知识 > 正文

O'Reilly 人工智能大会:行业大咖解读人工智能12大痛点2016-11-03 09:50:50 | 编辑:hely | 查看: | 评论:0

福布斯记者 Gll Press 近日参加了 O‘Reilly 人工智能大会。以下是他从人工智能顶级专家的演讲中提取出的 12 个观点。回答了人工智能是什么、发展过程遇到何种困难、对人们产生了什么影响、未来方向在哪等多个问题。

编者按:

福布斯记者 Gll Press 近日参加了 O‘Reilly 人工智能大会。以下是他从人工智能顶级专家的演讲中提取出的 12 个观点。回答了人工智能是什么、发展过程遇到何种困难、对人们产生了什么影响、未来方向在哪等多个问题。文章原标题为《12 Observations About Artificial Intelligence From The O'Reilly AI Conference》。

在刚刚开幕的 O’Reilly AI 大会上,来自 39 家机构的研发人员和 66 位人工智能从业者对 AI 行业现状做了详细陈述。其中包括聊天机器人、深度学习、自动驾驶、表情识别、自动化、新的商业机会和AI在医疗应用等。

\

自从 1993 年创办以来,O’Reilly AI 大会一直是获取该领域一手资讯的最佳渠道。下面,我们就来共同分享本次大会的 12 个重要见闻。

1、AI 是一个黑箱:“我们不知道它将走向何方”

谷歌研究部门主管 Peter Norvig 称 AI 与传统软件不同,这种由机器学习产出的事物并非简单的代码,它更像是一个黑箱,我们大致掌握了其发展方向,但未来它将走向何方依然是个未知数。

Tim O’Reilly 在《 21 世纪重大问题:你相信谁的黑箱?》一书中写道:“大多对社会产生重要影响的算法都是黑箱,它们神秘到连制造者都难以理解,因此信任是发展的关键。我们应该学会在不知道其工作原理的情况下对算法进行公正的评估。

O’Reilly 为我们推荐了四种对待算法的方式,核心原则为“信任,但要检查”的原则。它们分别是:1. 即使知道了期望结果,但旁观者依旧可以进行检查;2. 我们应该学会定义“成功”;3. 算法开发者的目标应与用户保持一致;4. 算法应帮助开发者和用户做出更好的长期决策。

2、AI 不是个简单活:“有时我们想要土豆,结果却造出了红薯”

会上还出了个搞笑的小插曲,在 Allen 人工智能研究所 CEO Oren Etzioni 准备用投影做演示的时候,投影却不争气得坏掉了。Etzioni 打趣说道:“我们连个投影都搞不定,怎么去研究 AI 呢?”

解决了技术问题后,Etzioni 开始列举研发机器的困难,其中当然包括会展的主题——智能机器。举例来说,“人们需要呼吸空气”是个简短的语句,但要想让这句话从智能机器嘴里说出来可是难上加难。

Etzioni 原本是华盛顿大学的终身教授,但最终却毅然决然投身微软创始人保罗·艾伦投资的艾伦人工智能研究所,其目标就是能让 AI 理解语言或图片。他认为深度学习很有用,但现在能力有限。另外他列出的 AI 挑战清单也被著名深度学习研究人员 Yann LeCun 公之于众。

LeCun 是纽约大学的教授,同时兼任 Facebook 的 AI 研究主管。他最擅长的工作是将深度学习技术应用在实际问题中。LeCun 称每天上传至各大社交网站的图片高达 10-15 亿张,而这些图片会迅速流入两个卷积型的神经网络。其中一个神经网络负责识别图中的物体,另一个则负责识别人物。视频处理过程与之类似。

在 LeCun 眼中,机器要想进化出真正的智能系统就必须“把整个世界拷贝拷贝下来,装进计算机大脑。同时它还要学会控制自己的行动,并预测行为对世界可能产生的影响。”要想实现这一目标,机器需要理解世界运行的逻辑并储备大量背景知识,同时它还必须时刻感受世界的变化,总结原因并规划未来。简单来说,AI 未来必须从“监督式学习”进化到“非监督式学习”(从无标记数据中学习)。在 LeCun 看来,最关键的问题就是“在不确定的条件下做预测”。

引用《Machine Learning: The high interest credit card of technical debt》一书中的概念,Peter No-rvig 解释了为什么机器学习比传统软件更复杂。首先,因为缺乏对障碍的认知,所以机器自己在系统中找 Bug 便很困难。其次,由于 AI 系统拥有非模块性,因此容易牵一发而动全身,改动一个点就会牵扯到所有环节。另外,AI 系统的非稳定性决定了它需要不断吸收新数据。最后,AI 系统的研发还会涉及隐私、安全和公平性等多种问题。况且技术人员手上现在没有合适的工具,现有的研发工具都是为传统软件准备的。“机器学习能让你大步快走,” Norvig 总结道。“但如果走的太快,问题就会不断涌现,那么研发进度将受到更严重的影响。”

纽约大学的 Gary Marcus AI 发展时遇到的困难总结为:“有时我们想要土豆,结果却造出了红薯。”

3、自动驾驶汽车将让驾驶成为人的业余爱好

美国交通部长 Foxx 近日表示:“我们可能会是最后一代着急买车的人。”在本次大会上,英伟达副主席 Jim McHugh 称“首个 AI 机器人就是汽车。”它们使人类驾驶更安全。自动驾驶汽车不会疲劳,它们拥有超人类的力量。

Lux Capital 公司的 Shahin Farshchi 同样认为自动驾驶车辆有利于人类。他表示政府怠慢于开发自动驾驶技术可能会让许多家庭承受阴阳两隔之苦。“由于大多数人驾驶技术都没有那么好,因此我们最终可能会接受“不够完美的自动驾驶汽车。”他认为,这一天很快就会到来。

当然,也有人持不同意见,Tom Davenport 就认为“许多人宁愿被人类开车撞死也不愿被机器害死。”也有人对自动驾驶技术的可靠性持怀疑态度,短期内它们可能较为安全,但未来的事情谁又能说的准。

Peter Norvig 在演示中也拿自动驾驶为例。他认为 AI 在该领域有两个问题:首先,由于 AI 技术是黑箱,因此在实验室状态下能安全行驶不代表在现实世界中也能一帆风顺。另外,我们还要考虑到“注意力问题”,如果 AI 的准确率为 50% ,那么驾驶座上的司机肯定会时刻保持紧张状态,但如果达到了 99% ,恐怕大多数人都会懈怠。一旦出现了 1% 的懈怠,可能就会有 100% 的死亡率。

Norvig 表示:“我们需要创造出新的用户界面,以便在紧急时刻‘唤醒’驾驶员。”

Oren Etzioni 则认为“自动驾驶”这一定义有些语义错误,因为车辆并不知道乘客要去哪,因此危险可能就埋藏在乘客的选择中。而且无论我们如何改进,某些人最后都会把事情搞砸。不过,Etzioni 依然非常看好智能汽车的前景,他预计在未来 25 年内,驾驶会成为人的业余爱好。当然,在目的地的选择上汽车还是得听乘客的。

4、AI 必须考虑文化和背景:“训练可以改变 AI ”

“现有的算法大多都针对当地特色进行了本地化,”英特尔交互和体验研究主管 Genevieve Bell 说道。但在对 AI 进行训练时,我们还是要利用各种训练数据,这样的智能机器走到世界各地都能胜任,否则很容易产生文化冲突。

Chennapragada 表示:“训练可以改变 AI 的学习过程,也就是说你教它什么它就学什么。”除了文化问题,我们在训练时还要考虑到语意背景。就拿“我爱你”这句话来说,跟家人通信时可以加在电邮末尾,但如果在训练企业级 email 系统时用上了这一数据,回复电邮时就会有些尴尬了。

会上,微软研究院的工程师 Lili Cheng 还讲述了微软在研发聊天机器人小冰和 Tay 时获得的经验教训。同一个公司研发得聊天机器人命运完全不同,就是因为文化背景有差异。东西方之间的文化差异让两个机器人走上了不同的学习之路。

5、AI 并非工作收割机:“我们还有太多问题需要解决”

Tim O’Reilly 在会上列举了 AI 不会窃取所有工作的原因:1. 人类还有许多问题需要解决,因此工作机遇不会完全被 AI 抢走;2. 当 AI 成为习惯,人类劳动就会成为新的奢侈品,就像现在机器化大生产的背景下人们更喜爱手工产品一样;3. 经济转型需要时间。虽然眼下亚马逊火爆异常,但其业务量依然只能达到沃尔玛的 20% 。

同时,巴布森学院的 Tom Davenport 教授也指出,1980 年时全美银行职员为 50 万人左右,但快 40 年过去了,这一数字依然维持在 50 万。“如果你想通过颠覆性创新抢走大部分人的工作,请先看看自己是否还年轻,因为这项工作耗时巨大。”对于 AI ,我们不能过于悲观,当然也不能过于乐观。

奥巴马总统也同意这一观点,他表示:“只要我们善用 AI ,它就能为社会带来繁荣和机遇。当然,也会有一些副作用,比如抢走人们的工作,加剧社会不公平和压低社会平均薪资等。我们必须及时想办法解决这些问题。”

6、AI 并非杀戮机器:“它们将成为人类的左膀右臂”

在 AI 系统的研发上,研究人员也有一些制度性的考虑。Etzioni 就认为“ AI 系统的设计需要遵从人类的法律和价值观”,此外,我们还能开发多个 AI 系统,让它们互相制衡。在大会上发言时,Etzioni 引用了 Andrew Ng 的话:“现阶段费劲去阻止 AI 变成终结者就像拼命阻止太空项目以避免火星人口超载一样。”Rodney Brooks 则表示:“如果你害怕机器人就把门关上就好。”毕竟现在的机器人连关上的门都打不开。Etzioni 总结称:“AI 并非人类历史终结者,相反,它们会成为我们的左膀右臂。要说 AI 带来的最大的威胁,还是前面提到的工作岗位问题。”

英国科学协会最近的一项调查显示,36% 的英国人相信 AI 的发展将对未来人类的生存造成威胁。在被问到“为什么那么多受人尊敬的科学家和工程师都在抓住机会抹黑 AI ”时,Etzioni 回应称“我也不知道他们的动机,也许霍金此前说黑洞理论太多次,想要找个有新鲜感的新话题吧。”

7、AI 虽用处极大却并非万能:“有个好梯子不代表你就能登上月球了。”

“深度学习对数据的处理更为复杂”,Naveen Rao 是 Nervana 的联合创始人兼 CEO ,他说,“我觉得 ‘智能’就在数据中寻找结构的能力。” 英伟达 Jim McHugh 的描述则更宏观:“深度学习就是一种新的计算模型。”

“任何人都无法取得谷歌机器这样的成绩……它完美地展示了人工智能的强大力量……专家们通常把深度学习说成对人类大脑的模仿。但实际上,它不过是在进行大规模的数学运算罢了。”Oren Etzioni 针对 Wire 上的一篇关于AlphaGo 的文章发表了自己的观点。会上,Tom Davenport 补充说道:“深度学习并不深刻。”

Etzioni 还说道,建议去问于 AlphaGo 几个问题:你能再跟我玩一次吗?(不能,除非有人按动开关);你会玩扑克吗?(不能,没有安装这个程序);你能过马路吗?(不能,这只是一个狭义的目标程序);你能跟我聊聊这个游戏吗?(不能)。

Etzioni 表示,尽管这种功能狭窄的深度学习已在一系列特定问题中成就不菲(比如语音识别或下围棋),但这并不代表它在总体水平上就能超越人类了。只有输入大量标签数据,深度学习才会特别管用。别说,现在想要教深度学习完成一件事,99% 的工作还是由人来完成。

Gary Marcus 是纽约大学心理学和神经科学教授,几何智能( Geometric Intelligence)联合创始人兼首席执行官,他也反对把深度学习描述为“模仿大脑”的说法。“真正的神经科学和我们现在做的模型一点也不一样。大脑中可能有上千种神经元,而深度学习中可能只有一到两种模拟神经元。并且大脑的真实结构比模型要复杂得多。人们对其热爱的如此之深,而深度学习的指令集数量却太少,二者极不相称。关键就是人们太注重简约了。”

当谈到“为什么深度学习既廉价又有成果”Marcus 表示,他发现“很多聪明人都相信深度学习放哪都管用,但我不这么认为。”他解释道,深度学习缺乏随机关系的表征方式、在逻辑推理表现上没有清晰的方式,而且抽象知识的储存量也太少。“虽然目前投入高达数十亿美元,但困难依旧存在。有个好梯子不代表你就能登上月球了,”Marcus 说。

8、AI 是增强智能:“它同时拥有人类和机器的力量”

Tom Davenport 在演讲中说道,人们不应和机器搞竞争,而应与之合作。同时,他也向相关组织提出重要建议:设置新职位——首席增强官(Chief Augmentation Officer),由此人负责根据特定任务选择合适的人工智能技术,设计人和机器能够协同合作的工作方式,并且选择合适的员工,以便能在恰当的时间把工作交接给机器。

Tim O’Reilly 表示,人机合作可使人和机器都发挥所长,有所进步。

Peter Norvig 在他的人工智能安全问题列表中谈及应怎样把人类专业知识教给人工智能系统,输入到哪一部分。他表示这些都是挑战。

Jay Wang 和 Jasmine Nettiksimmons 是 Stitch Fix(通过人工智能和人类专业知识,将购物体验个性化的创业公司)的数据科学家。他们谈到要用人的优势进一步加强推荐算法的好处。“机器学习中加入人的认知,能非结构化数据得更有效的应用。”人类可以轻松理解消费者的线上留言,或 Pinterest board(类似图片版的Twitter),之后就可以根据具体情况改善与消费者的关系,让算法做它更擅长的技术。“我们希望联合人以及机器的力量,得到最好的结果”,Wang 和 Nettiksimmons 总结到。

9、AI 改变了人机对话方式,但它需要懂得人类感情

“智能语音交互正在改变整个科技产业,我们现在就处在这一转折点上,” Tim O’Reilly 最近写到。

具体来讲,我们需要“重新思考语音导航的基础”,微软的 Lili Cheng 这样说道。“返回”键和“主页”键在系统中的重要性不言而喻,但要是用语音实现,对着设备一直说“返回,返回”,那就“真的挺怪异的”。Cheng 认为,语音技术的发展“一直在前进”,就像海浪。不过,现在让用户语音控制笔记本电脑还相当困难。为了让人工智能思考世界的方式更接近人类,通过语音对话对其进行测试也许是个不错的办法。

想让机器像人一样理解世界,需得让它们了解人类的感情。为此,Affectiva 已筹建世界上最大的情感资料库,分析了超过 470 万人脸和 500 亿情感数据,覆盖 75 个国家。他们的目的是使用户在使用设备、 app 和数字体验设备时,能对用户的情感进行实时感知和分析。“人们会和数字伴侣日久生情,但是这些伴侣们却没有任何感觉,” CEO Rana Al Kliouby 说道。

情感在人工智能中属于新生领域,但为了使普通大众(或许也包括从业者自己?)清楚认知人工智能现在的实际能力,我还是更希望大家把它称之为“共鸣”,而非“情感”。

10、别再用图灵测试了,换个更智能的测试方式吧

Gary Marcus 抱怨道,人们太容易满足于短期的小进步,而忘了需要去解决“真正困难的问题”。它在一些领域确实获得了指数级的进步,但在强大的、通用的人工智能领域,却进展甚微。他敦促人工智能从业人员要制定更远大的目标——通过传统图灵测试太容易了,他断言到。因此,他建议,应该换做多米诺测试(The Domino’s Test):让无人机或无人驾驶汽车把披萨送到任意一个指定地点,其执行水平应该和一个青少年的行动能力相同。

另外,LeCun 还提出了另一种测试“智能”或者自然语言理解的方法——Winograd Schema,它可衡量机器对世界的运作方式的了解程度。Etzioni 举了两个例子:“大球穿过桌子是因为它由发泡胶制成”和“大球穿过桌子是因为它由钢制成”。两句话中“它”各指什么?这个问题随便一个 7 岁的小孩子都能答得出。 Etzioni 补充道“所以常识性知识和普通逻辑推理对理解自然语言极其必要。”

几个月之前,Nuance Communications 赞助了第一届 Winograd Schema 挑战赛,结果显示,机器在句子中代词的理解上准确率为58.33%,而人类水平为90.9%。

11、借丘吉尔的话

Peter Norvig 说:“丘吉尔对民主的看法也可以用在机器学习上——机器学习可能不够好,但现在还找不到比它更好的解决问题的办法。

Oren Etzioni 说:“丘吉尔的名言稍加改变就是——机度学习既不是终点,也不是起点,甚至说它是起点都有点勉强。”

12、将自己深锁唯物主义,可能会阻碍人工智能真正发展到人类的水平

Gary Marcus 对在神经信息处理系统(NIPS)大会上展示的论文表示十分不满,他说,这些论文讲的问题都差不多,每次加个一两层神经网络,没有实质性进展。他表示,是时候出现天才灵感了。

当问到“我们什么时候才能看到人类水平的人工智能”时,Etzioni 回答“我也没有头绪。”在他的一个对人工智能专家的调查中,他表示,“最起码要 25 年以后。”“我是一个唯物主义者,相信世界由原子构成,所以我不认为人工智能想要达到人类水平有什么不可能的。”

刚踏入计算机时代时,Edmund Berkeley 曾在《 Giant Brains or Machines that Think》中写道“近来,有关机器能够快速且高水平处理信息的报道铺天盖地……这些机器和人类大脑相似,只不过它们是由硬件和电线组成……机器能处理信息,进行计算、推断以及作出决策;因此,机器是能够思考的。”30 年后,Marvin Minsky 的一句话成了经典名言:“人类大脑不过是一台计算机,只不过由肉构成。”

但是否恰是这种根深蒂固的唯物主义、不相信上帝,要造出类人机器的想法最终导致了著名的“人工智能寒冬期”?是否只有抛下对它的固着,才有可能激发人们绝妙的创造力?也许我们可以猜想,大脑其实不像机器,机器也并不和大脑类似?或许,我们可以放弃徒劳无功的追寻,放弃在计算机中复制一个达到人类水平的人工智能的想法,而找到计算机其他的应用方式来充实和改善我们的生活?

来源:雷锋网

上一篇:Forrester预测:2017年人工智能投资将增长300% 全面布局AI,IBM、Google是如何做的?下一篇:

公众平台

搜索"raincent"或扫描下面的二维码