谷歌CEO发布AI研究七大准则:不开发武器但与军队继续合作 - 大数据分析_大数据处理_大数据技术_云计算 -
当前位置:首页 > 新闻资讯 > 正文

谷歌CEO发布AI研究七大准则:不开发武器但与军队继续合作2018-06-08 09:35:38 | 编辑:hely | 查看: | 评论:0

终于,Google亮明了态度。在经历了数个月的风波之后,在数千员工发起联名抗议之后,在学界大牛纷纷联署反对之后,在各大媒体深入曝光内幕之后,Google终于调整了自己政策。
终于,Google亮明了态度。

在经历了数个月的风波之后,在数千员工发起联名抗议之后,在学界大牛纷纷联署反对之后,在各大媒体深入曝光内幕之后,Google终于调整了自己政策。

今天早间,Google CEO正式发布了使用AI的七项原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。

不过,Google也表示,将会继续与政府和军方展开AI合作,例如网络安全、培训以及征兵等领域。

“我们认识到,这种强大的技术引发了同样强大的问题,AI的开发和使用将会对未来多年的社会产生重大影响。”Google CEO皮查伊(Sundar Pichai)写道。

另外,Google制定的原则还要求公司职员及客户“避免给人带来不公正的影响”,尤其是与种族、性别、性向以及政治或宗教信仰有关的影响。

皮查伊称,对于违反上述原则的应用,Google保留封禁的权利。

同时,Google云CEO戴安·格林(Diane Greene)也在官方博客上发布了一篇文章,来介绍如何在Google Cloud上践行Google的AI原则。

她特别提到,Google将不再延续Project Maven的合同。但是“正在与‘我们的客户’合作,以求用对他们来说长期有效、又不和我们的AI原则冲突的方式,负责地履行我们的义务,”

各方评价

看见这份《原则》,不少Google员工给出了很愉快的评价。

Google现任AI负责人Jeff Dean除了在Twitter上分享Google发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南Responsible AI Practices,指导科学家和工程师们在构建AI产品的时候应该注意什么。就是这个:

https://ai.google/education/responsible-ai-practices

DeepMind联合创始人穆斯塔法(Mustafa Suleyman)自己没有发表观点,而是在Twitter上转发了人权观察组织(Human Rights Watch)Mary Wareham的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。

Keras作者François Chollet说,对于AI创业公司来说,这个是一个很好的例子,表明你可以对产品中道德问题的潜在影响进行前瞻,每个AI创业公司都应该起草一份这样的东西,不要等到危机四起才动手。

Google大脑研究员Dumitru Erhan评价得非常简短,简单说了一句“看见这个出来了好开心”,大概代表了很多Googler的心声,二进宫的Ian Goodfellow也转发了。

但是对于这份原则,并不是所有人都买账。

《纽约时报》认为,由于Google此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Project Maven的合同之外,尚不清楚。

ZDNet也在评论中指出,即便Google说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。

原则全文

在上周五决定退出军事 AI 项目 Project Maven 之后不久,谷歌首席执行官桑达尔·皮查伊于今天发布了公司在 AI 研究,特别是 AI 军事研究上的道德准则。长达两个月的争议和抵制之下,谷歌改变了其在军事领域上的指导方向。值得注意的是,在新的准则之下,谷歌表示其将继续和军队保持合作。

 

 

AI 本质上是可以学习和适应的计算机编程,它无法解决所有问题,但具备改善人类生活的巨大潜力。谷歌使用 AI 制造更有用的产品,从免受垃圾邮件困扰的电子邮箱到智能写邮件的计算机助理,可与用户自然对话的数字助手,再到可以快速修复照片色彩的工具。

在消费级产品之上,谷歌还使用 AI 帮助人们解决亟待解决的问题。一些高中生正在构建 AI 支持的传感器来预测野火风险。农民使用 AI 管理牲畜的健康。医生开始使用 AI 诊断癌症,防止眼盲问题。这些好处就是谷歌为什么在 AI 研究和开发方面进行大量投资,并使 AI 技术通过其工具和开源代码惠及更多人的原因。

谷歌意识到这种强大技术在应用方面引起了同样大的问题。如何开发和使用 AI 将是未来很多年对社会产生巨大影响的课题。作为 AI 领域的领导者,谷歌感受到正确使用 AI 的巨大责任。因此,今天谷歌宣布七条原则来指引未来的 AI 工作。这些原则不是理论概念,而是能够积极指导研究和产品开发、影响商业决策的具体标准。

谷歌认为该领域是动态、不断进化的,因此谷歌需要用谦逊的态度推进研究功过,对内对外都要作出承诺,并愿意随着时间不断改进方法。

AI 应用的目标

谷歌认为人工智能应用应该实现的目标如下:

1. 有益于社会

新技术的扩展对社会的影响越来越大。AI 领域的进展将对医疗、安全、能源、交通、制造业等大量行业带来革命性影响。谷歌考虑 AI 技术的潜在开发和使用,以及大量社会和经济因素,决定将继续进行其认为整体益处远远大于可预见风险和弊端的领域。

AI 还增强了理解大规模内容的能力。谷歌将继续努力,利用 AI 提供高质量、可获取的准确信息,同时继续尊重各个国家的文化、社会和法律规范。谷歌将继续审慎评估何时能够在非商业的基础上推广技术。

2. 避免创造或增强偏见

AI 算法和数据集能够反映、强化或减少偏见。谷歌意识到区分公平和不公平偏见不总是那么简单,且在不同文化和社会背景下有所不同。谷歌将寻求避免对人类的不公平影响,尤其是在敏感话题方面,如种族、民族、性别、国家、收入、性取向、能力和政治或宗教信仰。

3. 为保障安全而建立和测试

我们将继续开发和应用强大的安全保障和安全的实践以避免不希望发生的导致风险的结果。我们将把 AI 系统设计得适当的谨慎,并探索按照 AI 安全研究的最佳实践来开发的方式。在合适的案例中,我们将在受限的环境中测试 AI 技术,并在部署之后监控它们的运行。

4. 对人们有说明义务

我们将设计能为反馈、相关解释和上诉提供合适机会的 AI 系统。我们的 AI 技术将服从合适的人类指导和控制。

5. 整合隐私设计原则

我们将把我们的隐私原则整合进 AI 技术的开发和使用中。我们将为通知和准许提供机会,鼓励架构中结合隐私保护,并对数据的使用提供合适的透明度和控制。

6. 坚持高标准的科学探索

技术创新根植于科学方法和开放式的调查、严谨的思考、诚信和合作。人工智能工具可能在生物、化学、医药、和环境科学等关键领域具有开拓新科学研究和知识的潜力。我们致力于促进人工智能的发展,追求高标准的科学探索。

我们将与一系列志同道合的人合作,以科学性的严谨和多学科的方式促进这一领域领导力的发展。我们将通过发布教育资源、最佳时间和研究项目来负责任地分享 AI 知识,并令更多的人开发强大的 AI 应用。

7. 根据原则确定合适的应用

许多技术有多种用途。我们将努力限制可能有害或滥用的技术应用。在我们开发和部署 AI 技术时,我们将根据以下因素评估可能的用途:

主要目的和用途:技术和应用的主要目的和用途,包括解决方案与危险使用的关联或它是否能适应于危险使用。

自然和独特性:我们提供的是独特的技术还是普遍的应用。

规模:这种技术的使用是否会产生重大的影响。

谷歌在项目中的性质:我们是提供通用目的的工具、为客户集成的工具还是开发定制版的解决方案。

我们不会进行的 AI 应用

除了上面的目标,我们不会设计或者将 AI 应用到以下领域:

只带来或者可能只会带来伤害的技术;虽然有些技术有实质性的危害风险,我们将只会进行大体上收益大于危害的技术,同时也会做出合适的安全保证。

武器、其目标或者实现是为了直接/间接伤害人类的技术。

违背国际可接受的标准,收集或者使用监督信息的技术。

违背国际可接受的律法、人权等普世原则的技术。

我们想要澄清,虽然我们不开发用于武器的 AI,但我们将会继续与政府、军队在其他许多领域合作,包括网络安全、训练、军人招募、军人健康、搜索与营救。这些合作非常重要,我们将积极寻求更多方法来增强这些组织的重要工作,保证服务人员与平民的安全。

AI 的长期愿景

虽然这是我们选择实现 AI 图景的方式,我们也理解在这场对话中还为很多其他观点留有空间。随着 AI 技术的进步,我们将基于完全科学的和多学科的方法,并与大量志同道合的人合作而在这个领域推动领导力的发展。此外,我们也将继续分享用于提高 AI 技术和实践的方法。

我们相信这些原则对于公司和 AI 的未来发展而言是良好的基础。该方法和我们最初在 2004 年的创始人的信中体现的价值观是一致的。我们当时理清了目标,并把眼光放得长远,即使这意味着短期的妥协。我们当时就是这么说的,并且现在也相信着。

原文链接:https://blog.google/topics/ai/ai-principles/

风波回顾

去年秋天,Google开始秘密与美国国防部接洽,合作Project Maven项目,根据双方的秘密协议,Google原本要为美军无人机提供顶尖AI技术。

包括李飞飞在内的高管团队,当时就此事展开了激烈的内部讨论。讨论的核心就是,不能让外界获知此事,否则会影响Google的声誉。

不过纸终究包不住火。

这一项目在内部开展后,Google员工们开始发起抵制。

3月,Google内部3000多名员工联名上书,抵制与五角大楼的合作。4月,事件进一步发酵,包括Bengio等上百名学者、科学家二次上书,数十名员工因此离职,要求Google退出Maven项目,并且起草政策声明Google永远不会开发战争技术。

随后媒体也介入,深扒此事。

上一篇:传统程序员要不要转行到AI? 微软将如何处理 GitHub 上有争议的代码?下一篇:

公众平台

搜索"raincent"或扫描下面的二维码