当前位置:首页 > 科技新闻 > 正文

中国科协信息科技学会评选:2019年信息技术领域十大前沿热点问题2019-07-18 11:00:42 | 编辑:hely | 查看: | 评论:0

中国科协信息科技学会联合体通过成员学会推荐及专家评审,评选出2019年信息技术领域十大前沿热点问题:

来源:科技导报 作者:刘志远

编者按

为贯彻落实国家科技强国发展战略、国家创新驱动发展战略,研判信息技术领域未来技术发展趋势,推进信息科技领域发展,中国科协信息科技学会联合体自2018年开始,通过各联合体成员学会面向广大科技工作者征集“信息技术领域前沿热点问题”。通过成员学会推荐及专家评审,评选出2019年信息技术领域十大前沿热点问题:自然语言理解、规模量子计算机的软件基础研究、自动驾驶车控操作系统关键技术研究及市场化应用、非正交轴系三维激光测量仪器、基于头显式增强现实系统的应用技术、完美密码学随机数的产生、复杂电磁环境卫星抗干扰新技术、全天候实时高分辨成像与识别、人工智能与生物智能的融合问题:人工生物智能的研究和应用、干涉光学成像技术。以下对其具体内容作一简略解读。

问题1 自然语言理解

中国中文信息学会学术工作委员会

1 问题背景

语言是人类知识传承的重要载体,是人类相互交流沟通的主要方式。理解语言是计算机迈进人工智能的必经之路。自然语言理解旨在将自然语言解析成计算机可计算的形式。自然语言理解涉及语言认知、语义表示、语言理解、知识库构建、常识推理等技术,是人工智能和自然语言处理的终极问题之一。从应用角度来看,自然语言理解在信息时代有着广阔的应用前景,例如,机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息检索、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等。

自然语言理解是一门交叉学科。近年来,伴随着人脑认知研究的发展、海量大数据的积累、计算能力的飞跃、大规模知识库的建成,以及深度学习网络的兴起,让自然语言理解迎来了新的发展机遇。人脑认知研究的发展使得人们对人脑语言的认知、加工、存储和理解机制有了进一步的认识,为构建类人语言理解系统提供了指导。海量大数据的积累使人们可以采用统计的方法来分析自然语言的内在规律,以及语言在不同人群中的生成、传播和表达机制。计算能力的飞跃使得存储和处理互联网规模的海量文本成为可能。大规模知识库的出现使人们可以建模人脑中的海量常识知识,并为探索基于常识的自然语言理解系统提供知识支撑。深度学习网络提供了类脑的计算机制,为自然语言理解提供了模型工具。

2 关键突破点

由于自然语言的复杂性、多样性、开放性和动态性,自然语言理解仍然是一个开放问题。未来面临着多个关键难点和挑战。

1)在机制层面,目前仍然缺乏对人脑语言认知加工和表示机制的深入和全面理解。人脑是目前为止语言理解的最佳系统,然而人脑如何理解语言仍然是一个谜。当前的病理手段、神经科学和认知科学仍然只能在表面层次分析人脑的语言理解现象,缺乏深入和全面的理解。上述挑战导致在构建计算机自然语言理解时缺乏脑科学的指导。

2)在语义表示层面,现有语义表示语言在表达复杂、开放的自然语言时仍能力不足。人类语言具有强大而丰富的表达能力,存在大量的隐喻等"言有尽而意无穷"的现象。而与之相对的是,目前计算机常用的语义表示包括逻辑语言和分布式表示,都存在表达形式与能力有限的问题,在表达复杂结构、内涵丰富的自然语言时力有未逮。

3)在知识层面,如何表示和获取人类的海量知识是自然语言理解的知识瓶颈难题。与计算机不同,人脑基于海量世界知识进行语言的理解,人类可以通过各种渠道学习得到这些海量知识。与人脑相比,计算机缺少表示海量常识知识的有效机制,同时现有的知识获取算法难以在训练语料和性能要求之间同时达到实际需求。

4)在计算层面,设计基于海量知识的高效类人推理和理解算法是一个关键科学问题。人脑可以根据情境触发不同的背景知识,综合来自不同来源的知识,根据自己的意图进行高效的理解和推理。目前的计算机在知识的激活与链接、多源知识的整合、意图指导的高效理解和推理等方面都与人脑有极大差距,是未来自然语言理解需要解决的一个重大问题。

3 战略意义

自然语言理解是破解人脑智能之谜的钥匙。正如乔姆斯基所言:"研究语言的主要贡献在于它能使人理解心智活动的性质以及由心智活动影响的结构"。语言是人类进化的重要产物,口语和符号语言标志着从猴脑到人脑的剧烈转变。研究自然语言的理解机制,构建可以模拟人脑理解语言的系统可以为探索人脑如何工作、如何产生意识等研究提供坚实的基础,同时与脑科学、神经科学和认知科学的成果相互验证、互相触发,共同推进大脑之谜的破解。

自然语言理解是实现人工智能的核心问题。人脑智能的核心能力是其能理解语言并基于理解做出合理的行动。自从人工智能提出以来,自然语言理解就是人工智能的核心。1950年由图灵提出用于判断机器是否具有智能的图灵测试的核心就是自然语言理解。2017年国务院发布《新一代人工智能发展规划》和工业和信息化部发布的《促进新一代人工智能产业发展三年行动计划(2018—2020年)》,都将自然语言理解建立为人工智能基础理论体系的核心组成,同时将自然语言理解技术作为新一代人工智能的关键共性技术。

自然语言理解技术是信息产业的关键支撑。随着互联网和社交网络的高速发展,以及个人计算机和智能手持终端(如智能手机)的普及,信息对整个社会的影响已经提升到了一种极其重要的地位。目前互联网上,非结构化文本数据占据了所有数据的70%以上,如何充分组织、理解和运用非结构化文本中的信息,已经成为一个国家核心竞争力的体现。目前的搜索引擎和大数据技术仍然停留在字符串匹配和简单关联统计的层面,只使用了非结构化文本的冰山一角。自然语言理解技术的研究,将让信息产业对非结构化文本数据的理解与应用实现从处理到理解的飞跃,为信息产业实现智能化提供核心支撑。

问题2 规模量子计算机的软件基础研究

栾添,张雪松 中国电子科学研究院

1 问题背景

近几年,量子计算机硬件基础研究进展迅速,IBM、谷歌等公司纷纷推出超过50个物理比特的量子芯片。然而,对量子软件的关注度和重视度还很不够。不论是经典系统还是量子系统,硬件设备都需要通过软件进行有目的的调用,才能完成复杂的信息处理任务。如同经典软件技术在人类信息技术革命中所起到的支撑作用,量子软件技术在当今量子信息技术的研究和发展中有着同样不可替代的重要意义。

量子软件是对量子计算过程进行设计、实现、推理与验证的核心。由于量子计算机的物理层面遵循的是微观的量子力学规律,以量子计算机为基础构建的量子信息系统无论在构成的复杂程度上还是操作所需要的精确性上都将远远超出传统的经典信息系统。经典的软件设计理论、方法和技术已经不能胜任对量子软件系统的设计与开发,因此建立同量子理论相兼容的量子软件基础理论,发展针对量子计算软件的分析验证方法十分重要。

2 关键突破点

早期对量子软件的研究重点主要集中在算法层面,包括Deutsch-Jozsa算法、Simon算法、Shor大整数分解的量子多项式时间算法和Grover无序数组元素查找的快速量子算法等。这些量子算法分别比相应的经典算法具有指数量级和平方量级的加速优越性,都展示出了量子计算潜在可能的超越经典计算的能力。同经典计算类似,为使量子算法在量子计算机中实际运行,需要量子编程语言对量子算法进行编译,将其翻译成量子计算机硬件系统可以运行的指令。目前,已经有多种量子编程语言被相继提出,如QCL、qGCL、QPL、QML、Quipper等,相应的软件开发工具也被开发出,如LIQUi|>、qHiPSTER、Q|SI>等。这些量子编程语言对一些基本的量子算法和规模较为有限的量子计算过程能够进行很好的描述和模拟。

虽然量子软件领域的研究工作取得了一系列的进展,但目前的研究还是比较基础和零散,没有形成体系,很多问题甚至无法准确定义。其主要的难点在于以下2个方面。

1)量子软件系统的硬件基础不够完善。尽管当前量子计算机物理硬件设备实现取得了很大的进展,但距离能够运行真正运行的量子软件的通用量子计算机仍然非常遥远。

2)量子软件的验证十分困难。由于量子软件与经典计机软件相比具有很大的不同,特别是由于量子叠加和纠缠的存在,使得量子软件查错、纠错异常艰难。

尽管缺乏量子计算机的硬件支撑,量子软件的理论和技术依然在过去十多年的研究中取得了长足发展。可以预见,以下关键突破点将更加引人瞩目。

2.1 量子程序设计语言与开发平台

量子计算任务需要硬件与软件共同完成,因此量子硬件技术的成熟化与实用化将产生对量子软件的巨大需求。合适的量子程序设计语言与开发平台将是其中的关键技术。

2.2 量子计算机的体系结构设计

计算任务的完成过程是一个由信息的编码、存储、通信、处理等基本操作复合而成的综合过程,如何将相关量子元器件恰当地组合在一起,需要预先设计好合适的量子计算机体系结构。通过采用合适的量子软件进行结构化、逻辑化描述,将有助于人们理解量子计算过程。

2.3 量子系统的仿真、验证技术与工具

量子力学的基本规律在很大程度上违反了人类的直觉,因此量子系统不论是硬件系统还是软件系统中,都比经典系统更容易产生人为错误,并且错误产生后更难发现。这就需要提供能用于量子计算系统检测的自动化工具。

3 战略意义

软件是计算机的灵魂,在现有的计算机产业中,软件的市场甚至超过硬件市场。不难想象,量子软件在未来的量子信息产业中所处的重要地位和由此产生的经济效益,主要体现在以下3个方面。

3.1 再启信息技术良性循环,推进信息产业化持续发展

目前实用的量子软件理论研究尚处于初步阶段,一旦量子软件技术发展成熟,将具有满足量子计算与量子模拟等方面迫切需求的巨大潜力。而定制化的、专业化的量子软件将使得相关技术应用于实际的过程更高效、顺畅,由此形成量子硬件技术与量子软件技术互相促进的良性循环,有助于推进信息产业化持续发展。

3.2 开辟新的技术方向,加快人工智能和云计算升级

量子计算具有天然并行计算的优势。在人工智能和机器学习领域,许多重要应用的实现是以前所未有的计算能力和计算量为前提,量子计算技术能够并行处理大量数据,在很大程度上缩短了人工智能机器的学习曲线,进而实现人工智能机器学习算法的优化。可以预测,基于量子软件的机器学习算法,将会成为一项新的技术方向,加快人工智能和云计算升级。

3.3 革新信息处理技术,支持信息融合应用

量子计算可以将运算复杂程度的指数级增加转化为线性增长,进而大幅提升运算能力,突破传统超级计算机的工作极限,完成当前超级计算机所不能完成的复杂计算。例如:(1)Shor算法可以数秒内破译现有以因式分解算法为基础的非对称密码体系,强化密码攻防的能力;(2)Grover搜索算法可以用于空天目标识别搜索中的异构数据处理,迅速识别并作出最优方案,提高效率;(3)量子傅里叶变换算法可以用于雷达天线阵列回波信号的处理。可以期待,以量子软件为核心的量子计算技术将提升信息融合应用水平。

问题3 自动驾驶车控操作系统关键技术研究及市场化应用

中国汽车工程学会

1 问题背景

1)自动驾驶车控操作系统能有效支撑汽车"新四化"技术革命,保障国家信息网络安全,为突破"卡脖子"技术提供基础支撑。

汽车是国民经济的重要支柱产业,带动庞大的制造业上下游,代表国家工业水平。汽车强则制造强,制造强则国家强,汽车产业是"制造强国"重大战略部署的重要支撑和融合载体。当前,世界汽车产业正在经历一场以"电动化、智能化、网联化和共享化"为特征的"新四化"技术革命和行业变革,随着新一代能源技术变革、信息技术、人工智能、大数据等与汽车"新四化"的加速融合,以汽车为代表的运载工具正在成为全球技术变革和科技创新的竞争制高点。

自动驾驶车控操作系统作为连接硬件芯片和软件应用程序的基础平台,也是海量运行数据的融合平台,是支撑汽车"新四化"的平台技术,是国家和汽车行业的重大战略需求,是解决国家"卡脖子"重大战略问题的核心关键。传统汽车操作系统的核心技术均由国外公司把控,黑莓、谷歌、风河等公司的产品几乎垄断整个行业,基于加快推进智能网联汽车发展、为中国建设汽车强国提供强有力支撑的立场,建立自主可控的自动驾驶车控操作系统势在必行。

2)自动驾驶车控操作系统在全球范围内均处于技术起步阶段,是蓝海领域和深度融合的核心共性平台技术,市场前景广阔。

自动驾驶车控操作系统是典型的行业融合带来的蓝海和重点领域,特别是高性能复杂嵌入式系统,人工智能芯片及算法,高速网络,海量数据收集、处理和计算,云机协同等,目前在全行业还处在起步阶段,全球范围众多主机厂、Tier1、ICT公司以L3级自动驾驶量产及相关产品为契机,均在发力,希望在2~3年有所突破。国际上业内合作、跨界协同,如宝马和奔驰联合,本田和通用Cruise合作,国际多行业巨头在同时跨界发力,国外行业融合理解更深刻,产品市场化执行能力和经验更强,如大众宣布研发vw.os汽车操作系统等。

但是,由于自动驾驶车控操作系统其覆盖技术广泛、市场产品匮乏,能够充分认识到自动驾驶车控操作系统的行业融合平台特质的公司并不多见,绝大多数公司都是针对某一子模块单独发力,较难形成合力,实现整体产品的市场化。同时,已有传统汽车操作系统/基础框架软件生态强大,有一定生态壁垒。在目前这个阶段进行自动驾驶车控操作系统项目的立项研究,和国外保持同一起跑线,并能聚拢行业资源形成合力进行推广,市场前景广阔。

智能网联汽车的发展将重塑整个汽车电子产业链,实现自动驾驶车控操作系统的技术突破和应用,为中国智能网联汽车产业的"换道超车"提供宝贵契机。

随着智能网联汽车自动驾驶技术的高速发展,传统汽车电子产业链无法满足其智能化、网联化的发展需求。汽车智能化的需求使目前新兴跨界技术如人工智能、异构芯片硬件设计、汽车基础软件框架等飞速发展,此外中心云/边缘云的网联、云控、数据,以及高精度地图、信息安全等对传统汽车电子产业链条造成了巨大冲击。传统汽车整车厂和一二级供应商需要时间适应和追赶新兴"跨界"技术带来的产业新格局。大量数据融合处理是实现高级自动驾驶的必备输入,汽车将成为更加复杂的信息物理系统,单车内外数据的打通共享和融合处理已经超出传统汽车行业的能力范畴,单独依靠传统汽车产业无法实现。智能网联汽车的网联属性将涉及某个地区或国家的政策法规、数据信息安全集中管控,现有自动驾驶主要依赖的高精地图一定意义上属于国家智能化基础设施,以上涉及公共安全的相关保障问题均无法单独依靠传统汽车产业或任何单一企业去实现。

2 关键突破点

1)当前尚处在自动驾驶车控操作系统研发的起步阶段,产品尚未定型。需通过架构设计进行顶层规划,推动形成行业共识。

2)为了应对产业发展对核心先进技术的旺盛需求,充分利用科技资源,需共建基础共性技术平台,聚集优质资源、加速融合创新。

3)为了更好地实现自动驾驶车控操作系统研发成果的价值,需成立市场化主体推动产品落地,由市场驱动协同发展。

4)自动驾驶车控操作系统需应对产业生态的竞争,产品应通过一定规模装车应用实现示范推广并建立生态。

5)安全可靠是自动驾驶车控操作系统的重中之重,需通过制定标准、加强检测,打造和完善质量保障体系。

以智能网联汽车的自动驾驶车控操作系统所涉及的关键技术为研究重点,应攻克自动驾驶车控操作系统五大共性平台技术:(1)自动驾驶车控操作系统架构设计;(2)自动驾驶车控操作系统系统软件开发;(3)自动驾驶车控操作系统功能软件开发;(4)自动驾驶车控操作系统安全设计;(5)自动驾驶车控操作系统标准体系。

搭建四大运行、测试、验证环境支撑自动驾驶车控操作系统装载、适配、运行和测试:(1)自动驾驶车控操作系统异构分布硬件架构设计;(2)自动驾驶车控操作系统软件集成开发环境;(3)自动驾驶车控操作系统测试应用软件适配;(4)车辆集成测试验证平台,经过测试、验证、迭代完善自动驾驶车控操作系统并推动其在主流汽车厂商主要车型的落地示范应用。

3 战略意义

抢占智能网联汽车发展制高点,对加快推动中国智能网联汽车发展,实现产业安全、信息安全,进而保障国家安全,具有重大战略意义。

问题4 非正交轴系三维激光测量仪器

吴斌 天津大学

1 问题背景

随着科学技术的进步和人们生活水平的提高,现场、快速的三维精密测量日益成为科学研究、工业生产、工程作业,甚至人们日常生活中的迫切需求。如汽车焊装、飞机装配、桥梁监测、文物保护及人造器官的三维成型等都与三维测量密不可分。为打造制造强国,推进工业强基、智能制造和高端装备创新,对先进测量技术与高端测量仪器提出了新要求,对工业领域跨尺度空间、全方位、自动、高精度的非接触三维测量提出了更加迫切的需求。

三维测量可分为接触式测量和非接触式测量。三坐标测量机是接触式测量的典型代表,它测量精度高,但效率低,且通常要求特殊的工作环境。关节臂测量仪、激光跟踪仪及室内GPS(iGPS或wMPS)等技术手段测量空间大,测量精度高,但接触式测量方式,限制了其在自动化程度要求高或特殊被测对象中的应用。

激光雷达、摄影测量系统、经纬仪及全站仪等属于非接触式测量手段。激光雷达测量效率高,但精度较差,而且后续数据处理工作量大。近景摄影测量系统中传统手持相机的多站位成像模式降低了其测量过程的自动化。经纬仪、全站仪等相关设备是目前工业工程现场坐标、尺寸及形貌测量的重要手段。为实现精密测量,要求三轴系严格正交,即竖直轴与水平轴正交,水平轴与测量轴(视准轴)正交,且三轴交于一点。若不能满足,则会产生轴系倾斜误差,从而影响仪器测量的准确性。所以,在仪器设计、材料选择、加工工艺、装配、检校和维护等方面都有严格的要求,自然也就决定了此类仪器的高昂成本。

2 关键突破点

针对目前常规尺寸空间、大尺寸空间精密制造、监测过程中,现有测量手段与方法存在的不足和应用局限性,从基础测量平台架构和测量原理方法两个层面提出一系列新的解决思路。突破传统测量仪器三轴正交的结构要求,提出并研究一种新的非正交轴系架构及其测量原理与方法。

2.1 非正交轴系新架构

遵循传统正交轴系测量仪器的三轴结构模式,但突破其"三轴正交"的结构要求(即"垂直轴"与"水平轴"、"水平轴"与"视准轴"无须正交,"三轴"也无须交于一点),并结合可自动调焦及光强自适应调节的准直激光器,提出并研究一种非正交轴系新架构,以降低精密测量仪器的设计要求、制造难度及制造和维护成本,增强现场应用能力。

2.2 非正交轴系测量仪器新原理与方法

由于所提出的新型三轴架构是非正交轴系,与传统正交轴系存在根本区别,体现在"视准轴"绕"垂直轴"和"水平轴"转动时,水平度盘和垂直度盘所提供的"水平角"和"竖直角"与传统正交轴系仪器的水平角和竖直角意义完全不同。于是,在基本测量原理和方法上,传统测量仪器直接根据测量角度及简单的空间几何关系所建立的测量模型,对于非正交轴系的测量仪器并不适用。本问题拟基于轴系刚体旋转变换理论、视觉透视投影变换模型及四元数运动学模型,深入开展非正交轴系测量仪器的测量原理与方法研究。

3 战略意义

基于非正交轴系新构架,2个一维转台和1个具有距离测量功能的部件即可组成新型全站仪;2个一维转台和1个准直激光器即可组成新型经纬仪。进而,通过选配不同型号大小的转台与激光器可设计不同型号大小的新型全站仪、经纬仪,从小型传感器到大型机构,实现常规尺寸、大尺寸等不同尺度空间的精密测量。

小型传感器不仅具备现有激光视觉传感器的测量功能,还可克服其相机景深限制,实现在常规尺寸范围内的跨尺度精密测量。新型全站仪、经纬仪大大降低了传统全站仪、经纬仪的应用成本。尤其可拓展到转台与可视光轴的可选择性组合,适用于不同精度要求与环境条件的测量现场。

非正交轴系测量仪器具有重要的理论研究意义和明显的实用价值。不仅为实现常规尺寸空间、大尺寸空间的现场、自动、精密测量探索了新路,而且有望发展一种新型的精密测量方法、技术和一系列新型的精密测量仪器,为国家重大技术装备制造提供技术支撑,对其质量控制发挥重要作用。同时,通过本问题的研究,也能极大地拓展激光及光电测量技术的应用范畴,促进激光及光电测量技术的进一步发展。

问题5 基于头显式增强现实系统的应用技术

李妮 北京航空航天大学

1 问题背景

增强现实技术(augmented reality,AR)是虚拟现实技术(virtual reality,VR)的一个重要分支,能够将计算机生成的虚拟信息与真实场景叠加,从而实现对现实的"增强",是一门综合了计算机图像、光电成像、融合现实、多传感器、图像处理、计算机视觉等多门学科的新兴技术。近年来增强现实技术不断发展,逐渐被应用到教育、医疗、军事、娱乐、旅游及工业等各大领域,且出现了许多较为成熟的头显式增强现实设备如HoloLens、Meta2、Google Glass、Magic Leap等。与虚拟现实技术相比,AR更加关注与环境信息的结合,在交互显示、虚实遮挡、环境感知协同等方面提出了更高的要求,随着近年来计算机计算的性能提升和各种传感器硬件的发展,AR将在未来可深入每个人的生活,成为像手机一样不可或缺的移动设备。

2 关键突破点

增强现实的最终目的是实现虚实结合的沉浸体验,能够用虚拟信息增强对现实的认知或是结合现实得到全新的虚拟体验,要实现这个目的,需要解决以下关键问题,分别从硬件和软件方面进行介绍。

2.1 硬件关键问题

1)硬件沉浸感。

沉浸感是影响AR体验的关键因素,头显式AR通过半透明镜片观察现实世界,并叠加虚拟信息,现实增强感是最强的。但是,现有显示技术依然存在工程上的巨大挑战。首先是视场角,头显式设备一般采用半透明镜片,显示范围受限于光学技术,目前的头显式设备视场角不超过60°。在虚拟物体的显示过程中,有明显的边界,让人很难沉浸其中。要保证虚拟物体的显示,视场角至少要大于150°,甚至180°,才能让虚拟物体无缝的和现实融合。而提高视场角的关键技术在于光学介质,从材料和设计工艺上解决视场角的问题。其次,相比光学式显示技术,数字光场技术会是更好的AR显示解决方案。光场信息是四维的,而光学透视型眼镜,是通过对左右眼看到的图像进行不同的渲染,实现三维的效果,但渲染结果依然是二维的。当人的焦点转换时,应该虚化的地方仍然是清晰的,会造成大脑的混乱,这也是目前头显式AR设备容易造成眩晕的主要原因。光场技术能够直接将光投影到人眼上,重现四维的光场信息,从而产生与现实物体一样的效果。目前光场技术的研究包括光场采集及光场显示,光场采集技术相对成熟,但是在成本、体积、功耗、舒适度上需要有更大的改进;而光场显示技术具有完全模拟现实光场、让人无法区分现实与虚拟的潜力,是目前的研究重点和难点。光场技术中影响沉浸体验的关键技术是分辨率,也就是光点的数量。理论上分辨率越高,显示的图像就越清晰,人就越难分清真假。目前头戴式显示分辨率一般是2K,最终想要完全模拟显示,32K的分辨率是终极目标。最后,亮度也是显示的关键因素,但在光场技术的发展下,亮度将完全模拟采集到光场信息,非常具有应用前景。

2)硬件便携性。

头显式AR设备在未来将会是生活中无处不在的移动设备,因此便携性也是关键问题。首先是续航能力,头显式AR想要在未来被广泛接受并使用,续航能力至少要维持12小时以上,为用户持续提供信息辅助,大容量小体积电池以及太阳能充电设备是主要解决途径。其次是佩戴舒适性,一体化头显式AR包括显示设备、传感器设备和计算设备,各个设备的集成度都必须非常高,遵从人体工效学设计,尽可能减少体积、重量,能够让人长时间佩戴而不会感觉不适。最后是计算能力,为了保证显示效果,大量的计算无可避免。目前一体式的头显式AR仍存在计算能力不足的问题,不能够支撑复杂场景的渲染计算,同时体积和散热上也存在不足。未来的发展方向主要有两个方面,一是便携式计算机,通过连接额外的计算设备,将显示和计算分开,能够减轻头部压力;二是通过无线信息传输,将计算结果传输到眼镜,5G甚至更新一代网络能够提供低延迟大数据的传输,使得头显式设备轻量化、小型化。

3)硬件交互性。

交互技术也是头显式AR的关键技术难题之一,目前的交互技术还局限于选择、确定这样的指向性交互手段,很难适应AR的三维交互。指向性交互技术主要是根据头部的移动,通过射线检测来实现物体的选取,需要大量的头部动作,为头部带来了更多的负担。眼球跟踪技术能够大大降低头部的运动,通过眼球跟踪,能够锁定目前用户关注的焦点,从而实现功能选取或者强化显示。手势是传统的交互方式,通过对手势的识别,能够进行对应的操作,目前的主要手势识别技术有Kinect和Leap motion,但是识别范围有限,需要抬手进行操作,对手臂负担很大。手部传感器是可行的解决方案,能够实时对手部位姿进行跟踪,同时对精细的手指动作也需要进行跟踪,根据不同的手势进行不同的操作,用户可以自定义手势习惯,实现更多样的交互。触摸式交互式最直接的交互方式,通过直接用手接触到虚拟物体从而完成交互,但是对手部动作的跟踪要求会更高,在精度上要达到毫米级,在反馈速度上要达到毫秒级。语音识别也是主要的交互手段,但是目前语音识别还停留在简单的识别上,只能对用户的关键词进行识别然后执行相应的命令,未来的发展方向是与大数据结合,通过语音能够和系统交互,给用户提供更优的解决方案。

头显式AR在硬件得到了提升后,在软件上也需要重大的突破。

2.2 硬件关键问题

1)跟踪技术。

虚拟物体稳定叠加在现实的前提是对头显的跟踪,目前的跟踪技术是基于多传感器的视觉SLAM(同步定位与地图构建)技术,主要有三方面指标:快速性、准确性和鲁棒性。快速性的目标主要取决于人眼的反应时间,一般为24帧,也就是33 ms,跟踪时间不足反应时间的1/10,即3 ms。准确性是主要体现在定位精度,精度上不够,虚拟物体会在用户移动或摆动头部时出现漂移或抖动,距离虚拟物体越近,跟踪精度要求就更高,目前实现跟踪精度主要是毫米级。在未来,多人协同会是大趋势,多人精确位姿定位对精度提出了更高的要求,未来目标应该实现微米级定位或者纳米级定位。鲁棒性是在各种环境下能够稳定工作,未来AR的使用范围应该是广泛而复杂的,保证各种环境下的可靠性非常重要,包括人移动干扰,光场变化,场景单一等因素都是需要解决的关键问题。视觉SLAM的主要瓶颈在于传感器和计算效率,未来的发展方向是更轻便快速且高精度的传感器或是更加高效可并行的计算方法,采用神经网络训练跟踪模型是主要的解决途径。

2)虚实遮挡技术。

当虚拟物体的位置在现实物体后面时,正确的遮挡关系能够使虚拟物体更加的逼真。通过深度传感器或是SLAM技术,能够对环境进行实时建模,获取现实世界物体的深度,并根据建模的点云结果进行三角计算、判断深度信息,建立正确的叠加效果。在头显式AR中,左右眼需要不同的图像信息,因此在渲染时间上就是双倍。为了提高渲染效率,可以和眼球跟踪技术进行结合,人眼关注的地方是有限的,对于人眼关注的地方,采用高精度渲染,而不关注的地方,采用较低精度的渲染,能够大大提高渲染效率,而光场信息的计算量巨大,如何进行优化计算是未来渲染技术的关键。

3)环境感知技术。

只有能够与环境进行深度融合,才能算得上真正的AR,而环境感知是基础。AR设备能够根据传感器获取的信息,对环境进行一个基本的感知,也就是语义,能够识别当前的环境包含哪些因素:天空、树、车等,根据语义进行一个简单的场景判断,判断自己所在的场景,应该会有怎样的工作任务;然后根据用户的需求,进行关键物体的识别;根据识别结果进行建模,满足交互需求。目前的环境感知技术主要依托于深度学习,在快速性和准确性上都需要巨大的提升。

4)协同交互UI技术。

目前成熟的UI技术主要是基于桌面显示的二维UI,在三维空间中二维UI的显示效果和呈现方式并不能体现出三维UI的优势。真正的三维UI,应该具有空间性和交互性。相比于二维屏幕,三维空间是巨大的,太多的UI信息可能会造成信息干扰,如何合理设计三维UI是关键。三维UI主要呈现的是空间感,多个UI在空间中不显得拥挤,而交互性主要体现在操作的简洁性,能够用最简单的动作实现复杂的操作,例如观察一个三维场景,能够实现放大缩小,关键物体选择,辅助信息叠加等功能,能够在几个简单动作下实现对应功能。用户关注的UI通常是与自己相关的,当需要大量协同交互时又能实现数据通信以及虚拟信息的显示,这有赖于各个设备之间的功能独立性以及在短时间内的大量数据传输。在未来当需要向周围传递信息时,数据量是巨大的,为了保证交互的零延迟,传输速度和流程都是关键。基于5G网及未来通信技术的通信能力能够解决数据传输问题,实现协同交互。

3 战略意义

头显式AR系统的应用技术取得重大突破后,将能够广泛应用在军事、教育、娱乐消费等方面,创造巨大的军事、社会和经济效益。

军事方面,头显式AR能够应用于军事作战与军事训练。在实战方面,网络化、信息化战争信息超载,可以为指挥员及作战士兵提供态势感知的新模式与新方法,显示作战环境辅助信息。对于指挥员,把复杂、不可见的战场态势以可视化的方式表现出来,以方便作战指挥人员能够通过视觉快速理解复杂的战场态势。对于单兵作战,能够基于多传感器融合实时显示当前的位置信息、气候条件、队友对手状态、任务提示等信息,帮助士兵进行决策,以信息优势获得巨大的作战优势。在训练方面,能够进行虚拟兵力的生成及实战对抗训练。通过构建合同战术训练等系统,士兵将在真实的作战地形环境下与虚拟士兵进行全方位的对抗演练,执行各种困难任务,通过逼真的训练手段大大提高实战能力。也可以服务于种武器、装备、载具的使用训练,帮助士兵快速认识武器并选择最优的作战策略。

教育方面,头显式AR能够带来远程教育,根据传感器实时采集教师的动作、语音,通过AR眼镜实时显示,实现一对一的教育体验,在教育过程中,还可以辅助动画、虚拟物体等方式丰富文字信息。

娱乐消费方面,头戴式AR能够构建如同"头号玩家"中呈现的全民式动作交互游戏,也可用于购物等各种日常生活消费。在未来借助AR眼镜来显示生活中的各项信息,包括天气预报、任务安排、多人聊天、身体状况、建筑提示、目的指引等,将全面带动数字化、信息化的世界发展。

问题6 完美密码学随机数的产生

马原 中国科学院数据与通信保护研究教育中心

1 问题背景

作为网络空间安全的基石,密码技术已经成为保障国家安全和经济发展的战略性技术力量。随机数在密码学应用中应用广泛而且意义重大,许多密码学算法和协议的安全性都依赖于完美随机数,即完全不可预测的随机数。近些年来,关于随机数和随机数发生器的问题频出:2012年,由于随机数发生器输出质量问题或随机数重用,不同的模数使用了相同的公因子,这导致部分数字证书所用到的RSA私钥被破解;2013年,美国国家标准技术研究院(NIST)推荐的双椭圆曲线随机数发生器被爆存在后门;因为生成随机数可被预测,WIFI WPA2/802.1协议实现中的群密钥可被破解。

生成完美的随机数一直是全球学者不断追求的目标。生成随机数的随机数发生器分成两类:伪随机数发生器和真随机数发生器。前者将种子数据通过复杂的算法扩展成长的随机序列,但一旦种子被破解,产生的随机数都可以被预测。因此,从这个角度上来说,这类随机数发生器的输出本质上是确定性的,并不是真正的随机、不可预测。而真随机数发生器利用自然界真实物理现象(如噪声、量子效应)的不可预知性,才可以产生真正的随机数。

另一方面,对随机数的随机性检测方法也可以分为两类:"黑盒"的统计测试和"白盒"的理论评估。统计测试方面,美国NIST的SP 800-22标准和中国密码行业标准《随机性检测规范》都包含了多种测试项对随机序列的统计特性进行测试;但是,这种统计测试却无法对输出的"不可预测性"进行检测,因为具备好统计特性的确定性序列也能通过统计测试。而理论评估的方法是从理论上证明随机数产生方法是理论上不可预测(即随机数是满熵的),例如通过对随机数发生方法建立理论模型,再根据实际参数去计算。

虽然可以从理论上证明随机数的完全不可预测性,但实际产生的随机数总是由于不可避免的原因无法通过严格的统计测试(不能通过统计测试的随机数一定是不完美的)。主要是因为理论模型与实际器件或实际环境的偏差,例如噪声的不完美、采样设备的误差等。因此,很多情况下,仍需要后处理部件对直接产生的随机数压缩、纠偏等操作后才能满足密码学所要求的特性。如何能够还原或者设计满足理论假设需要的随机数产生结构也成为一个难点问题。

2 关键突破点

产生完美的随机数近些年来逐渐成为研究的热点。面临的关键难题与挑战如下。

1)新型完美随机数产生方法和结构。如何利用已知物理现象构造能够从理论上证明满熵的随机数产生方法和结构。例如,美国NIST向全球提供的随机数灯塔(randomness beacon)服务就是以满熵(full-entropy)为亮点。这方面的难点在于在结构中去除或避免不可预期因素的影响,以及建立随机模型和研究熵估计的具体方法。

2)高安全随机数发生器设计。同密钥一样,随机数的保密性是很多密码系统安全的基础,如何在攻击者控制随机源的情况下也能够保持随机数的不可预测性成为研究的热点和难点。在这方面,潘建伟团队在2018年的《Nature》发表了器件无关的量子随机数产生方法,美国NIST也正在研究研究具有这种特性的量子随机数发生器,并用于随机数灯塔项目。

3)高性能和小型化设计。现有完美随机数的产生方案都无法在达到高性能和小型化上达到预期。例如,量子随机数发生器都是以设备形式存在,还无法集成在芯片中,这大大降低了这种随机数产生的普及性。因此,如何在保证高安全前提下,让随机数的产生速率更快、集成度更高,是目前完美随机数发生器需要解决的重要问题。

3 战略意义

作为密码学的基石,随机数是密码学研究人员关注的重点,很多密码协议和密码系统的破解往往都是以随机数作为突破口。解决完美随机数的产生问题,并加以小型化、集成化,势必会为现有安全系统提供稳健的安全基础,消除密码算法和密码协议安全的后顾之忧。而中国目前普遍在用的随机数发生器仍以传统结构为主,对安全性的证明、满熵随机数的保证等方面还十分缺乏,存在被破解的风险。因此,加快对完美随机数产生方面的理论和技术突破,对于保障中国的网络空间安全、进而维护国家安全具有重大的战略意义。

问题7 复杂电磁环境卫星抗干扰新技术

朱宇 北京空间飞行器总体设计部

1 问题背景

卫星系统具有覆盖范围大、通信距离远、传输质量好、不受地域限制等优点,在各领域都具有特别重要的实用价值。然而,随着卫星业务井喷式的增长,现代卫星系统面临的电磁环境日趋复杂,以主瓣干扰为代表的有源干扰技术和以信号截获为代表的被动侦收技术将严重影响卫星信号传输的安全性和可靠性。

传统阵列技术能够利用空域自由度,对副瓣干扰具有较好的抑制效果,但当卫星系统面临主瓣干扰时,传统基于空域滤波的副瓣干扰抑制方法性能将严重下降甚至失效。此时,现有卫星系统很难抑制掉来自主瓣波束内的干扰,因而亟待从体制上研究卫星系统的抗主瓣干扰技术。

扩频抗干扰技术,因其具有安全保密性高、抗噪能力强、频率复用性好等特点,已成为卫星通信、测控、数传中最重要的抗干扰手段。目前,常用的扩频技术包括直接序列扩频技术和跳频通信技术。前者在宽带阻塞干扰方面抗干扰能力弱,后者难以在宽频带范围内进行快速而精准的频率跳变。

为有效对抗复杂电磁环境下全空间、多维度和全频谱等复杂协同组合干扰,拟开展复杂电磁环境卫星抗干扰新技术研究,研制基于新型阵列的新型卫星系统,针对主瓣干扰、宽带阻塞干扰及保密通信等应用需求,提升现代卫星系统在复杂电磁环境下信号传输的高可靠性和安全性。

2 关键突破点

目前,卫星系统主要采取以下具体抗干扰技术。

1)自适应调零天线抗干扰技术:利用卫星信号与干扰在空间方位、频谱和幅度上的差异,对天线各阵元进行加权处理,实现在干扰源方向上的深度调零。

2)扩频抗干扰技术:用一个与信号无关的码序列来扩展频谱,使其带宽远超过传输所需要的最小带宽;在接收端,采用相同的码序列对其进行同步接收、解扩,以便使信号恢复到原始状态。

3)星上处理抗干扰技术:星上处理能够有效消除上行干扰对下行链路的不良影响,可对卫星上、下行链路之间的干扰进行去耦,避免转发器因干扰问题而饱和。

然而,上述抗干扰技术难以解决卫星系统面临的主瓣干扰和宽带阻塞干扰难题。针对复杂干扰环境下卫星面临的抗主瓣干扰、抗宽带阻塞干扰和保密通信等应用需求,研制基于新型阵列的新型卫星系统,需突破的关键技术如下。

1)新型阵列设计。

为使新型卫星系统兼容现有卫星通信、测控、数传系统的能力,需设计一种新型新型阵列,使这种阵列既具备传统相控阵列的特点,又具有频控阵列的特性。

2)具备射频隐身功能的波束形成技术。

传统相控阵列通过设计具有低副瓣、窄波束和高增益的天线,使得辐射的信号难以被侦察接收机截获。不过,相控阵天线只能实现定向发射,而不能在距离维实现定点发射,因而研究具有射频隐身特性的发射波束形成技术。

3)主瓣干扰抑制技术。

传统相控阵列能够利用空域自由度,对副瓣干扰具有较好的抑制效果。但当干扰信号位于主瓣波束内,传统基于空域滤波的副瓣干扰抑制方法性能将严重下降甚至失效,需从体制上研究卫星系统的抗主瓣干扰技术。

4)多通道信号自适应处理技术。

为抑制来自于主瓣波束内的干扰,卫星系统需采用空-时-频联合处理方法,其计算复杂度很大,需解决自适应处理算法的降维问题。同时,由于系统响应具有距离空变性和时变性,不能直接应用传统的最优阵列信号处理算法,需要研究新的自适应信号处理算法。

3 战略意义

3.1 进一步提升了卫星系统的抗干扰能力

随着电子干扰技术的发展,卫星系统的传输性能面临越来越严峻的挑战,迫切需要对卫星系统进行抗干扰设计。利用通信信号与干扰信号在距离或角度上的差异,通过空-时-频联合处理能够有效抑制卫星系统面临的各种电磁干扰,提升卫星系统在复杂电磁环境下的抗干扰性能。

3.2 提升了卫星系统通信传输的安全性

由于卫星系统采用了射频隐身技术,卫星发射的波束指向和卫星位置信息不能被准确获得,从而提升了卫星系统的低截获性能,保障了卫星信号传输的安全性。

问题8 全天候实时高分辨成像与识别

潘时龙 南京航空航天大学电子信息工程学院

1 问题背景

智能化将彻底地改变人们生活和工作的方式,已是人类社会发展不可逆转的趋势。对于室外装备来说,能够在各种天气条件下实时高分辨、不受干扰地获取环境信息是其智能工作的前提。例如,自动驾驶、安防监控、人群目标跟踪、"低小慢"目标识别等都迫切需要全天候实时高分辨成像与识别技术的支持。然而,目前还没有有效手段能够实现全天候实时高分辨成像与识别,迫切需要重点攻关。

当前智能装备感知环境的手段主要有光学传感器(摄像头、红外成像、激光雷达等)、超声传感器、微波毫米波传感器3种。光学传感器分辨率很高,但无法在雨、雪、雾、霾、强光等条件下工作;超声波传感器目前主要用于测距,且由于超声波的速度与环境中温度、风速等相关,测量精度一般较差。微波雷达因为波长较短、衰减低、穿透性强,所以可以在远距离、全天候条件下对目标实现探测、追踪、成像,因而被广泛应用于军事及民用领域。但受限于"电子瓶颈",电子技术一般难以实现宽带信号的产生、控制和处理,导致微波雷达的探测分辨率和成像实时性一般较差。为了解决这一问题,人们尝试将雷达的频率提高至毫米波甚至是太赫兹波波段。但频率越高,电磁波在大气环境中传输损耗越大。例如在25 mm/h的大雨中,80 GHz频率的传输损耗几乎与可见光相当。多种传感器的组合本质上也无法实现全天候实时高分辨成像与识别,例如在大雨条件下,光学传感器几乎无法工作,超声传感器不能准确测量,而微波毫米波传感器难以清晰成像。因此全天候实时高分辨成像与识别属于人类社会向全面智能化发展的重大科学与工程技术难题。

2 关键突破点

2.1 微波光子雷达成像技术

微波光子技术将微波信号加载到光波上,从而利用光学手段实现对微波信号的传输、处理、变换、测量等。该技术充分结合了光子技术高速宽带及微波技术精细灵活的特点,利用光子技术高频、大带宽、抗电磁干扰等优点完成对微波系统中复杂甚至难以完成的微波信号处理及高速传输等功能。微波光子技术的快速发展和不断成熟为实时高分辨雷达成像带来了希望。目前,中国电子科技集团、中国科学院电子所、清华大学、上海交通大学、北京理工大学、南京航空航天大学等单位均开展了微波光子成像雷达技术的研究,其中南京航空航天大学实现了带宽12 GHz的Ka波段微波光子雷达,其成像分辨率达1.3 cm,成像速率达到100帧/s。利用此雷达成功实现了对小型无人机目标的实时追踪成像。目前,微波光子雷达已经展现出巨大的技术优势,但成本较高、集成度有限。此外还需开展基于微波光子雷达图像的目标识别研究,以满足智能化装备的应用需求。

2.2 分布式合成孔径雷达成像

固定站址的高分辨雷达成像一般通过发射宽带信号来获得纵向距离的高分辨率,而横向距离的高分辨可用不同的方式实现。一种方式是采用大实孔径技术。根据天线理论,在雷达波长一定的情况下横向分辨率由天线的尺寸决定。采用分布式合成孔径雷达成像能有效降低对大型天线的需求,并能实现更大口径的等效天线尺寸,从而实现高分辨雷达成像。同时,相参的分布式合成孔径雷达能显著提升雷达回波的信噪比,容易发现微弱目标或者实现远距离探测。借鉴成熟的光纤通信技术,利用低传输损耗光纤构成分布式雷达网络,是实现分布式合成孔径雷达高分辨成像的有效解决方法。美国及欧洲的许多国家已建立起基于光纤构建的分布式深空探测雷达网络。发展宽带雷达分布式合成孔径技术主要面临多基站间时钟同步的问题,需要解决光纤射频信号稳相传输等技术难题。同时,传统的分布式合成孔径雷达成像主要针对窄带场景,宽带条件下分布式成像方法是目前急需解决的问题。此外,动态分布式雷达,亦即多个载有成像雷达的装备相互协作,也是有可能突破全天候实时高分辨成像与识别这一难题的途径之一。

2.3 太赫兹雷达成像

太赫兹雷达发射0.1~10 THz的电磁波信号,相比传统微波或毫米波雷达成像,太赫兹雷达更容易获得高分辨成像。太赫兹雷达成像在安检、反恐等方面具有重要应用,除了对金属物体的探测,太赫兹雷达还可以探测非金属物,例如塑料刀具等。在太空等无大气干扰的环境下,太赫兹雷达成像也具有巨大的应用前景。但太赫兹雷达信号在大气环境中衰减得很厉害,有效探测距离短,并不适用于长距离观测。其进一步发展是如何实现低成本、高可靠的太赫兹信号源、链路及接收,同时采用新的机制扩展太赫兹雷达的探测范围及抗环境影响能力。

3 战略意义

全天候实时高分辨成像与识别在军事与民用领域均具有重要应用,是人类社会向全面智能化发展的重大科学与工程技术难题。微波光子雷达成像、分布式合成孔径雷达成像、太赫兹雷达成像等技术为突破此难题提供了解决方法。突破这些关键技术,将使人类在环境与目标智能感知方面取得巨大进步,对提高人民生活水平以及提升中国国防实力具有重要意义。

问题9 人工智能与生物智能的融合问题:人工生物智能的研究和应用

杨志军 北京京东尚科科技有限公司

1 问题背景

随着近年深度学习神经网络在模式识别等应用领域取得巨大成功,人工智能(AI)相关技术已成长为跨行业的经济新增长点和国家战略。在社会各界普遍满足于AI技术带来的超过人脑识别精度的图像语音等模式分辨性能,并巨额投入形成相关产业时,却忽略了一个重要的事实,目前以深度学习为代表的AI技术从数学本质上看只是一个参数可调的线性或非线性曲线拟合器。这样的技术作为工具,可以很好地解决分类、概率相关关系推论等可以采用数学公式描述与表达的问题,而不需深入了解其概率统计原理。然而,此技术根本无法用来模仿高等哺乳动物的生物智能行为,换而言之,它无法解决因果关系计算等更高智力活动范畴的问题。这在很大程度上是因为目前的AI系统通常没有(或无法)引入时间的概念,因而无法形成时空这个物理世界的基础。另一方面,目前深度学习技术通常需要奖惩策略或大量的已标定数据作为训练样本,来尝试识别小规模的数据,成本高昂。识别效率仅处于举三个训练实例才能返回一个测试结果的阶段(举三返一),而非人脑具有举一反三的推广推理能力。因为这两点主要缺陷,目前以深度学习为核心的AI产品在理论上并不具备模仿人类甚至高等哺乳动物具有的高等智力活动的潜力。

2 关键突破点

如何改善现有的AI技术,使之可以真正模仿人类各个中枢神经系统的认知功能是一个亟待解决的科学与工程技术难题。目前的深度学习技术基于所谓的第二代神经网络模型,其特点为组成网络的基本单元,即神经元,由一个激励函数决定其输入变量与输出变量间的关系。此关系通常为一个静态过程,即不合理地忽略了时间因素对输入,过程与输出的动态影响。

早在深度学习技术诞生之前的20世纪90年代,西方国家的科技界已经认识到以第二代神经网络模型为基础的AI技术在模仿人类等高等生物智力活动方面的先天不足,提出了第三代神经网络,即脉冲神经网络(spiking neural networks,SNN)的概念。科学界通常认为生物神经元之间通过生物电脉冲传递信息。脉冲神经元为构成脉冲神经网络的基本单元。它们之间的信息交换有效地模拟了生物神经元的机制。一个脉冲神经元可以接受成百上千个其他脉冲神经元的电脉冲序列刺激,经内部的膜电位累积效应,产生其自身的电脉冲序列输出,从而刺激其他相连接的脉冲神经元。构成高等哺乳动物大脑各中枢系统的神经元种类多种多样,在计算机模拟实验里通常按照一个神经元对其他神经元刺激的效果来划分为兴奋型或抑制型。1907年法国神经科学家Lapicque提出积分反应型神经元模型以来,多个或简或繁地模仿生物神经元膜电位活动机制的数学模型,及其单个或群体的生物物理或化学特性,已被科学界广泛研究。其中在神经科学和计算机科学中应用比较广泛的为Hodgkin-Huxley、Leaky Integrate-and-Fire(LIF)和Izhikevich等3种神经元模型。

迄今为止,基于脉冲神经元的脉冲神经网络因为3个显著特点,即高度模拟真实生物大脑的工作机制、内在的时间因果关系因素及含有信息编码的脉冲稀疏性导致的低能耗等,已经引起西方发达国家科学界乃至国家层面的高度关注。近十多年来,美国奥巴马政府启动了脑科学研究计划(Brain Initiative),欧盟的人类大脑计划(Human Brain Project),乃至各国政府着力推动的类脑计算。瑞士的蓝脑计划尝试利用分子层级的哺乳类脑部逆向工程建立一个电脑模拟脑,日本的Brain/MINDS计划试图通过研究狨猴的大脑神经网络功能来了解人类大脑的信息处理和病理机制。近20年在生物实验中发现的脉冲神经元的学习规则,如Spike Timing-Dependent Plasticity(STDP)定量地印证了20世纪神经网络之父Hebb提出的著名的Hebb规则。此类研究正日益形成现代科学的驱动力,并日益完善第三代神经元网络等研究基础。得益于计算技术和电子制造技术的发展,基于第三代神经网络的超大规模集成电路实现已经演变成一个崭新的独立学科,即神经拟态工程学(neuromorphic engineering),其具有发展成第四代神经网络系统的潜力。以神经拟态工程学为基础设计出的AI芯片将具有脉冲神经网络的3个主要特点,在性能方面将远胜于当今基于ARM等哈佛结构处理器的所谓AI芯片。无论理论还是工程应用,中国均未出台相应的国家开发计划。

在蓬勃发展的第三代神经网络类脑理论层面的科学研究方面,以中国科学院上海神经科学研究所为代表的中国科研机构拥有一席之地。然而,在包括神经拟态工程等第三代类脑神经网络的工程技术应用层面,中国与先进水平有较大差距,可以此作为突破点。

具体来说,目前国际第三代神经网络的应用与实现的热点在于全脑功能模拟与仿真,和各个脑神经中枢功能(如听觉、视觉、触觉、味觉等)的脉冲神经网络软件模拟和神经拟态新硬件实现。代表性新硬件系统包括英国曼彻斯特大学Steve Furber教授研究团队的Spiking Neural Network Architecture(SpiNNaker)通用硬件平台系统。该系统于2018年11月初推出的最新计算平台,集成了50万个ARM计算核,可以实时硬件模拟460 M个脉冲神经元及其间的多达4600亿个可调强度的突触连接。英特尔公司于2017年开发的Loihi项目则在一块神经拟态芯片上集成了128个计算核,每个计算核含有1000个脉冲神经元,整个芯片共有13万个脉冲神经元和1.3亿个突触连接。而加拿大滑铁卢大学的Eliasmith团队于2012年实现了世界上第一个最大、最逼真的人类大脑功能的模拟系统Semantic Pointer Architecture Unified Network(SPAUN),基于开源的Nengo软件,模拟了250万个基底核(basal ganglia)脉冲神经元,实现了对8个具体任务的学习和决策重现。该工作一经在《Science》《Nautre》发表即引起广泛关注,被评为当年的2012年十大科学发现之一。

3 战略意义

20世纪40年代出现的电子管计算机,虽然体积庞大但极大地促进了科技发展。如今最新发布的SpiNNaker系统同样占据了一个大房间的空间,却仅能够实时模拟人脑0.5%容积的计算量。当前正值国家提倡发展新一代人工智能技术,应当乘此东风,紧随世界先进的科技发展潮流,适时加大对包括第三代乃至第四代神经网络系统的新一代人工智能领域的相关工程技术应用研发,必将实现在该领域的弯道超车。

问题10 干涉光学成像技术

郑玉权 中国科学院长春光学精密机械与物理研究所

1 问题背景

目前,低轨卫星、空中平台的光学成像系统大多采用反射/折射系统实现高分辨率成像,但存在尺寸和质量大、研制周期长、加工工艺复杂等不足。传统天基光学系统成像原理与人眼类似,通过前端系列透镜或反射镜将光线聚焦到光电探测器,光电探测器基于光强分布生成目标图像。美国Key Hole光学侦察卫星及Hubble太空望远镜均采用这一成像原理,为了实现高分辨率成像,光学系统制造通常比较复杂,制造周期长达数年。当前光学系统普遍使用不同光学材料、不同尺寸的多个曲面透镜或反射镜来校正各种像差来获得最佳的衍射受限图像。随着光学系统口径、焦距的增大,体积和重量呈几何级数递增,研制难度极大。能否有一种全新的光学成像方法和光学成像系统,颠覆传统几何光学成像方法,降低高分辨率光学系统的制造难度,缩小体积和重量,减少研制周期。

2 关键突破点

2016年1月,美国洛克希德·马丁公司发布了首批由SPIDER微透镜干涉光学成像系统原型样机生成的干涉成像照片,证实了干涉成像技术的应用可行性。该技术代表着下一代高分辨率光学成像系统发展的重要方向,一旦实现实用化,将颠覆传统光学成像模式,对光学侦察卫星、太空望远镜等天基光学成像系统的设计及应用产生巨大冲击,大幅拓展光学成像系统的适用范围。

分段式平面光电侦察成像探测器(segmented planar imaging detector for electro-optical reconnaissance,SPIDER),核心组件为微型透镜阵列和光子集成电路,结构中既有微小的光学透镜阵列,也有电子元件参与分析。与传统的光学望远镜不同,SPIDER技术利用干涉测量原理,采用数百或数千个微型透镜,光线经过微型透镜阵列后,通过光波导进入光子集成电路,形成干涉条纹,精确采集干涉条纹的振幅和位相等光学特性数据,经傅里叶逆变换可重建目标数字图像。类似于昆虫的复眼结构,阵列中各微型光电单元产生的光场会互相干涉,通过电子元件分析干涉图形的振幅和相位,重构高分辨率的图像。通过这种干涉仪阵列技术,望远镜的结构和体积大大降低,可使传统望远镜体积缩小10~100倍。这种新型光学成像系统将成为未来小型、轻质、高分辨率成像系统的重要发展途径之一。

SPIDER系统的核心是微透镜与光子集成电路(PIC)芯片的集成,加州大学已经研制了一个PIC阵列,为SPIDER应用奠定了基础。尽管PIC利用光子替代了标准集成电路中的电子,达到节省功耗的目的,SPIDER系统仍面临采集光线数量的难题,形成一幅图像需要获得数百万个干涉通道数据。当前重构一幅高分辨率图像,需要较长时间,甚至数小时来收集光子。因此提高PIC干涉成像阵列的密度是限制这项技术应用的一个关键瓶颈。

目前,美国国家航空航天(NASA)可能利用干涉光学成像技术提升在研的木卫二"欧罗巴"多次飞越探测器性能,获取欧罗巴表面的高分辨率图像,探索该卫星海洋下面是否存在地外生命。加州大学正在利用该技术途径将干涉阵列微缩在一个芯片上,计划将这种干涉阵列用于天文观测,如佐治亚大学的高角分辨率天文中心(CHARA)。

目前,洛克希德·马丁公司在美国国防高级研究计划局(DARPA)"蜘蛛变焦"项目资助下,正进一步完善微型透镜阵列和光子集成电路,以研制出可变焦的望远镜。该公司预计,透镜阵列干涉光学成像技术的成熟应用还需5~10年时间。

干涉光学成像技术仍处于早期研发阶段,图像分辨率尚低,成像精度不如传统光学望远镜。目前的技术挑战是芯片材料内部波导通道的密度,尤其是深度。以目前工艺水平制造的成像传感器性能十分有限,致使干涉光学成像望远镜的视场非常小。

3 战略意义

传统天基光学成像系统制备通常比较复杂,研制周期长达数年,而干涉光学成像技术的核心器件光子集成电路,通过这种干涉仪阵列技术,能够像傻瓜相机一样记录成像,无需考虑焦距、对焦这些因素,可在短时间内即可完成制造,且系统装调的复杂度和精密度要求相对不高。

干涉光学成像技术的发展将迎来400年来光学望远镜的全新变革,有望颠覆传统的大口径光学成像系统技术产业。

与传统折/反射光学成像系统相比,干涉成像系统呈薄饼状,能够将光学望远镜设计从光学透镜堆叠变革成微型透镜阵列排列,微型透镜阵列也可按不同形状组合,在尺寸、重量和功耗方面可降低10~100倍,相同口径下分辨率可提高10倍以上,能有效降低光学侦察卫星体积和质量,特别适用于小型侦察卫星及大型深空望远镜等各类天基平台。此外,该系统也适用于空、海、陆等各类平台,为其提供轻质、高分辨率的成像设备。

上一篇:图灵登上英国50英镑新钞!人工智能之父荣耀比肩英国女王 在美人才开始流向中国,因为“硅谷太慢了”下一篇:

公众平台

搜索"raincent"或扫描下面的二维码