10位院士深度分析人工智能(发展现状和未来方向)

qinzhiqiang 07-14 17:21 1,285次浏览

10位院士深度分析人工智能(发展现状和未来方向)

12 月 21 日,由鹏城实验室、新一代人工智能产业技术创新战略联盟主办的“2019新一代人工智能院士高峰论坛”进入第二天,12场主题演讲,2场圆桌论坛Panel将论坛推向高潮。当天上午,来自阿里、中科大、清华大学、中科院自动化所、鹏城实验室的专家围绕AI芯片和类脑,分享了各自领域的最新进展;下午,来自中国平安、卫健委、交警局、蚂蚁金服、中科院计算所、云天励飞的专家,则聚焦人工智能和人工智能赋能,深度剖析了人工智能领域的发展现状和未来值得探索的方向。两场精彩的圆桌论坛也从日常生活、交通出行、社会管理、医疗服务、金融等方方面面,探讨了人工智能给我们生活带来的便利之处。

10位院士深度分析人工智能,发展现状和未来方向


这次会议延续去年强大的院士阵容,今年邀请了多达 10 位院士以及诸多人工智能领域学术和企业界的顶级专家,从各自的领域深度剖析了人工智能领域的发展现状和未来值得探索的方向。

1、蒲慕明院士:脑科学与类脑智能研究

作为大会的第一位报告嘉宾,中国科学院院士、美国科学院外籍院士蒲慕明带来了主题为《脑科学与类脑智能研究》的报告。

10位院士深度分析人工智能,发展现状和未来方向

中国科学院院士、美国科学院外籍院士蒲慕明

蒲慕明院士谈到:「我认为下一代人工智能的一个很重要的发展方向就是,脑启发的新型人工智能。我们国家在未来 10 年将启动的重大项目叫做脑科学与类脑研究,整体框架为『一体两翼』,主体是脑认知功能的神经基础,做全脑神经连接图谱,两翼则是指研究内容分为脑重大疾病诊断和干预、脑机智能技术研发两个方向。」

他指出理解大脑需要从三个层面上的神经连接图谱分析:

第一个是宏观图谱。通过核磁成像的技术可以看到毫米级的神经束,每个神经束都有成千上万的细胞纤维,传导方向是双向,但只了解神经束的走向对于理解脑功能并没有太大贡献。

第二个是介观图谱,空间分辨率要达到微米级别。用特殊方法来标记不同的神经元种类,了解不同神经元的功能。介观神经连接图谱是目前神经科学的主要方向。

第三个是微观图谱,空间分辨率要达到纳米级别。在微观层面对神经元轴突和树突的分布以及突触产生规律的研究可以得到很多有用信息的。

进一步,他认为类脑智能研究中要考虑三个层次的认知:

第一个层次是对外界的认知,包括感知觉、多感觉整合和注意、分类等,是许多动物都拥有的认知能力,对此可以从动物模型中寻找一些信息和启发;

第二个层次是对自我和非我的认知,包括自我意识、共情心和理解他者能力,但可能只有灵长类动物才有,因此只能基于灵长类动物进行研究,而这是我国未来在基础神经科学研究中最有优势的领域;

第三个层次是对语言的认知,这是只有人类才具有的句法、文法以及无限开放式的语言结构,对于研究人类语言的神经机制和演化起源,构建非人灵长类转基因动物的模型是必要的。

对于这些脑网络特性,人工智能未来研究中有可以借鉴但目前还没有借鉴地方呢?蒲慕明院士认为有五个重要的点:

第一,神经元很简单,有不同性质和种类的神经元,例如抑制性神经元(信息反转)、兴奋性和抑制性神经元亚型(不同放电特性);

第二,神经网络有顺向、逆向侧向和的联接,现在主要是正向的,而加入反向的联接会带来好处,而侧向联接尤其重要,并且也是有序的。

第三,神经突触的可塑性。这个方面除了传递效率的增强和削弱(LTP 和 LTD)的功能可塑性,突触的新生和修剪的结构可塑性也非常有用。

第四,记忆的贮存、提取和消退也非常关键,网络中特定突触群的效率和结构修饰便是记忆的储存,记忆提出是指电活动的再现于储存记忆的突触群,而记忆消退则是指突触功能与结构修饰随时间消退。另外根据输出对学习相关的突触群修饰,可进行强化学习。

第五,赫伯神经元集群概念的应用,包括细胞群的建立、多模态信息的整合,不同信息的捆绑、同步的信息震荡、时间相位差以及输入信息的图谱结构等等都可以借鉴

最后,他更是对新型人工网络架构和机器学习算法提出了四点建议:

一是要摆脱深度学习网络(DNN)的诱惑;

二是要以高效、节能、半监督和无监督学习为目标,建立全新的人工智能模型和算法;

三是以脉冲神经网络(SNN)为基础,加入传递延迟,强调时序信息的重要性;

四是,从简单的(少数层)的网络为基础,每次加入一个自然神经网络的特性产生新的架构,然后用新的机器学习和算法来检测效果。

除此之外, 他认为 AI 界应该提出一个新的机器人或智能标准,从语言和感知觉能力的整合、团队合作等更多维度去尝试建立「新图灵测试」。

2、高文院士:数字视网膜与云视觉系统演进

本次论坛的又一位院士——中国工程院院士、鹏城实验室主任高文接着蒲慕明院士对神经网络的相关介绍,重点分享了如何利用对神经网络的理解来改进包括城市大脑或智慧城市系统等现有云视觉系统方面存在的一些问题,他的报告主题是《数字视网膜与云视觉系统演进》。

10位院士深度分析人工智能,发展现状和未来方向

中国工程院院士、鹏城实验室主任高文

首先,他指出了云视觉系统目前存在的两大主要的挑战:

第一,虽然视频数据非常多,但是能够对其进行规范并能够从中挖掘出规律的大数据却并不多。

第二,这些视频数据中绝大多数都是正常视频,而敏感视频比较少,因而产生的价值并不大。

而深究到底,这两大问题其实是整个视觉感知系统架构造成的直接后果。对此,高文院士等人从高级生命体视觉系统的进化历史中寻找灵感,在设计新的第二代城市大脑或者说云视觉系统时,在中间的视觉神经通道做工作。他们将这一想法称之为数字视网膜。

他进一步介绍,数字视网膜的定义包括八个基本要素,按照特征或功能可分为以下三组:

第一组特征是全局统一的时空 ID,包括全网统一的时间以及精确的地理位置两个基本要素;

第二组特征是多层次视网膜表示,包括视频编码、特征编码、联合优化三个基本要素;

第三组是模型可更新、可调节、可定义,即将模型可更新、注意力可调节以及软件可定义三个基本元素组合到一起。

不同于传统的摄像头只有一个流,即一个视频压缩流或一个识别结果流,这种数字视网膜存在三个流,即视频编码流,特征编码流,模型编码流,三者各自有分工,有的是在前端可以实时控制调节,有的是通过云端反馈出来进行调节和控制的。

在过去两三年中,高文院士等人对此也开展了大量工作,重点实现了以下四个使能技术方面的重要进展:

第一个使能技术是高效视频编码技术,其中他们提出的场景编码技术成为中国学者对世界所做出的的一大贡献,将编码效率提升到了一个新的水平;

第二个使能技术是是特征编码技术,其中就包括他们与国际专家一同完成的两个国际标准 CDVS 和 CDVA,而 CDVA 更是为满足支持深度网络而建立的标准。

第三个使能技术是视频和特征联合编码技术,这是由于视频编码和特征编码使用的优化模型不一样,视频编码使用的是 2D 优化模型,而特征编码联合使用的是 R-A 模型,两个模型的曲线方向完全是不一样的,对此他们提出了联合优化模型,将 R-A 和 2D 变成一个目标函数,通过求最优解就可实现联合优化。

第四个使能技术是 CNN 模型编码技术,能够实现多模型重用、模型压缩(差分编码)和模型更新等优势。

最后,高文院士总结到,现在的云视觉系统不是太有效,对此我们可以通过类似于像数字视网膜的新的概念和技术来使其变得更加有效,包括降低码率、减少延迟、提高准确率、降低云计算成本以及让低价值的视频数据转化为大数据等。

随着数字视网膜已实现 1.0 版本,下一步该如何走向 2.0 版本呢?答案是:采用脉冲神经网络的思路来做数字视网膜 2.0。

3、汤晓鸥:人工智能,创新应用

两位重量级院士的精彩报告后,商汤科技创始人、香港中文大学教授汤晓鸥以一如既往幽默的演讲风格为大家带来了主题为《人工智能,创新应用》的报告。

10位院士深度分析人工智能,发展现状和未来方向

商汤科技创始人、香港中文大学教授汤晓鸥

「我现在都不知道怎么做演讲了,大家往往只记得我讲的笑话,其实我也提到了一些深奥的人生哲理。」

台下非常「应景」地发出一阵欢笑声。

呼应主题,汤晓鸥教授首先分享了他对于「创新应用」的理解:

创新,便是做别人没有做过的事情,带来的结果是花钱,所以从这个意义上来说,创新的主要目的就是把钱花出去,这似乎是大学的功能;

应用,则是要把创新落地到产品中,然后把产品卖出去,核心是赚钱,这是公司应该做的事情。

然而创新和应用这两个看似矛盾的点如何并存于公司呢?他指出,对于于世界上绝大多数公司尤其是创业公司而言,根本无法像谷歌等大公司通过已经成熟的业务应用来赚取大量的收入,从而为每年用于创新所投入巨额的研发费用买单。那该如何找到自己的生存模式 ?

商汤便通过与各行各业进行合作,以 AI+赋能来找到平衡创新和应用的方法论。他进一步以上班族「从早上八点到晚上十点」一天的日常需求,如驾车上班、楼宇办公、午餐、外出开会、游戏娱乐、就医问诊、休闲购物等生活场景,介绍了商汤与相关行业在自动驾驶、智慧园区、室内导航、智慧零售等各应用领域的合作与开发成果。

基于自身的实践经验,汤晓鸥教授也针对「创新 or 应用」这一两难的议题给出了自己的经验和思考:我们最初理解的创新一般都是出论文,做研究,在实验室里做别人没有做过的东西,然而这样的创新一旦放到市场上往往是不被接受的。

因此,他认为最终的创新其实不仅仅是技术的创新,还应该包括公司中工程的创新、产品的创新甚至是商务模式的创新、销售模式的创新、合作伙伴合作方式的创新以及整个公司管理模型的创新在内的综合性创新。

「这样我们才能够在残酷的市场环境中生存下来,才能在无比强大的竞争对手面前找到自己的一块生存空间。而前面,包括商汤科技在内的很多公司前面,还有很长的路要走。」

4、王海峰:自然语言处理前沿

百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰博士带来主题为《自然语言处理前沿》的报告,分享了他研究近 30 年的心得与观点。

10位院士深度分析人工智能,发展现状和未来方向

百度首席技术官、深度学习技术及应用国家工程实验室主任王海峰

「自然语言处理是人工智能非常重要,也是非常热门的方向。」王海峰博士表示,自然语言处理是用计算机来模拟、延伸及拓展人类语言能力的理论、技术及方法,在国家《新一代人工智能发展规划》中也被列为共性关键技术。

接着王海峰博士回顾了从基于人工规则到基于深度学习模型的自然语言处理的研究发展历史:

基于人工规则的自然语言处理需要领域专家、领域知识,并把这些知识建模到计算机系统中去,开发和迁移成本都非常高;

到了基于统计的自然语言处理时期,一定程度上可以实现自动训练、模型选择,当时也出现了很多特征工程师专门去建设各种特征;另一方面,大量的统计机器学习的模型在不同的应用中会取得不同效果,所以模型本身的选择具有一定的局限性。

到了深度学习时代,自然语言处理变得更简单、更标准化和自动化,一套模型针对不同的数据就可以得到比较好的结果,所以说深度学习跟以前的机器学习模型相比,一个很重要的特点就是有一套可以适用于不同领域、不同应用的方法,这与人脑很像。

他进一步指出,算力、算法和数据是驱动自然语言处理技术突破的三大要素,而随着自然语言处理技术的飞速发展,该研究领域也呈现出很多新的变化,如从传统 NLP 进行层级式结构分析,演变到直接的端到端语义表示;从过去局限于理解句子,发展到现在多文本、跨模态的内容理解;机器翻译实现了质量飞跃、从科幻理想落地现实应用等。

随后,王海峰系统梳理了百度在预训练语言模型、机器阅读理解、多模态深度语义理解、机器翻译等自然语言处理技术发展,及开源开放、推动产业应用的丰硕成果。


5、张正友:机器人的智能演进

腾讯 AI Lab & Robotics X 主任,ACM、IEEE Fellow 张正友博士作为下午场的首位报告嘉宾,带来了主题为《机器人的智能演进》的报告。

10位院士深度分析人工智能,发展现状和未来方向

腾讯 AI Lab & Robotics X 主任,ACM、IEEE Fellow 张正友

正式进入报告前,张正友回忆起去年同样是高文院士邀请他人工智能院士高峰论坛做报告,而今年高文院士再度邀请他时,还强调了一句话「一定要做最新的研究报告」。他笑着打趣:「我估计他是想来考考我,想看看我这一年多来到底有没有取得一些研究进展。」

「人工智能目前还是初春,还不是非常智能,存在很多问题。」话落下,他便以摄像机无法识别遮挡镜头的假图像为例指出目前人工智能还只是从大量标注数据学习,泛化能力较差。

他认为,随着传感器技术发展与充分应用,人与智能化机器人共存的时代必然会来临,这也是他选择回国加入腾讯创建 Robotics X 机器人实验室的重要原因。

张正友博士接着介绍了机器人的 6 个组成部分,包括本体、感知、执行器、动力系统、交互系统、决策。机器人的未来趋势是自动化、智能化,要在不确定的环境中自主决策。针对机器人的自主决策,他提出了 SLAP 范式,即传感器和执行器要紧密结合,在学习和计划模块的帮助下提升能力、做出决策。

针对智能机器人技术未来的突破点,他再度提及去年分享过的「A2G 理论」,其中 ABC 是代表了机器人的基础能力,A 是指机器人能看、说、听以及理解,B 是机器人本体,C 是自动控制;而 DEF 是指更高一层的机器人能力,D 是进化学习,E 是情感理解,F 是灵活操控;最后一层——G 则是表示守护人类。这对更先进、更智慧的机器人提出了要求,而机器人的最终目标是要服务于人。

最后,张正友表达了对机器人发展的愿景,那就是人机共存、共创、共赢,为此,需要从「用机器人增强人的智力、关怀人的情感、发挥人类体能潜力、实现人机协作」四个方面来创建这种未来。

6、颜水成:Transform AI into Affordable Intelligence

同样是二次出席人工智能院士高峰论坛的报告嘉宾还有依图科技首席技术官,IEEE、IAPR Fellow 颜水成博士。他在主题为《Transform AI into Affordable Intelligence》演讲中,指出了让人工智能变为「Affordable Intelligence」所面临的挑战,并从芯片和模型的角度分享了一些工作进展。

10位院士深度分析人工智能,发展现状和未来方向

依图科技首席技术官,IEEE、IAPR Fellow 颜水成

颜水成提到,一个 AI 创业公司以及大厂 AI 实验室的核心使命是实现 AI 的真正落地,这就需要解决两个方面的问题:

  • 第一个是算法,一方面是要保证算法「可以用」,即精度足够高,能够真正解锁一个场景;另一方则是算法要「足够用」,因为现在很多场景仅凭单模态的算法已经无法提供用户满意的解决方案。
  • 第二是算力,一方面是要让用户「买得起」,比如用于支撑计算的 AI 芯片,它的并发性能要足够高;另一方面是要让用户「用得起」,即这种算力要保证功耗足够低,不然即便用户买回家也可能因为数据中心的电费过高而无法使用。

随着人工智能在越来越多的场景中得到使用,而随着技术上已经达到可以用的阶段,现在除了对算力和算法的要求越来越高,也更多地从「Affordable」的角度去考量。

颜水成博士进一步指出,研究表明,训练和测试人工智能模型所需要的算力,每三个半月就会翻一番,这个比摩尔定律已经快了很多。正如今年刚开完的 NeurIPS 会议上,大家比较关注的一件事情就是:当 AI 应用得越来越多,其带来的电力消费也越来越高,这会不会对环境产生影响呢?

所以要真正让 AI 在一个场景落地,最关键的两个引擎是:

  • 第一个引擎是高效能的 AI 模型,这是算法的维度。要想获得一个高效能的 AI 模型有两种做法,一种是基于不同 Motivation 的模式,另一种是基于 NAS(神经网络架构搜索)的模式。针对这一点,主要是希望能够解决研究和应用中的「Affordable」问题。
  • 第二个引擎是高效能的 AI 芯片,这是算力的维度。针对这一点,芯片厂商首先要遵循算法和芯片原则,确保芯片在足够大的使用场景中达到很高的效能;其次要预测领域中最前沿的算法发展趋势,确保接下来几年时间这款芯片能「发挥所长」;最后要让用户的建设成本足够低并用得起。

最后,他总结道,AI 在越来越多的场景得到应用,并且追求的精度和目标越来越高,这就对算法和算力提出了越来越高的要求。而这时,AI 的「Affordable」问题就会变得越来越重要。

并且,如果要把 AI 转换成「Affordable Intelligence」的话,高性能的 AI 模型和高性能 AI 芯片则是推动这一转换的双引擎,只有这样才能让我们最终的用户能够「买得起」和「用得起」。

7、孙剑:视觉计算的前沿进展

旷视首席科学家、何梁何利基金奖获得者孙剑博士以《视觉计算的前沿进展》为题,重点从卷积神经网络和计算机视觉技术本身介绍了计算机视觉的研究历程与进展。

10位院士深度分析人工智能,发展现状和未来方向

旷视首席科学家、何梁何利基金奖获得者孙剑

卷积神经网络开始得比较早,上世纪 80 年代日本就有教授提出这样的概念,并得以发展。而后续针对卷积神经网络的研究工作,主要围绕四个问题开展:

第一个是神经网络的卷积问题。现在大家用的比较多的是 3×3 或 5×5 的卷积,而卷积此前经历了 AlexNet 网络、GoogleNet 网络、Facebook 提出的 faster R-CNN、旷视科技提出的 ShuffleNet V1/V2 等等,当前最新的研究进展则是动态卷积/条件卷积。

第二个是神经网络的深度问题。这是困恼神经网络多年的问题,当网络的深度不够大时,就很难实现网络的训练。神经网络最开始的深度是 8 层,过了两年后增加到了 20 层,再之后微软提出的深度残差网络将深度增加到了 152 层,其采用残差网络的思想能够得到好的训练结果。

第三个是神经网络的宽度问题。当深度学习复杂度超过一个点时,模型越大,训练和测试的错误率反而会同时下降,跟我们传统机器学习的认知不同,这其实跟网络的宽度有关。目前比较新的两个方向:一个是从 Kernel 的角度着手,另一个是尝试剪枝的方法,例如 MetaPruning。

第四个是神经网络的大小问题。一般来说,在训练过程中神经网络的大小是不变的,然而研究发现,当在训练中让神经网络的大小变化时,能够实现更好的网络性能。

针对计算机视觉技术本身,孙剑博士则重点选择了目标检测这一方向,分享了目前研究中所存在的一些问题和进展:

第一,当图像中的物体隔得很近时,检测技术就无法精确检测到单个物体;

第二,计算架构的设计问题,对此,旷视提出了轻量级的两阶段目标检测器——ThunderNet,设计了多尺度架构的融合,在 ARM 设备上的运行速度非常快。

最后,孙剑还指出了计算机视觉应用中的几个最重要并且投入最多的关键问题:

  • 第一,火灾等特殊场景的数据非常难收集,并且很难通过数据增强的方式获得;
  • 第二,对于新的研究方法如自监督方法的需求;
  • 第三,遮挡问题,虽然现在对此也有一些工作进展,但是深度学习还无法完全解决这个问题;
  • 第四,深度学习和计算机视觉技术还无法很好连续追踪同时处于动态的多个物体;
  • 第五,视觉控制问题,比如说现在还无法通过视觉反馈来连续控制机器人或机械臂;
  • 第六,现实应用中要实现低成本、易部署以及安全面临的挑战还很大;
  • 第七,现有方法还无法实现高精度的预测问题。

8、陈熙霖:迈向可理解的计算机视觉

中科院计算所研究员,ACM、IEEE、IAPR Fellow 陈熙霖本次也作为报告嘉宾,带来了主题为《迈向可理解的计算机视觉》的报告。他在报告中也从他的视角分享了计算机视觉领域存在的一些问题以及针对这些问题自己所做的一些探索工作,并对于计算机视觉的未来发展给出了自己的想法。

10位院士深度分析人工智能,发展现状和未来方向

中科院计算所研究员,ACM、IEEE、IAPR Fellow 陈熙霖

他指出,计算机视觉从提出概念到现在已有差不多半个世纪,主要历经了马尔计算视觉、主动和目的视觉、多视几何与分层三维重建、基于学习的视觉这四个阶段。该领域虽然取得的进展很明显,然而也带来了一些问题,就比如评测基准的出现。

「之前大家在研究上彼此之间没有比较,即便发了论文,但是结果可能在原地踏步,于是后来有了评测基准,然而带来的一个坏处就是,现在的研究者尤其是学生就只顾着去「刷榜」了,这其实并不是在做真正的研究。所以这是一个很大的问题。」

他认为,在做计算机视觉研究上,不仅要知道 What 和 Where,还需要知道 How、Why、When 等等。除了研究方法上的问题,当前计算机视觉研究还面临着两大严峻问题,

一是研究处于一个「封闭的世界」,这既体现新数据无法得到及时更新,无法从其他领域借用知识,也无法真正理解物体之间的真正联系;

二是无法很好地处理开放世界的问题,比如说无法区分现实世界的语言和语义上的区别等。

针对这些问题,陈熙霖在可解释性决策模式,概念空间、语义空间、可视空间之间的相似性,可迁移的对比学习以及利用上下文方面进行了一系列探索和工作。

最后他总结道,过去 50 多年时间里,计算机视觉在应用上实现了很多成功,那未来将如何呢?——未来计算机视觉研究会朝着可理解的方向发展,即技术背后的知识会扮演更加重要的作用。

9、李世鹏:万物互联,集智过人

国际欧亚科学院院士、深圳市人工智能与机器人研究院副院长、IEEE Fellow 李世鹏在题为《万物互联,集智过人》的演讲中,重点回顾了 IoT(智能物联网)到 AIoT(人工智能物联网)再到 IIoT(智物联网)的发展历程。

10位院士深度分析人工智能,发展现状和未来方向

国际欧亚科学院院士、深圳市人工智能与机器人研究院副院长、IEEE Fellow 李世鹏

李世鹏认为,抛开其他因素,现在的人工智能时代主要包括四个基本因素:AI、人、机器人和 IoT。其中,人是处于中心的因素,人跟智能的交互叫人机耦合或者是人机协作,人跟 IoT 结合在一起是物理的智能,人跟 AI 放在一起就是虚拟的场景。

而整个 IoT 的发展历程可分为三个阶段:

第一个阶段是 IoT 最基本的阶段。所有能连上网、能传送数据的设备都叫 IoT 设备,主要是关注在设备之间的连接问题、数据的采集跟通讯的问题。人则主要通过指令命令或者遥控跟 IoT 设备进行交互。这个阶段的智能程度很低,基本上只能做 IFDtt 这种类型的条件控制。

第二个阶段叫做 AIoT,这个名词并不是国际提出来的,是一个中国特色的概念。上一阶段的 IoT 基本没有智能,对数据的应用也很简单或者只停留在表面,而这个阶段则对 IoT 产生数据进行智能处理。一方面,用户对 IoT 设备的交互变得越来越智能;另一方面,对采集的数据不仅仅停留在原始数据的解释方面,而是把数据结合在一起,然后形成一些新的知识。在这个阶段,AIoT 总有一个集中的控制器来控制所有的 IoT 设备,因为它需要这样一个大脑来进行总体的控制。

第三个阶段也就是 IIoT(智物联网)。在上个阶段,独立的智能物体本身有一定的智能,而且在很多时候可以独立运作。而这个阶段要探讨怎样把有智能和独立的智能体之间的智能联合起来以及联合在一起又能形成什么智能呢?人和机器之间的关系成为了比较平等的合作关系。

李世鹏认为,IIoT 带来的聚合智能的演变正在发生,这一趋势可能会打破人工智能行业的一些现有障碍,并最后可能为未来基于因果关系的 AI 框架铺平道路。

10、夏勤:云大为美——高性能计算芯片的现在和未来

华为海思首席芯片规划师、海思图灵产品管理部部长夏勤以《云大为美——高性能计算芯片的现在和未来》为题,分享了关于高性能计算芯片的现在与未来的思考,并以华为的昇腾芯片和鲲鹏芯片为例,探讨了高性能芯片设计方面的问题。

10位院士深度分析人工智能,发展现状和未来方向

华为海思首席芯片规划师、海思图灵产品管理部部长夏勤

夏勤表示,高性能计算芯片已成为芯片领域非常热门的方向,这个领域也产生了很多新的理论和新的技术,现在该领域的工程师无非在解一个三元方程,包括三个维度:性能、成本、易用性。如果从单一维度来看很容易解,但是如果要实现真正的量产,则必须同时解决好以下三个问题:

第一,核设计问题,可以往提升主频、多核以及微架构(指令集)三个方向探索。比如在多核方向上,华为目前已经推出了从 8 核到 16 核再到 64 核的芯片;在微架构上,华为的鲲鹏 920 芯片对指令集做了一些像乱序、指令预取这样的措施去提升性能,获得了比较好的结果。

第二,片内设计问题,对此,华为在芯片上做的优化工作包括采用最新工艺减小芯片面积,提高良率,进而降低成本。

第三,外围接口问题,在这个方面,华为在芯片的内存通道接口,包括接口速率、多 IP 互联、加速器上都做了非常多的创新。

除此之外,AI 芯片的设计在软件方面也面临着前所未有的挑战:首先,基于 AI 的计算要求更大的并行处理能力;其次,AI 芯片和 CPU 芯片非常大的差异点在于前者是真正意义上的异构计算;最后在 AI 软件栈的建设上也面临很大挑战,例如华为鲲鹏软件栈到昇腾软件栈的开发过程,复杂度和难度就非常高。

她进一步总结了未来芯片设计的趋势:

第一,未来单线程和单核性能会不断提升,同时针对指令集会有更多的定义出现,此外随着 ARM 的蓬勃发展,也会为未来的用户自定义提供了很大的空间,从而较大地改善芯片的整体性能;

第二,在记忆存储上,虽然现在还没有出现比较好的技术,但在内存接口以及整个内存架构的重新定义还有很多探索空间;

第三,新的标准和接口技术的突破,这个方面会有新的技术尝试,但是成果会出来得慢一些;

第四,灵活的电源管理,未来随着异构计算的到来,低负载、低功耗的调优技术会变得非常重要。

「AI 未来有很多可以发展的方向,并且不是单维度的发展方向,虽然现在我们还不知道真正的 AI 时代何时会到来,但是我认为算力、协同、应用是整个 AI 技术未来能够走向全面商用的三个关键维度。」

五院士 共论 AI 未来

第二场院士圆桌会在当日下午举行,由中国工程院院士、同济大学校长陈杰主持。中国工程院院士、广播电视技术专家丁文华,中国工程院院士、通信与信息系统专家王沙飞,中国科学院院士、激光与光电子技术专家王立军,德国汉堡大学信息学科学系教授、德国汉堡科学院院士张建伟四位院士,结合当日主题演讲内容各抒对未来中国人工智能发展的展望与建议。

10位院士深度分析人工智能,发展现状和未来方向

丁文华院士:此次大会内容丰富,体现出中国人工智能在各领域都有了非常大的进展。今年的演讲内容涉及算法、应用、资源,大家都在各自研究方向上实现了突破。我相信通过鹏城实验室这个平台,能够聚集全国乃至全球的人工智能领域的高端专家和人才共同交流和推进整个人工智能技术的发展。

10位院士深度分析人工智能,发展现状和未来方向

王沙飞院士:我认为现在整个人工智能的发展还需要经过一个漫长的阶段,有这么几个方面的挑战和问题:

  • 第一,现在人工智能的技术在落地应用场景时,在智能推理方面还存在很多问题,人工智能还很难像人一样对未知的场景或者目标进行智能推理。
  • 第二,可解释性问题。现在 AI 可以计算海量大数据并且能够实现一定的感知,但是得出的结果是否正确呢?或许未来我们可以通过加入人的经验来改善这个问题。

今天听各位专家的报告很受启发,我认为通过各位同仁的努力,可以让人工智能突破基础研究上的难点并获得更好的应用。

10位院士深度分析人工智能,发展现状和未来方向

王立军院士:我主要研究激光芯片,近几年随着人工智能、信息感知的发展,也向通讯和信息感知(光电集成芯片)开展研究。我研究激光芯片几十年,有一些自己的体会。

国内芯片这些年发展比较缓慢,并且还处于受限于人的阶段,为什么会出现这样的局面?有以下几个原因:

第一,芯片在研制过程中需要的设备费非常巨大,一般单位承受不起;

第二,在时间上,做芯片需要踏踏实实几年甚至是十几年的功夫才能搞定的;

第三,我们最近几年都追求尽快出成果,当然本意是好的,但是有些东西要尊重事实,像这种大投入、见效慢的,一些政府机构可能不是很愿意投的;

第四,做芯片的研究者尤其是年轻人也更愿意去投入一些见效快,马上能出成果、出文章的研究。

现在我们国家意识到这些问题,也采取了一些举措去攻克芯片问题。我相信几年后,我们国内在芯片这一块会有重大的突破。

另外针对信息感知,我个人认为下一步在光电、混合集成芯片方面是一个很重要的方向,它既把集成电路的技术和集成光学的技术进一步集成,还把感知的软件和光学的东西集成到一起,进一步提高了可靠性,会对 AR 产业有很大的推动。

10位院士深度分析人工智能,发展现状和未来方向

张建伟院士:首先热烈祝贺鹏城实验室在一年多内取得这么大的成就,定义了未来几个重要的方向之后,组织各方各业的研究者从交叉的角度来解决国际民生的重大问题,已经成为了吸引产学研最高端人才聚集交流和头脑碰撞的很重要的平台。

今天听了各位的报告后,我还想再强调几点:

第一,打基础。今天有专家谈到了多模态的技术,从脑科学多模态的处理、芯片多模态的处理、图像识别、图片理解等等,多模态信息处理成为人工智能一个核心技术,也非常值得我们进一步开发和研究。我 5 年前组织的跨模态学习项目就是中、德之间最大的研究项目,从脑科学、心理学、人工智能、机器人等多方面来组织研究人的多模态学习机制,然后做新的算法,最后用机器人来实现。

第二,人工智能下一步如何落地。我认为除了提供人工智能基础平台之外,下一步要真正融入需求和垂直领域,深度融合,把加工链做深做长,做成世界级的知识产权和世界级的市场,使人工智能的价值更快产生。

第三,公共平台交流、生态打造以及社会影响。现在地方政府也对开源和为企业提供平台越来越重视,我认为在深圳这块创业热土上一定能作出新的世界级的人工智能 Demo 样机。

  • 暂无推荐