从AI打王者荣耀到自动驾驶,高通公布了5G+AI未来无数可能

电工电气网】讯

晓查 发自 深圳

图片 1

一直以来,高通在推动终端侧人工智能芯片的应用方面不遗余力。现在这家全球最大的手机芯片提供商又推出了面向数据中心推理计算的云端AI芯片Cloud
AI 100,正式宣告进入云端AI芯片市场。

量子位 出品 | 公众号 QbitAI

其实该业内人士的观点,的确反映了当前AI芯片产业的一些现状。经过几年时间的沉淀,真正有实力的企业开始实现产品落地。

迄今为止,作为终端侧最主流的人工智能芯片解决方案,骁龙人工智能芯片已经为市面上超过10亿部智能手机提供AI运算加速,越来越多的手机用户享受到人工智能芯片带来的智慧体验与便利。显然,高通并不想只局限于终端侧人工智能芯片领域,随着Cloud
AI
100这款云端AI芯片的发布,高通把终端侧AI的技术和规模优势转移到云端AI芯片领域,全新的Cloud
AI
100云端AI芯片和其他云端AI芯片解决方案(GPU、CPU和FPGA)相比,在性能功耗上能够达到10倍的提升,和高通骁龙处理器的终端侧AI计算能力相比则至少有50倍的提升。这款云端AI芯片的问世将为当今数据中心AI推理加速市场树立全新标杆。

图片 2

近日,在由智东西、AWE和极果共同主办的GTIC
2019全球AI芯片创新峰会上,来自中外的专家和企业家齐聚一堂,围绕“AI芯生态·产业新格局”主题做了精彩的演讲,国际电子商情记者摘取了个别演讲嘉宾的核心言论。

据市场调研公司预测,用于数据中心的云端AI芯片市场规模将从2018年的25亿美元增长到2023年的212亿美元。仅AI推理这一细分市场从2018年到2025年将有10倍的增长,达到170亿美元。从云端AI芯片的用量来看,AI推理芯片使用场景广泛,需求量巨大。在2019年旧金山举办的AI
Day会议上,高通宣布推出的这款Cloud AI
100云端AI芯片,就是专为满足急剧增长的云端AI推理处理的需求而设计。同时将基于骁龙AI芯片的终端侧AI技术优势拓展至数据中心,从云到端全面塑造人工智能生态。

“让AI触手可及”,这是高通今日举办的AI开放日活动主题。

魏少军:AI Chip 0.5至 2.0的演变

经过多年的技术演进,骁龙AI芯片已经成为智能手机处理器行业的标准,在性能不断提高的同时,低功耗、少发热已经成为骁龙AI芯片在设计上的核心优势,现在这两个优势不仅可以被手机终端消费者所享受,现在也惠及到云端服务器、数据中心。一直以来,降低用电、减少发热都是服务器、数据中心迫切想要实现的目标。当前AI服务器行业使用的其他计算架构,很可能会出现明显的电力损耗、产生大量热能等问题,Cloud
AI
100这款云端AI芯片从高通自家的骁龙AI芯片的架构设计和制造工艺中汲取灵感,使云端AI芯片的运行效率有了极大改善,因此其同等性能下的功耗只有竞争对手们的十分之一。此外Cloud
AI
100这款云端AI芯片,还有一个明显的优势,那就是这款云端AI芯片并非特别隶属服务器应用项目,而是卡式设计作为协同处理器提供运算加速,同时在整体配置上也没有做太大限制,主要针对运算规模进行弹性布署,可以将云端AI芯片以插卡形式“即插即用”到云端服务器上,使用非常方便。

作为一家以移动通信技术闻名的公司,中国区董事长孟朴一开始就强调了高通的技术优势。

中国半导体行业协会IC设计分会理事长、清华大学微纳电子系魏少军教授表示,当前的AI服务基本都在云上,很少出现在其他地方,其原因在于先驱者们在云上做了大量工作,这些工作包括:智慧家庭、图像认知、智慧医疗、AI翻译等。

不仅使用方便、功耗低,更重要的是Cloud AI
100云端AI芯片性能强悍。由7纳米制程工艺打造,支持业界领先的软件栈,包括PyTorch、Glow、TensorFlow、Keras和ONNX,这个云端AI芯片的峰值AI性能将达到350
TOPS,可以高速执行密集的浮点和整数运算。与传统的现场可编程门阵列相比,Cloud
AI
100这款AI芯片在推断任务方面比目前最先进的AI推理解决方案平均速度要快10倍左右。区别于纯CPU、CPU+FPGA之后的第三代高性能AI计算体系,Cloud
AI
100这样的专用于推理计算的云端AI芯片在架构上本身就更适合专门类型的机器学习推理计算。

孟朴认为,2019年是5G元年,而且5G展开的速度比4G要快得多。今年已经有20多家运营商将开始部署5G网络,还有20多家OEM厂商将推出5G终端设备。

不过,从“云”走向“边”,从Cloud到Edge是必然的现象。魏教授举例表示,Google在2018年峰会上提出,无论怎样的AI都要从现实社会中摄取,把原始数据转化成语义化的数据,再让Cloud来处理。“这是必然现象。”他也补充说:“目前,AI走向边缘的过程主要以‘通用’为主驱动力,但是从未来几年发展看,终端应用为主或将占主导地位,专用AI芯片将起到非常重要的引领作用,这也是未来发展的重要方向。”

凭借更高的AI算力、更节能环保的设计、更方便的快捷的使用方式,Cloud AI
100云端AI芯片将为服务提供商带来更强大的在线AI体验,让用户真正体会到AI的好处。在这个“应用为王”的时代,将云端AI芯片作为新的游戏平台,这便是Cloud
AI
100的“完美应用场景”之一。一直以来,游戏过程中的延时和卡顿都是让玩家痛心疾首的致命伤,在云端服务器上执行的高能效AI推理可以减轻移动终端的AI处理负荷。在2019年深圳人工智能开放日活动上,高通联合vivo、腾讯王者荣耀开发团队和腾讯AI
Lab,一起演绎了一场专业游戏电竞赛。通过MOBA类游戏场景的实验环境来不断提升和优化AI电竞战队的实力,为移动电竞带来体验的升级和优化,由此可以看出移动游戏将是最能发挥Cloud
AI 100极致性能的应用。而腾讯云也可能成为国内首批Cloud AI
100云端AI芯片的用户。

另一方面,AI技术在移动端的推广速度也在飞速增长,根据高通数据,2019年,终端侧的AI应用率还不到10%,而到2025年将达到100%,实现全面普及。

图片 3

显而易见,Cloud AI
100这款人工智能芯片的发布是高通正式参与云端AI芯片领域的标志,凭借Cloud
AI
100云端AI芯片的性能优势,预计到2025年,该芯片市场规模将达到6630万美元。云端人工智能芯片领域一个有很大增长潜力的新兴市场,高通以全新的云端AI芯片产品切入进去将为自身业务开辟新的领地。当Cloud
AI
100云端AI芯片量产后,其强悍性能会真正落在实处,为消费者带来智慧生活体验的全新改变。

作为全球少数几家掌握5G通讯技术的公司,高通将自己的强项与AI技术相结合,给未来更大的想象力。

另外,魏教授还谈到‘软件定义芯片’的话题,他从软、硬件的可编程性来切入。“最好的架构能解决能量效率的问题,什么样的芯片具备这样的架构?我们把软、硬件的可编程性分为四个象限。传统的CPU、DSP在第二象限,专用集成电路在第三象限,FPGA、EPLD在第四象限。第一个象限具备很好的软、硬件可编程性,如果这两者都成立,就是‘软件定义芯片’。”

高通预测,到2035年,5G产品和服务市场规模将达到12.3万亿美元,而AI衍生产品的市场规模将3.9万亿美元。智能手机、汽车等终端侧到2025年实现100%的AI应用率,去年这一不到10%。

最后,魏教授畅想了AI Chip 2.0的愿景以及实现路径。“AI Chip
0.5是非常早期的阶段,像Intel CPU、Nvidia
GPU、AD的DSP,这些产品不是作为AI Chip而出现的;AI Chip
1.0包括Google的TPU、MIT Eyeriss、Nvidia SCNN、KAIST
UNPU,这类产品专门为AI设计,是一种领域专用的东西或某种拓展。AI Chip
1.5开始探索通用性,像Tsing Micro Thinker、Wave Computing
DPU都属于1.5,它们具备半通用、可重构、可配置的特性,也可能兼顾了两个内容;而AI
Chip
2.0到今天为止还没有答案,也许是通用、自适应、具备智慧化的东西。”他说道。

因此,5G+AI将带来巨大的经济效益。

李维兴:5G成就AI,AI成就5G

组建王者荣耀AI战队

图片 4

首先,高通在论坛环节公布了今日活动最接地气的产品——AI打王者荣耀。

高通技术副总裁李维兴围绕着终端侧AI介绍了高通对人工智能、云端、终端侧的看法和产品规划。他的核心观点是:5G和AI的关系密不可分,一方的进步推动另一方的发展。

上周末,OpenAI的人工智能打败了人类Dota
2冠军队伍OG。现在AI将进军热门的手游领域。

2018年,高通正式成立Qualcomm人工智能研究院,关注AI产品研发、制造以及与合作伙伴的项目。截至今日,高通共发布了四代AI平台。第一代骁龙820是高通首个针对AI
Engine的平台,用CPU的方式将AI的使用场景呈现出来;第二代骁龙835支持Caffe
2,通过它支持神经网络的SDK开始使用CPU、GPU、DSP。第三代骁龙845支持的项目非常多,通对iOS端的支持将人工智能的运算做到更优化。

届时高通将联合vivo、腾讯王者荣耀和腾讯AI
Lab把AI带到王者荣耀上,四方将基于高通第四代AI引擎,共同推动和探索终端侧的人工智能应用。

图片 5

据vivo创新创意领域总经理王友飞透露,他们正共同打造一支AI电竞战队“SUPEX”,将与人类玩家对战,

第四代骁龙855集成了Kryo 485 CPU、Adreno 640 GPU、Hexagon
690处理器、骁龙X24调制解调器、全新的Spectra 380
ISP以及WiFi、蓝牙模块、安全模块等。在AI方面,855支持第四代多核Qualcomm人工智能引擎AI
Engine,可实现7 TOPs运算,性能是845的三倍。值得注意的是,Hexagon
690处理器增添了一个全新设计的Hexagon张量加速器,四个Hexagon向量扩展内核,还增加了四线程标量内核。基于此,骁龙855成为2019全球5G发布重要的平台。

在现场体验区,参会者与AI现场对打,两局都败给AI。至于AI究竟发展到什么水平,还需要留待顶级电竞玩家的测试。

他还认为,AI训练、推理可在云端做,也可往终端走。“大家对与云相关的使用场景都非常振奋,但后续的规模化需要与半导体及软件行业提供联结的使用机会。传感器一定在边缘,实时接触也在边缘。如何保持工厂和汽车自动化的个性化,保护好隐私,维持可靠性?将AI运算分布到全网是必然趋势。”他说。

图片 6

最后,李维兴表示,5G可将AI从云端加上边缘化,AI的使用场景可将5G的商业模式开发出来。研发、投资,将无线、通讯、边缘计算通过感知、推理、行动的过程中迭代是高通在5G+AI领域上可为业界做出的贡献。

腾讯与vivoAI还能并希望通过AI不断提升和优化AI电竞战队的实力,推动人类选手的科学训练。

Andrew Grant:Imagination AI芯片方案助力自动驾驶

AI加速器

图片 7

我们熟知的高通更多的手机芯片领域,但在AI时代高通不满足于单一市场,汽车、安防、电脑等都有很大的市场。高通也一直没有放弃进入数据中心领域。

Imagination Technologies视觉及AI部门高级总监Andrew
Grant为现场观众描述了云端的工作,还解释了智能物联网和边缘设备的如何运作原理。他表示,在智能摄像头监控、智能驾驶以及其他更多的领域都会使用到边缘设备,其演讲主要围绕这些领域展开。

高通估计,到2025年,AI数据中心市场规模将增长到170亿美元,6年内增长10倍。

Imagination的AI芯片方案可以面向监控摄像头、智能汽车以及智慧城市的边缘设备进行拓展。Andrew
认为,当前智能汽车是非常热的话题,神经网络在汽车上的应用,可让ADAS、汽车自动化、摄像头监测等性能得到明显提升,而精准地识别前方路况,需要车载配件以及神经网络相互协调工作。

传统CPU并不是为AI数据中心优化,预设FPGA进入数据中心,将AI性能提升了10倍。

图片 8

高通认为,为数据中心加上AI加速器,还能在FPGA基础上再提升10倍。这就是高通最近发布的Cloud
AI
100。它能降低终端与数据中心的延迟,提高AI云端效率,用5G与边缘计算的结合变革用户体验。

在智能汽车上,Imagination的PowerVR可支持自动驾驶的路径规划、道路标志识别、导航、司机疲劳监测预警等功能,当汽车与摄像头通过车联网连接在一起时,在车联网的辅助下,智慧交通将成为可能。不过,自动驾驶水平从最低级到最高级也代表着越来越高的要求、越来越强大的功能,其所需的算力也将涨至500+Tops,这需要低能耗、高算力的芯片。

图片 9

同时,Andrew
以智能相机为例,探讨了边缘与云的关系。他表示,单一的智能相机能检测到移动的物体,但不能区别鸟和可疑的人。如果它在神经网络和加速器上面,我们就可以把这个视频放在神经网络上,就能知道他们在做什么。这就是边缘更强大带来的益处,这个边缘可以去帮助云,同时云也可以帮助边缘。

Cloud AI
100应用范围广泛,微软用它发现工业生产中的安全问题,Facebook用它处理智能助理、视频AR特效以及加速VR硬件。

未来在车上可能会有6-12个屏幕,这需要训练GPU,让汽车可去运行8个独立的处理器。并且,当一个处理器坏掉,也不影响其他处理器的运行。“相互独立运行非常重要,能带来更好的性能,使系统更加灵活,这应该是未来的主流。”
Andrew
表示:“不同的处理器、CPU、解决方案都是非常重要的,但是我们认为的GPU还有神经网络的加速器,把二者结合会带来更好的结果。”

例如,Facebook每天要处理超过59.5次的AI翻译量,进行超过200万亿次推理运算。数据中心的能耗逐年增长,需要有能效比更高的AI硬件节约成本。

最后,Andrew强调,PowerVR的处理速度是移动CPU的100+倍。Imagination
PowerVR 3NX
IP的单核设计支持0.6-10Tops的计算性能,通过多核结构最多提供高达160Tops的计算性能,可以满足对算力要求的汽车领域的需求。

Cloud AI
100不仅仅是硬件,还包含软件和解决方案。它支持PyTorch、TensorFlow、ONNX等主流AI开发平台。它也不是不仅仅高通手机芯片的简单升级,其AI性能比骁龙855强50倍。

戴金权:大数据分析可与人工智能相统一

与其他商用方案相比,Cloud AI
100每瓦特性能提升了10倍,节约了大量能耗。高通表示,Cloud AI
100将于今年下半年出样。

图片 10

三款手机AI芯片再度亮相

英特尔高级首席工程师、大数据技术全球CTO戴金权表示,英特尔一直致力于提供从端到端,包括设备端、边缘、网络到数据中心端到端完整的解决方案或者计算架构。为此,他重点介绍了英特尔的开源项目Analytics
Zoo。

除了云端外,手机端的AI性能也越来越被厂商和用户重视,全世界数十亿台智能手机是最普遍的AI设备。我们可以用它来做智能剪辑、支付、语音助理。

“我们在英特尔做了很多工作,包括Analytics
Zoo项目,该项目能够将大数据分析和人工智能统一起来。此前,在大数据分析和人工智能当中,没有一种解决方案能够解决所有问题。”他表示。

现在高通的旗舰级Soc骁龙855就包含了3个为AI加速的部分:Adreno
640GPU、Hexagon 660张量加速器,Kryo 485点积指令。

直到今日,英特尔的至强服务器仍是大数据分析和人工智能的基础架构。包括:Cascade
Lake,至强可扩展处理器,以及一些新功能的支持,构成了一个非常基础、应用广泛的人工智能+大数据分析的应用平台。

图片 11

那么,如何在基础的平台上利用Apache
Spark来构建人工智能?英特尔开发、开源了基于Apache
Spark分布式深度学习的框架BigDL。BigDL在大数据的平台上提供了一个原生的深度学习的图像,可让用户直接在现有大数据Spark上运行深度学习的应用,同时为底层大规模分布式硬件集群做了大量的优化。

通过这些核心的加持,高通表示,骁龙855的通用神经网络能力是某竞争对手3.2倍,能效高出80%。它一样提供对TensorFlow、PyTorch、Caffee多个神经网络框架的支持。

对于大多数用户来说,尤其在生产系统当中,基于Apache
Spark这样的大数据集群仍然是生产数据、大量硬件资源的聚集地。更高效利用这些生产数据和硬件资源,能够将新的人工智能的应用支持起来。

除了旗舰级处理器,高通还发布了665、730、730G三款SoC,为手机用户提供更强的拍摄、AI和游戏体验。

王孝斌:HiAI 2.0的现状及优势

目前,高通骁龙6、7、8系已经全面集成AI引擎,在汽车、物联网、XR领域的芯片也集成了AI。

图片 12

智慧交通

华为无线终端芯片业务部副总经理王孝斌分享了华为在端侧AI、HiAI上的进展情况。端侧的Machine
Learing会让手机越来越智能,预计到2022年,80%的手机会具备端侧AI的能力。

其实,高通早就开始为车企提供多项技术支持,比如车载信息处理和蓝牙解决方案。目前18家厂商选用高通信息处理平台,产品设计订单估值超过55亿美元。

HiAI是基于集成NPU使用专业的指令集和计算库,高效执行神经网络的算子。在AI时代,专业的NPU张量计算最适合AI的应用。HiAI采用了很多种优化方法,尽量将计算在本地完成,由此实现快速简洁有效的推理预算。

高通表示,AI正在变革汽车和整个交通行业,高通把它分为三个层级:智能交通、自动驾驶、数字座舱。通过不同层级的产品和市场规模化地支持AI,来满足不同市场对功耗的需求。

去年,华为推出了HiAI
2.0,跟着麒麟980发货,目前服务的消费者已经超过了6000万。据悉,HiAI2.0平台包括HiAI
Foundation芯片能力、HiAI Engine应用能力与HiAI
Service服务能力,分别对应的是芯、端、云上的开放平台。

图片 13

在芯片能力方面,因为麒麟980的关系,HiAI2.0平台的AI算力更强。以图像识别为例,麒麟970的每分钟图片识别率为2000张,而麒麟980则增加到4500张。HiAI2.0能够支持轮廓、姿态细粒度的物理识别,可进行视频的处理,做到了精准象素级的分割。

对于汽车,高通的芯片需要满足极高计算密度、复杂神经网络模型、复杂并发行的处理条件,必须要对功耗、实时响应能力做出优化。

另外,HiAI2.0还具备以下优势:算法方面有较大提升,支持的算子数增加到了147个;支持当下几乎所有的主流模型,包括TensorFlow、CoreML、Caffe2、ONNX、PaddlePaddle、MindSpore等;在工具链方面也有提升;在兼容性方面可兼容INT8。同时,HiAI2.0的开发周期也有了非常大的提升。芯片级Foundation开发周期缩短到一个星期,基于云的Service由周期缩短到1天,HiAI
Engine周期缩短到一个小时。

在数字座舱方面,高通AI能改变车内体验,提供HUD、仪表盘显示器、虚拟助手、驾驶员监控系统等功能。高通已经在2019年CES上展示过这些产品。

欧阳剑:2019年“昆仑”将会在内部大规模使用

实现智能驾驶的最后一个层级视用网络连接各个汽车与各个交通设备。通过打造高速公路、城市交通联网,实现道路安全、交通危险提示、行人信息在各个设备之间的共享,为自动驾驶铺平道路。

图片 14

高通认为,自动驾驶包含3个方面的能力:感知、规划、实施,它们都离不开5G连接的支持。

百度主任架构师欧阳剑介绍了百度近年来在AI芯片上的工作,重点讲述了百度“昆仑”芯片。

物联网

“AI时代的摩尔定律非常高,在数据和模型复杂度方面,每两年就有量子级的提高。此背景下,专用处理器是必经之路。”欧阳剑还介绍,过去的百度一直在探索一条适合自己发展的AI处理器的路。2011年左右,在做GE
FPGA的架构器;2013年,在FPGA基础上诞生了性能AI处理器;2017年,基于FPGA架构的AI处理器具备了CT
tops性能,并有了1000+片FPGA的部署规模。同年,百度提出了XPU的架构,该架构是普适的AI计算架构,可用在云端、自动驾驶、边缘计算,具有很高的计算能力、高通用性、灵活性;2018年,百度发布了“昆仑”,其性能比之前提高了30倍。

在AI走向边缘时,面向物联网的AI迎来全新的增长和机遇。在终端设备不方面连接云端、需要保护数据隐私安全性等场合,终端侧的AI计算至关重要。

“昆仑”芯片基于三星14nm制程工艺,有很高的内存带宽,性能达到260
tops,具有极大的通用性和灵活性,该芯片既能做训练也可做预测。未来百度将会把“昆仑”应用于自动驾驶领域,利用XPU强大的计算能力和车载配件共同推动自动驾驶汽车的发展。欧阳剑还透露,2019年“昆仑”将会在百度内部大规模使用。

另外要实现AI的规模化,智能必须分布到无线边缘。全球有数十亿物联网设备需要互联,海量数据、安全隐私让5G和计算能力的结合更加重要。

Chris Nicol:将助力AI从数据中心到边缘设备

图片 15

图片 16

物联网应用领域已覆盖家庭、企业、智慧城市等不同层级耳朵场景。对于家庭领域,高通在安防摄像头、扫地机器人、智能音箱等物联网设备都有涉猎。

Wave computing高级副总裁兼CTO Chris
Nicol介绍了Wave研发的DPU。据了解,Wave的DPU芯片,可将软件接入到芯片,能存取外部内存上的数据信息。DPU芯片内部集成了大量Cluster,每个Cluster内包含8个DPU算术单元、16个处理元素和存储器。其中,处理单元用全局异步、局部同步设计实现,没有时钟信号,由数据流驱动。处理单元与CGRA可同时运行计算。

这些物联网设备对功耗和热效率有较高的要求,高通的低功耗IoT设备能发挥其特长。

Chris还提到了联合学习,在数据中心训练一个大型模型,将其分布到不同的边缘设备上。边缘设备也具备训练的能力,可在数据中心训练好的模型基础上持续训练学习,同时边缘设备可将后续学习的结果再传回数据中心,有助于数据中心模型的进一步分析和训练。未来,Wave将把AI从数据中心扩展到边缘设备。

以高通QCS400系列为例,它是用于支持更智能的家用音频设备,实现了低功耗优化、高集成度和更强的本地AI计算能力。

钱诚:寒武纪的目标是做到端云一体

AI研究

寒武纪副总裁钱诚表示,目前在云端做智能处理要解决的问题最终可以归结为能效比的瓶颈问题,已有的ASIC、ASIP、FPGA、GPU、CPU的能效大约集中在每秒100-1000亿次能效比区间,再往上非常困难。

在研发硬件的同时,高通也在推动AI软件算法的研究。其中既有基础研究,也有偏向落地化应用的研究,基础研究包括G-CNN、神经网络压缩、机器学习训练工具等等。

现在瓶颈有三方面的问题:1.摩尔定律等物理定律功效渐渐减弱,现在设计在相同面积的情况下功耗是上升的。2.多核并行方面渐渐成为瓶颈,比如说现在做超级系统就50%左右的并行效率。3.应用场景发生变化,云端的重要性已经变得越来越突出。

图片 17

这需要性能功耗比高、通用性强的芯片。实际上,当芯片设计得越通用其能效就越低,要同时满足这两个条件是非常困难的。

高通希望推动AI研究实现高能效,利用AI技术来优化AI模型。高通利用张量分解、通道简化等手段压缩AI模型架构,压缩量达到3倍,同时准确度仅损失不到1%。

为解决这个问题,现在业界的做法是主要集中在领域专用的架构。这个架构需要支持非常高的性能功耗比,采用的电路都是领域专用的。不过又要兼顾通用性,无法做到像CPU一样对所有计算具备强有力的加速,只适合在某一领域里对某一大类的算法做加速,这就是现在的领域专用架构。

高精度训练、低精度推理能带来能效的提升。高通用量化8位推理模型,实现内存和计算4倍能效提升,可以和FP32实现近乎相同的准确率。

寒武纪的目标是希望能够在云端做到端云一体。很多端以后都会发展成多元具像的具体设备,比如:手机可以是浏览器、阅读器、收音机、电视、摇控器等等。这些设备显然是需要通用的智能处理能力,同时要使云端训练好的模型和框架严丝合缝地移植到具体的终端设备上,现在很多设备做不到,希望未来的端云一体能做到。

此外,高通还有优化编译器、内存计算AI等研究成果,为AI计算节能加速。

VAE的提出者Max
Wellings的加入,为高通在AI前沿研究领域诸如新鲜血液。高通把量子场论等物理学的基础数学框架融入到深度学习领域,提出了3D物体识别的新思路。

AI创投

最后高通分享了近20年来在AI创投领域的思路与成果。

高通创投成立于2000年,已经在中国投资了56家公司,投资额超过10亿美元,其中不乏小米、商汤等知名公司。

高通创投今年还成立了1亿美元的AI投资基金,和1.5亿美元中国战略投资基金,以支持中国初创企业的发展。

图片 18

高通AI的投资策略就是:投资5G赋能的AI领域,包括人工智能技术、AR/VR、机器人、物联网4个领域。高通还透露,他们已经投资了一家L4无人驾驶公司,不久后将宣布。

总之,高通在云端、手机端、物联网紧跟AI趋势,在AI基础研究、战略投资上多方布局。高通希望通过5G+AI,实现智能互联未来的独特优势。

作者系网易新闻·网易号“各有态度”签约作者

—完—

活动报名|多模态视频人物识别

加入社群

量子位AI社群开始招募啦,量子位社群分:AI讨论群、AI+行业群、AI技术群;

欢迎对AI感兴趣的同学,在量子位公众号对话界面回复关键字“微信群”,获取入群方式。(技术群与AI+行业群需经过审核,审核较严,敬请谅解)

喜欢就点「好看」吧 !

相关文章