寒武纪科创板新进展,AI芯片第一股将至

寒武纪科创板新进展,AI芯片第一股将至

6月23日,媒体报道,证监会宣布同意寒武纪科创板首次公开发行股票注册,科创板将迎来国内首家人工智能芯片领域龙头公司。

资料显示,寒武纪成立于2016年3月,注册资本3.6亿元,公司主业为应用于各类云服务器、边缘计算设备、终端设备中人工智能核心芯片的研发、设计和销售,主要产品包括终端智能处理器IP、云端智能芯片及加速卡、边缘智能芯片及加速卡以及与上述产品配套的基础系统软件平台。

产品方面,寒武纪先后推出了用于终端场景的寒武纪1A、寒武纪1H、寒武纪1M系列芯片,基于思元100和思元270芯片的云端智能加速卡系列产品以及基于思元220芯片的边缘智能加速卡等产品。

客户方面,虽然成立不久,但寒武纪已为华为海思、紫光展锐、晨星(MStar)/星宸半导体等多家公司的SoC芯片和智能终端提供智能处理器IP。

招股书显示,寒武纪此次IPO计划融资28.01亿元,将投入到新一代云端训练芯片及系统、新一代云端推理芯片及系统、新一代边缘人工智能芯片及系统、补充流动资金4个项目中。

接受上市辅导 AI芯片企业寒武纪开启科创板IPO征程

接受上市辅导 AI芯片企业寒武纪开启科创板IPO征程

日前,中国证监会北京监管局披露了中信证券关于中科寒武纪科技股份有限公司(以下简称“寒武纪”)首次公开发行股票并科创板上市之辅导基本情况表。信息显示,寒武纪与中信证券于2019年12月5日签署关于首次公开发行A股股票之辅导协议。

根据辅导备案信息,此次辅导目的包括促进公司建立良好的公司治理结构,形成独立运营和持续发展的能力,督促寒武纪的董事、监事、高级管理人员及持股5%以上(含5%)股东和实际控制人(或其法定代表人)全面理解境内发行上市的有关法律法规、境内证券市场规范运作和信息披露的要求,树立进入证券市场的诚信意识、法制意识,具备进入证券市场的基本条件;同时促进辅导机构履行勤勉尽责义务。

资料显示,寒武纪成立于2016年3月,注册资本3.6亿元,其团队来源于中科院计算所,主要聚焦端云一体、端云融合的智能新生态,致力打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片,并为用户提供IP授权、芯片服务、智能子卡和智能平台等服务。

虽成立不久,但寒武纪已为华为海思、紫光展锐、晨星(MStar)/星宸半导体等多家公司的SoC芯片和智能终端提供智能处理器IP,此前华为麒麟970芯片和麒麟980芯片均采用了寒武纪的NPU(神经网络单元),而这两款芯片已搭载于华为多款旗舰手机上。

在产品方面,寒武纪于2016年推出了首款AI处理器;2018年,寒武纪推出思元100(MLU100)机器学习处理器芯片;2019年6月,寒武纪推出云端AI芯片中文品牌“思元”、第二代云端AI芯片思元270(MLU270)及板卡产品;2019年11月,寒武纪发布边缘AI系列产品思元220(MLU220)芯片及模组产品。

近年来,人工智能在国内掀起投资热潮,作为人工智能芯片领域的独角兽,寒武纪在资本市场上颇受青睐。工商资料显示,寒武纪此前已进行了多轮融资,投资方包括中科院、阿里巴巴、联想创投、科大讯飞、国投创业等一众明星资本。

2016年4月,寒武纪获得来自中科院的数千万元天使轮融资;2016年8月,寒武纪获得来自元禾原点、科大讯飞、涌铧投资的Pre-A轮融资;2017年8月,寒武纪完成1亿美元A轮融资,投资方包括联想创投、阿里巴巴创投、国投创业,国科投资、中科图灵、元禾原点、涌铧投资。2018年6月,寒武纪完成由中国国有资本风险投资基金、国新启迪、国投创业、国新资本联合领投的数亿美元B轮融资;2019年,寒武纪亦完成了股权融资,注册资本多次扩增。

随着5G时代到来,人工智能的应用将有望走向新阶段,而人工智能芯片作为基石与核心,亦将迎来新一轮发展,登陆资本市场有利于寒武纪持续大规模投入研发,科创板为其提供了一个好机会。如今,寒武纪已进行上市辅导,正式踏上了IPO之路,但最终能否结果如何则有待后续观察。

接受上市辅导 寒武纪拟登陆科创板

接受上市辅导 寒武纪拟登陆科创板

人工智能芯片巨头中科寒武纪科技股份有限公司(以下简称“寒武纪”)向科创板发起冲击。北京证监局官网2月28日晚间披露的信息显示,中信证券与寒武纪在2019年12月5日签署辅导协议,寒武纪计划在科创板上市。

具体来看,中信证券和寒武纪于2019年12月5日签署《中科寒武纪科技股份有限公司与中信证券股份有限公司关于首次公开发行A股股票之辅导协议》。

通报信息显示,寒武纪拟在科创板上市。此次中信证券对其进行上市辅导目的在于促进寒武纪建立良好的公司治理结构,形成独立运营和持续发展的能力,督促寒武纪的董事、监事、高级管理人员及持股5%以上(含5%)股东和实际控制人(或其法定代表人)全面理解境内发行上市的有关法律法规、境内证券市场规范运作和信息披露的要求,树立进入证券市场的诚信意识、法制意识,具备进入证券市场的基本条件。同时,促进辅导机构履行勤勉尽责义务。

公开资料显示,寒武纪成立于2016年,是聚焦端云一体、端云融合的智能新生态,致力打造各类智能云服务器、智能终端以及智能机器人核心处理器芯片的AI芯片领域独角兽。寒武纪与中国电信、中兴通讯等均有合作。

“未来之芯” IC PARK 年产值已突破240亿元

“未来之芯” IC PARK 年产值已突破240亿元

刚满周岁,“未来之芯”IC PARK 年产值已突破240亿元5G与AI的齐头并进,使得中国集成电路在制造、封测、设计领域迎来了前所未有的发展机遇。

5G芯片市场上演了一出“强强争霸”的大戏。

2019年的12月5日,高通推出了全新处理器“骁龙865”和“骁龙765/765G”。就在同一天,华为发布已经搭载了麒麟990芯片的最新款5G手机nova6。再早些时候,联发科举行5G方案发布会,在中国正式推出“天玑1000”,三星Exynos 980也于2019年9月问世。一场5G二代芯片的竞技正式拉开帷幕。

5G芯片行业鏖战未消,AI技术也开始走向商业化阶段,中国芯片产业正处在一个高速发展的时期。各方面利好不断,以中关村集成电路设计园(IC PARK)为代表的各地集成电路产业园区也日渐成熟,让业界对芯片产业的未来十分看好。

IC和AI正在引发一场深刻变革

被誉为现代工业“粮食”的芯片,一定程度上也被视为国家科技创新能力的体现。直到最近几年,以华为、中兴为首的中国科技企业才开始崭露头角。

“5G是三十年一遇的大变化,很多产业和模式将被颠覆。”中国移动前董事长王建宙曾在公开场合这样表示。从诺基亚,到摩托罗拉,无数事实证明,每一代通信技术的更迭,都伴随着手机品牌和芯片厂商的洗牌。

行业从来不缺乏掉队者,受制于技术与市场等诸多因素,目前全球能够参与5G芯片竞争的也只有高通、三星、华为、联发科以及展锐。

行业也从不缺乏后继者,国内一国产手机厂商负责人曾表示:“如果想要做更好的产品,芯片自研是一条必经之路,虽然投资巨大,但在行业内,逐渐成为共识。”目前,包括苹果、三星、华为、小米、OPPO和vivo在内的手机厂商都在芯片层面或早或晚开始了投资。

“新陈代谢”正在行业的各个层面悄无声息地进行着,在市场巨大潜力的推动下,谁都有可能成为下一个科技巨头。

在5G芯片行业之外,一场人工智能的变革也正在酝酿着。经过几年的发酵,中国的AI技术已经取得了巨大的进步。

技术的进步带来市场的增长,到2020年我国人工智能产业规模有望突破1600亿元,带动相关产业突破1万亿元。

5G与AI的齐头并进,使得中国集成电路的技术和市场均保持良好的发展态势。IC PARK也给自己定下了“打造世界一流的集成电路设计产业园区”的目标,进一步优化营商环境,提高园区综合服务能力,增强对高端企业和项目吸引力。

理性投资,全面发展

在前不久的一场智能大会上,李开复如此说到:“AI行业正在回归理性,这是一个退潮知道谁在裸泳的时刻,需要回归商业本质。”他透露,AI作为最火的投资领域,曾有过许多不理性的投资,导致一些企业被过高估值。而到了2019年,上市则成为了他们无法越过的大山。

但回归理性,并不意味着市场冷却,事实上,更多的优质融投资正在改变AI行业的现状。

AI行业白皮书显示,2019年,产业资本和企业投资正在快速跟进。同时,AI技术与传统行业进一步产生了实质性融合,得益于聊天机器人和智能对话终端应用的大规模落地,企业级、消费级对话式人工智能平台市场驱动了整个人工智能软件市场的发展。

资金实力强劲的互联网巨头也加强了AI产业的战略布局。阿里巴巴重点布局安防和基础组件,投资了商汤、旷视和寒武纪科技等;腾讯投资的重点主要集中在智慧健康、教育、智慧汽车等领域,代表性的公司包括蔚来汽车、碳云智慧等企业;百度投资的重点主要在汽车、零售和智慧家居等领域。

一场关乎未来的投资之战正在上演,而这也表明,我国人工智能已进入商业化阶段。

行业的跨越性发展,使得市场对人才的需求剧增。根据《中国集成电路产业人才白皮书(2018-2019年版)》,到2020年前后,我国集成电路行业人才需求规模约为72万人左右,而我国现有人才存量46万人,人才缺口将达到26万人。城市之间,围绕着人才的争夺未曾停歇,各地纷纷出台人才政策,一个个激励IC创新研发的项目也在高校落地。

在区域产业聚集方面,中国集成电路已经形成上海为中心的长三角、北京为中心的环渤海、深圳为中心的泛珠三角以及武汉、西安、成都为代表的中西部四个各具特色的产业集聚区;北京、上海、合肥等数十个城市已建或者准备建设集成电路产业园。

IC PARK位于北京市海淀区,是一所建筑面积近22万平方米的IC设计产业园,正在以超越行业整体发展的速度,成为全国领先的园区范本,也为行业提供了诸多值得借鉴的经验。

被点赞的IC PARK ,如何做到了行业领先

好的园区要有头部企业,产生聚集效应;要有优秀设计人才,打造人才聚集高地;要有政策支持,扶持引导战略性产业发展;要有贴心服务,培养优秀的运营服务团队,用好公共科技创新服务平台。

政策、企业、人才、服务四个方面,也正是IC PAKR的优势所在。

经济学家马光远曾表示:“在下一个十年,海淀最有前景的地方就是海淀北部新区,北京科技创新的新增长点以及中关村未来的新发展就在海淀北部新区。”

依托于海淀北部新区的IC PARK,是北京“三城一区”的发展战略中,中关村科学城的核心之一,享受首都扶持创新产业和引进创新人才的政策优惠,入驻园区的企业在税收方面,可以两年免征,三至五年按25%的法定税率减半征收企业所得税。

不仅如此,这里还汇聚了清华大学、北京大学、中国人民大学等一批高精尖科研院校,是中国人才最扎堆的区域。

ICPARK董事长苗军曾总结到:“IC PARK最大的优势其实也是北京的优势,那就是人才、技术、项目、资本密集。”

在园区的服务上,IC PARK构建了“一平台三节点”产业服务体系。一平台指线上线下相结合的一站式企业服务平台,构建面向企业全生命周期的全方位、全过程服务价值链,其中的“三个节点”指的是投融资节点、孵化节点和人才节点。

近日,IC PARK主导的集成电路产业基金——芯创基金正式成立。这标志IC PARK以芯创基金为主导,“科技金融+认股权池+基金投资”的全生命周期的投融资体系已经形成。IC PARK成立的认股权池,与进驻园区企业签署认股权协议,在企业的增资扩股中,园区享有认股权,助力企业发展。

据了解,芯创基金总投资规模达15亿元,重点关注5G、云计算、汽车电子和AIOT等领域的投资。在2019年,芯创基金接收企业商业计划书300余个,调研对接企业150余家,储备项目40余个,立项5个,实现当年成立当年投资。2020年还将持续聚焦集成电路行业,预计投资额1.2亿左右。

在孵化方面,为了扶持中小型、创业公司的发展,IC PARK设立了3000平米孵化器“芯创空间”,以供小型的IC设计企业在园区进行独立研发或与园区内的大公司展开合作,还配有导师团队辅导创业者。

在人才方面,IC PARK联合七所在京示范性微电子学院和北京半导体行业协会、赛迪智库、中关村芯园、安博教育、摩尔精英共同发起成立中关村芯学院,园区与龙头企业共同发起成立人才产业化联盟,充分利用海淀区的人才资源,搭建起高校与企业人才培养和成果转化的桥梁,通过培养集成电路领域的复合型人才,助力“芯火”双创平台的建设与实施,缓解集成电路人才痛点问题。

芯片产业最关键的是产业链建设,在这方面,以龙头企业为引领、中小微创企业为补充,吸引了比特大陆、兆易创新、兆芯等数十家头部企业进驻,汇聚芯片企业50多家,产业组织模式日益成熟,产业配套也日益完善。

向来重视文化、生活配套的IC PARK,还在载体空间以及服务手段上进行了革新与创造。园区内配置了北京市唯一一家2000平方米的专业集成电路科技馆、建筑面积4200平方米的配套图书馆、2400平方米的IC国际会议中心,以及能够满足IC精英品质生活需求的两万平米的商业街区……足不出园,入驻人员的大部分商务、生活、交流需求都可以被满足。不设围墙的开放式空间布局,也惠及周边企业和居民。

如今,开园刚满周年的IC PARK,IC设计企业的年产值已经达到240亿元,占据全市集成电路设计领域产值的42%,创造税收40亿元,企业研发投入5亿元,专利数也达到了6068项,成为了一颗“未来之芯”。

AI芯片怎么就进入了洗牌期?

AI芯片怎么就进入了洗牌期?

无芯片不AI,芯片是支撑人工智能的基础。2019年,云端AI芯片迎来亚马逊、高通、阿里巴巴、Facebook等新玩家,软硬一体化趋势加强;终端芯片功耗比竞争加强,语音芯片持续火热;边缘AI芯片势头初现。2020年,AI芯片将逐渐进入洗牌期,机遇与挑战并存。

边缘AI芯片进入抢滩战

AI正在从云端向边缘端扩展,边缘计算被视为人工智能的下一个战场。寒武纪副总裁刘道福表示,在边缘计算种类中,边缘往往和各类传感器相连,而传感器的数据往往是非结构化的,很难直接用于控制和决策,因此需要边缘人工智能计算将非结构化的数据结构化,从而用于控制和决策。

2019年,围绕边缘AI芯片的抢滩布局已经开始。一方面,英伟达、寒武纪、百度等已经在云、端有所积累的厂商,希望以边缘芯片完善云、边、端生态,打造一体化的计算格局。英伟达发布了面向嵌入式物联网的边缘计算设备Jetson Nano,适用于入门级网络硬盘录像机、家用机器人以及具备全面分析功能的智能网关等应用,之后又发布了边缘AI超级计算机Jetson Xavier NX,能够在功耗10W的模式下提供最高14TOPS,在功耗15W模式下提供最高21 TOPS的性能。寒武纪发布用于深度学习的SoC边缘加速芯片思元220,采用台积电16nm工艺,最大算力32TOPS(INT4),功耗控制在10W,支持Tensorflow、Caffe、mxnet以及pytorch等主流编程框架。百度联合三大运营商、中兴、爱立信、英特尔等,发起百度 AI 边缘计算行动计划,旨在利用 AI 推理、函数计算、大数据处理和产业模型训练推动 AI 场景在边缘计算的算力支撑和平台支持。

另一方面,自动驾驶等专用边缘AI芯片势头渐显。地平线宣布量产国内首款车规级AI芯片“征程二代”,采用台积电28nm工艺,可提供超过4TOPS的等效算力,典型功耗仅2瓦,延迟少于100毫秒,多任务模式下可以同时运行超过60个分类任务,每秒钟识别目标数超过2000个,面向车联网对强实时响应的需求。

多个新玩家入局云端

云端仍然是AI芯片的主要战场。2019年,云端芯片迎来多个新玩家,算力大战持续升级。高通推出了面向数据中心推理计算的云端AI芯片Cloud AI 100,峰值性能超过350 TOPS,与其他商用方案相比每瓦特性能提升10倍。云服务领跑者亚马逊推出了机器学习推理芯片AWS Inferentia,最高算力为128 TOPS,在AI推理实例inf1可搭载16个Inferentia芯片,提供最高2000TOPS算力。阿里巴巴推出号称全球最高性能AI推理芯片含光800,采用自研芯片架构和达摩院算法,在Resnet50基准测试中获得单芯片性能第一。腾讯投资的燧原科技发布了面向云端数据中心的AI加速卡云燧 T10,单卡单精度算力达到20TFLOPS,支持单精度FP32和半精度BF16的混合精度计算,并为大中小型数据中心提供了单节点、单机柜、集群三种模式,在集群模式下通过片间互联实现1024节点集群。

芯片是AI的载体,而软件是完成智能操作的核心。随着异构计算逐渐导入AI芯片,软硬件协同成为云端AI的重要趋势。英特尔推出了面向异构计算的统一软件平台One API,以隐藏硬件复杂性,根据系统和硬件自动适配功耗最低、性能最佳的加速方式,简化并优化编程过程。赛灵思也推出了软件平台Vitis AI,向用户开放易于访问的软件接口,可根据软件或算法自动适配赛灵思硬件架构。

功耗比仍是终端侧重点

在终端侧,功耗比仍然是角逐焦点。尤其在手机等对于续航能力锱铢必较的终端,主力厂商推出的AI引擎都对低功耗有所强调。麒麟990 5G的NPU采用双大核+微核的方式,大核负责性能,微核拥有超低功耗。据介绍,微核在人脸检测的应用场景下,能耗比大核工作降低24倍。高通发布的骁龙865集成了传感器中枢,让终端能够以极低功耗感知周围情境。三星提出通过较低功耗的NPU实现终端设备上的AI处理,实现在设备端直接执行更复杂的任务。

除了手机,终端侧的另一个当红炸子鸡是AI语音芯片。科大讯飞、阿里巴巴、探境科技、清微智能等都发布了针对智能家居的AI语音芯片,反映了AI芯片在特定领域的专业化、定制化趋势。阿里达摩院公布了首款专用于语音合成算法的 AI FPGA芯片技术Ouroboros,使用了端上定制硬件加速技术,降低对云端网络的依赖,支持实时语音合成和AI语音识别,有望在天猫精灵搭载。

2020机遇挑战并存

2019-2021年,中国AI芯片市场规模仍将保持50%以上的增长速度,到2021年,市场规模将达到305.7亿元。赛迪智库预测,2019-2021年,云端训练芯片增速放缓,云端推理芯片、终端推理芯片市场增长速度将持续呈上升趋势。预计2021年,中国云端训练芯片市场规模将达到139.3亿元,云端推理芯片市场规模将达到82.2亿元,终端推理芯片达到84.1亿元。

集邦咨询分析师姚嘉洋向记者指出,2019年,AI芯片大致已经走出一条较为清晰的道路,端、边、云的芯片规格相对明确。2020年,各大芯片厂会延续在2019年的产品发展路径,持续深化芯片的性价比及功耗比表现。从训练端来看,值得关注的是HBM(高频宽存储器)的整合与相关的封装技术良率,这会牵动芯片厂商与存储器及封测厂商之间合作关系的变化。推理端的决战点在INT8领域,重点在于如何进一步提升芯片本身的性能及功耗表现。

5G、VR/AR等新技术,也将为AI芯片,尤其是边缘侧的AI芯片提供更多的发挥空间。Arm ML事业群商业与营销副总裁Dennis Laudick曾向记者表示,5G通信技术改变了数据处理的方式,让边缘AI的工作负载也有了处理需求。可以说,5G带来了网络边缘的更多创新。姚嘉洋也表示,AI在5G核心网络存在机会,由于5G带来了更多元的频谱组合,AI可以辅助核心网络更有效地调度网络资源,将频宽资源的利用达到极大化。同时,5G也涵盖车联网,AI将在自动驾驶将大有机会。在VR/AR端,AI也在导入,主要聚焦在人眼追踪或是场景识别等应用,有望改善VR/AR的流畅度与实时性表现。

清华大学微电子所所长魏少军表示,从产业发展规律来看,在2019-2020年,AI芯片将持续火热,企业扎堆进入;但是到了2020年前后,则将会出现一批出局者,行业洗牌开始。由于目前AI算法还在不断演进汇总的过程中,最终的成功与否则将取决于各家技术路径的选择和产品落地的速度。

痛点尚待攻克

近两年,AI在语音识别、图像识别等应用领域取得突破,但要从单点突破走向全面开花,需要AI领域诞生如同CPU一样的通用AI计算芯片。清华大学微纳电子系副教授尹首一等专家指出,AI芯片短期内以异构计算为主,中期要发展自重构、自学习、自适应,长期则朝向通用计算芯片发展。

具体来说,AI要从应用适应硬件走向硬件适应应用,就要求AI芯片具备可编程性、动态可变的计算架构,来应对层出不穷的新算法和新应用。魏少军表示,AI芯片一要适应算法的演进,二要有适应所有应用的架构,这就要求架构具备高效的转化能力。在成本敏感的消费电子领域,还需关注AI芯片的计算效能,达到低功耗、小体积、开发简易,这些都需要探索架构上的创新。

全球AI芯片产业仍处于产业化早期阶段,国产处理器厂商与国际厂商在人工智能这一全新赛场上处在同一起跑线。耐能创始人兼CEO 刘峻诚表示,中国拥有庞大的智能手机、智能家居、智能安防等市场,对中国的AI公司而言,不仅在服务国内客户时具有本土化的优势,还可借助这些客户的生产制造优势进军海外市场,实现“立足中国,放眼全球”的商业布局。

三星14nm助攻 百度AI芯片昆仑明年量产

三星14nm助攻 百度AI芯片昆仑明年量产

在云端资料库需求激增的当下,百度与三星共同宣布,将以百度自行开发完成的“昆仑”人工智能处理器为基础,2020年初以三星的14纳米制程打造云端服务器处理器。

根据双方共同公布的资料显示,百度“崑仑”人工智能处理器主要针对云端运算、边缘运算等应用所开发的人工智能的类神经处理器(XPU)架构。而处理器预计将采用三星的14纳米制程技术,以及旗下的I-Cube TM封装解决方案来打造。

百度表示,这款处理器将能提供512GBps的存储器频宽,在150瓦的功率下达成260TOPS的运算效能。此外,这款新的处理器还将支援针对自然语言处理的预训练模型Ernie,使得整体的推理速度比传统GPU或FPGA的加速模型快3倍。

百度进一步指出,藉助这款芯片的计算能力和能效,百度可以支援包括大规模人工智能预算在内的多种功能,例如搜寻排序、语音识别、图像处理、自然语言处理、自动驾驶和PaddlePaddle等深度学习平台。

百度表示与三星是首次处理器代工合作。百度将提供人工智能性能最大化的人工智能平台,而三星将把芯片制造业务拓展至专门用于云端运算及边缘计算的高性能计算(HPC)领域。

事实上,除了百度本身积极自行发展专用处理器,竞争对手Google也已投入该项领域多年。包括企业与云端服务器使用的处理器,Google也都做了相当大量的投资,这些处理器大多为张量处理单元(Tensor Processing Units,TPU)。而透过这些处理器的运算效能,Google能提供业界优异的运算能力,以促进机器学习和人工智能训练的发展。

亚马逊入局,AI芯片热潮再起

亚马逊入局,AI芯片热潮再起

人工智能芯片热潮再起。近日,全球最大的云服务提供商亚马逊AWS发布消息:Invent上发布了首款高性能机器学习加速芯片Inferentia。由腾讯领投的AI芯片企业燧原科技也于近日发布了首款云端AI训练芯片邃思DTU及加速卡云燧T10。2019年人工智能技术加快渗透进入实际应用当中,成为业内公认的AI落地之年。而其中关键在于AI芯片,算力的支撑成为人工智能发展的“发动机”。这也使得人工智能芯片市场有望快速成长。

AI芯片开发踊跃

全球最大的云服务提供商亚马逊AWS发布了首款高性能机器学习加速芯片Inferentia。作为全球最大的云服务提供商,亚马逊AWS此举颇为引人关注。根据亚马逊公布的指标,Inferentia芯片能够提供128TOPS的算力,并支持INT-8和FP-16/bfloat-16计算类型。亚马逊同时公布了几种搭载了Inferentia芯片的服务器配置,最高性能的版本可以搭载16颗Inferentia芯片,从而能提供高达2000TOPS的峰值算力。

实际上,关于亚马逊自研AI芯片的情况早有消息传出。2018年美国科技媒体The Information报道称,亚马逊已经开始设计定制人工智能芯片,未来将用在其开发的智能语音设备Echo之上,以帮助Alexa语音助手获得更快的响应速度,从而提升整体的使用体验。2015年,亚马逊斥资3.5亿美元收购以色列芯片制造商Annapurna Labs。Annapurna Labs设计开发的芯片用于数据存储设备、WiFi路由器、智能家居设备和流媒体设备之上。

燧原科技的产品同样引人关注。燧原科技是腾讯投资的第一家国内AI芯片企业,成立不足一年半,就完成超过6.6亿元的累计融资。目前燧原已同腾讯一起针对通用AI应用场景项目展开密切合作,未来也将会扩展到更多AI应用场景。燧原科技CEO赵立东介绍,此次发布的邃思DTU采用格罗方德12nm FinFET工艺,480平方毫米主芯片上承载141亿个晶体管,实现2.5D高级立体封装,算力可达20TFLOPS,最大功耗225W。产品将于2020年第一季度上市。同时,燧原科技发布首款计算及编程平台“驭算”,可支持开源学习平台TensorFlow进行开发。

新应用驱动AI芯片增长

一家大型一家初创,一家国际一家国内,亚马逊AWS与燧原科技先后发布AI芯片,显示了AI芯片当前的火热。实际上,近年来各类势力均在发力AI芯片,参与者包括传统芯片设计、IT厂商、技术公司、互联网以及初创企业等,产品覆盖了CPU、GPU、FPGA、ASIC等。

安富利亚洲供应商及产品管理高级总监钟侨海指出,当前人工智能技术正在快速落地,正在渗透进入实际应用。这是AI芯片快速发展的原因之一。根据Fortunebusinessinsights的预测,2018年全球人工智能市场规模为206.7亿美元,至2026年有望增长到2025.7亿美元。而Gartner则预测,2018年AI芯片市场约为42.7亿美元规模,有望在2022年增长至343亿美元。

人工智能的应用首先是在云端服务器市场展开,这也是当前AI芯片开发的重点。不过随着市场的不断拓展,人工智能将向边缘以及终端领域扩展。未来一段时间,边缘计算将成为AI芯片发展最快的新领域。对此,清华大学电子工程系教授汪玉表示:“在发展过程中, AI芯片首先是受到了云端服务器市场的关注和应用,国际公司如Google的TPU、亚马逊的Inferentia、英特尔的SpringCrest,国内公司如寒武纪的MLU100、百度的昆仑、华为的升腾、比特大陆的算丰,都是面向云计算所开发”不过,随着边缘计算的发展,面向边缘计算的AI芯片也开始受到越来越多的重视。“新的边缘启用,数据密集型应用和工作负载将由AI提供支持。AI将用于分析和解释来自这些应用程序的数据,以帮助人们(在某些情况下,其他机器)实时做出关键决策。”汪玉表示。

钟侨海也表示,人工智能在物联网领域正在迅速展开。在人工智能以及物联网上,安富利已经开发出许多相关的成功案例,如智能制造系统、智能农业系统、智慧城市系统等。“目前区分人工智能在云服务和边缘侧的市场份额还比较难。但是,很多用户都希望在他们原有的物联网系统当中能够加上人工智能的功能。此外,越来越多的企业希望有他们自己的云,他们自己的云可以做训练,他们自己的云可以做数据的分析,这些事情他们可能不希望通过公有云来做。因此,可以预计未来人工智能在边缘侧的市场将会越来越大。”

架构弹性成为关注焦点

虽然前景看好,但是AI芯片在应用落地同样存在挑战。钟侨海认为,人工智能落地还将面临三个挑战:第一,人工智能需要繁多的训练、数据分析、识别、大量计算。所以,AI解决方案应针对不同的应用对网络和性能参数,要求不同速度、延迟、能耗、准确性。第二,神经网络技术需要大量的数据以训练模型,在大量的运算中有数十亿次乘积累加运算以及几十兆字节参数,故需要大量运算符、自定义数学及存储器层次结构。第三,人工智能算法的更新换代较为迅速,在固定架构中会存在很多风险,一旦旧人工智能架构失灵,在新架构出现时,原本的固化架构很大程度上即刻失效。所以,架构的弹性成为业界需要聚焦关注的问题。

汪玉提出建议,目前AI芯片设计面临着太多种的枢架,如TF 、Pytorch、Caffe、Mxnet等。同时现存的芯片平台也有很多,如CPU、GPU、FPGA、ASIC等。这就给AI芯片的设计开发带来了极大的挑战。如果能有公司设计开发出一款中间层性质的平台产品,由它来向上支持不同类型的设计框架,向下支持各种芯片平台,并最终服务于各个人工智能公司,将大大降低AI芯片设计中的复杂度,提高工作效率。这其中蕴含着巨大的商机。汪玉也呼吁应当加强产学研的结合,以技术为基本出发点,营造出有利于创新发展的环境。通过这一系列的努力,中国完全可以抓住新一轮由5G商用所趋动的边缘计算市场商机。

魏少军:目前的AI芯片并不是真正的AI,要从架构上突破

魏少军:目前的AI芯片并不是真正的AI,要从架构上突破

12月3日,一年一度的Imagination Inspire在上海拉开序幕,同期第十代PowerVR图形处理器架构IMG A系列新品推出。会议邀请了业内人士探讨AI芯片发展趋势和方向。清华大学、北京大学双聘教授魏少军出席会议并发表题为“深度学习与智慧芯片-路径与架构”的演讲。

架构创新推动智能化

“将AI芯片的计算能力与人类的计算能力比较,是走了一条错误的路线。与AI芯片相比,人脑的计算能力着实有限。”魏少军表示,在计算能力方面,机器的计算能力远超人类,可比性很小,多样性的适应能力才是最大的差距。人类大脑具备适应多种不同神经网络的功能,这是AI芯片最难完成的功能之一。此外,功耗也让两者产生巨大差距。“人食三餐,就可以适应多样化的神经网络。但是一台装上AI芯片的设备,很可能需要一台发电机为其专有供电,功耗可达2400W。”魏少军说。

“所以,目前的AI芯片并不是真正的AI。”他认为,真正的AI芯片要从架构方面进行突破。目前市场厂商流行的架构包括CPU+SW、CPU+GPU、CPU+FPGA等方式,“但这些都不是AI的理想架构。”魏少军表示,宏观上看,计算、软件、优化、演进、训练是AI芯片的几个重要的架构模块,而在完成这些重要模块的同时,是否可以设计出类似通用CPU独立存在的“通用AI处理器”?如果存在的话,他的架构应该是怎样的?

可重构的神经网络计算架构或许可以给出答案,这是魏少军认为最有可能迎接未来复杂人工智能市场的AI架构。该架构的可重构性和可配置性为AI芯片适应多重神经网络架构提供可能,实现最佳能源效应。通过应用来决定神经网络的选择,实现“定制化AI芯片”,打造可重构的神经网络计算架构“高效能、低功耗”的训练引擎。

“架构创新让AI芯片变得更智慧,让机器模仿人的行为,教机器学会人能做的事情。”魏少军说。

AI芯片发展新增三要素

架构创新带来了AI芯片基本要素发生微妙的变化。

传统上,为了更好的适应算法的演进和应用的多样性,AI芯片首先应该具备一定的可编程性。其次,AI芯片需要适应不同的算法,实现高效计算。因此,架构需要具备一定的动态可变性。“低开销、低延迟”属性也需要AI芯片具备高效的架构变换能力。高计算效率也是AI芯片避免使用指令类低效率的架构的方法之一。“这些是AI芯片应该具备的基本要素。”魏少军说。

但即使具备这些要素,AI芯片依旧“还不够智慧”。“更加智能”的需求带来了架构的创新,由此,类似于“软件定义芯片”可重构的神经网络计算架构等创新带来了AI芯片基本要素的变化。

魏少军表示,架构创新后,AI芯片需要增加学习能力、接受教育并成长的能力。人类差异性的来源是教育和学习,芯片也如此。如果AI芯片可以接受教育并成长,其不可替代性将会逐渐加强。因此,算法和软件的自主演进能力也成为了“智慧AI芯片”新增的基本要素之一。“更加智慧的AI芯片,还需要具备自主认知、自主判断、自主选择和自主决策等基本要素。”魏少军说。

比特大陆发布全新智能服务器SA5 超强算力赋能AI

比特大陆发布全新智能服务器SA5 超强算力赋能AI

2019年10月27日,全球领先的算力芯片公司比特大陆在深圳召开AI新品发布会,重磅推出了算丰第三代智能服务器SA5。该产品是基于比特大陆9月在福州城市大脑发布会上推出的最新AI芯片BM1684开发而成,具备低功耗、高算力、高密度的特点,拥有强大的深度学习加速能力,可以为视频/图像智能分析提供巨大算力。

值得一提的是,比特大陆也将携新产品亮相10月28日-10月30日的深圳安博会现场,届时也将看到比特大陆在城市大脑、智慧安防、智慧社区等领域的最新进展。

比特大陆AI业务线总裁王晨光在发布会现场表示,“比特大陆算丰智能服务器SA5主要面向视频及图像智能分析领域,可搭载第三方算法,运行视频结构化、人脸检测识别、车辆检测识别、物品检测识别、视频检测等多类安防和互联网视频智能分析应用,是目前人工智能领域最为成熟、稳定的智能服务器”。

性能8倍提升 可提供422T算力

算丰智能服务器SA5的核心是比特大陆最新研发的AI芯片BM1684。BM1684聚焦于云端及边缘应用的人工智能推理,采用台积电12nm工艺,在典型功耗仅16瓦的前提下,FP32精度算力达到2.2TFlops,INT8算力可高达17.6Tops,在Winograd卷积加速下,INT8算力更提升至35.2Tops,是一颗低功耗、高性能的SoC芯片。

基于BM1684的SA5是 19 英寸的标准 2U 服务器,内置 3 个智能分析单元,包含24颗BM1684 芯片,可以提供2.2*24TFlops@FP32 ,17.6*24Tops@INT8的峰值计算力。SA5整体功耗小于700w,INT8模式下可提供高达422T的算力,性能较上一代产品提升约8倍。

值得一提的是,单台SA5 具备768路 30帧每秒的1080P视频的处理能力或每秒12000张人脸图片的检测分析,大大提升了智慧城市、智慧安防、互联网等行业视频/图像智能分析的效率。

SA5采用可插拔模块化设计,极大便利于后期运维,内置主控单元、算力单元、存储单元等核心模块。

主控单元(MPU)是SA5的大脑,基于X86架构的智能管理调度系统,实现算法部署、系统升级、算力性能监控、能耗管理、算力动态负载均衡。为AIU单元提供管理以及数据交换,高达10G的网络接口以满足算力数据的输入输出。

其中作为整机灵魂的算力单元(AIU),集成了比特大陆第三代算力芯片BM1684,单个单元最多集成8块BM1684芯片,整机可以按需配置多个单元,为具体应用场景下的需求提供澎湃算力。

一站式工具链 便捷实现AI赋能

为了提升产品的易用性,比特大陆还为客户提供了包括底层驱动环境、编译器、推理部署工具等一站式的工具包,名为BMNNSDK(BITMAIN Neural Network SDK)。

BMNNSDK易用便捷,最大程度降低算法和软件的开发周期和成本,使开发者和使用者能快速在智能服务器SA5上部署深度学习算法,便捷地实现视频结构化分析、人脸识别等智能应用。

通过BMNNSDK,可以将开发者基于深度学习框架开发训练的模型,自动编译转化成在SA5高性能计算平台效运行的应用,当前支持的深度学习框架包括TensorFlow、Caffe、mxnet、ONNX、Caffe2等,支持CNN/RNN/DNN等神经网络模型,具有极佳的编程灵活性。

与众不同的是,比特大陆还在BM1684芯片内置多种加解密算法,可保护客户的算法安全、模型安全可靠,创建安全可信的计算环境。

比特大陆作为领先的算力芯片公司,始终将客户利益放在首位,始终以创新为本,以为客户创造价值为根本出发点,不断引领着科技的发展方向和新的行业潮流。在本次发布会上,比特大陆与中科云从、以萨、深瞐、千视通、英飞拓、智慧眼科技、华付、南泽智能、华尊科技、蓝典科技、灵想科技、航康信息、伟视清、叁拾柒号仓、考斯、鑫和汇通、小牛智能等17家生态合作伙伴同时签约,共同搭建友好开放的生态系统,使客户轻松享受新技术带来的优质用户体验。其中,来自中科云从、以萨、深瞐、千视通的嘉宾,还为现场观众奉献了精彩的主题演讲。

比特大陆未来将持续快速响应客户需求,以先进技术、精密制造和卓越的资源整合能力为客户提供最具竞争力的智能设备技术解决方案,精诚合作引领科技前沿,共赢全球市场。

阿里和谷歌自研AI芯片商用,科技巨头与芯片巨头关系生变

阿里和谷歌自研AI芯片商用,科技巨头与芯片巨头关系生变

2019年杭州云栖大会上,阿里首款AI芯片含光800虽然只有短短几分钟的介绍,却成了外界最为关注的消息。互联网巨头进入自研芯片领域早已不是新闻,但每次他们自研芯片的正式推出和商用的宣布,依旧会吸引了无数的关注。

不少人应该也会疑问,这是不是芯片巨头们要被替代的开始?

互联网巨头造芯的初衷

在互联网企业造芯的路上,谷歌跑在了最前面。早在2006年,谷歌就开始考虑在其数据中心部署 GPU或者 FPGA,或专用集成电路(ASIC),当时的结论是,能在专门的硬件上运行的应用并不多,使用谷歌大型数据中心的富余计算能力即可。

情况在2013年发生了转变,当时谷歌用户每天使用语音识别 DNN 语音搜索三分钟,使得谷歌数据中心的计算需求增加了一倍,而如果使用传统的 CPU 将非常昂贵。因此,谷歌启动了一项优先级别非常高的项目,快速生产一款定制芯片(ASIC)用于推理,并购买现成的 GPU用于训练。

谷歌的目标是将性价比提高 10 倍,为了完成这项任务,谷歌在其数据中心设计、验证、构建并部署了 TPU(张量处理器,Tensor Processing Unit),这一过程用了15个月。

2016年,谷歌I/O开发者大会上,谷歌正式发布了首代TPU。不过,TPU刚开始只仅限谷歌内部使用,直到2018年2月,谷歌才在其云平台博客上宣布TPU服务开放的消息,价格大约为每云 TPU 每小时 6.50 美元,而且数量有限。

阿里和谷歌自研AI芯片商用,科技巨头与芯片巨头关系生变

也就是说,2018年,谷歌才开启了TPU的商业化。同年的I/O大会上,TPU 3.0宣布推出,计算性能相比TPU 2.0提升八倍,可达 100PFlops(每秒 1000 万亿次浮点计算)。

可以明确,谷歌TPU的推出,主要还是因为市场上没有满足其需求的芯片,使得他们进入了自研芯片领域,并且,TPU作为云端推理芯片并不对外出售,而是通过谷歌云对外提供算力。

阿里的自研芯片之路与谷歌类似。1999年以淘宝起家的阿里,如今的业务早已横跨电商、金融、物流、云计算、大数据、全球化等场景。不同的场景就有不同的计算需求,比如淘宝里的拍立淘商品库每天新增10亿商品图片,使用传统GPU算力识别需要1小时。除了需要花费1小时的时间,这个时间里GPU的耗电量也非常巨大。

根据数据统计显示,2017年中国有40个中小型数据中心,这些中小数据中心2017年消耗电量比三峡大坝的发电量还多,等量的碳排放量两倍于民航的碳排放量。对于阿里和谷歌这样拥有大型数据中心的科技公司,电量消耗也带来了巨大的成本。

如果谷歌和阿里想要通过购买算力更强的最新款英伟达GPU来提升效率,GPU高昂的售价也是科技巨头们无法忽视的问题。

因此阿里也开启了自研芯片之路。2017年的云栖大会上,阿里宣布成立达摩院,由全球建设的自主研究中心、高校联合实验室,全球开放研究计划三大部分组成,涵盖量子计算、机器学习、基础算法、网络安全、视觉计算、自然语言处理、下一代人机交互、芯片技术、传感器技术、嵌入式系统等,涵盖机器智能、智联网、金融科技等多个产业领域。

2018年云栖大会,阿里又宣布成立独立芯片企业“平头哥半导体有限公司”,由中天微与达摩院芯片团队整合而成。

还是云栖大会宣布者还是张建锋,2019年阿里首款AI云端推理芯片含光800正式推出。在业界标准的ResNet-50测试中,含光800推理性能达到78563 IPS,比目前业界最好的AI芯片性能高4倍;能效比500 IPS/W,是第二名的3.3倍。

性能提升带来的效果显而易见,继续用上面的拍立淘举例,阿里表示,采用含光800后,每天新增10亿商品图片的识别时间可以从GPU识别的1小时,可缩减至5分钟。另外,根据云栖大会的现场演示,在城市大脑中实时处理杭州主城区交通视频,需要40颗传统GPU,延时为300ms,使用含光800仅需4颗,延时降至150ms。

由此做一个简单的换算,那就是1个含光800的算力等于10个GPU。

相比谷歌迟迟没有商用TPU,阿里在发布含光800之时表示这款产品已经已经实现了大规模应用,应用于阿里巴巴集团内多个场景,例如视频图像识别/分类/搜索、城市大脑等,并且宣布基于含光800的AI云服务也正式上线。

显然,阿里自研AI芯片最核心的目标同样是为了获得更低的经济成本。

科技巨头与芯片巨头不再只是合作

由此看来,目前阿里和谷歌商用的自研AI芯片都是云端推理芯片,对于传统芯片巨头英特尔和英伟达而言,这并不会带来巨大的改变,但双方的关系会从此前紧密合作变为竞合关系。

如何理解?虽然有了面向视觉场景的含光800推理芯片,但是这是一款ASIC芯片,其定位也是CNN类模型推理加速为主,通用可扩展到其它DNN模型。但对于更多的深度学习算法,含光800这款ASIC可以在一定支持,但无法体现出性能和能效最优化。

所以,无论是阿里还是谷歌,他们依旧需要英特尔的CPU提供通用的计算能力,也需要FPGA进行AI的加速。另外,阿里性能强大的神龙架构服务器,也需要英伟达GPU提供算力。

这种竞合关系不仅会局限在云端。2018年7月,谷歌推出Edge TPU芯片,从命名上就可以看出这是此前推出的云TPU的简化版本,是专门设计的加速器芯片,用于在边缘运行TensorFlow Lite机器学习模型。

英雄所见略同,阿里也有端云一体的战略。在含光800云端AI芯片发布之前的7月和8月,阿里接连发布了高性能RISC-V架构处理器玄铁910以及SoC芯片平台“无剑”。也就是说,阿里的C-Sky系列、玄铁系列AIoT终端芯片IP,一站式芯片设计平台无剑,以及最新发布的云端AI芯片构建了阿里端云一体的芯片生态,平头哥端云一体全栈芯片产品家族雏形已现。

另外,2019云栖大会期间还有一个芯片的重磅宣布,阿里人工智能实验室和平头哥共同定制开发的智能语音芯片TG6100N,会在即将推出的音箱产品中使用。

科技巨头们的自研AI芯片要涵盖云端和终端其实也很容易理解,无论是芯片巨头还是科技巨头,他们都认为未来数据将像石油一样具有价值。因此,巨头们需要端云一体的战略挖掘数据的价值,在数据的时代保持领先,而这个战略非常重要的支撑就是云端和终端的AI芯片。

此时科技巨头和芯片巨头都会有云端和终端的AI芯片,竞争就难以避免。雷锋网认为,竞争激烈的程度更多会取决于科技巨头,由于他们对自己的业务和数据有更深的理解,他们定制化的ASIC芯片更容易达到性能和能效的最优。即便自研的AI处理器性能弱于芯片巨头的产品,如果科技巨头出于自主可控的考虑,用自身的业务和场景去支撑自研芯片的迭代和优化,为此付出一些代价,最终也能研发出在特定领域非常具有竞争优势的芯片。

注意,科技巨头们会在与自己业务和生态相关的领域自主研发AI芯片。但如果想要替代现有的成熟芯片,比如英特尔的至强CPU和英伟达GPU,既没有价值也面临巨大的风险。归根结底,科技巨头们自研AI芯片的初衷是为了获得更大的经济效益,通过自主研发的芯片保持其技术和生态的领先性。同样,他们的自研芯片也更多的会服务于自己的业务和生态,而非抢食芯片巨头们的市场。

小结

AI时代,科技巨头们与芯片巨头们不再只是紧密的合作伙伴,也会在特定领域成为竞争对手。也就是说,对于芯片巨头们而言,想要在科技巨头拥有自研芯片的领域获得订单,需要付出更多的努力。

反过来,芯片作为一个技术、资本、人才都密集的行业,其长周期的特点也与互联网和移动互联网快速迭代的模式不同,如何找到软硬之间的最佳平衡点,以及如何与芯片巨头们多年在芯片领域积累的优势竞争,也都是科技巨头自主研发芯片面临的挑战。