彩虹岛rimworld ai芯片片

中星微“星光智能一号”量产 AI芯片竞赛“各就位”
> 中星微“星光智能一号”量产 AI芯片竞赛“各就位”
中星微“星光智能一号”量产 AI芯片竞赛“各就位”
  人工智能火热,而NPU作为人工智能核心芯片,无疑是业内焦点。但直至目前,国内外仍未有主流的NPU厂商产生。本文引用地址:
  在国内市场,电子近日率先推出量产的&NPU&芯片。&对于企业而言,实现量产是定义&首款&NPU芯片的标准。&6月23日,电子CTO张韵东独家专访告诉记者,其预计,未来两个季度内&星光智能一号&出货量有望超过百万。
  领衔国内首款量产NPU,但市场同样显现了谨慎的一面。奇虎360人工智能研究院院长颜水成告诉记者,对于&星光智能一号&的技术成熟度仍在观察。多位业内人士告诉记者,目前来看此次中星微推出的NPU主要应用于安防领域,对于其他领域的应用前景仍待验证。
  人工智能核心
  一位业内人士告诉记者,目前已有的智能硬件事实上均&不够智能&,基本上依赖于CPU(中央处理器)支持,但长远来看,CPU跑大型算法模型较为吃力,因此,&在NPU这类芯片真正投入到嵌入式设备中,智能硬件才算是有了可堪大用的智能计算平台&。
  这也就是为什么近年来&NPU&概念火热,未来的智能硬件中均不可或缺这么一块芯片。
  NPU采用了&数据驱动并行计算&的架构,特别擅长处理视频、图像类的海量多媒体数据。上述业内人士向记者介绍,NPU对应的竞争标的物是CPU,它也具有类似GPU(图形处理器)的并行计算特点,相比CPU,NPU可以在线性代数运算上有更高的效率,但功耗上面可以比CPU低很多。
  一位互联网巨头公司的资深算法工程师告诉记者,GPU主要是训练的时候非常需要,训练过程需要非常大量的线性代数运算,这是GPU的优点所在。但NPU定位主要是用于预测,也就是说NPU主是部署到产品上的,尤其是嵌入式产品,比如手机、平板电脑等等对体积和功耗有严格要求的使用环境。
  与此同时GPU直接应用到智能硬件中同样存在缺陷。张韵东告诉记者,GPU是为图形处理设计的,用来深度学习算法造成浪费。
  多家人工智能厂商告诉记者,目前NPU在市场上仍处在早期阶段,深度学习过程中主要采取使用GPU,其中的佼佼者则是英伟达旗下推出用于深度学习的GPU。
  NPU在人工智能演进过程中扮演的关键角色毋容置疑,但目前国内外均还未有主流的NPU厂商出现。早在2013年,高通即对外宣称将大力投入发展NPU,并称将在2014年推出样品,随后却不了了之。
  &高通开发NPU使用的是脉冲驱动型,而中星微电子基于CNN神经网络,这是NPU开发的两个主要路径。&张韵东告诉记者,前者的特点是功耗相对更低,而后者的优势在于芯片能够支持主流深度学习的软件框架,因此和深度学习配合较好。
  近日,中国首款嵌入式神经网络处理器(NPU)&星光智能一号&诞生。张韵东告诉记者,研发&星光智能一号&耗时三年时间。&中星微集团聚集了北京、广东、天津、山西、江苏、青岛、硅谷的研发力量,采用了先进的过亿门级集成电路设计技术及超亚微米芯片制造工艺,在TSMC成功实现投片量产。&
  NPU竞赛
  张韵东告诉记者,目前&星光智能一号&出货量主要集中在安防摄像领域,其中包含授权给其他安防摄像厂商部分,但其并未透露这一部分的具体出货量。截至目前,&星光智能一号&出货量达十几万。
  张韵东称,在接下来的一段时间中,&星光智能一号&芯片将进一步推广,未来将主要向车载摄像头、无人机航拍、机器人和工业摄像机方面进行推广和应用。
  可以看到,尽管无人驾驶成为目前人工智能最火热的领域之一,但大量机器人公司将首先推的领域放在了例如扫地机器人,背后原因在于快速落地的产品均需要一定的市场验证。
  对于&星光智能一号&率先应用的安防领域,张韵东告诉记者,目前准确性提高了10%左右,伴随着这一变化,同样有助于推动安防摄像头在市场上的进一步普及。
  &前景是巨大的,但中星微此次推出的芯片可能更加接近简化版的GPU。&一位获得多家知名VC投资的国内机器人公司内部人士向记者评述。无法判断性能的原因是,此次中星微并未给出芯片的具体参数,一般NPU对于算法每秒处理多少次有一定要求。
  对此,张韵东回应称,&更加准确来说GPU事实上是变相的NPU&。
  另一家计算机视觉识别方向人工智能公司的内部员工告诉记者,其认为此次推出的&星光智能一号&主要面向的是安防领域应用,但是否适合机器学习使用仍待观察。&这类芯片刚面世基本都是专用型的,可以说这款芯片是中星微针对自家安防产品的加分项。&
  尽管如此,&星光智能一号&已经吸引到了部分人工智能领域公司的注意力,甚至不乏互联网大公司。
  &我们还需要了解细节,主要在于技术成熟度,以及和&寒武纪&的差别。&奇虎360人工智能研究院院长颜水成告诉记者。&寒武纪&是指中国科学院计算技术研究所发布了全球首个能够&深度学习&的&神经网络&处理器芯片。
  颜水成告诉记者,目前NPU市场已经是&山雨欲来风满楼&,但对于无论哪家推出的芯片,均需要一定的验证和测试周期。
  &深度学习芯片的公司偏向算法应用能力,比如地平线机器人等;NPU芯片公司偏向于通用芯片的设计和推广,这类公司本身是做芯片的。&一位熟悉深度学习的人士告诉记者,深度学习芯片公司优势在于商业模式会更快建立起来,而通用型NPU芯片会有更加漫长的商业推广周期。
  从长远来看,由于前者较早有现金流支撑,加之在一定程度同样能够推出通用型芯片,逐渐挤掉后者的生存空间,前者经过更多的市场磨练能设计出更加符合市场需求的产品和稳定性更好的产品。
  &现在NPU所用的芯片工艺要求还没有到顶端,导致这个领域现在拼的还是市场适应程度,因此目前阶段竞争主要集中在服务,这就使得未来中国NPU厂商可以更好地服务本土智能硬件厂商。&上述业内人士告诉记者。
分享给小伙伴们:
我来说两句……
最新技术贴
微信公众号二
微信公众号一您现在的位置:
揭秘百度秘密项目:AI专有芯片版百度大脑
Yesky天极新闻
  【天极网IT新闻频道】又在自主设计硬件了。
  作为全球最大的中文搜索引擎公司,百度在近几年却与系统底层硬件结下了不解之缘。自研万兆与(软件定义SSD),全球首次规模商用ARM……一个互联网服务巨头,在系统底层软硬件创新上不遗余力。而这一次,它再一次将创新的触角延伸到了服务器芯片领域。
  百度自主设计芯片?它要唱的是哪一出?
  百度大脑的“烦恼”
  刚刚落幕的2015世界机器人大会上,形态各异的机器人,让人在大饱眼福的同时,也不禁对未来充满无限想象和期待:机器将拥有近似甚至超过人类的智慧。
  如何让机器拥有如此超凡智慧?关键就是要让它们拥有和人一样会学习、能思考的“大脑”。百度大脑正是这样一个智慧的产物。
  如果你不理解百度大脑是如何成长并拥有智慧的,就试想一下从小到大,人的大脑是如何变得越来越聪明的:
  一方面,从生理构造上看,人脑的各个区域都在不断发展,以使人有更好的能力去认知、去记忆、去学习。百度大脑的软硬件架构以及人工智能等相关技术,就好似这“生理构造”。
  近年来,百度在人工智能,特别是深度学习技术上不断发力,使百度大脑在“生理构造”上拥有了更强大的学习、认知能力。一个月前,在媒体上热炒的“百度语音技术攻克10年难题,取得重大突破”,便是百度在人工智能领域发力的重要作证。而在更早之前,百度就已在人脸识别两个最为权威的国际评测FDDB与LFW中,获双料世界第一。
  另一方面,就是信息。人脑需要不断地获取各种信息、处理信息,并形成知识,才能变得更加聪明。在这一方面,百度大脑拥有着海量信息优势。
  据了解,百度服务覆盖6亿网民,每天要响应60亿次搜索请求,150亿次定位请求,同时还拥有海量社区数据。这些大数据使得百度大脑能够学会更加海量、多维度的知识。
  百度大脑正在不断学习、不断成长,变得越来越聪明。然而,就在这样成长的过程中,百度大脑遇到了“烦恼”:数据和模型规模不断膨胀,需要有更强的计算能力来支撑。不仅如此,出于企业成本考虑,还必须考虑能耗效率(性能/能耗)和成本效率(性能/价格),即在相同能耗或成本下,性能越高。
  如何解决这一问题?三年多前,百度就开始寻求解决方案——
  开启秘密项目
  在今年9月份召开的百度世界大会上,百度高级副总裁王劲在接受采访时曾透露,百度已经打造了FPGA版的百度大脑,性能远超此前的版本。“这在当年是百度的一个秘密项目,不过,现在可以对外公开了”。
  王劲所提到的“当年”就是2012年——这一年,面对百度大脑对计算能力的强烈需求,百度决定自主设计深度学习专有的体系结构和芯片。
  说到提升计算性能,很多人会先想到用GPU。“GPU确实能提供较好的计算能力,但对于能耗效率和成本效率而言,它离我们的目标仍存在一定差距。”百度AI专有芯片项目负责人、主任架构师欧阳剑解释道。
  百度对这种差距有着深刻的体会。欧阳剑表示,为了提高深度学习算法的计算速度,他们已经在GPU和上做了很多优化,也发表了一些深度学习算法GPU加速的论文,得到了外界的认可。“经过这些工作,我们更能深刻理解GPU、CPU在深度学习应用中的成本效率、能耗效率离目标间的差距”。
  在充分考量各种芯片的特性后,可编程、低功耗并拥有超强并行计算能力的FPGA走进了百度工程师们的视野。百度开始尝试用FPGA打造AI专有芯片,并成就了第一版AI专有芯片版百度大脑——FPGA版百度大脑。这使得百度成为了全球最早将FPGA规模应用在人工智能领域的公司。
  从在线服务切入,性能提升3~4倍
  人工智能的应用场景,包括云(数据中心)和端()两部分;其中,云端又包括离线训和在线服务。离线训练是指利用海量数据,选择合适的训练方法,训练出一个模型。在线服务是指,利用训练出来的模型来响应在线响应用户的请求。端部分也对人工智能有着很大的需求:很多终端设备,也都需要能运行人工智能的算法,能智能地响应外部请求,如无人车、智能等。
  离线训练、在线服务、智能终端——面对这些细分场景,在项目之初,选择AI专有芯片的切入点成为了重中之重。
  “我们发现,在离线训练上,GPU可以阶段性地满足要求;智能设备虽然炒得火,但时机仍未成熟。而在在线服务方面,对提升计算能力的需求是客观存在且比较急迫的。但GPU因为功耗、成本等原因,不适合线上大规模部署。”欧阳剑道出了彼时决策的过程。
  经过深入思考,百度决定率先在在线服务上应用FPGA版百度大脑。
  通过不断地创新、优化,FPGA版百度大脑迭代了许多版本,大脑的计算能力不断提升,功耗不断下降:最终版本比第一个版本功耗下降了约50%。对比近期热炒的超级天河二号,FPGA版百度大脑的能耗效率是天河二号的10倍以上,即在同样功耗下,该版百度大脑的计算性能是天河二号10倍以上。
  随后,FPGA版百度大脑逐步应用在百度产品中,包括语音识别、广告点击率预估模型等。据了解,应用了该版本百度大脑后,语音在线服务、广告点击率预估模型等的计算性能皆提升了3~4倍。
  百度关于FPGA的研究成果也得到了业界的肯定,并于2014年8月在第26届Hotchips 会议(全球体系结构和芯片设计领域的顶尖权威学术会议)上发表相关论文。
  实际上,作为一家搜索引擎公司,同时也是一家O2O公司,百度旨在链接人和信息及服务,其背后有着强大的云计算、大数据和人工智能等技术做支撑。和一般互联网公司不同,百度除了在软件上创新,还进行了大量硬件上的、甚至到芯片级的创新,以此打造一体化技术优势。自主设计更加适合人工智能的AI专有芯片、自研万兆交换机,都是很好的例证。其中的很多创新,国内外大型互联网公司中都没有做过。
  然而,这只是一个开始,许多软硬件创新还在进行中——据了解,百度已经在孕育新版本的百度大脑,在体系结构和芯片领域进行着更大的创新。
IT新闻微信公众平台
第一时间获取新鲜资讯
使用手机扫描左方二维码
* 网友发言均非本站立场,本站不在评论栏推荐任何网店、经销商,谨防上当受骗!NVIDIA推出新GPU芯片TeslaP100 是目前为止最大的处理器
评论:0 浏览:436
  北京时间4月6日消息,NVIDIA英伟达昨天宣布推出新的GPU芯片TeslaP100,据英伟达CEO黄仁勋(Jen-HsunHuang)透露,芯片内置了150亿个晶体管,它可以用于深度学习,黄仁勋
  北京时间4月6日消息,NVIDIA英伟达昨天宣布推出新的GPU芯片TeslaP100,据英伟达CEO黄仁勋(Jen-HsunHuang)透露,芯片内置了150亿个晶体管,它可以用于深度学习,黄仁勋宣称TeslaP100是目前为止最大的处理器。  英伟达推出新GPU芯片Tesla P100 内置150亿晶体管&& &在加州圣何塞(SanJose)GPUTech峰会上,黄仁勋发表主题演讲时推出TeslaP100芯片。黄仁勋说深度学习AI芯片已经成为公司增长最快的业务,他还说:“凭借一个项目我们改变了许多领域,TeslaP100创造了5个奇迹。”之前英伟达曾推出TeslaM4和TeslaM40深度学习芯片,这些芯片很畅销。现在TeslaP100已经开始批量生产。  “我们决定全面进军AI。”黄仁勋表示,“这是至今为止世人制造过的最大FinFET芯片。”  “在P100芯片上英伟达冒了很大的风险,和之前制造的芯片不同,它首先会运用在数据中心上,而不是用在游戏和工作站上。”MoorInsights&Strategy分析师帕特里克?莫赫德(PatrickMoohead)说,“还有一个风险就是英伟达a采用了许多新技术,比如新的制程(16纳米)、新的架构(Pascal)、新的存储架构(HBM2)、新的连接形式(NVLink)。”
关注“258企业服务平台“官方微信公众号,每日获取最新前沿资讯,热点产品深度分析!
点击查询有关“”的产品。
你也可以自己发布有关“NVIDIA”的信息,等待客户自己找上门!
最新行业资讯
商友宝产品
评价(0人参与,0条评价)
同类资讯推荐
本周热点行业资讯
手机移动站
关于258微信
Copyright (C) 2008- ALL Right Reserved
258集团 版权所有 闽ICP备

参考资料

 

随机推荐