全国服务热线:18937119788

福建新闻中心 PRODUCT DISPLAY

福建人工智能时代,GPU迎来发展新契机

来源: 发布时间:2020-03-11 56427 次浏览

关键字:人工智能  GPU  

摘   要:谈到GPU,可能首先会想到电脑中的显卡,然后想到全球最大的GPU芯片生产制造商NVIDIA(英伟达),细心的用户可能已经注意到,从今年5月到现在,英伟达公司的股票已经从30美元涨到了95美元,7个月的时间涨了3倍。毫无疑问,经过多年在图形计算领域的深耕之后,英伟达及其GPU产品迎来了历史最好的发展时机。

  谈到GPU,可能首先会想到电脑中的显卡,然后想到全球最大的GPU芯片生产制造商NVIDIA(英伟达),细心的用户可能已经注意到,从今年5月到现在,英伟达公司的股票已经从30美元涨到了95美元,7个月的时间涨了3倍。毫无疑问,经过多年在图形计算领域的深耕之后,英伟达及其GPU产品迎来了历史最好的发展时机。

 
人工智能时代,GPU迎来发展新契机

  在刚过去的11月,IBM和NVIDIA已经宣布将合作开发新的机器学习工具集IBM PowerAI,这是一款可以加速训练人工智能的系统,是一款能增强IBM Watson能力的软件工具。该工具集采用的就是Power处理器和NVIDIA GPU混合硬件架构。而在此之前,Facebook就已经与NVIDIA就GPU展开合作,Facebook 也是首家将NVIDIA的GPU应用于Big Sur人工智能平台的企业,利用强大的 GPU 和大型数据集来打造和训练人工智能模型。此外,在近日召开的2016北京GTC大会上,福建百度人工智能首席科学家吴恩达也表示,福建百度将利用GPU进行规模化部署,考虑用GPU重新设计整个数据中心,包括能源、散热等。

  在另一方面,作为CPU领域霸主的英特尔,今年也在持续调整战略以适应人工智能的发展需求。英特尔先是8月份完成了对Nervana Systems的收购,Nervana是人工智能ASIC芯片供应商,收购Nervana被视为英特尔对抗NVIDIA在人工智能芯片凌厉攻势的第一步。然后,英特尔拉上了IBM、谷歌与微软一起计划组建下一代人工智能硬件联盟。而在英特尔收购Altera和Nervana之后,其手中已经有了CPU、FPGA以及ASIC三大产品线来对抗GPU,英特尔正在通过将这些架构融合来阻止不断扩张的GPU市场,为自己的人工智能芯片战略打开一个突破口。然而对英特尔来说,在与GPU的争夺战中,现实依然非常残酷。

  从互联网时代开始,IT经历了Wintel联盟近30年的洗礼,让谷歌和IBM这些巨头都认识到打造一个属于自己的产业生态圈的重要性。正因如此,对人工智能芯片及硬件产业主导权的争夺,任何一家巨头都不可能轻易的拱手让人。因此,除了与英特尔一同计划组建下一代人工智能硬件联盟之外,谷歌、微软和IBM也在进行着各自的产业布局。

  微软主要采用的方式是利用专门设计的FPGA硬件来支撑起Azure云,以实现集群计算和学习能力。但问题在于,微软作为一家软件厂商试图避开日趋成熟的GPU产品而选择用自己研发的FPGA产品支撑人工智能应用,姑且不论计算能力上是否能够满足越来越复杂人工智能计算任务需求,但仅就编程难度而言,在FPGA上进行编程的复杂性要远远高于拥有广泛用户群体且开发环境较为成熟的GPU平台。

  今年5月,Google宣布为人工智能研发专用芯片TPU,这是一种专为深层类神经网路设计的特殊IC,以ASIC架构为基础,透过对大量数据的分析,借由神经网络实现辨别物体、识别照片中的人脸、语音识别及文字翻译功能。TPU专为机器学习而设计,其计算精度要比传统的CPU、GPU稍低,谷歌宣布研发人工智能芯片TPU,其主要的目的是为了配合去年推出的第二代深度学习系统TensorFlow,希望借此构建一个从硬件到软件的人工智能生态圈。TensorFlow是一个完全开源免费系统,使用TensorFlow编写的代码或程序能在异构的平台上通用,上到大规模分布式系统,下到常见的手机和平板,都可以运行。而且在平台迁移时,需要重写代码量非常小;从研究室的模型试验到产品开发者的产品部署,代码无缝衔接也无需更改。

  我认为,谷歌结合TensorFlow推出TPU,可能会对GPU的市场发展带来一定压力,但就目前的GPU整体发展形势不构成太大威胁。当然,如果谷歌布局顺利,未来的人工智能芯片领域可能会形成类似于今天安卓和IOS对抗的格局,但TPU完全替代GPU成为人工智能主流芯片的可能性很低。

  对于IBM,我认为IBM未来更多的是选择与NVIDIA就GPU展开合作,以整体解决方案的形式来强化GPU和CPU之间的优化与协作。自2004年IBM将PC卖给联想,这些年IBM已经逐渐淡出了硬件业务的布局,而且非核心的硬件产品悉数卖出,只保留了Power产品及高端存储等核心硬件产品,如果为了布局人工智能芯片而重新研发新的GPU,不但周期太长、投入成本高,而且不太容易实现。因此就目前的而言,以Waston为核心,融合GPU的计算能力来布局人工智能市场才是IBM当前最好的选择。

  总结

  我认为,不管是AISC、FPGA,还是CPU,或者是这些不同类型芯片之间的架构融合或集成,都不足以对目前GPU在人工智能领域的发展势头构成太大的威胁。经过这么多年的发展,GPU已经不再是传统意义上的图形处理器。在很多科研以及高性能计算领域,GPU已经得到了非常广泛的应用,GPU并行计算架构特别适合于大规模并行运算,可以平行处理大量琐碎的信息。福建百度首席科学家吴恩达也曾表示,“在深度学习的算法研究中,99%的计算工作都可以类比成将不同的矩阵进行相乘或者矩阵和向量进行相乘,而这类计算十分适合GPU来完成。”更为重要的是,经过这么多年发展,GPU已经有着相当规模的用户群体,以及相对成熟的编程平台和社区,这都为GPU在人工智能时代的发展提供了坚实支撑。