慧通人工智能网

  • 3分钟搞懂AI芯片,为什么TPU被全世界看好?

  • 发布时间:2020-08-01 02:43 |来源: 风漂娱乐

  3分钟搞懂AI芯片,为什么TPU被全世界看好?人工智能的实现需要依赖三个要素:算法是核心,硬件和数据是基础。

  什么是CPU?

  CPU主要包括运算器(ALU,Arithmetic and Logic Unit)和控制器(CU,Control Unit)两大部件。CPU主要包含运算逻辑器件、寄存器部件以及控制部件等。CPU就像一个有条不紊的管家,我们吩咐的事情总是一步一步来做。但是随着摩尔定律的推进以及人们对更大规模与更快处理速度的需求的增加,CPU好像执行起任务来就不那么令人满意了。

  

 

  什么是GPU?

  GPU全称为Graphics Processing Unit,中文为图形处理器,就如它的名字一样,GPU最初是用在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上运行绘图运算工作的微处理器。因为对于处理图像数据来说,图像上的每一个像素点都有被处理的需要,这是一个相当大的数据,所以对于运算加速的需求图像处理领域最为强烈,GPU也就应运而生。

  


 

  这就好比在画一幅画的时候CPU是用一支笔一笔一笔的来画,而GPU则是多支笔对不同的位置同时进行描绘,那自然效率就是突飞猛进的。

  什么是TPU?

  随着机器学习算法越来越多的应用在各个领域并表现出优越的性能,例如街景、邮件智能回复、声音搜索等,对于机器学习算法硬件上的支持也越来越成为一种需要。目前很多的机器学习以及图像处理算法大部分都跑在GPU与FPGA上面。

  


 

  TPU的灵感来源于Google开源深度学习框架TensorFlow,所以目前TPU还是只在Google内部使用的一种芯片。TPU也就是TensorProcessorUnit,Google为机器学习定制的专用芯片(ASIC),专为Google的深度学习框架TensorFlow而设计。TPU3.0采用8位低精度计算以节省晶体管,速度能加快最高100PFlops(每秒1000万亿次浮点计算)。

  新发布的TPU3.0使用8位低精度计算以节省晶体管,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的偏上内存,减少对系统内存的依赖。

  

 

  同时,谷歌在Cloud Next 大会上发布了两款新设备,其可以帮助专业工程师在处理器内核上构建支持设备端机器学习 (ML) 的新产品。这两款新设备是:AIY Edge TPU Dev 开发板和 AIY Edge TPU 加速器,二者皆采用 Google 的 Edge TPU 芯片。

  Edge TPU 是 Google 的特定用途 ASIC 芯片,专为在设备上运行 TensorFlow Lite ML 模型而设计。Edge TPU 的大小不及一美分硬币,却能在这两个方面均有不俗表现。Edge TPU 可以加速设备上的 ML 推理,,或与 Google Cloud 配对,创建完整的云到边缘 ML 堆栈。

  

 

  AIY Edge TPU Dev 开发板是一体化开发板,可以用来对要求快速 ML 推理的嵌入式系统进行原型设计。其基板可提供您对设备进行高效原型开发所需的全部外设连接,包括一个可与各种电气元件集成的 40 引脚 GPIO 接头。其另一特点在于,当您准备好扩展后,可以将其可移动模块化系统 (SOM) 子板直接集成到您自己的硬件中。

  

 

  当然,谷歌的TPU针对的是TenserFlow框架。而同样开源的深度学习框架可不止谷歌一家提供。Facebook今年的F8开发者大会上,Facebook也宣布了即将到来的PyTorch 1.0beta版新框架。深度学习间的框架之争显然也会影响到谷歌TPU的发展。

  你觉得谷歌TPU瞄准的是谁呢?是同样致力于提供强大计算能力的云服务商微软,还是致力于在谷歌之外构建起另一套开源框架、生态的Facebook呢?或者,是发了矿卡财又可能被美国限制非官方合作的英伟达?

  • 相关阅读: