谷歌宣布公有云平台将支持面向人工智能的TPU芯片
发布日期:2018-02-13        



 

导读:谷歌今天宣布向其公有云平台上增加 ensorProcessingUnits ,这是一款专门为人工智能工作负载提供动力的内部设计的芯片系列。

 

谷歌今天宣布向其公有云平台上增加 ensorProcessingUnits ,这是一款专门为人工智能工作负载提供动力的内部设计的芯片系列。

 

谷歌宣布公有云平台将支持面向人工智能的 TPU 芯片

 

一个 TPU (如图所示)由四个专用集成电路组成,配有 64GB 的“超高带宽”内存。这一组合单元可以提供高达 180teraflops 的性能。今年晚些时候,谷歌计划增加一个集群选项,让云客户将多个 TPU 聚合成一个“ Pod ”,速度达到 petaflop 的范围(是 teraflop 的 1000 倍)。

 

在今天的公告中谷歌并没有分享更多的性能细节。不过,去年谷歌的两位顶级工程师写的一篇博客文章显示,当时内部使用的 Pod 包括 64 个 TPU ,总吞吐为 11 . 5petaflops 。相比之下,世界上功能最强大的超级计算机可以达到 93petaflops ,但值得注意的是,谷歌很可能没有使用相同的基准测试方法来测量 TPU 的速度。

 

无论哪种方式,这些芯片都是 Google 云平台的一个重要补充。当谷歌于去年 4 月首次向全世界展示 TPU 规格的时候,它透露该芯片至少可以运行某些机器学习工作负载,比现有的芯片快 15 至 30 倍。这就包括特别适合用于机器学习模型的 GPU 。 GPU 的主要制造商包括 Nvidia 和 AMD 公司,这两家公司仍然是当今大多数项目的首选。

 

因此,谷歌的云客户应该能够更快速地培训和运行他们的人工智能软件。谷歌表示,一个 TPU 可用于在一天之内实施主流 ResNet - 50 图像分类模型,达到可接受的精确度水平。

 

谷歌已经创建了几个预先优化的神经网络包,让客户可以将其运行在 TPU 上,其中包括一个 ResNet - 50 版本,以及用于机器翻译、语言建模和识别图像内物体的模型。企业客户也可以使用谷歌的开源 TensorFlow 机器学习引擎创建自己的人工智能工作负载。

 

喜欢使用传统图形卡进行人工智能项目的客户,今天也看到了一项新的功能。谷歌为其 KubernetesEngine 服务添加了 GPU 支持,以允许将机器学习模型打包到软件容器中。后一种技术提供了一个轻量级抽象层,使开发人员能够更轻松地推出更新并跨环境迁移应用。

 

这个新的 TPU 价格为每小时每单元 6 . 50 美元,而通过 KubernetesEngine 租赁的 GPU 将按谷歌现有的每种支持芯片型号收费。

 

这种芯片对于各种人工智能任务、特别是对于一些计算机工作负载而言的就绪情况,仍然不明确。 MoorInsights & Strategy 总裁兼首席分析师 PatrickMoorhead 表示:“ TPU 是一个很好的试水方式,但并一定适合于运行生产工作负载。 GPU 是进行训练的最佳方式。锁定到 TPU ,意味着被 GCP 和 TensorFlow 锁定。”

 

而且谷歌也不是唯一追求自主开发人工智能芯片的公司。芯片巨头英特尔公司一直在推销其最新用于人工智能工作负载的 CPU ,以及称为 FPGA 的定制芯片。

 

据 TheInformation 报道称,亚马逊公司正在开发自己的人工智能芯片,该芯片可以帮助其 Echo 智能音箱和其他使用其 Alexa 数字助理的硬件在设备上执行更多处理任务,以便它可以比调用云的响应速度更快。

 


来源:比特网
点击查看网络原文>>

版权所有@ 北京市电子科技情报研究所 京公网安备 11010102003025号

地址:北京市东城区北河沿大街79号  邮编:100009  Email:bjdzqbs@126.com

在线人数:114

当日访问计数:2161

累计访问计数:32737992