本网站可能会通过此页面上的链接获得会员佣金。 使用条款.

谷歌多年来一直致力于其Tensor处理单元(TPU)的开发,并且已经发布了几篇论文,介绍了其定制架构在推断工作负载方面的性能,与基于CPU或GPU的更传统模型相比。现在,该公司正在开放这些部件以进行公开Beta测试,以帮助希望培训机器学习工作负载并更快地运行它们的研究人员。

自从2016年展示其第一代TPU以来,Google就一直在谈论公开此功能。但是,这些芯片仅对 推理工作量。理解训练机器学习系统和推理工作量之间区别的一种简单方法是,前者是创建模型并在要执行的任务中对其进行训练,而后者是应用模型的实际过程。机器有“learned.”Google从来没有为企业提供通用的第一代TPU,但是这些新芯片能够解决两种模型训练问题 推断工作负载,并提供更高级别的性能。

我们不’不知道这些新的Cloud 热塑性聚氨酯的性能如何,但幻灯片比较了Google ’s earlier 热塑性聚氨酯 in 推理工作量 against equivalent parts from 英特尔 和 英伟达 is shown below:

每个Cloud 热塑性聚氨酯由四个独立的ASIC组成,每块板总共具有180个TFLOP性能。 谷歌甚至计划通过专用网络和横向扩展系统进一步扩展这些产品。’s calling “TPU Pods.” [请不要’也不要吃这些。 -Ed] 谷歌声称,即使在此早期阶段,遵循其教程之一的研究人员也可以在公共TPU网络上训练机器学习网络,以“在不到一天的时间内,将ResNet-50训练到ImageNet基准测试挑战中的预期精度,而价格都在200美元以下。”

从字面上看,预计在接下来的几年中,会有很多泥浆扔在墙上 大家 大量涌入这个市场。 AMD拥有Radeon 直觉,英特尔仍然拥有自己的Xeon Phi加速器(即使取消了即将面世的Knights 爬坡道),即12月推出的Knights 磨,具有更多的执行资源和更好的AVX-512利用率。这是否会缩小与Nvidia的差距’的特斯拉产品系列还有待观察,但Google却没有’唯一一家部署定制芯片来解决这一问题的公司。富士通正在开发自己的加速器产品线,而亚马逊和微软此前已经部署了FPGA’在自己的数据中心和云中。

谷歌’的新云产品按秒计费,平均成本为 每个Cloud 热塑性聚氨酯每小时6.50 USD。如果你’如果您想注册该程序,可以在这里进行。云计算的起步可能仅仅是重新品牌化,以在一个引人入胜的新术语下捕获以前可用的产品,但是整个 半导体产业 现在正以最快的速度向这些新的计算范式飞奔。从自动驾驶汽车到数字助理,“cloud computing”被重塑为比“我通常会做的所有事情,但会有额外的延迟。”从现在开始的十年后,可能很难记住为什么企业依赖其他任何东西。