品玩

科技创新者的每日必读

打开APP
关闭
Google

Google 开放了 AlphaGo 背后的「最强芯片」,GPU 遇到最强劲对手

如今,Google 更简便的 Cloud TPU 计划在一定程度上进入了更小公司的视野中,侧面在制约使用其他硬件技术,诸如购买 GPU 开发人工智能技术的发展,这也代表了 Google 在人工智能服务和云服务上展现的不同的组合战略思维。

王飞

发布于 2018年2月13日

开放 Cloud TPU,Google 在人工智能的民主化上又进了一步。

Google Brain 团队负责人、Google Research Group 资深院士,Google AI 项目的「精神领袖」Jeff Dean 刚刚在 Twitter 上连发 10 条博文,激动地宣布了 Google 云 TPU 机器学习加速器测试版已向外部用户开放,价格大约是每小时 6.5 美元,目前数量有限。

Jeff Dean 提到,Google 已为那些想访问高速加速器来训练机器学习模型的人们,推出了 Cloud TPU 的 beta 版。详细细节可参见博客

TPU 发布于 2016 年 5 月,全名是张量处理器(Tensor Processing Unit,TPU),可以简单的理解为是一款为机器学习特别定制的 AI 芯片,与 Google 诸多 AI 技术相匹配。

自从 Google TPU 推出,它已经逐渐进入到 Google 旗下的诸多 AI 服务上,根据 Jeff Dean 此前在东京一次研讨会上介绍的信息,Google TPU 已经存在于图像搜索中、Google 旗下的一软应用中——Google Photo、Google Translate 等。

就连 DeepMind AlphaGo 击败围棋大师李世乭,Google TPU 也是重要的核心部件。

因为 CPU,GPU 本身诞生的时间就更早,Google TPU 是后来者了。根据知乎一位用户的说法,GPU 有多个流处理单元,对重复的浮点计算有高度的并行,因此对于 AI 这种编程框架,尤其是对图形图像的计算要快很多;而 Google 的 TPU 则是专门针对 TensorFlow 的框架做的体系结构,在做 AI 计算方面,它可以排除 GPU 里面的其他部分,专门做 AI 需要的处理部件,所以 TPU 应该是针对 AI 计算最有效率的运算单元。

所以,从最开始使用 CPU 跑 AI,到用 NVIDIA GPU 跑 AI,再到如今专有的 TPU AI 芯片跑 AI,就是专用场景优化的结果。而使用 Google 的 TPU 搭配 Google Tensor Flow,一定程度上就是使用 Google 进行机器学习开发的最有效的利器。

为了让更多的人可以避免花费昂贵的硬件价格,以及复杂的入门条件,Google 相继在软件上开源 AutoML 框架以及在计算力上开放这次的 Google 云 TPU 计划,目的都是为了让更多的人更好的利用到最新的 AI 技术。

Google 在介绍页面提到——Cloud TPU 是 Google 设计的一种硬件加速器,旨在优化以加速和扩大使用 TensorFlow 编程的机器学习工作负载。

Cloud TPU 使用四个定制化 ASIC 构建,单个 Cloud TPU 的计算能力达到 180 万亿次浮点运算,具备 64 GB 的高带宽内存。这些板卡可单独使用也可通过超快的专门网络联合使用以构建数千万亿次级别的机器学习超级计算机,我们称之为「TPU pod」。今年稍后,我们将在 GCP 上提供更大型的超级计算机。

「我们设计 Cloud TPU 的目的是为 TensorFlow 工作负载提供差异化的性能,使 ML 工程师和研究者实现更快迭代。」

比如:不到一天的时间,你就可以在 ImageNet 上把 ResNet-50 模型训练到 75% 的精度,成本不到 200 美元。

在人工智能研究上,大公司往往通过自研自用的方式降低研发成本,而小公司可能会直接选用更灵活的 GPU 技术开发人工智能。此前 Google TPU 仅仅架设在自家的应用服务上,一定程度上,通过这种规模化的应用达到了自产自销的作用。

为了释放 Google TPU 的计算能力以及让更多的人可以利用先进的 TPU 进行机器学习研究。如今,Google 更简便的 Cloud TPU 计划在一定程度上进入了更小公司的视野中,侧面在制约使用其他硬件技术,诸如购买 GPU 开发人工智能技术的发展,这也代表了 Google 在人工智能服务和云服务上展现的不同的组合战略思维。

Jeff Dean 在 Twitter 上各种安利,比如——

通过 Google Cloud VM,TensorFlow 编程模型,它可以提供 180 tflops 的计算能力;

很多研究员和工程师都遇到机器学习计算受限问题,我们认为 Cloud TPU 将成为一个极好的解决方案。

拥有早期访问权限的用户看起来很开心。投资公司 Two Sigma 的 CTO Alfred Spector 说:「我们发现,将 TensorFlow 工作负载转移到 TPU 上,极大降低了编程新模型的复杂性,并且缩短了训练时间。」

共享出行公司 Lyft 软件总监 Anantha Kancherla 说,「自从使用谷歌 Cloud TPU,我们被它的速度惊呆了。以前需要花几天的事情,现在几小时就能完成。」

除此外,Google Cloud TPU 在官方介绍网页提到了各种技术支持项目,比如「传统上,编写超级计算机的程序需要专业度。而对于 Cloud TPU 而言,你可以使用高级 TensorFlow API 进行编程,我们开源了一系列参考高性能 Cloud TPU 模型实现,帮助大家立刻上手。」

「之后,Google 还会继续开源其他模型。喜爱冒险的机器学习专家可以使用我们提供的文档和工具利用 Cloud TPU 自己优化其他 TensorFlow 模型。」

目前,Cloud TPU 最初在美国相关区域提供,价格是每小时 6.5 美元。Jeff Dean 还提到,让很多外部的用户能够利用到我们的 Cloud TPU,是很多团队共同努力的结果,包括 Google 云、数据中心、平台小组、谷歌大脑、XLA 团队,和许多其他同事。

下载品玩App,比99.9%的人更先知道关于「Google」的新故事

下载品玩App

比99.9%的人更先知道关于「Google」的新故事

iOS版本 Android版本
立即下载
王飞

资深作者 线索采集微信:xcodejk关注智能硬件市场及汽车商业领域

取消 发布
AI阅读助手
以下有两点提示,请您注意:
1. 请避免输入违反公序良俗、不安全或敏感的内容,模型可能无法回答不合适的问题。
2. 我们致力于提供高质量的大模型问答服务,但无法保证回答的准确性、时效性、全面性或适用性。在使用本服务时,您需要自行判断并承担风险;
感谢您的理解与配合
该功能目前正处于内测阶段,尚未对所有用户开放。如果您想快人一步体验产品的新功能,欢迎点击下面的按钮申请参与内测 申请内测