“谷歌伴随其Gemini人工智能模型的最新推出,发布了用于人工智能训练和推理的旗舰张量处理单元(TPU)的最新版本,这似乎是试图挑战Nvidia市场领先的GPU。
”谷歌迅速成为Nvidia强大的竞争对手 —— 驱动其超级计算机的TPU v5p人工智能芯片比以往任何时候都更快,具有更大的内存和带宽,甚至胜过强大的H100
谷歌伴随其Gemini人工智能模型的最新推出,发布了用于人工智能训练和推理的旗舰张量处理单元(TPU)的最新版本,这似乎是试图挑战Nvidia市场领先的GPU。
TPU v5p —— 谷歌最强大的定制设计人工智能加速器 —— 已经部署以驱动该公司的“AI超级计算机”。这是一个专门用于运行人工智能应用的超级计算机架构,而不是通常用于运行科学工作负载的超级计算机,因为TPU不适用于这种工作负载。
其TPU的最新版本每个架构(组成系统的一部分)有8960个芯片,而v4中有4096个,其总浮点运算数(FLOPs)每个架构的可用性方面具有四倍的可伸缩性。这些新的架构提供4800Gbps的吞吐量。新的架构还配备了95GB的高带宽内存(HBM),而TPU v4中的HBM RAM为32GB。
Nvidia H100 vs 谷歌 TPU v5p:哪个更快?与Nvidia将其GPU提供给其他公司购买不同,谷歌的定制TPU仍然在内部使用,用于其自己的产品和服务。谷歌的TPU长期以来一直用于推动其服务,包括Gmail、YouTube和Android,而最新版本也用于训练Gemini。
谷歌的v5p TPU比TPU v4在训练大型语言模型方面快2.8倍,性价比提高了2.1倍。尽管今年早些时候发布的中间版本TPU v5e在所有三者中提供了最高性价比,但它只比TPU v4快1.9倍,使TPU v5p成为最强大的版本。
它甚至足够强大,可以与Nvidia广受欢迎的H100 GPU媲美,后者是最适用于AI工作负载的最佳显卡之一。根据该公司自己的数据,该组件在训练工作负载方面比Nvidia的A100 GPU快四倍。
与此同时,谷歌的TPU v4据估计比A100快1.2到1.7倍,根据其在四月份发布的研究。因此,极其粗略的计算表明,TPU v5p相对于A100大约快3.4到4.8倍,使其与H100相当或更强大,尽管在得出任何结论之前需要更详细的基准测试。
分享到:
猜你喜欢