谷歌公布了最新的人工智能AI超级计算机 称其击败了英伟达
谷歌(Google)周三公布了其人工智能(AI)超级计算机的细节,称其比竞争对手英伟达(Nvidia)的系统更快、更高效。耗电的机器学习模型仍然是科技行业最热门的部分。

虽然英伟达在人工智能模型训练和部署市场上占据主导地位,超过90%,但谷歌自2016年以来一直在设计和部署名为张量处理单元(TPU)的人工智能芯片。
谷歌是人工智能的主要先驱,在过去的十年里,它的员工已经开发了该领域一些最重要的进步。但一些人认为,在将其发明商业化方面,它已经落后了,在内部,该公司一直在竞相发布产品,并证明它没有浪费领先地位,这是该公司的“红色代码”(code red)情况,美国消费者新闻与商业频道(CNBC)先前报道过。
人工智能模型和产品,如谷歌的Bard或OpenAI的ChatGPT——由英伟达的A100芯片提供支持——需要大量计算机和成百上千个芯片协同工作来训练模型,这些计算机昼夜不停地运行几周或几个月。
周二,谷歌表示,它已经建立了一个由4000多个TPU和定制组件组成的系统,旨在运行和训练人工智能模型。它从2020年开始运行,用于训练谷歌的PaLM模型,该模型与OpenAI的GPT模型竞争,持续了50多天。
谷歌研究人员写道,谷歌位于TPU的超级计算机TPU v4“比英伟达A100快1.2倍至1.7倍,耗电量少1.3倍至1.9倍”。
“性能、可扩展性和可用性使TPU v4超级计算机成为大型语言模型的主力。”研究人员继续说道。
然而,谷歌的研究人员表示,谷歌的TPU结果没有与最新的英伟达人工智能芯片H100进行比较,因为后者更新,而且后者是用更先进的制造技术制造的。
一项名为MLperf的全行业人工智能芯片测试的结果和排名于周三公布,英伟达首席执行官黄仁勋表示,最新的英伟达芯片H100的结果比上一代芯片快得多。
“今天的MLPerf 3.0突出了Hopper比A100提供4倍以上的性能。”黄仁勋在一篇博客文章中写道,“下一阶段的生成式人工智能需要新的人工智能基础设施,以高能效训练大型语言模型。”
人工智能所需的大量计算机算力非常昂贵,业内许多人都专注于开发新的芯片、组件(如光学连接)或软件技术,以减少所需的计算机算力。
人工智能的功耗要求对谷歌、微软(Microsoft)和亚马逊(Amazon)等云服务提供商也是一个福音,它们可以按小时出租计算机处理,并向初创公司提供积分或计算时间,以建立关系。(谷歌的云也在英伟达芯片上销售时间。)例如,谷歌表示,人工智能图像生成器Midjourney是在其TPU芯片上进行训练的。