1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

发布一下 0 0

编辑:昕朋

【新智元导读】没有什么问题是一台AI计算机解决不了的,如果有,那就用16台!


明星芯片企业Cerebras带着它餐盘大小的芯片来了,这次有16个!

更大、更快、更好用

周一,Cerebras公布了其用于深度学习的Andromeda AI超级计算机。据称,该计算机在16位半精度下能提供超过1 ExaFLOP,相当于每秒100亿亿次运算的算力!

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

Andromeda是一个由16台Cerebras CS-2计算机连接起来的集群,拥有1350万个AI核心,远远超过全球超算TOP500冠军Frontier的870万个核心。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

该计算机还采用了18,176个AMD Epyc中央处理单元的芯片。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

Andromeda由Cerebras晶圆级引擎Wafer Scale Engine(WSE-2)提供核心算力。

处理器是由被称为晶圆的硅盘制成的。在芯片制造过程中,一块晶圆被分割成几十个长方形,然后每个长方形被变成一个单独的处理器。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

但是,Cerebras另辟蹊径,没有将晶圆分割成几十个小处理器,而是将其变成一个拥有数万亿晶体管的大处理器。

WSE-2是有史以来最大的芯片,包含2.6万亿个晶体管,组成85万个内核,面积超过46225平方毫米。Andromeda超级计算的芯片拼起来,有16个餐盘那么大!

相比之下,英伟达最大的GPU只有540亿个晶体管,面积为815平方毫米。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

用大芯片赚足眼球后,Cerebras打起了Andromeda的三大招牌。

首先,Andromeda运行AI任务的设置非常简单。在严格的数据并行模式下,Andromeda实现了CS-2简易的模型分配,以及从1到16个CS-2的单键扩展。

Cerebras表示,用户只需3天时间,就可以在不对代码做任何改动的前提下,组装完成16个CS-2,进行AI任务处理。

其次,它的编程很简单。Cerebras的编译器处理了所有的细节和善后工作,用户只需输入一行代码,指定在多少个CS-2上运行,然后就大功告成了。

Andromeda可由多个用户同时使用,这意味着该超算不仅可以供一个用户从事一项工作,还可以同时服务于16个不同的用户从事16项不同的工作,工作效率和灵活度瞬间拉满。

更重要的是,这个系统展示了近乎完美的线性可伸缩性。

「近乎完美」的可伸缩性

近几年,神经网络的规模一直在稳步增长。在过去的一年里,OpenAI的GPT-3自然语言处理程序,一度以1750亿参数成为世界上最大的神经网络,后来很快被谷歌的1.6万亿参数模型Switch Transformer超过。

如此庞大的模型会遇到算力瓶颈问题,系统需求已经远远超出了单个计算机系统的处理能力。单个GPU的内存约为16GB,而GPT-3等模型所需的内存往往高达几百TB。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

像过去一样,单纯进行简单粗暴的算力扩展,已经难以满足需求。

因此,系统集群变得至关重要。而如何实现集群,是一个最关键的问题。要让每台机器都保持忙碌,否则系统的利用率就会下降。

Cerebras 正是为了解决这个问题。

与任何已知的基于GPU的集群不同,Andromeda在GPT级大型语言模型中展现了「近乎完美」的可伸缩性。在GPT-3、GPT-J和GPT-NeoX中,Andromeda的处理能力随CS-2数量的增加呈现了近乎完美的线性增长。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

这意味着,在集群中每增加一台CS-2计算机,整体的训练时间会以近乎线性的趋势减少。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

做到这一点,离不开芯片与存储、分解和集群技术的协同工作。

Weight Memory & MemoryX:实现极速扩展

MemoryX是一种内存扩展技术,它使模型参数能够存储在芯片外,并有效地流式传输到 CS-2,实现同在芯片上那样的性能。

这一架构灵活性极强,支持4TB到2.4PB的存储配置,2000亿到120万亿的参数大小。

而通过软件执行模式Weight Memory,可以将计算和参数存储分解,使规模和速度得以独立且灵活地扩展,同时解决了小型处理器集群存在的延迟和内存带宽问题。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

最终,WSE 2可以提供高达 2.4 PB 的高性能内存,CS-2 可以支持具有多达 120 万亿个参数的模型。

Cerebras SwarmX:提供更大、更高效的集群

这是一种人工智能优化的高性能通信结构,可将 Cerebras的芯片内结构扩展到芯片外,从而扩展AI集群,而且使其性能实现线性扩展。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

最终,SwarmX 可以将CS-2 系统从2个扩展到192 个,鉴于每个 CS-2 提供85万个 AI 优化内核,Cerebras 便可连接 1.63 亿个 AI 优化内核集群。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

同时,Cerebras WSE-2基于细粒度数据流架构,其 85万个 AI 优化计算内核可以单独忽略零。

Cerebras 架构独有的数据流调度和巨大的内存带宽,使这种类型的细粒度处理能够加速所有形式的稀疏性。这些都是其他硬件加速器,包括GPU,根本无法做到的事情。

Cerebras表示,可以训练超过90%的稀疏性模型,达到最先进的精度。

目前,包括美国阿贡国家实验室、AMD和剑桥大学等多名用户已经使用了Andromeda超算系统,都对其近乎完美的线性可收缩性能力赞不绝口。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

其中,与阿贡国家实验室合作的基于HPC的COVID-19研究还入选有「超算领域的诺贝尔奖」之称的戈登·贝尔奖。

1000000万亿次/秒运算!Cerebras超级计算机造世界最大核心AI集群

拥有世界最大的芯片和协同技术,Cerebras能否挑战目前超算Top 1的Frontier?我们拭目以待。

参考资料:

https://arstechnica.com/information-technology/2022/11/hungry-for-ai-new-supercomputer-contains-16-dinner-plate-size-chips/

https://www.forbes.com/sites/karlfreund/2022/11/14/cerebras-builds-its-own-ai-supercomputer-andromeda/?sh=2794ece11057

版权声明:内容来源于互联网和用户投稿 如有侵权请联系删除

本文地址:http://0561fc.cn/189876.html