资讯

INFORMATION

您现在的位置::首页 > 资讯管理 > 行业要闻 > 科技成果

史上*芯片诞生:1.2 万亿个晶体管,40 万个核心

来源: 与非网 2019/12/10 09:25:03 已浏览:

史上*芯片诞生!专门面向 AI 任务,拥有 1.2 万亿个晶体管,40 万核心,芯片面积为 42225 平方毫米,是目前芯片面积*的英伟达 GPU 的 56.7 倍,学速度大大提升,AI 的好日子来了。

 

面积 42225 平方毫米,拥有 1.2 万亿个晶体管,400000 个核心,片上内存 18 Gigabytes,内存带宽 19 PByte/s,fabric 带宽 100 Pbit/s。这就是有史以来*的芯片——Cerebras Wafer Scale Engine!

 

 

这颗巨型芯片由 Cerebras Systems 公司推出,芯片发布后,三位芯片领域*在朋友圈立即做出评价:

 

芯片*唐杉:“膜拜一下 Cerebras 的巨型芯片,每边大约 9 英寸,22cm。我记得我之前写文章还画过一个类似的对比图。[机智]Wired 的文章,看来 Cerebras 要走到前台了。”

 

深鉴科技联合创始人姚颂:“Cerebras 的 Wafer-scale chip 确实壮观,有一种的美感,就好像看到大炮巨舰的那种壮丽之情。希望 Andrew Feldman 一切顺利。”

 

猎户星空战略官王兵:“一万两千亿晶体管的巨大芯片,300mm wafer 能做出的*芯片,挑战芯片行业极限之作。如果能*必然会颠覆整个 AI 芯片行业。不过即便是用了多种错误冗余技术,量产良品率还将会是个巨大的挑战。”

 

Cerebras Wafer Scale Engine 拥有 1.2 万亿个晶体管。1971 年英特尔* 4004 处理器的晶体管数量为 2,300 个,*近的 AMD 处理器拥有 320 亿个晶体管。大多数芯片实际上是在 12 英寸硅晶片上创建的芯片集合,并在芯片工厂中批量生产。但 Cerebras Systems 芯片是在单个晶圆上互连的单芯片。这些互连设计使这些芯片全部保持高速运行状态,万亿个晶体管可以全部一起工作。

 

通过这种方式,Cerebras Wafer Scale Engine 成为有史以来*的处理器,它专门设计用于处理 AI 应用问题。该公司在本周在斯坦福大学举行的 Hot Chips 会议上讨论这款“世界*”的芯片的设计。

 

此前,三星实际上已制造出了一个闪存芯片 eUFS,拥有 2 万亿个晶体管。但 Cerebras 芯片专为流程加工而设计,拥有 400,000 个核心,芯片面积 42,225 平方毫米。它比*的 Nvidia GPU 大 56.7 倍,后者尺寸为 815 平方毫米,含 211 亿个晶体管。

 

史上*芯片跟网球的对比。WSE 还包含 3,000 倍的高速片上存储器,并且具有 10,000 倍的存储器带宽。该芯片来自 Andrew Feldman 领导的团队,后者曾创建微型服务器公司 SeaMicro,并以 3.34 亿美元的价格卖给了 AMD。Cerebras Systems 的联合创始人兼硬件架构师 Sean Lie 将将在 Hot Chips 大会上展示 Cerebras Wafer Scale Engine。这家位于加州 Los Altos 的公司拥有 194 名员工。

 

芯片尺寸在 AI 任务中非常重要,因为大尺寸芯片可以更快地处理信息,在更短的时间内给出答案。这能够减少“训练时间”,使研究人员能够测试更多想法,使用更多数据并解决新问题。谷歌、Facebook、OpenAI、腾讯、百度和许多企业都认为,制约 AI 发展的基本限制是训练模型需要的时间太长。因此,缩短训练时间有望消除整个行业取得进步的主要瓶颈。

 

当然,芯片制造商通常不会制造这么大的芯片。在单个晶片的制造过程中通常会出现一些杂质。如果一种杂质会导致一块芯片发生故障,那么晶圆上的多种杂质就会导致多块芯片出问题。实际制造出的芯片产量仅占实际工作芯片的一小部分。如果晶圆上只有一个芯片,它有杂质的几率是 100%,杂质会使芯片失效。但 Cerebras 设计的芯片留有冗余,一种杂质不会导致整个芯片都不能用。

 

单晶圆提供级计算机级的计算能力。“Cerebras WSE”专为人工智能设计而设计,其中包含了不少基础创新,解决了限制芯片尺寸的长达数十年的技术挑战 - 如良品率,功率传送、封装等,推动了*技术的发展。和包装,每个架构决策都是为了优化 AI 工作的性能。结果是,Cerebras WSE 根据工作量提供了数百或数千倍的现有解决方案的性能,只需很小的功耗和空间。”Cerebras Systems 执行官的 Fieldman 说。

 

通过加速神经网络训练的所有元素来实现这些性能提升。神经网络是一种多级计算反馈回路。输入在循环中移动速度越快,循环学的速度越快,即训练时间越短。可以通过加速循环内的计算和通信来加速输入的循环速度。

 

Cerebras WSE 芯片面积比目前*的 GPU 大 56.7 倍, 并提供更多核心进行计算,有更多核心靠近内存,因此内核可以高效运行。由于这些大量的内核和内存位于单个芯片上,因此所有通信都在芯片上进行,通信带宽高、延迟低,因此核心组可以以*效率进行协作。

 

Cerebras WSE 中的 46,225 平方毫米的芯片面积上包含 40 万个 AI 优化核心,无缓存、无开销的计算内核,以及和 18 千兆字节的本地化分布式高速 SRAM 内存。内存带宽为每秒 9 PB。这些核心通过细粒度、全硬件、片上网状连接通信网络连接在一起,可提供每秒 100 petabits 的带宽。更多核心、更多本地内存和低延迟高带宽结构,共同构成了面向 AI 加速任务的*架构。

 

“虽然 AI 在一般意义上被使用,但没有两个数据集或两个 AI 任务是相同的。新的 AI 工作负载不断涌现,数据集也在不断变大,”Tirias Research 分析师兼创始人 Jim McGregor 在一份声明中表示。

 

“随着 AI 的发展,芯片和平台解决方案也在不断发展。Cerebras WSE 是半导体和平台设计方面的一项惊人的工程成就,它在单个晶圆级的解决方案中提供了级计算机级的计算能力、高性能内存和带宽。”

 

Cerebras 表示,如果没有多年来与台积电(TSMC)的密切合作,他们不可能取得这个创纪录的成就。台积电是全球*的半导体代工厂,在*工艺技术方面处于*地位。WSE 芯片由台积电采用*的 16nm 制程技术制造。

 

400000 个 AI 优化的内核。WSE 包含 40 万个 AI 优化的计算内核(compute cores)。这种计算内核被称为稀疏线性代数核(Sparse Linear Algebra Cores, SLAC),具有灵活性、可编程性,并针对支持所有神经网络计算的稀疏线性代数进行了优化。SLAC 的可编程性保证了内核能够在不断变化的机器学领域运行所有的神经网络算法。

 

由于稀疏线性代数内核是为神经网络计算进行优化的,因此它们可实现业界*利用率——通常是 GPU 的 3 倍或 4 倍。此外,WSE 核心还包括 Cerebras 发明的稀疏捕获技术,以加速在稀疏工作负载(包含 0 的工作负载)上的计算性能,比如深度学。

 

零在深度学计算中很普遍。通常,要相乘的向量和矩阵中的大多数元素都是 0。然而,乘以 0 是浪费硅,功率和时间的行为,因为没有新的信息。

 

因为 GPU 和 TPU 是密集的执行引擎——引擎的设计永远不会遇到 0——所以它们即使在 0 时也会乘以每一个元素。当 50-98%的数据为零时,如深度学中经常出现的情况一样,大多数乘法都被浪费了。由于 Cerebras 的稀疏线性代数核心永远不会乘以零,所有的零数据都被过滤掉,可以在硬件中跳过,从而可以在其位置上完成有用的工作。

 

比 GPU 大 3000 倍的片上内存。内存是每一种计算机体系结构的关键组成部分。靠近计算的内存意味着更快的计算、更低的延迟和更好的数据移动效率。高性能的深度学需要大量的计算和频繁的数据访问。这就要求计算核心和内存之间要非常接近,而在 GPU 中却不是这样,GPU 中绝大多数内存都很慢,而且离计算核心很远。

 

Cerebras Wafer Scale Engine 包含了比迄今为止任何芯片都要多的内核和本地内存,并且在一个时钟周期内拥有 18 GB 的片上内存。WSE 上的核心本地内存的集合提供了每秒 9 PB 的内存带宽——比*的 GPU 大 3000 倍的片上内存和 10000 倍的内存带宽。

 

低延迟、高带宽的通信结构。Swarm 通信结构是 WSE 上使用的处理器间通信结构,它以传统通信技术功耗的一小部分实现了带宽的突破和低延迟。Swarm 提供了一个低延迟、高带宽的 2D 网格,它将 WSE 上的所有 400,000 个核连接起来,每秒的带宽计达 100 petabits。

 

路由、可靠的消息传递和同步都在硬件中处理。消息会自动激活每个到达消息的应用程序处理程序。Swarm 为每个神经网络提供了一个的、优化的通信路径。软件根据正在运行的特定用户定义的神经网络的结构,配置通过 400,000 个核心的*通信路径,以连接处理器。

 

典型的消息遍历一个具有纳秒延迟的硬件链接。一个 Cerebras WSE 的带宽是每秒 100 PB。不需要 TCP/IP 和 MPI 等通信软件,因此可以避免性能损失。这种结构的通信能量成本远低于远低于每比特 1 焦耳,比 GPU 低了近两个数量级。结合了巨大的带宽和极低的延迟,Swarm 通信结构使 Cerebras WSE 比任何当前可用的解决方案学得更快。

您认为该新闻

很好,强力推荐给其他网友

还行,值得推荐

一般,不值得推荐

较差,根本不用看

  • 关注本网官方微信公众号 随时阅读专业资讯

  • 征稿邮箱:info@testmart.cn

版权与免责声明

  • 凡本网注明“来源:仪器仪表交易网”的所有作品,均为仪器仪表交易网合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:仪器仪表交易网”。违反上述声明者,本网将追究其相关法律责任。
  • 本网转载并注明自其它来源(非仪器仪表交易网)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

爆品推荐

推荐资讯

首页| 关于我们| 联系我们| 友情链接| 广告服务| 会员服务| 付款方式| 意见反馈| 法律声明| 服务条款