“真正认真对待软件的人应该制造自己的硬件。”。
这是艾伦·凯博士的一句广为流传的话,被称为个人电脑之父。 云计算行业正在发生这种趋势。 当前,全球主流云计算厂商都加入了自主研发芯片的行列。 如果追溯这一趋势的发展,亚马逊云技术无疑是领先者。
在re:2022年会议,亚马逊云科技三大芯片系统全新发布,Nitroo包括第五代虚拟化芯片 v5、ARM架构处理器,机器学习加速推理芯片,以及最新芯片支持的新例子。
亚马逊云技术在芯片自主研发方面取得了哪些最新进展? 亚马逊云技术如何看待云计算行业硬件的创新趋势?

特殊芯片未来五大技术趋势之一。
2023年使用特殊芯片会迅速增加。” 亚马逊CTO将“专用芯片成为主流”列为2023年及未来五大技术趋势预测之一。
认为,过去,定制专用芯片和专用硬件在消费领域发展迅速c;软硬件在商业领域的更新周期通常较长。 但是,随着定制的特殊芯片变得更受欢迎和使用,这种情况将在未来几年迅速改变。
近年来,亚马逊云技术在芯片设计上投入了大量资金。因为我们知道在定制芯片上运行时,云运行的工作负载具有更好的性能,而且更具成本效益。” 说。
在专用芯片的概念下,亚马逊云技术的自研芯片分为三个系统,包括:

亚马逊云技术大中华区解决方案架构部主任戴文说c;“Nitro v5和3E系列芯片的发布反映了当前的趋势——提供一流的云服务,一个优秀的云制造商必须具备底层硬件能力c;在满足客户需求时,对软件应该做什么,硬件应该做什么有很好的规划和路线。”。

“硬件创新不是为了创新,一般的硬件和软件优化方法不够高效,或者内部底层功能不灵活跟不上创新的速度,因此,硬件是逆向制造的。
XFFNitro芯片c;硬件虚拟化积累10年。
回顾亚马逊云技术自2006年以来发布的所有EC2实例数量,2017年是一个关键节点。
2017年后,EC2实例数量快速增长。 截至2022年底,#xff0c;EC2实例数已达到600+,覆盖各种计算平台。 这主要归功于虚拟化芯片Nitro。

“Nitro 最大的创新是它解耦了亚马逊云技术的整个技术进化和架构。” 亚马逊云技术大中华区产品部总经理陈晓健说。
总的来说,,Nitro 芯片为亚马逊云技术带来三大价值:
第一,创新速度更快。
经过10年的迭代,Nitro芯片成功验证了硬件支持虚拟化的技术路线。 在传统服务器中,计算虚拟化通常占系统资源的30%。 网络、存储、管理、安全和监控功能与服务器解耦c;交给特殊硬件处理,使虚拟化管理程序占用服务器系统资源的不到1%。
Nitro #xff0通过专用硬件卸载网络和存储工作负载c;大大降低了发展 EC2 实例工作量,从而实现 EC2 灵活设计和快速交付实例类型。


二、安全性较高。
Nitro 建立了硬件级安全机制。 新发布的Nitro V5为例。 除了拥有自己的安全芯片和特殊的安全芯片TPM外,硬件环境还具有#xff0c;网络与存储的隔离也可以实现。
三、云服务性价比较高。
提升云计算客户底层芯片性能的最大好处是提高云服务的性价比。 与上一代相比,#xff00c;Nitro V5 提高数据包转发能力 60%,延迟降低 30%,提高每瓦的性能 40%。
与当前一代网络优化实例相比,使用 Nitro v5 的 EC2 C7gn 例子可以提供高达 2 倍的每个 CPU 网络带宽同时,每秒数据包的转发性能也有所提高 50%,非常适合网络密集型工作负荷。 提供超高性能和成本效益。

芯片,不断突破高性能计算领域。
自2018年发布以来c;这个系列的芯片已经经历了三代迭代。 最新版本是高性能计算领域的进一步突破。 与现有产品相比,#xff00c;提供高达2倍的矢量计算性能,可广泛应用于矢量计算、浮点计算,AI/ML、HPC等应用场景。
EC2使用该芯片 Hpc7g实例可为高性能计算工作负载提供超高性价比。 与当前一代C6gn实例相比,Hpc7g实例的浮点性能提高了2倍; 与现代HPC6a实例相比,#xff00c;性能提升20%。

不仅仅是底层芯片,亚马逊云技术也在不断完善生态系统,并在此基础上创建了许多托管云服务包括EMR、、等。

自该系列芯片推出以来c;大量客户已经将工作负载从传统上带走了 x86 架构迁移出来。 亚马逊云技术支持客户在一两周甚至几天内完成从x86到x86的切换,云服务的成本效益在不改变上层程序的情况下轻松提高40%。
而且,专用芯片用于机器学习训练和推理。
在过去的几年里,机器学习芯片每隔几年翻一番或改进一次。 与通用计算硬件相比,这个速度非常快,但仍不足以应对人工智能训练模型复杂性的挑战。
为此,亚马逊云技术提出了分布式训练技术,模型通过多个节点通过网络协同计算和训练来解决问题。 这也是亚马逊云技术在机器学习中的技术路线。 不仅仅是单个AI芯片性能的提升,还需要全面突破计算能力、存储和网络性能。
配备推理芯片 EC2 Inf2 实例是专门为运行而设计的。多达 1750 构建的大型深度学习模型,具有1亿个参数c;与当前一代 EC2 Inf1 与#xff0相比,实例延迟c;可提供高达 4 吞吐量和吞吐量的倍 10 吞吐量倍,而且成本更好,延迟更低。
Trn1实例可为机器学习训练提供高性价比。 以万亿参数大型GPT3两周训练为例,#xff0c;如果使用基于GPU服务器的P3dn实例,需要600个实例,最新一代GPU实例P4d需要128个实例,但是Trn1只需要96。
写在最后。
从亚马逊云技术自主研发芯片的最新进展可以看出,经过十多年的发展,云计算已经到了硬件创新成为行业主要驱动力之一的阶段。 那些率先体验特殊芯片优势的企业,它将推动更多的企业加速尝试,扩大规模效应。
“节约成本和性能优势将带来更多的实验、创新和采用,并最终为其他特定的工作负载提供更多的定制芯片。这是一个良性循环。” 亚马逊首席技术官说。
结尾。
本文是《智能进化论》的原创作品。