OBT商业科技观察

一路狂飙的 ChatGPT,背后算力的竞赛!

还有人没听过、没用过 ChatGPT 吗?怕是没有!

现在,ChatGPT 几乎到了无所不能地步,写歌作诗、编代码、查资料、回答问题……你能想到的,它都能干!上线不到两个月,ChatGPT 的全球活跃用户就突破了一亿大关。如此火爆的背后,究竟是什么在支撑?

据统计,ChatGPT 需要超过1万颗 A100 GPU 提供算力支持,单次训练成本超过400万美元,每天成本超过10万美元。而研究机构 TrendForce 也在3月1日的报告中测算称,处理1800亿个参数的 GPT-3.5大模型,需要的 GPU 芯片数量高达2万枚。

归根到底:没有强大的算力支撑,ChatGPT 就没法无所不能。

云端算力,软硬系统协同优化才是标配

想要获得强大的算力,自研芯片是国内外云计算大厂发力的重点,并以此打造核心竞争优势和差异化。此外,云计算领域木桶效应越来越明显,软件和硬件不能有短板;未来算力进化方向,一定是软硬件协同优化。而在这方面,亚马逊云科技是最早发力的。

硬件之力:自研芯片,加速算力进化

目前,亚马逊云科技自研的 Amazon Nitro 和 Amazon Graviton3E,已经助力企业在性能、成本、安全性方面实现了大规模突破。

Nitro:亚马逊云科技的基石芯片

Nitro 是亚马逊云科技自研芯片的起点,它的核心设计理念,就是为了很好的平衡云计算的性能、成本和安全性。从2013年推出首颗 Nitro 芯片起,它已经经历了4代迭代,并且已经成为驱动当今所有 Amazon EC2 实例的基础性技术。

2022年,最新一代 Nitro v5 芯片发布,重点聚焦在通信带宽的提升:PCIe 带宽提升2倍、DRAM 速度提升50%、数据包处理速度提升60%、通信延时降低30%。和前一代相比,Nitro v5 的晶体管数量增加一倍,并由此带来每瓦性能40%的提升。

Nitro 的高性能和虚拟化功能,也给用户提供了更多的计算实例。在2022年初,Amazon EC2 实例有400多款;经过一年的发展,已经超过600款,这就让算力的供给更加快速和灵活。

Graviton3E:一切为了高算力

基于 ARM 架构的服务器 CPU 芯片 Graviton,是亚马逊云科技的看家芯片。Graviton 系列处理器,不仅能取得高性能、更能兼顾 ARM 架构低功耗的优势,从而实现更好的「性能功耗比」。和 x86 实例相比,基于 Graviton3 的实例能取得高达60%的每瓦功耗提升。

在去年的 re:Invent 大会上,Amazon Graviton 在第三代的基础上增加了对高性能计算的优化,特别优化了对向量计算和浮点计算的支持。这也是 ARM 架构进一步进军 HPC 的重要尝试。在性能、功耗、成本、性价比。在这些方面,ARM 架构有着更大优势。再加上自研芯片的加持,通过大规模部署进一步摊薄成本,就会让性价比进一步提升。

软件之功:协议服务助力持续创新

云计算未来的发展方向,肯定是软硬件协同优化。对于云厂商来说,芯片和硬件只是一小部分,剩下的主要部分,都集中在软件和系统层面的创新。

在协议层面,亚马逊云科技提出了新的网络协议 SRD(Scalable Reliable Datagram)和 TCP,采用了多路径路由,并且可以乱序传输数据包,从而达到更高的吞吐量。

在服务层面,亚马逊云科技持续加码 Serverless。2006年就搭建了 Amazon S3 存储服务。2014年,发布了著名的 Serverless 计算服务 Amazon Lambda ,直到目前已经有超过百万用户、每月的调用请求量超过100万亿次。最新推出的 Amazon Lambda SnapStart,在首次启动时会执行标准初始化,并且将内存和磁盘状态进行快照并缓存,将启动延时降低90%以上。

为云计算的客户提供更强、更灵活的算力,实现算力像水和电一样能随用随取,是云计算未来的发展趋势。作为全球云计算的开创者和引领者,亚马逊云科技正通过提供强大、经济且绿色的云端算力,赋能企业实现更大的商业成功。