AI服务器成为人工智能供应链的救世主
本文由半导体产业全能(ID:ICVIEWS)编译
AI服务器成为2023年行业“救星”有两个原因
英伟达出色的财报揭示了人工智能对科技行业尤其是人工智能服务器供应链的真正影响。
人工智能驱动的需求激增迫使研究组织重新评估他们的估计。据行业研究公司TrendForce预测,2023年AI服务器(包括搭载GPU、FPGA、ASIC等)出货量预计将达到近120万台,同比增长近9%。服务器发货。 TrendForce甚至将2022年至2026年AI服务器出货量的年复合增长率提高至29%。
那么AI服务器和传统服务器有什么区别呢?
人工智能服务器确实是整个服务器市场的一部分,但它们是专门为在云中训练或导出人工智能模型而设计的。从规格上看,广义的AI服务器是指配备AI芯片(例如前面提到的GPU、FPGA、ASIC等)的服务器,狭义的定义是指配备至少一个GPU的服务器。
AI服务器成为2023年行业“救世主”的原因有两个。首先,今年以来各个终端市场的表现明显疲软,就连此前稳定的服务器市场也出现了下滑。对昂贵的人工智能服务器的需求激增不仅引起了轰动,而且直接推动了整个行业的收入增长。
TrendForce预计,今年AI服务器出货量将占市场服务器总出货量的9%,预计到2026年将达到15%。从单位成本来看,AI服务器的成本大约高出15到20倍。传统上由云服务提供商使用的服务器。对计算能力、电源管理和改进冷却技术的需求增加直接促进了服务器组件的使用。
说到AI服务器的关键部件,包括GPU、CPU、内存、智能网卡、机箱、主板、散热系统、电源、测试构建等。从成本来看,GPU依然是最重要的部分,约占总成本的70%左右,而散热系统、电源、机箱等部件占比不到1%。
虽然GPU龙头供应商Nvidia在成本上是最大赢家,但增加零组件使用量、规格与技术更新,仍然有利于台湾供应链,并在服务器产业中扮演重要角色。
从供应商行业来看,为NVIDIA代工的台积电是最大的受益者。在电源方面,AI服务器的需求比以前提高了两到三倍,这无疑给台达、光宝等电源厂商带来了好消息。
虽然冷却系统仅占总成本不到1%,但它对于AI服务器的运行至关重要,促使各大服务器厂商在这一领域投入巨资。目前,AI服务器散热解决方案的领先供应商包括Auras Technology、AVC Technology和提供3D Vapor Chamber (VC)技术的Sunon。在组装和制造方面,主要参与者是广达、英业达、富士康、纬创资通、纬颖科技、AMD和技嘉等传统服务器供应商。
TrendForce分析师Frank Kong表示,近年来,服务器行业不断走向标准化,服务器供应商也面临着客户要求其供应链多元化的压力。然而,AI服务器需求的大幅增长不仅带动了收入增长,也为企业展示AI服务器技术优势提供了机会。此外,AI服务器设计的高度复杂性和定制化需求的大幅增加,增加了客户的依从性,受到供应链的欢迎和期待。
推理服务器将逐渐成为全球AI服务器的主流。在生成型大模型发展初期,AI服务器的需求主要是模型训练,因此训练服务器在市场上占据主导地位。随着后续生成式AI应用的快速发展,AI服务器将主要满足数据分析和模型输出的需求,因此推理服务器将逐渐成为市场主流。据IDC统计,2021年全球AI服务器市场的%将是训练服务器,但推理服务器的市场规模预计将在2024年首次超过训练服务器,推理服务器的市场份额将达到20% 2026年,与训练服务器相同。大型服务器的份额差距将继续拉大。
加速型AI计算机服务器更符合大规模AI计算机的需求,已成为AI服务器的普遍选择。加速AI计算服务器是指具有一个或多个协处理器的AI服务器,包括GPGPU、FPGA或ASIC协处理器。它们更适合处理具有深度学习的人工智能模型,这些模型越来越大,算法也越来越复杂。因此,它成为当前AI服务器的主要选择。主要使用CPU进行计算的非加速AI计算服务器的市场规模仍将有一定增长,但它们主要用于导出小型AI模型和一些训练工作负载。据IDC统计,2021年全球AI服务器AI加速计算市场规模为91亿美元,2026年将增长至245亿美元,期间复合年增长率为22%。同期,非AI加速服务器的市场规模将为245亿美元。复合增长率仅为%。
版权声明
本文仅代表作者观点,不代表Code前端网立场。
本文系作者Code前端网发表,如需转载,请注明页面地址。
code前端网