ai服务器及ai芯片需求同步看涨,trendforce集邦咨询预估2023年ai服务器(包含搭载gpu、fpga、asic等)出货量近120万台,年增38.4%,占整体服务器出货量近9%,至2026年将占15%,同步上修2022~2026年ai服务器出货量年复合成长率至22%。而ai芯片2023年出货量将成长46%。
trendforce集邦咨询表示,nvidia gpu为ai服务器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的asic芯片,市占率逾20%。
观察nvidia市占率高的主要原因有三:
其一,目前不论美系或中系云端服务业者(csp),除了采购原有的nvidia的a100与a800外,下半年需求也将陆续导入h100与h800,尤其新机种h100与h800平均销售单价约为a100与a800的2~2.5倍,加上nvidia同时积极销售自家相关整机解决方案。
其二,高端gpu a100及h100的高获利模式也是关键,由于nvidia旗下产品在ai服务器市场已拥有主导权的优势,据trendforce集邦咨询研究,h100本身的价差也依据买方采购规模,会产生近5,000美元的差异。
其三,下半年chatbot及ai运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配4~8张gpu的云端ai服务器,以及每台搭载2~4张gpu的边缘ai服务器应用需求渐增,预估今年搭载a100及h100的ai服务器出货量年增率逾5成。
此外,从高端gpu搭载的hbm来看,nvidia高端gpu h100、a100主采hbm2e、hbm3。以今年h100 gpu来说,搭载hbm3技术规格,其中传输速度也较hbm2e快,可提升整体ai服务器系统运算效能。
随着高端gpu如nvidia的a100、h100;amd的mi200、mi300,以及google自研的tpu等需求皆逐步提升,trendforce集邦咨询预估2023年hbm需求量将年增58%,2024年有望再成长约30%。
来源:中自网
以上是网络信息转载,信息真实性自行斟酌。










