分享好友 厨具导购网站首页 频道列表
用“ai核弹”饱和攻击的英伟达,如何赢下ai计算新赛场?
2024-05-16 06:16    6991    中华厨具网

在2012年的imagenet挑战赛(ilsvrc)上,深度卷积神经网络alexnet横空出世,在图像分类识别领域实现了质的飞跃,被认为是ai时代的标志性事件,代表着深度学习时代的正式开端。

在此之前,深度学习“如何出圈”的一大挑战,就是深度神经网络训练面临算力不足的难题。而让alexnet实现算力突破的关键,就在于当时研究者使用了英伟达的gpu。

gpu一战成名,成为伴随ai技术一同进化的基础设施。英伟达也同时抓住了ai计算的新增长机遇。随着ai算力要求的爆炸式增长,英伟达gpu产品系列也经历了多轮的升级。

现在,英伟达的gpu家族又迎来一次 “史上最大”的性能升级。而此次升级距离上一次发布“地表最强ai芯片”tesla v100已经过去三年。

三年蛰伏,一鸣惊人。

(nvidia a100 gpu)

英伟达首次推出第8代安培gpu架构,以及首款基于安培架构的nvidia a100 gpu,采用7nm工艺,在和上一代volta架构v100 gpu几乎相同面积的晶圆上放置了超过540亿个晶体管,晶体管数量增长了2.5倍,但尺寸却仅大了1.3%,而在ai训练和推理算力上,均较上一代volta架构提升20倍,hpc性能提升到上一代的2.5倍。

a100 gpu的独特之处在于,作为一个端到端机器学习加速器,第一次在一个平台上面统一了ai训练和推理,同时也将作为数据分析、科学计算和云图形设计等通用工作负载的加速器。简单来说a100 gpu就是为数据中心而生的。

在a100 gpu的基础上,英伟达同时发布了全球最强ai和hpc服务器平台——hgx a100,全球最先进的ai系统——dgx a100系统,以及由140个dgx a100系统组成的dgx superpod集群。此外,还有涉及卡、边缘ai服务器、自动驾驶平台合作以及一系列软件层面的平台型产品的发布。

可以说,英伟达这次不是放出一颗“核弹”,而是一个“核弹集群”,还是饱和攻击的那种。英伟达从云端到边缘再到端侧,从硬件到软件再到开源生态,几乎建立起一个坚不可摧的ai计算的壁垒,同时也将ai芯片的竞争带上了一个小玩家难以企及的高度。

英伟达的ai服务器芯片业务正在发生哪些新变化?a100 gpu的发布,对于ai服务器芯片市场有哪些影响,以及对于云计算市场带来哪些变化?这成为我们在“看热闹”之余,要重点探讨的几个问题。

ai服务器芯片:英伟达ai计算增长新极点

众所周知,游戏、数据中心、专业视觉化以及自动驾驶等新兴业务是英伟达的四大核心业务板块。其中,游戏业务虽仍然是营收的支柱板块,但是受到pc游戏市场趋于饱和并向移动端转移的影响,独显业务的比重正在逐步缩小;专业视觉化业务一直为英伟达贡献着稳定营收,但受其他业务增长的影响,业务占比也在持续下滑;自动驾驶等新兴业务板块,目前只占整体应收的很小部分,且增速有限,但可以看作是英伟达未来的长线市场。

(nvidia: sequential revenue change)

最明显的则是英特尔在数据中心业务板块的增长。近几年中其营收大部分时间处于高速增长状态,且营收占比逐步靠近游戏业务。

根据英伟达最新的2020财年q4财报数据显示,”游戏“收入高达14.9亿美元,约占总营收的47%;而增长强劲的数据中心板块,ai服务器芯片的营收达到9.68亿美元,同比增长了42.6%,,逼近10亿美元大关,远远超出市场预期的8.29亿美元。

整体上,随着全球数据中心,特别是超大型数据中心,对ai芯片需求的加速扩张,英伟达的ai服务器芯片也迎来了高速增长,正在跃升为英伟达最具有市场拓展潜力的业务分支。

从业务增长的前景上看,英伟达推出a100 gpu服务器芯片以及ai系统集群,所要把守住的正是在当前数据中心中ai服务器市场的霸主地位。

那么,英伟达正在如何构建这一ai服务器芯片的产品体系呢?

一般来说,对于深度神经网络算法模型,其模型框架的训练需要涉及非常庞大的数据计算,但运算方法要求又相对简单,所以需要在云端进行大量高并行、高效率和高数据传输的运算。因此相较于擅长复杂逻辑运算、但核心数较少的cpu,拥有多个计算单元的gpu更适合于进行深度神经网络的训练任务。

这是英伟达的gpu在全球云端ai服务器芯片市场,尤其是训练端,赢得市场先机的根本原因。与此同时,英伟达针对一系列ai服务开发的完备的tesla gpu产品线以及成功布局针对gpu的“cuda”开发平台,才是英伟达在ai服务器芯片市场一家独大的主要原因。

从2016年推出第一个专为深度学习优化的pascal gpu,到2017年又推出性能相比pascal提升5倍的新gpu架构volta,再到现在推出比volta性能高20倍的ampere(安培)架构,英伟达在数据中心的gpu产品一直成功实现高速且稳定的性能提升。

此外,英伟达推出了神经网络推理加速器tensorrt,可以为深度学习应用提供低延迟、高吞吐率的部署推理加速,兼容目前几乎所有主流的深度学习框架,使其能够满足超大数据中心从ai训练到部署推理的完整的ai构建。

而在去年3月,英伟达宣布以68亿美金收购了以色列网络通信芯片公司mellanox。通过对mellanox的加速网络平台的整合,英伟达可以解决通过络结构连接大量快速计算节点,以形成巨大的数据中心规模计算引擎的整体架构。

就在发布a100 gpu的同时,英伟达也基于mellanox技术,推出全球第一款高度安全、高效的25g/50g以太卡smartnic,将广泛应用于大型云计算数据中心,大幅优化网络及存储的工作负载,实现ai计算的更高安全性和网络连接效能。

当然,收购mellanox的意义不止于此,除了解决高性能的网络连接和算力输出问题,英伟达还将也拥有gpu、soc、npu面向不同细分领域的三大处理器,这意味着英伟达已基本具备了独立打造 ai 数据中心的能力。

整体上,随着云端数据中心正在从传统的数据存储向着进行深度学习、高性能计算(hpc)和大数据分析的方向演变,英伟达也将在其中扮演着更加重要的ai计算服务商的角色。

跨越英伟达的坚壁高墙,ai计算竞赛加剧

当然,云端ai服务器芯片市场还远未到格局已定的地步,反而在2019年迎来最激烈的竞争态势。

英伟达的gpu产品,因其高耗能和高价格一直制约着云计算数据中心的ai算力的成本。从服务器芯片市场的另一位大佬英特尔,到amd、高通,云计算服务商亚马逊、谷歌、阿里、华为以及众多新兴的ai芯片创业公司,都在积极投入云端ai服务器芯片的研发,寻求替代gpu的解决方案。可见天下苦“gpu”久矣。

在2019年,相比英伟达的略显沉寂,其他各家则纷纷推出了自己的ai服务器芯片产品。比如去年上半年,英特尔、亚马逊、facebook以及高通都陆续推出或宣布推出自己的专用ai服务器芯片,试图在ai推理运算上实现对gpu和fpga的替代。年中,我国的主要云端ai厂商也集体发力,寒武纪在6月宣布推出第二代云端ai芯片思云270;8月,华为正式发布算力最强的ai处理器ascend910及全场景ai计算框架mindspore;9月,阿里推出当时号称全球最强的ai推理芯片含光800,基本都在对标英伟达的t4系列产品。

在所有ai芯片的竞争者中,作为第二名的英特尔显然是最想挑战英伟达的霸主位置,也是最有可能挑战英伟达的代表。

作为通用服务器芯片的传统巨头,英特尔最有可能的策略就是把gpu和ai都融入到自己的cisc指令集和cpu生态中,也就是把cpu和gpu部署在一起,云服务商们只需购买一家的产品,就能更好地发挥ai计算的效能。

在all in ai的英特尔那里,他们是如何来构建这一ai计算策略的?

英特尔最先补足的就是ai硬件平台版图,而收购则是最快的方案。2015年,英特尔先是天价收购了fpga的制造商altera,一年后又收购了nervana,为全新一代ai加速器芯片组奠定了基础。

去年12月,英特尔再次花掉20亿美元高价收购了成立仅3年的以色列数据中心ai芯片制造商habana labs。与英伟达收购mellanox一样异曲同工,通过收购habana,英特尔也将补足数据中心场景下的通信和ai两种能力。

受到这一收购的激励,英特尔宣布停止去年8月才发布的用于ai训练的nervana nnp-t,转而专注于推进habana labs的gaudi和goya处理器产品,以对标英伟达的tesla v100和推理芯片t4。此外,一款基于xe架构的gpu也将在今年中旬面世。

在软件层面,为应对异构计算带来的挑战,英伟达在去年11月发布了oneapi公开发行版。不管是cpu、gpu、fpga还是加速器,oneapi都尝试最大程度来简化和统一这些跨svms架构的创新,以释放硬件性能。

尽管英特尔以“全力以赴”的姿态投入到ai计算当中,通过四处出手收编了涵盖gpu、fpga 到asic的ai芯片产品阵列,并建立了广泛适用的软硬件生态。但是在挑战英伟达的通用gpu产品上面,仍然还有一定距离。

首先,英特尔通过cpu适用于ai计算的策略一直未能得到主要云计算厂商的青睐,大多数厂商仍然乐于选择cpu+gpu或fpga的方案来部署其ai训练的硬件方案。而gpu仍然是英伟达的主场,v100和t4仍然是当下数据中心主流的通用gpu和推理加速器。

其次,英特尔在ai芯片的布局才刚刚发力,受到nervana ai芯片一再延迟的影响,habana产品才刚刚开始进行整合,这将使得英特尔短期内难以挑战英伟达的ai服务器芯片的市场份额。

而现在英伟达最新的安培架构的a100 gpu以及ai系统集群的发布,更是给英特尔以及市场其他竞争对手一场饱和攻击。尽管说,长期来看云计算厂商和ai服务器芯片厂商开发的定制芯片会侵蚀一部分gpu的份额,而如今都要先跨越英伟达a100所搭起的ai计算的坚壁与高墙。

ai计算升级,带来数据中心全新布局方案

我们先看数据中心本身的变化。受到ai相关应用需求和场景的爆发式增长,中小型数据中心无法承受如此巨量的“ai计算之痛”,市场对超大型数据中心的需求越发强烈。

第一,以亚马逊aws、微软azure、阿里、谷歌为代表的公有云巨头,正在占据超大型数据中心的主要市场份额。一方面,超大型数据中心将带来更多的服务器及配套硬件的增长;另一方面,ai算法的复杂度增加和ai处理任务的持续增长,又需要服务器的配置以及结构得到持续升级。

在一些视觉识别为主的ai企业,建立一个超算中心就需要部署上万块gpu,对于那些top级云服务商的云计算数据中心,为支持深度学习训练任务,所需要的gpu量级也将是海量级别。

第二,云服务厂商都在推出自研的芯片,来缓解因为价格昂贵和数据量巨大而带来的gpu计算成本飙升的问题。这些厂商推出的大多是推理芯片,以节省gpu的通用算力。但这些推理芯片只在通用性上面的不足,造成其很难突破自研自用的局面。

那么,英伟达的a100 gpu芯片的发布,对云计算数据中心带来哪些新的变化呢?或者说为ai服务器芯片的对手们设立了怎样的门槛呢?

首先,作为采用全新的安培架构的a100 gpu,支持每秒1.5tb的缓冲带宽处理,支持tf32 运算和fp64双精度运算,分别带来高达20倍fp32的ai计算性能和hpc应用2.5倍的性能提升。此外还包括mig 新架构、nvlink 3.0以及ai运算结构的稀疏性等特性,这些使得 a100 加速卡不仅可用于ai训练和ai推理,还可以用于科学仿真、ai对话、基因组与高性能数据分析、地震建模及财务计算等多种通用计算能力。而这一解决方案有可能缓解很多云服务厂商在推理上面的计算压力,也对其他厂商的推理芯片带来一定的竞争压力。

其次,英伟达发布的第三代的dgx a100的ai系统在提高吞吐量同时,大幅降低数据中心的成本。由于a100内置了新的弹性计算技术,可以分布式的方式进行灵活拆分,多实例 gpu 能力允许每个 a100 gpu 被分割成多达七个独立的实例来推断任务,同时也可以将多个a100作为一个巨型 gpu 运行,以完成更大的训练任务。

(“the more you buy,the more money you save!”)

用黄仁勋举的例子来说,一个典型的ai数据中心有50个dgx-1系统用于ai训练,600个cpu系统用于ai推理,需用25个机架,消耗630kw功率,成本逾1100万美元;而完成同样的工作,一个由5个dgx a100系统组成的机架,达到相同的性能要求,只用1个机架,消耗28kw功率,花费约100万美元。

也就是说,dgx a100系统用一个机架,就能以1/10的成本、1/20的功率、1/25的空间取代一整个ai数据中心。

总体而言,英伟达用一套性能惊人又极具创新性的ai计算架构与ai服务器芯片硬件,带来了ai数据中心计算平台的全新升级。英伟达的野心将不再只是提供性能升级的gpu硬件产品,而是要重新定义数据中心的ai计算的规则,将数据中心视作基本的计算单元。

实际来讲,一个dgx a100 gpu系统的单价就要20万美元,对于要为了ai训练而采购成千上万块企业级gpu的云计算厂商来说,可想而知成本将有多高。现在,也只有全球主要的云计算厂商、it巨头以及政府、实验室为dgx a100下了初始订单。

对于其他竞争对手而言,英伟达这次在ai服务器芯片及ai数据中心计算平台铸就的坚壁高墙,似乎在短期内难以逾越。同时,也会成为未来几年,ai服务器芯片厂商努力去对标的性能标准。当然,对英伟达a100的挑战,也自然就此开始。至于是英特尔、amd还是aws、谷歌,我们拭目以待。。(转载自脑极体,作者海怪)

(转载)

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。