分享好友 厨具导购网站首页 频道列表
芯片的未来在还要靠摩尔定律吗?
2024-05-16 23:24    1983    中华厨具网

半导体产业最重要的法则之一「摩尔定律(moore's law)」即将寿终正寝,美国半导体业正面对不确定的新现实,并面临中国的竞争压力,因此政府已经决定金援研发工作,并推动芯片业进行重大转型。

芯片功率能够可靠地加速,一直支撑半导体业的成长,并提供运算能力以打开新市场。美国半导体业60年来一帆风顺。景气高峰加上新市场不断出现,持续带动半导体业的营收。费城半导体指数从2016年迄今已上涨一倍,远比标普指数38%的涨幅亮丽得多。但现在功率加快的速度持续减弱,据美国国防部darpa研究机构首席微电子专家查佩尔指出,「摩尔定律」早在「十年前就已死亡」。业界也浮现信心破碎的信号。

卡内基美隆大学工程与公共政乐教授傅绮丝斯表示,从2004年开始「摩尔定律」式微的现象已渐趋明显,芯片业因为研发报酬率下降而处境艰难,「营收成长速度赶不上投资增加的速度」。

如今,人工智能尤其是深度学习的进步对硬件和计算机架构提出了更高的要求,doug burger博士介绍了他的工作如何应对这样的挑战,并分享了他对后冯·诺伊曼时代硬件发展的展望。

整整50年来,计算机的底层元件都遵从着“摩尔定律”:在价格不变的情况下,集成在芯片上的晶体管数量每隔18到24个月将增加一倍,计算成本呈指数型下降。摩尔定律成就了各种技术变革,例如互联网、基因组测序等等。

然而现在,摩尔定律的趋势第一次放缓了。芯片行业进入了一个不确定的时代,在同样的投入下,收益变得越来越低。我认为有两个原因。一是芯片制造商面临的一个经济问题:相比与芯片体积,大多数人对芯片的价格更敏感,要求芯片要做到经济实用;二是我所认为的真正原因,随着晶体管尺寸的不断缩小,我们遇到了原子极限,先前标准、规则结构的晶体管结构已经无法维系。

在cpu时代,我们一直沿用的范式是在cpu上运行编写好的程序。这一范式的优点在于整个计算系统所有层级都是确定的,它们有限但功能强大。芯片的原理非常简单,无非就是开关、逻辑门、二进制系统等等。但是现在,计算需求正变得越来越复杂和艰难,导致计算机结构也越来越复杂,在一块芯片上集成的电路越来越庞大。

simon peyton jones曾说,计算机软件和体系架构是人们迄今为止所创造的最令人惊叹的结构。在计算机体系架构领域,任何一个接口的设计都需要调整芯片底层的架构。做芯片与做软件差别很大。编写软件时的自由度非常高,但在设计硬件时却会面临各种各样的限制:在一块尺寸有限的硅芯片上要集成各种不同功能的组件,并且要保证以正确的方式相互连接,而且要根据预算在通用性、高效性、速度、软件适配等多个维度中做出权衡。

fpga:现场可编程门阵列

在加入微软前,我曾和我的一名博士生hadi esmaeilzadeh做过一项关于“暗硅”(dark silicon)的研究。当时,业界正朝着多核芯片的方向发展,有人认为,只要能编写并行软件,就能将计算机芯片架构扩展到数千核。

我们在2011年发表的研究中发现,由于功耗的限制,一个多核处理器在同一时刻只能有很少的一部分晶体管能够工作,而其余部分则处于休眠状态。这项研究获得了相当高的关注度。

受到这一研究的启发,我们认为可以针对特定的工作使用定制硬件来加速计算,解决“暗硅”问题。但是对于普通用户来说,定制芯片的经济成本以及大量功能不同芯片的管理成本都很高。为了帮助用户解决这个问题,微软在azure云平台上部署了fpga(现场可编程门阵列)。

fpga全称为“现场可编程门阵列”,之所以称为“现场可编程”,是因为在做完芯片硬件设计和算法映射之后,我们仍然可以对fpga芯片进行实时、动态地修改。我们可以随时把它改写成其它用途的芯片,甚至可以每隔几秒修改一次。为了同时满足性能、成本和灵活性的要求,我们可以使用定制芯片来处理部分长期稳定的计算需求,而使用fpga来处理剩余计算需求。

fpga此前就已经广泛应用于通信领域,在处理高速数据流以及测试即将投产的芯片时的表现出色。但在云计算中,fpga尚未真正成功地大规模使用。

cpu和gpu适合于处理不同的任务。cpu是一种通用处理器,适合处理少量数据;而gpu是一种单指令、多数据(single instruction multiple data,simd)的并行处理器,即一条指令对不同的几组数据执行相同的操作。fpga实际上是cpu模型的“倒置”。在fpga上,我们不再固定数据、运行指令,而是固定一些指令、运行整批数据。我称之为“结构化计算”,其理念为固定一种计算结构,让数据不断从其中流过。fpga非常适合这类工作负载,在云中, fpga可以很好地完成这一使命,对cpu来说也是一种很好的补充。

fpga每秒能够处理50gb的数据包,同时也可以确保用户的信息安全和网络私密性。面对同样的计算任务,多块cpu才能接近一块fpga的处理速度。

于是,从2015年底开始,微软通过project catapult项目在微软azure云中对fpga进行了超大规模的部署,不管与之前相比还是跟竞争对手相比,azure云的数据处理速度都有明显的提升。目前,微软是全球最大的fpga使用者之一,各个团队都在使用fpga强化自己的服务。

brainwave:为深度神经网络“定制”处理器

在人工智能领域,目前大热的深度学习对计算机硬件和架构都提出了更高的要求,只有更好、更快的硬件和架构才能处理日益庞大的训练数据和越来越复杂的深度神经网络模型。机器翻译、语音理解、计算机视觉等经典人工智能领域的不断发展给硅芯产业带来了很大的压力。现在,许多公司都为打造人工智能、机器学习,特别是深度学习的定制架构投入了大量的资金。

因此,我们团队打造了自己的深度神经网络处理器brainwave。我们正与微软必应和azure团队通力合作,为微软的各项服务提供有力的硬件与架构支持。利用brainwave,必应团队可以摆脱计算资源的制约,能够部署体量更大的模型,从而为用户提供更好、更快、更高质量的搜索内容。

在今年的微软build大会上,微软宣布了project brainwave预览版,并将其整合到azure机器学习服务中供用户使用。同时,用户也可以自行购买微软推出的catapult架构主板将之嵌入到生产设备上,这样就可以在边缘设备上直接运行已经在azure上训练好的模型,从而节省时间成本。

brainwave非常适合处理推理运算任务,对于此类任务,目前大量技术都采用“批处理”的方式。批处理能够提升计算机的处理能力,但却容易增加网络延迟。project brainwave可以将实时ai计算的延迟时间降到最小。不同的任务对于“实时”的要求并不相同,对于通过收集网络信息预告紧急情况的任务来说,几分钟的“实时”处理是可以接受的,但对于实时语音互动或者类似于hololens这种增强现实任务,“实时”处理则要求做到毫秒级。

在实际的计算任务中,除了处理速度,成本也是需要考虑的一个关键因素。brainwave系统做到了两者兼顾,在处理速度和成本控制方面都有非常好的表现。

来源:eeworld

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。