在美国西部登陆facebook帐号,你的资料就很可能被一台由杜松和俄勒冈中部沙漠地区夹杂鼠尾草气息的空气而冷却的电脑调出。
在人口大约为9000人的小镇prineville,facebook存储了数以亿计的海量数据。一排排的电脑被安放在四座巨大的,总计八十万平方米的建筑里。它们整齐地排放着,好像要让来自西北的干冷风吹拂过每一台电脑。每当用户登录,点赞或者是发送lol的时候,这些闪着蓝绿色光的服务器都会发出沉闷的低吼。
facebook最近刚加入一些新机器到prineville的服务器大军中。同时,公司也装载了新的大功率服务器,旨在加速对软件翻译、更聪明的虚拟助手以及文字识别等人工智能技术的训练。
facebook新的big sur服务器是围绕本来为图片处理而开发的大功率处理器——gpu来设计的。这些处理器加强了最近人工智能的一个技术飞跃——深度学习。由于gpu使得如何训练软件的旧观念被运用到更广大更复杂的数据集中,软件可以变得惊人的“善解人意”,特别是在理解图片和文字方面。
kevin lee,facebook一位致力于服务器工作的工程师表示,他们在帮助facebook的研究员们通过以运行更快、使用更多数据的方式来训练软件。”这些服务器是人工智能和机器学习研究的专用硬件。gpu可以记录一张照片,把它们分成无数小像素,然后同时处理。”
每8个gpu就配置一台big sur服务器,facebook使用的是擅长于图像识别的半导体供应商nvidia制造的gpu。lee没有确切表明到底配置有多少服务器,但是据他所说,有数千块gpu在工作着。公司的prineville,ashburn和virginia的数据中心都安装了big sur服务器。
因为gpu极其耗能,与数据中心里其他服务器不同,facebook不得不把它们排放松散,以免产生过热点,给冷却系统带来麻烦,以至于耗能更多。现在每个七英尺高的架子里都只能放下八个big sur服务器,而这些架子过去可以容纳30个只负责做一些用户数据处理等日常工作的facebook常规服务器。
在运行大数据中心和运用gpu来进行机器学习研究这些方面,facebook不是唯一一家。海内外的巨头,比如微软、谷歌以及百度等也运用gpu来进行深度学习的研究。
社交网络是非比寻常的。它开创了big sur服务器设计、其它服务器设计,以及建立prineville数据中心的新纪元。公司把这些设计和计划捐献给了一个非盈利项目——开放计算项目(open compute project)。这个项目由facebook于2011年发起,旨在鼓励计算机公司互相协作,设计出低耗高效的数据中心硬件。这个项目至今已经帮助了数家亚洲硬件公司,抢占了一些传统供货商如戴尔和惠普的市场。
facebook ai研究项目的主管yann lecun说道,当今年早些时候big sur服务器宣布使用的时候,他相信该技术通用之后,会有更多组织建造强有力的机器学习基础设施,然后加速此领域的发展进程。
不过,未来机器学习服务器建造的计划可能不会以gpu为核心,如今很多家公司在致力于新芯片的设计。相比于gpu来说,这种芯片是特别为深度学习的算法而制作的。
今年五月,谷歌宣布其已经开始使用自己设计的tpu芯片来驱动产品中的深度学习软件,如语音识别。在训练之后,这一代的芯片似乎更适合于运行算法,而不是像big sur服务器一样,最初的训练步骤是为了加速。但是,谷歌已经开始第二代芯片的研究。nvidia和其它几家新公司包括nervana也在开发为深度学习定制的芯片。
普渡大学副教授eugenio culurciello表示,深度学习的有效性意味着这种芯片将会被广泛应用。“市场对这种芯片已经有巨大需求了,而且这种需求只增不减。”
当被问到facebook是否在开发定制芯片时,lee表示,公司正在“研究中”。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。










