2017 年 11 月 28 日,以 made with ai 为主题,google 在日本东京举行了一场关于人工智能的媒体沟通会。
更好用的 google 产品
首先,google 资深研究员 jeff dean 首先登台。他用一个通过 google translation 进行实时识别翻译的案例,来介绍了人工智能与机器学习的区别。他表示,机器学习其实是人工智能的一部分;本质上,机器学习是一个创造问题解决系统的新方式。
jeff dean 提到,正如 google ceo sundar pichai 在 2016 年 10 月所言,在接下来的 10 年间,google 将会成为一个 ai first 的公司;而 google 在人工智能领域的愿景是:
在演讲中,jeff dean 着重提到了 tensorflow。据雷锋网了解,tensorflow 于 2015 年 11 月在 github 上正式开源;与 mxnet、caffe 等其他的机器学习框架相比,tensorflow 颇受欢迎,用户量的增长速度也比较快。而根据 google 方面提供的数据,到目前为止,tensorflow 已经成为用户数量排名第一的机器学习框架。
jeff dean 表示,在近 20 年的发展中,神经网络(neural networks)在数据量和结算模型上已经超越其他的计算方案;总结来说,一个计算的新时代已经到来。
实际上,作为最早开始研究人工智能和机器学习的科技公司之一,人工功能和机器学习的元素实际上已经出现在 google 多项产品中。在沟通会现场,jeff dean 列出了一些较为典型的产品,并对它们的人工智能元素进行了简单介绍:
软硬件与 ai 的一体化
不过,除了 ai 和软件产品,google 在产品层面也已经延伸到了硬件;也就是说,google 已经形成了 ai + 软件 + 硬件三位一体的布局。一个最简单的例子是:在与 google pixel 相连接的情况下,pixel buds 耳机可以实时翻译。
不过,pixel buds 当然不是全部。在沟通会现场,google 产品经理 isaac reynolds 登台介绍了 ai and hardware 的关系;这里说的 hardware,主要指的是 google home 系列和 pixel 手机。
第一款着重提到的产品是 2016 年发布的 google home。isaac reynolds 表示,google home 内置了语音配对(voice match)功能,其本质在于用机器学习来帮助识别不同的语音,可以让最多 6 位用户连接到同一台 google home;无论这六位用户说话的声音大小,google home 都能够听见并给出回应,这就是硬软件与机器学习相结合的最好案例。
与之相比,今年 10 月最新发布的 google home max 的音质更好;它可以通过机器学习在数千种房间中进行声音模型训练,对不同音质的效果进行衡量,最后提供一个适合所在房间的声音模型。
关于 pixel 2 xl,isaac reynolds 主要提到了 pixel 2 的人像模式。实际上 pixel 2 只有一个摄像头,但它能够通过机器学习对图像进行结构化的识别,从而区分出背景和人像,并给出相应的深度图(depth maps);在形成 segmentation mask 之后,对背景进行虚化,最终实现人像效果。
在沟通会现场,雷锋网(公众号:雷锋网)就 pixel 2 内置的 pixel visual core 辅助芯片进行了提问。isaac reyonld 表示,pixel visual core 实际上已经在数年前就开始研发了,目前可以用于 hdr+ 照片的拍摄; 随着 android 8.1 的推出,第三方应用开发者也可以应用 pixel 2/xl 的这一芯片来拍摄 hdr+ 照片。
不过在未来,pixel visual core 也能够被开发者应用于机器学习。
人类语言问题的解决
接下来,google 负责机器学习的一个项目总监 linne ha 登台介绍了 google 的机器学习在人类语言方面的成绩。
linne ha 表示,当今世界上,有 6000 多种语言(算上方言可能会更复杂),其中只有 400 多种拥有超过 100 万的使用人口。然而在互联网上,有 50% 的内容都是英文的,而世界使用人口数量排名第四的印度语,其内容量在网上的排名不到前 30。这种人类语言上的不平衡,正是 google 试图通过人工智能解决的问题。
google 在语言方面所做的努力包括对多种语言字体进行 unicode 编码,使其不仅仅能够用在桌面电脑上,还能用在移动设备上。不仅如此,google 还开发了几乎可以支持任何语言的 noto 字体;而针对字符数量比较多的语言,google keyboard 能够利用机器学习在用户输入时进行预测,从而让用户输入效率大大增加。
利用深度神经网络,google 推出了 voice search 功能,即使是在嘈杂环境中,用户也可以与手机对话;目前该功能已经支持 119 种语言,其中包括 11 中印度语言和 3 种印度尼西亚语言。另外一个值得一提的是 google 的 project unison 项目,它可以利用机器学习实现文本向语音的转换,主要针对语料并不丰富的语种,比如孟加拉语、高棉语和爪哇语。而机器学习模型可以减少构建文本到语音模型所需的数据量。
在说完语言之后,google asssitant 工程总监 pravia gupta 上台对 google assistant 进行了简单介绍。除了众所周知的功能,pravia gupta 再次强调称 google assistant 已经拥有 voice、type、tap、lens 等四种输入方式;而且可以覆盖 iphone & android 智能手机、chromebook 笔记本、电视机、汽车、智能手表等多种设备。
当然在现场,pravia gupta 也少不了对 google assistant 进行了一番 demo。
用 ai 来赋能行业、应对人类挑战
当然,除了致力于自身产品的发展,google 也不忘记强调它对其他企业和开发者创新的影响。google 表示,目前它为企业及开发者提供了三种创新工具,分别为 tensorflow、云机器学习 api 以及 tpu 电脑芯片。在沟通会现场,来自日本的丘比公司,就登台介绍了它如何使用 tensorflow 来提高食品材料的质量和安全性。
在行业创新之外,google 表示机器学习也可以帮助我们解决人类的一些重大挑战,比如说医疗保健、能源和环境问题。比如说机器学习目前已经用于诊断糖尿病引起的眼部疾病、乳腺癌等疾病;实际上雷锋网已经报道过,就在 11 月 26 日,google 旗下的 deepmind 团队正式宣布将利用 ai 来对抗乳腺癌。
不过,来自新西兰维多利亚大学的博士生 victor anton 则试图通过人工智能来识别鸟叫声,以便来保护鸟类。
在沟通会的结尾,jeff dean 展望了 google 人工智能的未来。
他表示,未来要面临的主要困难是如何想方设法让机器学习模型的创作更加触手可及;为此,google 明年将在互联网上免费提供机器学习课程,而且 google 相关团队也在研究如果使用 auto ml 自动创建机器学习模型。
最后,jeff dean 补充称,目前 google 已经启动了 people + ai research(pair)计划,这个计划旨在研究并重新设计人与人工智能系统的交互方式,其最终目的是让机器学习模型具有包容性,并能够真正地为每个人可用。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。










