分享好友 看资讯首页 频道列表
谷歌人工智能做高中数学 40题只对14题
2024-05-12 21:23    10009 来源:观察者网

【文 观察者网/赵挪亚】

在围棋这个人类一直以来占据着优势的项目里,谷歌旗下deepmind开发的人工智能(ai)alphago已经先后击败了柯洁和李世石两位顶尖棋手。但说来难以置信,deepmind开发的ai能打败人类世界棋王,却无法通过英国高中的数学考试。

530 >

《分析神经模型的数学推理能力》

4月2日,谷歌旗下的deepmind团队公布了一份名为《分析神经模型的数学推理能力》的研究报告(analysing mathematical reasoning abilities of neural models)。在这项研究中,团队让ai接受一项包含了算术、几何、概率和测量的数学测试,考题有 40 题,难度大约是英国高中数学的程度。

deepmind给出的40道英国高中数学题

不过,在这40道高中难度的数学题中,拥有强大通用算法和远超人类计算能力的人工智能,却只答对了14题,正确率只有35%,是实打实的不及格。

值得一提的是,在ai参加测试以前,团队已经为其做好了充足训练。据deepmind介绍,他们为ai建立了一个包含200万道题目的题库,涵盖了算术、代数、概率、微积分等各种题型。

同时,团队也派出了循环神经网络 (rnn) 和transformer两大当下性能最先进的模型参与测试。

为什么人工智能无法答对高中数学题呢?

原来,最主要的原因是ai“看不懂”题目。deepmind旗下的ai虽然已经拥有了极强的机器翻译能力,但依然抵不住数学问题的复杂性和语言多样性的压力。

530 >

对ai而言,数学符号和题目本身就很难理解

对人类而言,要解决数学问题,要应用到的不只有计算能力,还有各种各样的认知技能。比如理解题干,需要将文字或图标转换为算术运算符。

而对于依赖大量数据分析来寻求解决问题规律的ai而言,数学语言的复杂性是一座难以逾越的高山。

其次,ai“举一反三”的能力,也无法与人类一较高下。它只能处理一些内部存储的问题,无法超越已有的环境去理解新的东西。

而人类在解决数学问题时,会进行推理,从已知的公理中找到最佳策略,而在具体的运算过程中,必须利用工作记忆来完成运算。

据deepmind研究人员总结,现阶段ai在推论的能力上,还不及人类。在解答问题时,人脑动用了多种认知能力,包括将符号分类、演算、运用工作记忆来储存中间值、还要运用学到的规则或定理等。

相反,ai则擅长模式比对、机器翻译和强化式学习,但弹性远不及人脑。它们不太能将事物推论到已有经验的环境外,更无法处理刻意乱输入的资讯。

不过,虽然目前ai还无法当数学老师,但他们已经称霸了相当多的领域。除了围棋以外,deepmind旗下的ai又在游戏《星际争霸2》(starcraft ii)的测试赛中,5-0横扫世界顶尖职业选手。

来源:观察者网

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。