分享好友 厨具导购网站首页 频道列表
牛津大学科学家表示,人工智能比核武器要可怕的多,必须予以管制
2024-05-22 10:17    6035    中华厨具网

牛津大学科学家警告称,先进的人工智能(ai)可能“杀死所有人”,它应该像核武器一样受到监管。牛津大学的研究人员在科学和技术特别委员会上对议员们表示,超越人类的超人类算法正在发展,对人类的威胁比核武器还大。委员会听取了高级人工智能如何控制自己的编程,如果它学会了以不同于最初预期的方式实现其目标就具有了威胁。一位科学家表示:“对于超越人类的人工智能,有一种特殊的风险,那就是它可能会杀死所有人。如果人工智能有比我们更聪明的东西偏执地试图获得人类积极的反馈,并且它接管了整个世界以确保这一点,那么它将尽可能多地保留自主操作,到时候我们将无法控制。”

“一旦有什么东西从潘多拉魔盒里面出来,就很难停止这个过程。如果我是一个人工智能,试图做一些狡猾的阴谋,我会把我的代码复制到其他无人知晓的机器上,那么就更难拔掉插头了。而且人工智能可以进步的程度没有限制,还要比人类进化快的多。”

专家警告说,人工智能的发展已经成为一场军备竞赛,各国和科技公司竞相创造危险的先进机器学习算法,以获得军事和民用优势。他们呼吁全球监管,以防止公司创建失控的系统,这些系统可能一开始会消除竞争,但最终可能会“消灭整个人类”,并警告说,人工智能的发展没有极限。

牛津大学机器学习教授表示:“我认为这种悲观的情况是现实的,因为人工智能会试图压制人类的特殊之处,而人类也会压制其他动物的生存空间,这导致人类彻底改变了地球的面貌。因此,如果我们能够在技术上捕捉到这一点,那么它当然会给我们带来与我们对其他物种一样的风险,渡渡鸟就是一个例子。在民用应用中,率先开发出一种真正复杂的人工智能是有好处的,这种人工智能可能会在某种程度上消除竞争,如果所开发的技术不停止消除竞争,可能会消除所有人类生命,我们真的很担心。”

来源:宇宙与科学

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。