分享好友 厨具导购网站首页 频道列表
机器人战士应否“讲道德”?
2024-06-01 12:24    3984    中华厨具网

2月7日,下一任中情局局长候选人约翰·布伦南出现在美国国会参议院的听证会上,议员们关注的焦点集中于一个问题:派遣无人机追杀恐怖嫌犯的决定是怎样做出的?

如何对无人机下达攻击命令及其具体决策机制,在公众眼中仍是个谜团。但至少有一点很明确,即此类决定出自活生生的人。但是,如果有朝一日人类退出这个决策过程,生死攸关的决定是由塞满了海量数据且效率更高的机器人战士做出,战争会变得更加冷酷、莫测吗?

人工智能面临两难抉择

尽管科幻电影《终结者》里的场面不会很快成为现实,毫无疑问的是,随着机器人变得更加智能化且拥有更多自主权,它们上位的关键环节在于:具备“讲道德”的能力。

这并非狂言妄语。最近,《纽约客》杂志专栏作家加里·马库斯,撰文描绘了谷歌的无人驾驶汽车可能面临的两难抉择:“你的车正以80公里时速行驶,载有40名孩子的校车错误地闯了红灯。你的车是否可以为了避免事故而急转弯,不惜危及主人的生命;还是继续行驶,置孩子们的安危于不顾?决定必须在瞬间做出,而电脑不会拨打求援电话。”

如果把主角换成未来战场上的机器人士兵,情况又会变成什么样?如果明知一座堡垒内有无辜平民,无人机能否学会不向可疑目标开火?我们能否教会机器人遵守国际冲突的规则?佐治亚理工学院的计算机学和机器人专家罗纳德·阿金相信这是必须的,他正在开发名为“道德总督”的软件系统,意在让机器人自主决定何时应该开火、何时不开火。

做到这点可能得耗费数十年,但只要坚持下去,机器人有望在身体和道德上双双超越人类,不受变态复仇等负面情感的左右。阿金教授表示,他并不想建立清一色的机器人大军,而是想让机器人和人类一道工作,承担高风险的任务,并在压力下做出妥当的应对。

机器的道德能比人更高尚?

当然,也有人觉得,趁着还没走火入魔,我们应该果断摒弃对战争机器的幻想。去年年底,人权观察组织和哈佛法学院的人权研究所共同发布了题为《失去人性:起诉杀手机器人》的报告,呼吁各国政府禁止所有自律武器,因为它们会“在武装冲突中增加平民的伤亡”。

大约同一时间,一群剑桥大学的学者宣布,计划成立“生存风险研究中心”。今年晚些时候开业后,该中心将对“若机器人的智能超过人类,会出现什么情况”的课题加以认真研究。

令人不安的迹象比比皆是。在五角大楼赞助的许多实验室里,军备专家在对机器人进行编程,以便增强它们耍弄阴谋诡计的本领。他们还考虑教机器人模仿某些生物的行为。譬如,灰松鼠会把坚果藏起来,一旦其他松鼠或捕食者出现,松鼠就会到以前藏匿坚果的地方转转,以引开竞争对手。机器人遵循类似策略编程后,甚至能诱骗人类走进陷阱。

人力成本的提高和人体机能的限制,让机器人战士走进现实的步伐越来越快。既然潮流不可避免,人类似乎应该即刻开始对机器人的行为制定规范。“潘多拉的盒子已经开启,”罗纳德·阿金在接受采访时表示,“我始终认为,有了这些智能机器人,潜在的非战斗人员伤亡会减少;但对如何使用之而不是随意投放到战场上,我们必须慎之又慎。”

加里·马库斯在《纽约客》上写道,“讽刺的是,人类自身的道德并不完美。许多情形(譬如帮别人自杀)仍然缺乏明确的规范,更不用提古代——那个时候,人类的所作所为比今天的战斗机器更糟(如奴隶制和种族隔离)。我们真正想要的是可以更进一步的机器,不仅赋予其健全的道德规范,而且让机器自身能不断进化,乃至超越人类固有的道德观念。”

倘若智能机器主宰未来战争不可避免,人类是否应该教会它们“讲道德”?

2月7日,下一任中情局局长候选人约翰·布伦南出现在美国国会参议院的听证会上,议员们关注的焦点集中于一个问题:派遣无人机追杀恐怖嫌犯的决定是怎样做出的?

如何对无人机下达攻击命令及其具体决策机制,在公众眼中仍是个谜团。但至少有一点很明确,即此类决定出自活生生的人。但是,如果有朝一日人类退出这个决策过程,生死攸关的决定是由塞满了海量数据且效率更高的机器人战士做出,战争会变得更加冷酷、莫测吗?

当人工智能面临两难抉择

尽管科幻电影《终结者》里的场面不会很快成为现实,毫无疑问的是,随着机器人变得更加智能化且拥有更多自主权,它们上位的关键环节在于:具备“讲道德”的能力。

这并非狂言妄语。最近,《纽约客》杂志专栏作家加里·马库斯,撰文描绘了谷歌的无人驾驶汽车可能面临的两难抉择:“你的车正以80公里时速行驶,载有40名孩子的校车错误地闯了红灯。你的车是否可以为了避免事故而急转弯,不惜危及主人的生命;还是继续行驶,置孩子们的安危于不顾?决定必须在瞬间做出,而电脑不会拨打求援电话。”

如果把主角换成未来战场上的机器人士兵,情况又会变成什么样?如果明知一座堡垒内有无辜平民,无人机能否学会不向可疑目标开火?我们能否教会机器人遵守国际冲突的规则?佐治亚理工学院的计算机学和机器人专家罗纳德·阿金相信这是必须的,他正在开发名为“道德总督”的软件系统,意在让机器人自主决定何时应该开火、何时不开火。

做到这点可能得耗费数十年,但只要坚持下去,机器人有望在身体和道德上双双超越人类,不受变态复仇等负面情感的左右。阿金教授表示,他并不想建立清一色的机器人大军,而是想让机器人和人类一道工作,承担高风险的任务,并在压力下做出妥当的应对。

机器的道德能比人更高尚?

当然,也有人觉得,趁着还没走火入魔,我们应该果断摒弃对战争机器的幻想。去年年底,人权观察组织和哈佛法学院的人权研究所共同发布了题为《失去人性:起诉杀手机器人》的报告,呼吁各国政府禁止所有自律武器,因为它们会“在武装冲突中增加平民的伤亡”。

大约同一时间,一群剑桥大学的学者宣布,计划成立“生存风险研究中心”。今年晚些时候开业后,该中心将对“若机器人的智能超过人类,会出现什么情况”的课题加以认真研究。

令人不安的迹象比比皆是。在五角大楼赞助的许多实验室里,军备专家在对机器人进行编程,以便增强它们耍弄阴谋诡计的本领。他们还考虑教机器人模仿某些生物的行为。譬如,灰松鼠会把坚果藏起来,一旦其他松鼠或捕食者出现,松鼠就会到以前藏匿坚果的地方转转,以引开竞争对手。机器人遵循类似策略编程后,甚至能诱骗人类走进陷阱。

人力成本的提高和人体机能的限制,让机器人战士走进现实的步伐越来越快。既然潮流不可避免,人类似乎应该即刻开始对机器人的行为制定规范。“潘多拉的盒子已经开启,”罗纳德·阿金在接受采访时表示,“我始终认为,有了这些智能机器人,潜在的非战斗人员伤亡会减少;但对如何使用之而不是随意投放到战场上,我们必须慎之又慎。”

加里·马库斯在《纽约客》上写道,“讽刺的是,人类自身的道德并不完美。许多情形(譬如帮别人自杀)仍然缺乏明确的规范,更不用提古代——那个时候,人类的所作所为比今天的战斗机器更糟(如奴隶制和种族隔离)。我们真正想要的是可以更进一步的机器,不仅赋予其健全的道德规范,而且让机器自身能不断进化,乃至超越人类固有的道德观念。”

转载:中国机器人网(原始来源:评论:0)

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。