《复仇者联盟2》中,人工智能“奥创”背叛了人类,差点把所有人类都干掉。机器人造反简直是科幻世界里常见的主题了。可见,无论是《超能陆战队》里的呆萌机器人“大白”还是“中博会”上会聊天、唱歌、跳舞的“小柔”,都只是低龄的童话版。当机器人一步步向我们走来,而它要造反了,怎么办?
下一代机器人:
能自行决定杀戮目标
人类一直在努力地要把机器人制造成和人一样,能说话、能沟通、有表情、能握手、能唱歌跳舞、能完成任务。然而,人类又非常害怕那些咔咔咔咔地向我们走来的机器人,有一天会不分青红皂白地开始杀戮,或者把我们都变成了奴隶。
于是,阿西莫夫的机器人三定律被广泛传播。
“第一,机器人不得伤害人,亦不得因不作为而致人伤害;第二,机器人必须遵循人的命令,除非违背第一定律;第三,机器人必须保护自己,除非违背第一或第二定律。”
可是,如果你真的以为这样就能保护人类,说明你小时候没参加过“机器人”兴趣小组。实际上任何理解机器人如何运作的人都能造出不遵从三定律的机器人。阿西莫夫自己就写过至少三个不遵循定律的例子。(更惨的是还有机器人卡死在第二和第三条的死循环中了。)
于是,像“终结者”那样的机器人耀武扬威地跨过堆积如山的人类头骨的场景经常出现在科幻小说中。而在现实生活中,这也并非危言耸听,目前不少国家开发了智能战场机器人,引发一些政府的重重顾虑。
机器人对军方而言优势太大:无需报酬、不吃不喝不睡觉、自主执行上级命令、不会害怕、愤怒,也不会痛苦。还有,即便机器人在战场上被轰成渣,也不会造成举国悲痛。
但联合国的一位调查员海恩斯曾提交过一份“致命性自主机器人”的报告。海恩斯警告,杀人机器人可自行作出攻击目标决定,如果将此类武器补充到武器库,则可能会“打开更大的潘多拉魔盒”。
军方对机器人的看法像科幻小说
而有趣的是诺萨克的观点。他是国际机器人控制委员会主席,同时也是英国谢菲尔德大学研究人工智能和机器人的一名教授。这位教授看过了自主武器的军方计划书后大为震惊,因为“军方显然完全过分预估了这项技术,他们对自主机器人的看法更像是科幻小说的描写。”
对诺萨克而言机器人根本不会遵循基本的战争法。机器人无法区分战斗人员和平民,也无法分辨出哪些人是伤兵或者那些建筑是符合战争法中规定的可打击目标。
人们对自主机器人武器的误解达到了不可思议的地步,其中的原因是对人工智能抱有太大期望。
需要规则的是人类并非机器人
有人指出在遥远的未来人工智能可能发展成熟,电脑可以遵守战争基本法,那么最基本的道德问题依然没有消失。
诺萨克说:“谁该负责的问题依然没有得到解决,人们还是要抉择是否应该让机器人有权杀死人类。”也就是说,这个与高科技相关的问题,其实是个伦理问题。
“人类想出了阿西莫夫定律,但是定律本身就表明了简单的道德规则无法运作。如果你通读三大定律你会发现每条定律都说不通,阿西莫夫定律是不切实际的。”英国巴斯大学的约翰娜·博依逊教授说。
博依逊教授强调机器人和人工智能只能被视为最先进的工具——极端复杂的工具,但是仅此而已。“人工智能只是人类千百年来改造世界的无数工具之一,不同的是改造的速度比以前更快了。”
无论机器人的自主能力和智能达到何种水平,对博依逊来说,机器人和人工智能都只属于工具范畴,因此需要规则的并非机器人而是人类。“人们需要在自身建立道德框架,机器人用不着拥有自己的道德框架。人类要做出选择,把机器人放在人的道德框架之内,才不会残杀地球上的其他生命。”
如果人类无法自我约束,即便拴住了机器人,我们自己毁灭自己的能力,还是很强的。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。