《道德机器》 如何让机器人明辨是非 (美)温德尔·瓦拉赫 柯林·艾伦 著 王小红 译 北京大学出版社 2018年11月出版
——读《道德机器:如何让机器人明辨是非》
⊙刘英团
美国科幻小说黄金时代的代表之一艾萨克·阿西莫夫在短篇小说《环舞》中提出的“机器人三大法则”(包括“机器人不可以伤害人类,或看到一个人将受到伤害而不作为”;“机器人必须服从人类的命令,除非这些命令与第一项法则矛盾”以及“在不违反第一、第二项法则的前提下,机器人必须保护自身生存”),被此后的各类故事和小说不断借用。但是,这些保护性设计或者内置的道德法则能框住拥有独立思考能力的机器人吗?人们对于把自己的生命和福祉交给忽视伦理的系统会感到放心吗?著名伦理学家、耶鲁大学生物伦理学跨学科中心主管温德尔·瓦拉赫(wendell wallach)在与国际知名认知科学哲学家,美国印第安纳大学布卢明顿分校教务长讲席教授、斯坦福哲学百科(sep)副主编科林·艾伦(colin allen)讨论时认为,机器道德关乎人类的决策行为。因此,他们在《道德机器:如何让机器人明辨是非》中提出,不要把责任推给机器,“我们必须更加坚守人类的价值观和伦理”。
我们置身于一个丰富多采的世界,也生活在一个困惑和焦虑的时代。“人类决策者会因为没有掌握全部相关信息或没有考虑到所有偶发事件而做出糟糕的选择,所以也许只有在一场未预料到的灾难发生之后,人类才会发现他们所依赖的(软硬件)机器人的不完善。”正如《道德机器》的两位作者所言,在未来,可能会出现一些无人驾驶汽车需要做出选择的场合——选哪条路,谁会受到伤害,或谁会处于受伤害的风险里?该对汽车有什么样的道德规范?我们当然有理由担心,也许不能完全理解为什么机器人做出了某个特别的决定。但是,我们需要确保机器人不会吸收和加重我们的偏颇之处。因为不管我们喜欢与否,机器人就在我们的身边,“到2030年,自动卡车、飞行汽车和个人机器人将随处可见”(斯坦福大学《2030年的人工智能与生活》报告),在交通、医疗、教育、金融和就业等各个领域,人工智能正以人们意想不到的方式融入人类社会。
面对这样的趋势,研究人员究竟该怎样设计一台机器人才能使其在面对“两难之选”之时作出正确反应呢?
“机器需要讲道德。”这是英国皇家标准协会(bsi)最新标准《机器人和机器系统的伦理设计和应用指南》(bs8611)的硬性规定。回望过去近300年,现代科技的每一次跨越,总会引发人们对社会伦理道德的忧虑。随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。世人都看到了,“阿尔法狗”在对弈中战胜了围棋世界冠军李世石和柯洁。而柯洁的感叹是,“一个纯净、纯粹自我学习的alphago master是最强的,对于alphago master的自我进步来讲,人类太多余了。”今天,人类再想要阻止人工智能的想法已经不可能了。那么,如果有一天ai的能力超过人类,是否会反过来统治人类呢?对此,包括霍金、马斯克在内的科技巨人都曾发出过警示:“人类不应低估人工智能发展可能带来的严重后果。”
所以,当下科学界的主流观点是,机器不能不讲道德,不然,这个世界无法想象。按麻省理工学院情感计算研究组主任罗萨琳德·皮卡德教授的说法是,“机器越自由,就越需要道德准则。”而在《道德机器:如何让机器人明辨是非》中,两位学者通过强调两个维度——针对道德相关事实的自主性维度和敏感性维度,给出了一个关于日趋复杂的amas(人工道德智能体)轨迹的理解框架,以“评估它们面对的选项的伦理可接受性”。
机器的智能化正在逐步深入到生活领域:客机自动降落,列车无人驾驶,没有方向盘、刹车和驾驶座位的无人驾驶汽车正在紧张的测试中。但是,再怎么说,机器人之“人”终究不是人类之“人”,“如果人们不确定机器会做什么,他们会害怕机器人的……如果我们能分析并证明它们的行为原因,就更可能克服信任问题。”英国利物浦大学计算机科学家迈克尔·费希尔和英国西部大学艾伦·温菲尔德教授共同做的一项政府资助的项目证明,“道德机器程序的结果总是可知”的。“在当前的技术水平下,我们不能‘谴责’机器人。机器人尚未达到为自己的决策负责的水平。”萨塞克斯大学人工智能专家布莱·惠特比认为,即使最低限度的道德机器人也是有用的。来自国际计算机科学家团队的一项新研究着手开发一种新型的博弈算法——其可以依靠协作和妥协等特性来博弈,而且研究人员已经发现,机器已经可以比人类更好地部署这些特性。由此,《道德机器》的两位作者认为,随着机器变得更加复杂,一种“功能性道德”在技术上变得可能,它可以使机器自身有能力来接近并相应地面临道德挑战。
来源:虾证券泄证券
以上是网络信息转载,信息真实性自行斟酌。