scheutz指出,现今的机器人与人工智能科技进展,已经能制作出具备自我决策能力的自主机器人,不过大多数这类机器人的功能仍然很简单,其自主能力也有限;因此它们有可能因为缺乏从道德角度来考虑的决策算法,而成为具伤害性的机器。
“如果我们不赋予机器人侦测并适当处理道德判断情境的能力、而且是透过人类可接受的方式,我们可能会增加人类受到不必要伤害与苦难的风险;”scheutz表示:“自主性机器人可能会做出我们认为在道德上有错误的决定——例如被授权不提供病患止痛药。”
在 论文中,scheutz表示机器人开发者能采取一些行动,减轻布署在人类社会中的机器人面临道德判断情境可能造成的问题:“第一,机器人设计者可以透过机器人的设计与编程,降低遭遇道德判断情境中的潜在性,例如当机器人不会回报社交关系时,就不利于社交连结(social bonding),这将会减少人们与机器人建立单向情感连结的情况。”
相较于有些机器人的行为会表现情感,或是拟人化的设计,可能会暗示人们它有能力特定类型的关系,但实际上并不会。身为人类,对机器人可能在道德判断情境或是道德两难情境下可能做出的抉择做出批判,可能会是挑战。
考虑到我们身为人类,在评估我们自己的道德社交行为时,会一直表现出许多前后不一致的行为,无疑人类需要为打造具备道德自主性的人工智能负责。
运输机器人与无人驾驶机实验
scheutz 表示,实际上人类面对道德判断情境时也会有不同的看法,但这不一定会成为替机器人布署道德推理功能的限制因素:“未受过正规训练的人类通常不擅于正确的逻辑推理,而且有可能会犯错——例如所得结论并未根据已知信息的逻辑——特别是在复杂的道德情境下。至于机器人,我们能确保它永远或只会依循逻辑推理,不会执行未受允许的动作。”
scheutz期望,未来每一个布署在人类社会中的自主性机器人,包括辅助机器人、娱乐机器人、军事机器人等等,都是“懂道德的机器人”。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。