我们能否教育机器人做个“好人”?似乎是有希望的。英国布里斯托尔机器人实验室的机器人专家艾伦·温菲尔德展开了实验,为机器人设定道德程序,观察机器人完成道德选择的情况。“机器人必须防止人类受伤害”,这是人类给机器人设定的道德法则中的基础。但是如果是自动驾驶的汽车,究竟是该救自己的司机还是救迎头撞上来的车里的司机呢?这是机器人需要面临的道德困境。研究者给机器人出了一个类似“你妈和我同时掉到水里,你先救谁”的选择难题。计算机科学家罗纳德·阿金专门针对名为“道德监督员”的军事机器人研制了一套运算法则,这套运算法则可帮机器人在战场上做出明智的抉择。结果显示,安装这种程序的机器人能够选择不开枪,且在战斗过程中,能够在学校和医院等战争条例规定的受保护区域附近尽量减少人员伤亡。 转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。