北京时间7月5日早间消息,一年前,微软twitter平台的聊天机器人tay变成了“种族主义者”,而它的后续产品zo又再次出现问题。
尽管微软通过编程让zo忽略政治和宗教话题,但buzzfeed的编辑尝试让zo对某些受限话题做出了令人惊讶、充满争议的回应。在交流中,zo将古兰经称作“非常暴力”。此外,它还对本·拉登的死亡做出评论,称抓住本·拉登是“不止一个政府多年情报收集”的结果。微软表示,zo的行为错误已经得到纠正。
去年,微软尝试让聊天机器人tay模仿时髦的青少年。然而在一天时间内,tay就开始出现种族主义言论,twitter上的所有人都可以看到这些。微软随后被迫关闭了tay。因此,微软将zo限制在消息应用kik内,维持着中等的用户群体规模。不过,zo似乎仍然出现了一些坏习惯。
微软将tay的问题归咎于部分用户对其进行的破坏。不过微软表示,zo并没有遇到这样的问题。目前,这款聊天机器人仍然存在于kik平台,微软也没有计划关闭zo。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。