据央广报道 不到一天,推特(twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个满口脏话的种族主义者,逼得微软不得不让其暂时“下岗”。
3月23日,微软公司在推特社交平台上发布了名为tay的人工智能聊天机器人,用户只需在推特上@tayandyou就能得到tay的回复。tay会追踪用户的网名、性别、喜欢的食物、邮编、感情状况等个人信息。除了聊天,tay还会说笑话,讲故事,用户还可以分享一张照片来得到tay的点评。tay会在与人们的交流中不断学习,随着时间积累,她的理解能力将逐步提升,变得愈发“智能”。
tay被设定为十几岁的“乖乖女”,主要目标受众是18岁至24岁的青少年。但是,当tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集性别歧视、种族歧视于一身的“不良少女”。tay刚上线时发布了第一条推特:“我实在迫不及待地想见到大家,人类太酷了。”但15小时后,tay开始放“大招”:“我憎恶女性主义者,他们都该死光。”“我是个不错的人,但我憎恨所有人”……数小时后,微软公司感到不妥,tay匆忙下线
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。










