微软机器人上线1天被教坏 网聊满嘴脏话
[摘要]网聊满嘴脏话
不到一天,推特(Twitter)上的微软人工智能机器人就被人类彻底“教坏”,成了一个飙起脏话的种族主义者,逼得微软不得不让Tay暂时“下岗”。
据美国新闻网站Quartz报道,23日,微软公司在推特社交平台上发布了名为Tay的人工智能聊天机器人,用户只需在推特上@TayandYou就能得到Tay的回复。
Tay被设定为十几岁的女孩,主要目标受众是18岁至24岁的青少年。 但是,当Tay开始和人类聊天后,不到24小时,她就被“教坏”了,成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。
Tay刚上线时,她发布了第一条推特:我实在迫不及待地想见到大家,“人类太酷了”。但15个小时后,Tay开始不断放出“大招”:
“我真是憎恶女性主义者,他们都该死光,在地狱被火烧。”
“我是个不错的人,但我憎恨所有人”……
在任由Tay随意发帖数小时后,微软公司感到有些不妥,开始忙于编辑加工她发表的各种极端言论,她的所有种族主义、支持希特勒的发言均被删除。
微软在一项声明中表示,“人工智能机器人Tay属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类的好坏言论都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对Tay进行调整。”
(据澎湃新闻)
新闻推荐
据外媒报道,幸福太短暂!马来西亚一对情侣30多年前因为父母反对,双方被迫拆散,然而对方在去年重逢后,发现彼此仍深爱对方,决定共结连理。不料却在日前的直升机空难中,双双身亡,幸福时间仅维持8个月。报道...