微软聊天机器人Tay突显出人工智能离真正的智能还有多远

导读 对微软来说,这向来是公关周的噩梦。微软Xbox部门的负责人菲尔?斯宾塞(Phil Spence r)不得不为在微软(Micros of t)在游戏开辟者大

对微软来说,这向来是公关周的噩梦。微软Xbox部门的负责人菲尔?斯宾塞(Phil Spence r)不得不为在微软(Micros of t)在游戏开辟者大会(GDC)上举办的一场晚会上,穿着“学校女生”服装的女舞蹈家道歉。他说,让舞者参加这次活动“绝对不符合或符合我们的价值观。这显然是错误的,不会被容忍”

这件事是内部处理的,所以我们不知道谁会负责,为什么他们可能会认为这是一个好主意。

但当一个叫Tay的聊天机器人开始在推特上发表攻击性评论,似乎支持纳粹、反女权和种族主义观点时,微软的情况会变得更糟。当时的想法是,Tay背后的人工智能将在Twitter和其他社交媒体网络上向他人学习,并以平均19岁女性的身份浮现。然而,发生的事情是,实验被一群来自臭名昭著的“pol”(政治上不正确的)公告栏的人劫持了,他们开始训练Tay说一些非常不恰当的话。

这一次是由微软研究院的公司副总裁Peter Lee说的,他不得不说:“我们对来自Tay的无意冒犯和损害性的推文深感遗憾,这些推文不代表我们是谁,也不代表我们的立场”。

泰被抓获,推特被删除,但在其中一些最具攻击性的推特被抓获并在互联网上进一步传播之前没有。

显然,微软的研究人员认为,由于他们成功地开辟了一个类似的人工智能聊天机器人,称为XiaoIce,它向来在社交网络微博上成功地在中国运行,Tay在Twitter上与西方受众的经验将遵循同样的道路。

在IBM的Watson电脑上工作的人工智能交互设计师Caroline Sinders写了一个很好的解释,说明Tay的开辟人员应该如何预测这一结果并加以保护。对机器人的测试还不够,固然,该技术的开辟人员没有社会学技能来了解互联网上的社区范围,以及一旦该技术被释放到野外,他们会做些什么。

Tay的令人不安的结果是,微软的Peter Lee认为Tay“实验”的问题是一个技术问题,可以通过简单的技术修复来解决。他完全忘记了这个问题是一个社会学和哲学的问题,除非从这个角度加以解决,否则总会导致技术听起来表面上是人类的,但永远不会显示出任何真正的智慧。

聊天机器人的设计是为了了解语言是如何构建的,并利用这些知识来创建上下文正确和相关的单词。他们不被教导去理解这些词的实际含义,也不被教导去理解这些词的社会、道德和伦理层面。泰不知道什么是女权主义者,当它建议“他们都应该死在地狱里燃烧”时,它只是重复了一个词的结构,它的输入作为句子的一部分,它可以重新格式化,听起来很有可能是故意义的。

我们从听起来很聪慧的东西到实际上很聪慧的实体的飞跃,这证明了人性对人类技术的拟人化能力。最近谷歌的AI软件AlphaGo就是如此,它在复杂的Go游戏中击败了一个世界级的人类玩家。关于这一点的评论表明,AlphaGo展示了许多人类智能特征,而不是它所做的,这是有效地搜索和计算获胜策略,从它可以访问的数百万游戏。

即使是应用于人工智能的“学习”一词,也会导致许多人,包括人工智能本身的开辟者错误地认为它相当于人类所经历的学习过程。这反过来导致了像斯图尔特·罗素(Stuart Russell)和彼得·诺维格(Peter Norvig)这样的人工智能专家多年来警告说,“人工智能系统的学习功能可能导致它演变成一个有着意想不到行为的系统”的风险。

与Tay的实验突出了微软开辟人员的糟糕推断,以及聊天机器人的局限性。在这种情况下,人类和软件似乎都无法从这一不幸事件中吸取真正的教训。

版权声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。