【AI星球(微信ID:ai_xingqiu)】1月31日报道 (编译:叶展盛)
尽管人工智能助手M已经被关闭,Facebook并没有放弃聊天机器人。在过去几年里,这家公司在悄悄改善自己人工助手的能力:让机器人学会聊天。
Facebook FAIR实验室的研究员们于本周公布了一份电子文档,里面讲述了这个任务哪些方面还完成得不好:首先,在聊天过程中,针对同一事物,它们没有表现出“前后一致的性格”。其次,它们不记得自己或聊天的对象在过去讲过什么。最后,当面临自己理解不了的提问时,它们只会给出自己预先编程好的回答,比如“我不知道”。
聊天机器人的目标并不是为了“审讯”,而是“交流”,为了创造出这种属性,研究员借助了深度学习。也就是说,研究员不会预先针对某些问题编写出答案,而是让聊天机器人浏览大量数据进行学习。
研究员们表示,目前这种方法已经取得了一定的成果,但仍然面临着一个挑战,那就是如何在一开始获得正确的数据。许多同一时期的聊天机器人会通过电影的剧本来训练。也就是说他们是真正地在聊天(而不是针对某种任务,如客户服务,进行直接的对话),在聊天的过程中,他们会突然提出某些奇怪的问题。
实验人员:我喜欢美味的牛排。你呢?
机器人: 我爸常常告诉我,如果我们过去有你那么多的钱——那么我们每天吃的牛排和冰淇淋能多三倍。
实验人员:除了牛排和鸡肉,我还吃熏肉。
机器人:我爸常常告诉我,如果我们过去有你那么多的钱——那么我们每天吃的牛排和冰淇淋能多三倍。
实验人员:是的,你刚刚已经讲过了。
机器人:动态结构能够吸收震动。
实验人员:是的,它可以,我在从事健美的时候就知道了。
机器人: 先生们女士们,全世界最强壮的男人正在试图吹爆一个热水瓶。
显然这段对话不太愉快。为了解决这个问题,Facebook的工程师建立了自己的数据集来训练机器人。这个数据集被称为Persona-Chat,里面包含了超过16万条对话,它来源于亚马逊Mechanical Turk市场里的员工。
Persona-Chat聪明的地方在于它的闲聊不仅包含了随机性。为了给予数据一定的结构性,同时为了解决聊天机器人前后性格不一致的问题,Mechanical Turk的员工被要求要在对话中突出自己的性格特色。
这些数据被用于训练现有聊天机器人的神经网络,最后的结果会被另一组Mechanical Turk的工作人员印证。在每个案例中,他们都被要求和特定人格驱动的机器人聊天,并将它和其他人以及机器人作对比。也许你能猜得到,这些机器人在“流利性”、“前后一致性”的方面虽然比不上真人,但是也远远超过了先前用电影剧本训练的机器人。
实验人员: 我刚刚踢完了足球,你最近在做啥?
机器人: 我没有宠物,我大多数的空余时间都用在写作上,你呢?
实验人员:我刚刚从大学毕业,正在找工作。
机器人:我已经毕业了,专业是写作和诗歌。
实验人员:你的作品里有没有哪些已经被出版了?
机器人:我主要写小说。
实验人员: 你喜欢看体育竞技吗?
机器人: 你喜欢《狮子王》吗?它是我的最爱。
实验人员:你结婚了嘛?我快要结婚了。
机器人: 哈哈!我很忙,最近有部小说快要完成了。
很有趣吧,尽管这种机器人在流畅性和前后一致性上取得了不错的分数,但是测试结果表明和它聊天反而没有那么高的互动性。Facebook的研究员并没有对此作出解释,也许就是受特定人格的限制,聊天的内容离不开某些特定的话题。