哈喽大家好我是站长,美区火箭apple ID 土耳其apple ID 其他apple ID 账号资源,可加微信: 咨询 公众号:Ai
该论文由腾讯AI Lab主导,与哈尔滨工业大学合作完成,作者提出了一个多阶段对话应答生成框架。
该方法会删除可能导致生成的响应不一致的单词,并对其进行重写,以生成与人的属性相符的高质量响应。以下是对该论文的详细解读。
生成、删除和重写:提高对话生成角色一致性的三阶段框架
在对话过程中,人类说出的话语自然会与其基本属性一致,但对于对话机器人来说,保证生成的对话与其自身属性一致仍是一项艰巨的任务。为了解决这一问题,研究人员提出了基于人物属性的对话生成任务。
本任务通过显式地在对话生成模型中加入人物属性文本来解决角色特征不一致的问题。现有的基于角色信息的对话模型虽然在生成回复方面取得了一定的效果,但其单阶段解码框架依然难以避免不一致角色词的生成。
例如,假设模型角色文本是“我住在加利福尼亚州”,则模型生成的响应是“我在科罗拉多州”。
作者指出造成上述不一致的一个重要原因是从对话输入到响应的语义映射以及属性信息的融合需要模型同时完成。
传统的单阶段对话生成模型可以很好地学习前者的映射关系,但是模型在这个映射过程中学习到的语言模型往往与特定的属性信息不一致。
因此,本文作者在单阶段对话生成模型(Generate)的基础上进一步引入了Delete和Rewrite两个阶段,以提高生成的响应的属性信息的一致性。
在这个方法中,模型首先生成完整的原型应答,然后通过掩码的方式去除可能引起不一致的单词,最后在被删除的原型应答上再次生成,即改写,得到最终的应答。总结一下,GDR模型的流程如下图中的例子所示。
对应三个阶段,GDR模型也由三个主要模块组成:
1)原型响应生成器G。该模块以人物属性文本和对话查询作为输入,生成原型响应以供进一步处理。它采用编码器-解码器架构,编码器和解码器均以Transformer为基本单元;
2)一致性匹配模型D。该模型用于检测并删除原型响应中可能导致字符属性不一致的单词。该模型使用自然语言推理在DNLI数据集上进行训练;
3)原型响应重写器 R。重写器学习将原型响应重写为更一致的对话响应。与 G 类似,它也是一个 Transformer 解码器,但它将角色属性文本和已删除的原型响应作为输入,而不是对话查询。
这样保证了R能够更加专注于学习整合角色信息,模型整体结构如下图所示。
为了验证GDR的有效性,作者在PersonaChat数据集上进行了实验,在评测指标方面,同时采用人工评测和客观指标来比较不同模型在人物属性一致性和响应质量方面的差异。
为了更好地评价不同模型的人物属性一致性,作者引入了两个基于分类器模型的指标和,以分类器判断为一致的响应比例作为人物属性一致性的客观度量。
DIIN模型基于RNN结构,BERT模型基于Transformer结构,对比两种模型的分类结果有助于消除不同结构之间的偏差。
主要实验结果如表1所示,可以看出,GDR模型在角色一致性方面的表现优于所有基线模型。同时,在语言模型的困惑度(ppl)方面,GDR取得了最低的16.7,明显优于所有现有模型,说明GDR模型在生成响应所使用的词汇方面更接近真实的响应。
表 1. GDR 与基线模型的人工评估结果(左)和客观指标(右)
此外,作者还对比了不同模型生成的回复质量,并进一步分析了不同模块对 GDR 最终结果的贡献,发现 D 对提升字符属性一致性的贡献最大,而 R 则进一步降低了语言模型的困惑度。
总之,这项研究工作为设计个性化对话系统提供了一种新的多阶段方法。
哈喽大家好我是站长,美区火箭apple ID 土耳其apple ID 其他apple ID 账号资源,可加微信: 咨询 可扫码下方关注公众号获取账号教程资源