基于实体知识推理的端到端任务型对话

发布日期:2024年5月31日
基于实体知识推理的端到端任务型对话 基于实体知识推理的端到端任务型对话

本内容试读结束

下载后可阅读完整内容,立即下载

端到端任务型对话系统通过人机对话的方式来完成特定的任务以满足人类的需求,为了促进响应生成和实体预测,提出了一种基于实体知识推理的端到端任务型对话系统。该系统利用标记着对话历史实体信息的实体掩码,从对话历史编码中提取实体信息,并根据对话上下文推理出相关的实体信息以丰富当前上下文的实体知识;同时利用候选实体的正负样本与响应生成器的交叉注意力结合进行对比训练,将响应生成模型中的实体预测信号直接反馈给编码器以增强监督学习的能力;最终通过联合学习提高了模型的响应生成和实体预测能力。实验结果表明,在SMD、Multi-WOZ 2.1和CamRest数据集上,提出的模型能够生成丰富的响应内容,有着精准的实体预测准确率,并且验证了模型的有效性与实用性。

端到端面向任务的对话系统帮助用户完成某项特定任务的时候,例如订餐等,通常会借助于外部知识库的知识,通过检索和当前对话有关的实体知识信息来生成友好的系统响应[1] [2] [3]。虽然一些像ChatGPT 的大语言模型(LLMs)在理解多回合对话和生成流畅的响应方面变现出不菲的能力,但是它们仍然需要访问特定的知识来处理特定的任务,因此知识检索在对话系统中仍需要作为一个重要的组件进行长期探索。

为实现面向任务的对话生成,目前存在两种主要的方法用来实现对话系统,一种方法是开发一个模块化结构模型[4],它主要有三个模块构成,分别是自然语言理解、对话管理和自然语言生成[5]。但是, 模块化结构的方法需要根据知识库预先定义对话状态模式,其中每个模块需要大量的人工注解来完成系统的训练。另一种方法则是用端到端的形式来构建对话系统,它没有上述的模块划分,消除了那些模块中人工注解的规则和目标值,直接利用对话文本生成端到端的系统响应[6]-[11]。

Figure 1. Example of dialogue history and related entity relationship diagram 图1. 对话历史以及相关实体关系图示例 将大规模的知识库(KB)整合进神经网络模型,通过和外部知识的结合来生成满足用户需求的响应, 如何高效地把外部知识库整合进网络模型是如今端到端任务型对话系统的主要挑战。丰富的编码语义则



相关标签