团体标准网
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202111666257.7 (22)申请日 2021.12.3 0 (71)申请人 天翼电子商务有限公司 地址 100037 北京市西城区阜成门外大街 31号4层429D (72)发明人 孙芃  (51)Int.Cl. G06F 16/332(2019.01) G06F 16/33(2019.01) G06F 16/34(2019.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 一种生成式和检索式结合的多轮对话方法 (57)摘要 本发明公开了一种生成式和检索式结合的 多轮对话方法, 包括以下步骤: S1: 多轮对话历史 中每一句utterance的重要性是不同的, 最后一 句utteranc e是最重要的, 前面的utterance可以 概括为context, 候选的语句是response; S2: 首 先需要对utterance和response进行编码, 中英 文编码方式存在一定的差异, 基于中文的特点使 用字编码和词编码, 词编码使用结巴分词, 将语 句进行词级别的拆分, 然后进行向量映射。 本发 明的生成式和检索式融合的多轮对话方法在中 文对话数据集上获得较高的准确率, 继而体现出 本发明的有效性; 在深度学习模 型广泛应用的今 天, 智能客服对于提高用户体验至关重要, 基于 此, 本发明能明显提高多轮对话的匹配能力, 从 而为提高深度学习在多 伦对话领域做出贡献。 权利要求书1页 说明书3页 附图2页 CN 114528384 A 2022.05.24 CN 114528384 A 1.一种生成式和检索式结合的多轮对话方法, 其特 征在于, 包括以下步骤: S1: 多轮对话历史中每一句utterance的重要性是不同的, 最后一句utterance是最重 要的, 前面的ut terance可以概括为context, 候选的语句是respo nse; S2: 首先需要对utterance和response进行编码, 中英文编码方式存在一定的差异, 基 于中文的特点使用字编码和词编 码, 词编码使用结巴分词, 将语句进 行词级别的拆 分, 然后 进行向量映射, 字编码使用word2vec进行编码; 基于英文的特点分别是基于词级别和 character级别编码, 词级别和c haracter级别分别使用w ord2vec; S3: 分别对ut terance和respo nse进行编码, 得到句子向量; S4: 对步骤S3得到的句子向量进行GRU, 强化句子向量的表示, 将last  utterance和每 一轮utterance拼接得到新的句子向量; S5: 对步骤S4得到的句子向量进行自注意力机制, 进一 步强化句子向量的表示; S5: 根据步骤S4得到的句子向量, 对context中的每一句分别和最后一轮utterance进 行计算文本相似度, 选择文本相似度最低的一句话作为分割点, 只保留相似度最低的句 子 后面的几组句子向量residual  context, 认为相似度最低的句子 之前的句子与本轮候选对 话无关, 减少冗余信息, 提高匹配准确性; S6: 对S5阶段得到的residual  context进行文本生成, 得到一句信息量更大的对话摘 要generation  context, 同时只保留一句话降低了后续文本配对的难度, S5中选取历史文 本的方式有两种方式, 分别是选择所有文本, 寻找相似度最低的句子以后的所有句子, 文本 摘要的生成也可以采用多种方式, 包括抽取式的摘要和生成式的摘要; S7: 候选response文本分别与generation  context进入匹配网络进行文本相似度匹 配; S8: 针对word2vec字向量编码和jieba词向量编码得到的文本表示方法, 有两种结合方 法, 分别是将向量拼接, 和在 匹配网络后接入MLP将两种向量得到的匹配结果进行叠加, 前 者方法会使部分特 征丢失, 后者方法精度更高; S9: 在训练和测试阶段略有不同, 训练阶段对context使用回译方法增强文本多样性, 提高文本生 成的鲁棒性, 为了在Encoder ‑Decoder结构训练过程中加速训练收敛速度, 使用 的策略是Teacher  Forcing, 一般t时刻decoder的输入会采用上一步的预测输出, 但是由于 不准确的输出会带偏模型的节奏, 减缓收敛速度; Teacher  Forcing是将t ‑1时刻的真实标 签作为t时刻decoder的输入, 这样做让模型很快的学习到了训练集中的一些特征, 但是如 果一直使用t ‑1的真实标签会导致模型的鲁棒性较差, 在t时刻decoder过程中以一定概率 选取真实标签, 将真实标签与预测结果随机选择作为decoder的输入, 在前几轮迭代过程中 decoder的输入选择真实的标签以便模 型快速的往收敛方向发展, 在随后decoder过程中逐 步减少减少真实的标签出现的概 率, 增大预测的结果, 会使得模型的泛化能力更强。权 利 要 求 书 1/1 页 2 CN 114528384 A 2一种生成式和检索式结 合的多轮对话方 法 技术领域 [0001]本发明涉及多轮对话系统技术领域, 特别涉及一种生成式和检索式结合的多轮对 话方法。 背景技术 [0002]多轮对话技术用以实现人与计算机之类的快速信息交互,其中基于pipline的多 轮对话系统包括语音识别、 语 言理解、 对话状态维护、 动作候选排序、 语言生成、 语音合成等 模块,其中回答逻辑主要体现在 对话状态维护模块中,也即,当接收到语言理解模块的输出 之后,判断系统应该跳转到什么状态。 对话状态维护模块一般可采用人工规则来设置,但是 基于人工规则的对话状态维护模块不具有泛化能力,即当用户输入特别信息后, 人工规则 未针对该特别信息进 行设置, 则会造成整个多轮对话的中断。 因此, 传统的多轮对话方案的 泛化能力差,运行流畅性得不到保证, 对于状态维护模块需要专家进 行总结, 在不同场景下 无法通用。 使用端到端的多轮对话系统可以有效降低多轮对话的中间状态, 防止错误累积, 同时可以提高对话系统的泛化能力, 也 不需要过多的专 家经验, 有效降低人力成本 。 [0003]本发明是将生成式和检索式多轮对话进行 融合, 首先将历史对话的前几句分别与 最后一句utterance进 行话题相似度计算, 剔除无意义的话题减少后续匹配计算的难度, 将 话题相关的多轮对话进行生成一句对话历史摘要, 再与候选回复句子进行匹配度计算。 发明内容 [0004]本发明要解决的技术问题是克服现有技术的缺陷, 提供一种 历史对话生成和候选 response检索的生产式和检索式结合多轮对话方法, 能够实现更高的准确率。 [0005]本发明提供了如下的技 术方案: [0006]本发明提供一种生成式和检索式结合的多轮对话方法, 包括以下步骤: [0007]S1: 多轮对话历史中每一句utterance的重要性是不同的, 最后一句utterance是 最重要的, 前面的ut terance可以概括为context, 候选的语句是respo nse; [0008]S2: 首先需要对utterance和response进行编码, 中英文编码方式存在一定的差 异, 基于中文的特点使用字编码和词编码, 词编码使用结巴分词, 将语句进行词级别的拆 分, 然后进行向量映射, 字编码使用word2v ec进行编码; 基于英文的特点分别是基于词级别 和character级别编码, 词级别和c haracter级别分别使用w ord2vec; [0009]S3: 分别对ut terance和respo nse进行编码, 得到句子向量; [0010]S4: 对步骤S3得到的句子向量进行GRU, 强化句子向量的表示, 将last  utterance 和每一轮ut terance拼接得到新的句子向量; [0011]S5: 对步骤S4得到的句子向量进行自注意力机制, 进一 步强化句子向量的表示; [0012]S5: 根据步骤S4得到的句子向量, 对context中的每一句分别和最后一轮 utterance进 行计算文本相似度, 选择文本相似度最低的一句话作为分割点, 只保留相似度 最低的句子后面的几组句子向量residual  context, 认 为相似度最低的句子 之前的句子与说 明 书 1/3 页 3 CN 114528384 A 3

.PDF文档 专利 一种生成式和检索式结合的多轮对话方法

文档预览
中文文档 7 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共7页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种生成式和检索式结合的多轮对话方法 第 1 页 专利 一种生成式和检索式结合的多轮对话方法 第 2 页 专利 一种生成式和检索式结合的多轮对话方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 21:48:38上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。