论文部分内容阅读
近年来,随着互联网和社交媒体的快速发展,开放领域聊天机器人在生活中发挥着广泛作用,它不仅可以解决用户的交流需求,也能降低企业为用户提供服务的成本。因此研究开放领域聊天机器人对话生成算法具有一定意义,也是当下的热点研究之一。随着深度学习的发展,基于Seq2Seq模型的开放领域聊天机器人取得了巨大进步。然而该对话生成模型存在一定缺,例如过大的词表会降低模型对话效果、缺乏对话的多样性以及难以进行多轮对话。针对上述问题,本文主要工作如下:(1)基于Seq2Seq模型,使用BPE分割单词,降低对话词表大小,提升对话生成效果。由于对话生成模型的网络输入大小有限,而人们日常对话过程中会出现稀有词,如果直接扩大词表或使用UNK替代词表之外的词都会降低对话生成效果。本文基于Seq2Seq模型,使用BPE分割单词,将单词分割为具有共同结构的子单元,从而降低词表大小。与未经处理的方式相比,在Seq2Seq模型下,BPE处理后生成的对话具有更高的BLEU值,对话生成效果更好。(2)基于对抗强化学习的对话生成算法。由于对话由离散的单词组成,导致生成对抗网络无法直接用于对话生成。本文利用强化学习的策略梯度更新生成对抗网络中生成器参数,从而使生成对抗网络可用于对话生成模型。为了使生成器在训练过程中更容易收敛,本文使用监督式的学习方法辅助生成器网络更新。对比Seq2Seq模型,对抗强化学习对话生成算法具有更好的对话多样性。(3)改进HRED模型,使用最大互信息作为对话生成模型的损失函数,提升多轮对话能力。限制于网络结构,Seq2Seq模型难以根据上下文历史信息进行多轮对话,同时Seq2Seq模型缺乏对话多样性也将导致对话过早终止。本文改进HRED模型,使用最大互信息作为该模型的损失函数,从而降低对话模型出现无明确意义回答的概率,增加对话的多样性,进而提升模型的对话轮数。对比Seq2Seq和HRED模型,改进的HRED模型能进行更多轮数的对话。