CN108959467A - 一种基于强化学习的问句和答案句相关度的计算方法 - Google Patents
一种基于强化学习的问句和答案句相关度的计算方法 Download PDFInfo
- Publication number
- CN108959467A CN108959467A CN201810633524.2A CN201810633524A CN108959467A CN 108959467 A CN108959467 A CN 108959467A CN 201810633524 A CN201810633524 A CN 201810633524A CN 108959467 A CN108959467 A CN 108959467A
- Authority
- CN
- China
- Prior art keywords
- sentence
- answer
- network
- question
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于强化学习的问句和答案句相关度的计算方法,其包括:获得平行语料;通过神经网络框架训练平行语料,以得到相关度计算模型;之后使用该模型为候选答案句计算其与问句的相关度值,由此选取最恰当的答案。通过本发明,可以简单方便地实现问答句相关度的计算,并提高答案选取的准确性。
Description
技术领域
本发明涉及问答系统(Question Answering,QA)及强化学习(ReinforcementLearning,RL)的技术领域,尤其是一种基于强化学习的问句和答案句相关度的计算方法。
背景技术
信息时代的到来与信息技术的飞速发展使得问答系统受到了广泛的关注与应用。问答系统旨在依据其所具备的知识信息,尝试回答用户提出的新的问题。国内外常见的社区问答网站,如Answers.com,YAHOO!ANSWERS和百度知道等,已经积累了丰富多样的问句和答案句语料。问答系统中最主要的问题,便是如何在这些语料中找到与用户所提出问题最相关的问句答案对(Question Answer Pair)。最直接的方法便是在语料中寻找与用户问题最相似的问句,并将该问句的答案返回给用户,由此衍生出了很多问句间相似度的计算方法。这样做的好处是简单、快捷;然而,由于答案句没有经过分析和处理,其中可能包含未能被检查出来的无关信息和冗余信息,用户可能不甚满意。继而,研究内容开始围绕着计算用户问句与知识库中问答对之间的相关度展开,特别地,如何通过较为精确地评价答案句是否能够回答用户问句,即计算问句和答案句之间的相关度得分,成为了研究热点。
随着神经网络和深度学习模型在各大领域中崭露锋芒,国内外诸多学者纷纷开始利用这一技术解决上述问题,并在相关的研究中发表了许多论文和期刊。Bingning Wang等人和Di Wang等人就利用长短期记忆(Long-Short Term Memory,LSTM)网络,结合注意力(Attention)机制对问句和答案句之间的相关性进行建模。Seunghyun Yoon等人则是将之看做是对答案的排序问题,通过多层循环神经网络(Hierarchical Recurrent NeuralNetworks)和潜在主题聚类(Latent Topic Clustering)对问句和答案句进行联合表示,并在模型训练的过程中使用了pairwise的损失函数,取得了不错的效果。
这些方法都直接对整个问句与整个答案句进行处理,因此得到的句子信息局限在了整个句子层面,而句子中的无关信息和冗余信息没有被很好地过滤和处理,会影响到相关度计算的准确性和系统的性能。此外,模型所使用的pairwise损失函数计算的是每两个结果之间的误差,不能很好地反映整个排序结果的误差,具体体现在:(1).排名高的答案应该比排名低的答案更加重要,因此排名高的答案出现错误时产生的损失应该比排名低的答案出现错误时产生的损失更加高,而pairwise损失函数则赋予了所有错误一样的权重;(2).使用pairwise损失函数时,构造的答案对的数量会随着相关答案集规模的增大而显著增加,因而这部分数据产生的损失在整体损失中占了很大部分的比例,由此训练结果会偏向于相关答案集规模大的问题。
发明内容
针对上述不足,本发明的目的是提出一种基于强化学习的问句和答案句相关度的计算方法,通过引入强化学习这一机制,使得模型能够有选择性地对句子进行表示。具体地说,在传统神经网络模型的基础上,加入了强化学习的部分,在对句子进行表示时,对句子中的词进行筛选操作。为此,定义行为(Action)空间是{保留,删除},分别表示句子中的每个词需要/不需要用于整个句子的表示中。通过这种方式,可以将句子中的无关信息从句子的表示中除去,进而能够计算得到更精确的相关度值。此外,采用关注全局差异的listwise损失函数代替传统的pairwise损失函数,能够更加有效地对模型进行训练,使得得到的相关度值更加准确。
实现本发明目的的具体技术方案是:
一种基于强化学习的问句和答案句相关度的计算方法,该方法包括以下具体步骤:
步骤1:从问答网站上爬取问答对数据,获得平行语料,即用于模型训练的源训练预料和用于检验效果的目标语料;
步骤2:通过神经网络框架训练平行语料,得到相关度计算模型,具体包括:A1:对源训练语料中词序列的文本进行词向量编码,得到源训练语料中词的高纬度向量化表示;
A2:将向量化表示的源训练语料作为输入,放入神经网络框架中,获取问句和答案句的相关度得分;其中,对问句的表示采用长短期记忆网络(LSTM),将最后的隐含状态作为整个问句的表示;答案句表示所使用的网络则分为两个部分:演员(Actor)网络和评论家(Critic)网络;演员网络为长短期记忆网络,其目的是对答案句中每个词采样一个行为,行为空间是{保留、删除};演员网络通过获取隐含状态序列,并为每个状态选择行为,得到真实的输入序列;评论家网络为长短期记忆网络,其目的是计算问句和答案句的相关度得分;评论家网络与演员网络共享参数,对演员网络输出的真实的输入序列编码,得到最终的隐含状态;设置线性层,得到问答句相关度得分;
A3:构造listwise损失函数,并训练步骤1中平行语料得到相关度计算模型;首先对评论家网络进行预训练,接着对演员网络进行预训练,之后交替训练这两个网络,直到模型收敛或达到最大训练次数为止;
步骤3:利用步骤2所得模型计算问句和每个候选答案句之间的相关度,选取相关度值最大的候选答案作为最终的回答。
与现有技术相比,本发明有以下优点:
1)在问句和答案句相关度计算的模型中引入了强化学习这一机制,在问句和答案句表示的过程中加入了选词的操作,使得问答句表示中包含的信息更加精炼,并且能够提升问句和答案句相关度计算的准确度。
2)在模型训练的过程中,采用LearningToRank模式下listwise的损失函数,并将其作为奖励值的主要组成部分,使得反馈的奖励值能够反映出更加真实的情况,进而强化学习能够更有目的性地进行训练。
附图说明
图1为本发明实施例问句和答案句相关度计算模型结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施例对本发明进一步详细的描述。
本发明提供了一种基于强化学习的问句和答案句相关度的计算方法,通过该方法,只要预先准备好相关问答数据集,即可自动的获取平行语料且完成模型训练,通过训练得到的模型,即可在给定问题和其对应的候选答案集中选择出最恰当的答案。
本发明在不同的环境下都可以完成配置预测,可应用于终端或者服务器等装置的应用环境中。
本发明将答案选取的问题转换为问答句分类的问题,即将问答语料转换成平行语料,并通过基于平行语料训练得到的神经网络模型处理答案选取问题。通过词向量表示平行语料中的词汇,词向量之间的距离可以来表征词汇之间的语义距离,这样可以将词汇对应的众多上下文向量参与到神经网络模型的训练。
本实施例包括以下具体步骤:
1、获得平行语料的方法
获得平行语料,即构建问答对的平行语料,问答对可以从问答网站,中文如百度知道,英文如Answers.com等进行抓取。需要抓取的内容有,问句文本,候选答案句集和其对应的排名。
2、参阅图1,通过神经网络框架训练平行语料,以得到相关度计算模型,之后使用该模型进行答案选取,其中平行语料包括:源训练语料和目标语料。
1).通过对源训练语料中词序列的文本进行词向量编码,以得到源训练语料的高纬度的向量化表示。具体做法为,对得到的文本序列分词后的词序列,同时生成对应词袋——词序列中不同词的集合。运用Word2Vec技术,对中文数据集训练词向量模型,使词袋中的词通过词向量模型得到唯一的向量表示,实施例中词向量维度设定为200维。
2).利用LSTM分别对问句和答案句进行表示;其中,直接使用了LSTM对问句进行表示,如下所示:
ft=σ(Wf·[ht-1,xt]+bf)
it=σ(Wi·[ht-1,xt]+bi)
ot=σ(Wo·[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中,ft和it代表遗忘门和输入门,表示t时刻时应该从上一个状态中保留多少信息,从当前状态中获取多少信息;Ct表示t时刻LSTM中cell的状态;ot代表输出门;ht表示t时刻状态的输出,xt表示t时刻输入的词,[,]表示联结操作。σ和tanh均为激活函数,Wf,Wi,Wc,Wo和bf,bi,bc,bo均为参数。
对答案句进行表示时,使用了两个网络:演员网络和评论家网络。其中,演员网络为长短期记忆网络,其目的是对答案句中每个词采样一个行为,行为空间是{保留、删除}。演员网络中引入了强化学习的策略参数θ,结合LSTM的当前隐藏层状态和当前词的表示,在行为空间中做出合适的选择:
P(at|ht-1,xt)=σ(θ*[ht-1,xt])
其中,ht表示t时刻LSTM的隐藏状态,xt表示t时刻输入的词,[,]表示联结操作,θ表示策略参数,σ表示激活函数,at表示t时刻所选择的行为,行为的空间为{保留,删除}。
评论家网络为长短期记忆网络,其目的是计算问句和答案句的相关度得分;评论家网络与演员网络共享参数,对演员网络输出的真实的输入序列进行编码,以得到最终的答案句的表示。之后,利用注意力机制,使问句和答案句之间产生信息交互,以得到加强的表示。
首先,根据问句和答案句的交互信息,为答案句中的每个词计算权重,并将其用来强化答案句的表示,即
e(ai,q)=(ai·Wa+q·Wq+b)vT
α=[α1,α2,α2,…,αN]
a′=αTa
其中,ai∈R1×h表示答案句中每个词的隐藏状态,q∈R1×h表示问句最后一个状态的输出,Wa,Wq∈Rh×h,b∈R1×h和v∈R1×h是参数,N是问句的长度,e(ai,q)计算答案中的每个词和问句之间的相关度,之后通过softmax操作得到答案中每个词的权重αi。最后,将所有词权重的值α∈R1×N与答案表示相乘得到最终答案的表示a′。类似的,得到问句的表示q′,
e(qi,a)=(qi·Wq′+a·Wa′+b′)v′T
β=[β1,β2,β3,…,βM]
q′=βTq
其中,W′q,W′a∈Rh×h,b′∈R1×h和v′∈R1×h是参数,M是答案句的长度。之后,通过一个线性层,计算最后的相关度得分,并利用sigmoid进行归一化。
s(q′,a′)=σ(W1q;+W2a′)
其中,W1和W2是模型参数,σ表示sigmoid激活函数。
3).在得到每个答案的得分后,计算listwise的损失函数。
其中Py(j)表示在得分分布为y的情况下,第j个样本的排名为第一的概率。该值反映了标准得分分布和计算得分分布之间的差异。通过梯度下降法可以更新模型网络部分的参数,同时将该值取负作为奖励函数的主体部分。
此外,在奖励函数中加入了一个约束项,以控制保留的词的个数,最终得到的奖励如下,
其中,L′和L分别表示经过删减操作后句子的长度和原始句子的长度,β是控制两个部分权重的参数。
最后,通过策略梯度方法,求出θ的梯度,并更新策略参数θ:
需要说明的是,对于具体方法步骤,为了简单描述清楚,因此将其表述为顺序执行的任务,但本发明实施例并不受描述顺序限制,某些步骤可以顺寻或同时进行。
以上对本发明所提供对问答句相关度计算的方法,进行了详细介绍,本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (1)
1.一种基于强化学习的问句和答案句相关度的计算方法,其特征在于,该方法包括以下具体步骤:
步骤1:从问答网站上爬取问答对数据,获得平行语料,即用于模型训练的源训练预料和用于检验效果的目标语料;
步骤2:通过神经网络框架训练平行语料,得到相关度计算模型,具体包括:
A1:对源训练语料中词序列的文本进行词向量编码,得到源训练语料中词的高纬度向量化表示;
A2:将向量化表示的源训练语料作为输入,放入神经网络框架中,获取问句和答案句的相关度得分;其中,对问句的表示采用长短期记忆网络(LSTM),将最后的隐含状态作为整个问句的表示;答案句表示所使用的网络则分为两个部分:演员(Actor)网络和评论家(Critic)网络;演员网络为长短期记忆网络,其目的是对答案句中每个词采样一个行为,行为空间是{保留、删除};演员网络通过获取隐含状态序列,为每个状态选择一个行为,以得到真实的输入序列;评论家网络为长短期记忆网络,其目的是计算问句和答案句的相关度得分;评论家网络与演员网络共享参数,对演员网络输出的真实的输入序列编码,得到最终的隐含状态;设置线性层,得到问答句相关度得分;
A3:构造listwise损失函数,并训练步骤1中平行语料得到相关度计算模型;首先对评论家网络进行预训练,接着对演员网络进行预训练,之后交替训练这两个网络,直到模型收敛或达到最大训练次数为止;
步骤3:利用步骤2所得模型计算问句和每个候选答案句之间的相关度,选取相关度值最大的候选答案作为最终的回答。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633524.2A CN108959467B (zh) | 2018-06-20 | 2018-06-20 | 一种基于强化学习的问句和答案句相关度的计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810633524.2A CN108959467B (zh) | 2018-06-20 | 2018-06-20 | 一种基于强化学习的问句和答案句相关度的计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108959467A true CN108959467A (zh) | 2018-12-07 |
CN108959467B CN108959467B (zh) | 2021-10-15 |
Family
ID=64491728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810633524.2A Active CN108959467B (zh) | 2018-06-20 | 2018-06-20 | 一种基于强化学习的问句和答案句相关度的计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108959467B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110825855A (zh) * | 2019-09-18 | 2020-02-21 | 平安科技(深圳)有限公司 | 基于人工智能的应答方法、装置、计算机设备及存储介质 |
CN112818101A (zh) * | 2021-02-01 | 2021-05-18 | 杭州微洱网络科技有限公司 | 具有强化学习功能的问答语料学习方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104572998A (zh) * | 2015-01-07 | 2015-04-29 | 北京云知声信息技术有限公司 | 用于自动问答系统的问答排序模型更新方法及装置 |
CN104933031A (zh) * | 2015-06-29 | 2015-09-23 | 华东师范大学 | 一种基于语义网无监督的自动问答方法 |
CN105955965A (zh) * | 2016-06-21 | 2016-09-21 | 上海智臻智能网络科技股份有限公司 | 问句信息处理方法及装置 |
CN106202054A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 一种面向医疗领域基于深度学习的命名实体识别方法 |
CN106844368A (zh) * | 2015-12-03 | 2017-06-13 | 华为技术有限公司 | 用于人机对话的方法、神经网络系统和用户设备 |
CN107273503A (zh) * | 2017-06-19 | 2017-10-20 | 北京百度网讯科技有限公司 | 用于生成同语言平行文本的方法和装置 |
CN107450593A (zh) * | 2017-08-30 | 2017-12-08 | 清华大学 | 一种无人机自主导航方法和系统 |
CN107562792A (zh) * | 2017-07-31 | 2018-01-09 | 同济大学 | 一种基于深度学习的问答匹配方法 |
CN107679224A (zh) * | 2017-10-20 | 2018-02-09 | 竹间智能科技(上海)有限公司 | 一种面向无结构文本智能问答的方法和系统 |
CN107704563A (zh) * | 2017-09-29 | 2018-02-16 | 广州多益网络股份有限公司 | 一种问句推荐方法及系统 |
US20180060301A1 (en) * | 2016-08-31 | 2018-03-01 | Microsoft Technology Licensing, Llc | End-to-end learning of dialogue agents for information access |
JP2018037064A (ja) * | 2016-07-08 | 2018-03-08 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 能動的探索なしの強化学習に基づくオンライン学習法及び車両制御方法 |
CN107818306A (zh) * | 2017-10-31 | 2018-03-20 | 天津大学 | 一种基于注意力模型的视频问答方法 |
CN107818164A (zh) * | 2017-11-02 | 2018-03-20 | 东北师范大学 | 一种智能问答方法及其系统 |
CN108073600A (zh) * | 2016-11-11 | 2018-05-25 | 阿里巴巴集团控股有限公司 | 一种智能问答交互方法、装置以及电子设备 |
-
2018
- 2018-06-20 CN CN201810633524.2A patent/CN108959467B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104572998A (zh) * | 2015-01-07 | 2015-04-29 | 北京云知声信息技术有限公司 | 用于自动问答系统的问答排序模型更新方法及装置 |
CN104933031A (zh) * | 2015-06-29 | 2015-09-23 | 华东师范大学 | 一种基于语义网无监督的自动问答方法 |
CN106844368A (zh) * | 2015-12-03 | 2017-06-13 | 华为技术有限公司 | 用于人机对话的方法、神经网络系统和用户设备 |
CN105955965A (zh) * | 2016-06-21 | 2016-09-21 | 上海智臻智能网络科技股份有限公司 | 问句信息处理方法及装置 |
JP2018037064A (ja) * | 2016-07-08 | 2018-03-08 | トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド | 能動的探索なしの強化学習に基づくオンライン学習法及び車両制御方法 |
CN106202054A (zh) * | 2016-07-25 | 2016-12-07 | 哈尔滨工业大学 | 一种面向医疗领域基于深度学习的命名实体识别方法 |
US20180060301A1 (en) * | 2016-08-31 | 2018-03-01 | Microsoft Technology Licensing, Llc | End-to-end learning of dialogue agents for information access |
CN108073600A (zh) * | 2016-11-11 | 2018-05-25 | 阿里巴巴集团控股有限公司 | 一种智能问答交互方法、装置以及电子设备 |
CN107273503A (zh) * | 2017-06-19 | 2017-10-20 | 北京百度网讯科技有限公司 | 用于生成同语言平行文本的方法和装置 |
CN107562792A (zh) * | 2017-07-31 | 2018-01-09 | 同济大学 | 一种基于深度学习的问答匹配方法 |
CN107450593A (zh) * | 2017-08-30 | 2017-12-08 | 清华大学 | 一种无人机自主导航方法和系统 |
CN107704563A (zh) * | 2017-09-29 | 2018-02-16 | 广州多益网络股份有限公司 | 一种问句推荐方法及系统 |
CN107679224A (zh) * | 2017-10-20 | 2018-02-09 | 竹间智能科技(上海)有限公司 | 一种面向无结构文本智能问答的方法和系统 |
CN107818306A (zh) * | 2017-10-31 | 2018-03-20 | 天津大学 | 一种基于注意力模型的视频问答方法 |
CN107818164A (zh) * | 2017-11-02 | 2018-03-20 | 东北师范大学 | 一种智能问答方法及其系统 |
Non-Patent Citations (5)
Title |
---|
BAHDANAU D 等: "An actor-critic algorithm for sequence prediction", 《ARXIV PREPRINT ARXIV:1607.07086》 * |
TAY Y 等: "Learning to rank question answer pairs with holographic dual lstm architecture", 《PROCEEDINGS OF THE 40TH INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL》 * |
刘全 等: "深度强化学习综述", 《计算机学报》 * |
李真真: "基于深度学习的答案排序研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
邢超: "智能问答系统的设计与实现", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110825855A (zh) * | 2019-09-18 | 2020-02-21 | 平安科技(深圳)有限公司 | 基于人工智能的应答方法、装置、计算机设备及存储介质 |
CN112818101A (zh) * | 2021-02-01 | 2021-05-18 | 杭州微洱网络科技有限公司 | 具有强化学习功能的问答语料学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108959467B (zh) | 2021-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Forbus et al. | MAC/FAC: A model of similarity‐based retrieval | |
CN110516245A (zh) | 细粒度情感分析方法、装置、计算机设备及存储介质 | |
CN106156848B (zh) | 一种基于lstm-rnn的陆空通话语义一致性校验方法 | |
CN108304496B (zh) | 异构信息网中基于组合元路径的节点相似关系检测方法 | |
CN109635083A (zh) | 一种用于搜索ted演讲中话题式查询的文档检索方法 | |
Moravvej et al. | A method based on attention mechanism using bidirectional long-short term memory (BLSTM) for question answering | |
Tang et al. | Modelling student behavior using granular large scale action data from a MOOC | |
CN110427629A (zh) | 半监督文本简化模型训练方法和系统 | |
CN115982338B (zh) | 一种基于查询路径排序的领域知识图谱问答方法及系统 | |
CN114201684A (zh) | 一种基于知识图谱的自适应学习资源推荐方法及系统 | |
CN115526590A (zh) | 一种结合专家知识和算法的高效人岗匹配与复推方法 | |
CN108959467A (zh) | 一种基于强化学习的问句和答案句相关度的计算方法 | |
Gaheen et al. | Automated students arabic essay scoring using trained neural network by e-jaya optimization to support personalized system of instruction | |
CN115617960A (zh) | 一种岗位推荐方法及装置 | |
CN111581365B (zh) | 一种谓词抽取方法 | |
CN116860947A (zh) | 面向文本阅读理解的选择题生成方法、系统及存储介质 | |
Singh et al. | Encoder-decoder architectures for generating questions | |
Wu | Learning to memorize in neural task-oriented dialogue systems | |
Bohn et al. | Learning sentence embeddings for coherence modelling and beyond | |
Wang et al. | Feeding what you need by understanding what you learned | |
CN115587192A (zh) | 关系信息抽取方法、设备及计算机可读存储介质 | |
Popov et al. | Graph embeddings for frame identification | |
CN111324709B (zh) | 基于学科知识图谱和卷积神经网络的智能答疑方法 | |
Katranji et al. | RNN Encoder-Decoder for the inference of regular human mobility patterns | |
Valtolina et al. | Design of a Conversational Recommender System in Education |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |