CN107203600A - 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 - Google Patents

一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 Download PDF

Info

Publication number
CN107203600A
CN107203600A CN201710334063.4A CN201710334063A CN107203600A CN 107203600 A CN107203600 A CN 107203600A CN 201710334063 A CN201710334063 A CN 201710334063A CN 107203600 A CN107203600 A CN 107203600A
Authority
CN
China
Prior art keywords
answer
mrow
question
node
sequential
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710334063.4A
Other languages
English (en)
Other versions
CN107203600B (zh
Inventor
吴飞
汤斯亮
段新宇
肖俊
赵洲
庄越挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201710334063.4A priority Critical patent/CN107203600B/zh
Publication of CN107203600A publication Critical patent/CN107203600A/zh
Application granted granted Critical
Publication of CN107203600B publication Critical patent/CN107203600B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种利用刻画因果依赖关系和时序影响机制来提高答案质量排序的评判方法。包括如下步骤:1)把每个问题及其按照时间先后顺序排序的答案作为训练数据集;2)对训练集中的文本通过Paragraph2Vec模型进行无监督学习,得到文本表达模型,并分别构建问题和答案的隐性表达;3)将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入传统的长短时记忆模型;4)基于问题与答案的隐性表达,使用学习后所得到的问答排序模型对问题的候选答案进行排序。相比一般的答案质量评判方法,本发明进一步发掘答案与答案之间基于时序的相互影响,揭示高质量答案的形成规律。本发明在答案质量排序中所取得的性能较传统的基于文本和语义关联性的评判方法更好。

Description

一种利用刻画因果依赖关系和时序影响机制增强答案质量排 序的评判方法
技术领域
本发明涉及问答文本检索,尤其涉及一种利用刻画因果依赖关系和时序影响机制增强答案质量排序方法。
背景技术
问答检索是具有现实意义的重要技术领域,而依据问答文本的语义关联性对其进行排序是这一领域中的一项重要技术。这项技术在检索过程中,对问题与其每一个候选答案的关联性高低进行排序,并将排序结果展现给用户,在答案质量排序应用中有巨大的价值。
传统的答案质量排序方法,一般先为问答数据学习一个语义空间,再将问题与答案分别映射在该语义空间中,形成相应的特征向量。之后使用一个人工指定的关联性度量函数或者机器学习的方法计算问题和每一个候选答案间的关联性,最后再依照关联性高低对答案质量进行排序。这种方法将语义空间中的特征向量作为问答数据的表示,仅考虑问题答案之间的语义关联性(即本文中所说的“因果依赖关系”),而忽略了同一问题下候选答案之间的时序影响,因此难以挖掘答案之间原本存在的复杂影响机制。
利用刻画因果依赖关系和时序影响机制增强答案质量排序方法能够有效弥补上述传统方法中的不足。本方法在传统的长短时记忆模型中引入了问答数据中常见的问题与答案之间的因果依赖关系以及答案与答案之间的时序影响机制。相比一般的答案质量评判方法,本发明不仅局限于问题和答案之间的语义关联度,还进一步发掘答案之间基于时序的相互影响,揭示高质量答案的形成规律。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提供一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法。本发明所采用的具体技术方案如下:
利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集;
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达;
3)基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型;
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果。
上述步骤可具体采用如下实现方式:
所述的步骤1)包括:
1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
3)每个问题与其候选答案构成一个数据样本,表示为的多元组。
所述的步骤2)包括:
1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi
3)若wi为停止词,则从数据中删除单词wi
4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数。
所述的步骤3)包括:
1)基于传统长短时记忆模型,使模型的结构单元接收当前时间节点t前所有时间节点的隐输出h(i),其中1≤i≤t-1;模型的结构单元再通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),其定义如下:
其中αi∈[0,1]并且α1预先进行初始化,其他的αi进而初始化为(1-α1)/(t-2);m(t)将作为当前时间节点的隐输入,参与当前时间节点结构单元中各个门的计算;
2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量vqi,将该节点作为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都读入该训练样本中的一个答案向量这些节点作为答案节点,答案节点产生其对应的隐输出h(t),t≥2;对于每一个答案节点,其接收的信息来源分为以下三种:第一种为答案向量 第二种为问题节点的隐输出h(1);第三种为当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型通过接收隐输出h(1)保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)得到答案与答案之间的时序影响机制;
3)模型训练过程中,α1保持初始值不变,对于其他的αi,在训练的过程中按照如下公式进行更新:
其中h(t)tmp为当前答案节点在所有αi(2≤i≤t-1)更新前的隐输出;
4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
其中,θ为模型中所有参数,λ为正则项的超参数。
所述的步骤4)包括:
1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
相比一般的答案质量评判方法,本发明进一步发掘答案与答案之间基于时序的相互影响,揭示高质量答案的形成规律。本发明在答案质量排序中所取得的性能较传统的基于文本和语义关联度的评判方法更好。
附图说明
图1是基于因果依赖关系和时序影响机制的长短时记忆模型的神经单元结构图;
图2是基于因果依赖关系和时序影响机制的长短时记忆模型答案节点权重α更新示意图;
图3是利用刻画因果依赖关系和时序影响机制增强答案质量排序方法示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。
如图3所示,利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集。具体通过如下子步骤实现:
1.1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
1.2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
1.3)每个问题与其候选答案构成一个数据样本,表示为的多元组。
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达。具体通过如下子步骤实现:
2.1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2.2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi
2.3)若wi为停止词,则从数据中删除单词wi
2.4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数。
3)改造传统的长短时记忆模型的结构,得到基于因果依赖关系和时序影响机制的长短记忆模型,基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型。具体通过如下子步骤实现:
3.1)为了在问答排序系统中引入因果依赖关系和时序影响机制,在传统长短时记忆模型的结构上进行修改,得到基于因果依赖关系和时序影响机制的长短时记忆模型,该模型的神经单元结构图如图1所示:
其中,x(t)为当前时间节点的输入,{h(1),h(2),h(3)…h(t-1)}为前t-1个时间节点的隐输出,×与+分别为两个向量相应元素相乘和相加的操作,σ(·)为Sigmoid函数,其定义为:
tanh为tanh函数,其定义为:
i(t),o(t),c(t),f(t),s(t)与h(t)定义如下:
i(t)=σ[Wixx(t)+Wimm(t)+bi]
o(t)=σ[Woxx(t)+Womm(t)+bo]
c(t)=σ[Wcxx(t)+Wcmm(t)+bc]
f(t)=σ[Wfxx(t)+Wfmm(t)+bf]
s(t)=c(t)·i(t)+s(t-1)·f(t)
h(t)=o(t)·tanh(s(t))
其中W*x,W*m为参数矩阵,b*为偏移向量。
不同于传统长短时记忆模型,本模型的结构单元会接收当前时间节点前所有时间节点的隐输出h(i),其中1≤i≤t-1。模型的结构单元会通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),定义如下:
其中αi∈[0,1]并且初始化α1和其他α的过程不相同:α1为手工初始化,即人为设定α1的初始值;其他的α初始化为(1-α1)/(t-2)。m(t)将作为当前时间节点的隐输入,参与当前时间节点结构单元中各个门的计算。
3.2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量vqi,称该节点为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都会读入该训练样本中的一个答案向量这些节点被称为答案节点,答案节点产生其对应的隐输出h(t),t≥2。对于每一个答案节点,其接收的信息来源分为以下三种:
a.答案向量
b.问题节点的隐输出h(1);
c.当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型接收隐输出h(1)可以保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)可以得到答案与答案之间的时序影响机制;
3.3)模型训练过程中,α1始终保持初始值不变。由于α1反映出问题与答案之间因果依赖关系的重要程度,为了探索其重要性,α1的初始值会按照0.01的步长从0.01到0.99进行调整,直到在评测指标上得到最好的结果。对于其他的αi,其反映了发表时间较早的答案对当前答案的时序影响程度,它们在训练的过程中会按照如下公式进行更新:
其中h(t)tmp为当前答案节点再所有αi(2≤i≤t-1)更新前的隐输出。对于所有的答案节点,其α更新的过程如图2所示:其中(a)、(b)分别为α更新前和更新后,答案节点的计算过程。
3.4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
其中,θ为模型中所有参数,λ为正则项的超参数。
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果。具体通过如下子步骤实现:
1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
下面将上述方法应用于下列实施例中,以体现本发明的技术效果,实施例中具体步骤不再赘述。
实施例
本发明在百度知道中文数据集上进行答案质量排序实验。该数据集包含了100398个问题和308725个答案。每个问题只有一个最佳答案。每个问题的候选答案都有发表时间和被点赞数的标注。每一个问题或者答案被表达为300维的特征向量。为了客观地评价本发明的算法的性能,使用nDCG(normalized Discounted Cumulative Gain),P@1(Precision@1),Accuracy和MRR(Mean Reciprocal Rank)对本发明进行评价。按照具体实施方式中描述的步骤,所得的实验结果如下:
nDCG P@1 Accuracy MRR
0.9233 0.7157 0.8004 0.8155

Claims (5)

1.一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,其特征在于,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集;
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达;
3)基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型;
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果。
2.根据权利要求1所述的利用刻画因果依赖关系和时序影响机制增强答案质量排序方法,其特征在于,所述的步骤1)包括:
1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
3)每个问题与其候选答案构成一个数据样本,表示为的多元组。
3.根据权利要求1所述的利用刻画因果依赖关系和时序影响机制增强答案质量排序方法,其特征在于,所述的步骤2)包括:
1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi
3)若wi为停止词,则从数据中删除单词wi
4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数。
4.根据权利要求1所述的利用刻画因果依赖关系和时序影响机制增强答案质量排序方法,其特征在于,所述的步骤3)包括:
1)基于传统长短时记忆模型,使模型的结构单元接收当前时间节点t前所有时间节点的隐输出h(i),其中1≤i≤t-1;模型的结构单元再通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),其定义如下:
<mrow> <mi>m</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> 1
其中αi∈[0,1]并且α1预先进行初始化,其他的αi进而初始化为(1-α1)/(t-2);m(t)将作为当前时间节点的隐输入,参与当前时间节点结构单元中各个门的计算;
2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量vqi,将该节点作为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都读入该训练样本中的一个答案向量这些节点作为答案节点,答案节点产生其对应的隐输出h(t),t≥2;对于每一个答案节点,其接收的信息来源分为以下三种:第一种为答案向量 第二种为问题节点的隐输出h(1);第三种为当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型通过接收隐输出h(1)保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)得到答案与答案之间的时序影响机制;
3)模型训练过程中,α1保持初始值不变,对于其他的αi,在训练的过程中按照如下公式进行更新:
<mrow> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mi>h</mi> <msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mrow> <mi>t</mi> <mi>m</mi> <mi>p</mi> </mrow> <mi>T</mi> </msubsup> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>2</mn> </mrow> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mi>exp</mi> <mrow> <mo>(</mo> <mi>h</mi> <msubsup> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mrow> <mi>t</mi> <mi>m</mi> <mi>p</mi> </mrow> <mi>T</mi> </msubsup> <mo>&amp;CenterDot;</mo> <mi>h</mi> <mo>(</mo> <mi>i</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&amp;CenterDot;</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>&amp;alpha;</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow>
其中h(t)tmp为当前答案节点在所有αi(2≤i≤t-1)更新前的隐输出;
4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
<mrow> <msub> <mi>min</mi> <mi>&amp;theta;</mi> </msub> <msub> <mi>&amp;Sigma;</mi> <mi>Q</mi> </msub> <msub> <mi>&amp;Sigma;</mi> <mi>A</mi> </msub> <mi>l</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <mi>&amp;theta;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>;</mo> </mrow>
其中,θ为模型中所有参数,λ为正则项的超参数。
5.根据权利要求1所述的利用刻画因果依赖关系和时序影响机制增强答案质量排序方法,其特征在于,所述的步骤4)包括:
1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
CN201710334063.4A 2017-05-12 2017-05-12 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 Active CN107203600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710334063.4A CN107203600B (zh) 2017-05-12 2017-05-12 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710334063.4A CN107203600B (zh) 2017-05-12 2017-05-12 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法

Publications (2)

Publication Number Publication Date
CN107203600A true CN107203600A (zh) 2017-09-26
CN107203600B CN107203600B (zh) 2020-09-18

Family

ID=59906107

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710334063.4A Active CN107203600B (zh) 2017-05-12 2017-05-12 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法

Country Status (1)

Country Link
CN (1) CN107203600B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388568A (zh) * 2018-01-04 2018-08-10 浙江大学 一种利用排序标准网络学习解决社区问答任务的方法
CN108960574A (zh) * 2018-06-07 2018-12-07 百度在线网络技术(北京)有限公司 问答的质量确定方法、装置、服务器和存储介质
CN109213847A (zh) * 2018-09-14 2019-01-15 广州神马移动信息科技有限公司 答案的分层方法及其装置、电子设备、计算机可读介质
CN111382573A (zh) * 2018-12-12 2020-07-07 百度在线网络技术(北京)有限公司 用于答案质量评估的方法、装置、设备和存储介质
CN111488438A (zh) * 2020-02-21 2020-08-04 天津大学 一种问答匹配注意力处理方法、计算机设备及存储介质
CN111783473A (zh) * 2020-07-14 2020-10-16 腾讯科技(深圳)有限公司 医疗问答中最佳答案的识别方法、装置和计算机设备
CN112509690A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 用于控制质量的方法、装置、设备和存储介质
CN112507090A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317834A (zh) * 2014-10-10 2015-01-28 浙江大学 一种基于深度神经网络的跨媒体排序方法
US20160180838A1 (en) * 2014-12-22 2016-06-23 Google Inc. User specified keyword spotting using long short term memory neural network feature extractor
CN105893523A (zh) * 2016-03-31 2016-08-24 华东师范大学 利用答案相关性排序的评估度量来计算问题相似度的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317834A (zh) * 2014-10-10 2015-01-28 浙江大学 一种基于深度神经网络的跨媒体排序方法
US20160180838A1 (en) * 2014-12-22 2016-06-23 Google Inc. User specified keyword spotting using long short term memory neural network feature extractor
CN105893523A (zh) * 2016-03-31 2016-08-24 华东师范大学 利用答案相关性排序的评估度量来计算问题相似度的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
QUOC LE等: "Distributed Representations of Sentences and Document", 《PROCEEDINGS OF THE 31 ST INTERNATIONAL CONFERENCE ON MACHINE LEARNING》 *
XIAOQIANG ZHOU等: "Answer Sequence Learning with Neural Networks for Answer Selection in Community QuestionAnswering", 《53RD ANNUAL MEETING OF THE ASSOCIATION-FOR-COMPUTATIONAL-LINGUISTICS (ACS) / 7TH INTERNATIONAL JOINT CONFERENCE ON NATURAL LANGUAGE PROCESSING OF THE ASIAN-FEDERATION-OF-NATURAL-LANGUAGE-PROCESSING (IJCNLP)》 *
刘阳: "基于LSTM的英文文本蕴含识别方法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108388568A (zh) * 2018-01-04 2018-08-10 浙江大学 一种利用排序标准网络学习解决社区问答任务的方法
CN108960574A (zh) * 2018-06-07 2018-12-07 百度在线网络技术(北京)有限公司 问答的质量确定方法、装置、服务器和存储介质
CN109213847A (zh) * 2018-09-14 2019-01-15 广州神马移动信息科技有限公司 答案的分层方法及其装置、电子设备、计算机可读介质
CN111382573A (zh) * 2018-12-12 2020-07-07 百度在线网络技术(北京)有限公司 用于答案质量评估的方法、装置、设备和存储介质
CN111488438A (zh) * 2020-02-21 2020-08-04 天津大学 一种问答匹配注意力处理方法、计算机设备及存储介质
CN111488438B (zh) * 2020-02-21 2022-07-29 天津大学 一种问答匹配注意力处理方法、计算机设备及存储介质
CN111783473A (zh) * 2020-07-14 2020-10-16 腾讯科技(深圳)有限公司 医疗问答中最佳答案的识别方法、装置和计算机设备
CN111783473B (zh) * 2020-07-14 2024-02-13 腾讯科技(深圳)有限公司 医疗问答中最佳答案的识别方法、装置和计算机设备
CN112509690A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 用于控制质量的方法、装置、设备和存储介质
CN112507090A (zh) * 2020-11-30 2021-03-16 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备和存储介质
CN112509690B (zh) * 2020-11-30 2023-08-04 北京百度网讯科技有限公司 用于控制质量的方法、装置、设备和存储介质
CN112507090B (zh) * 2020-11-30 2024-05-03 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN107203600B (zh) 2020-09-18

Similar Documents

Publication Publication Date Title
CN107203600A (zh) 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法
CN109635083B (zh) 一种用于搜索ted演讲中话题式查询的文档检索方法
CN107818164A (zh) 一种智能问答方法及其系统
CN109241255A (zh) 一种基于深度学习的意图识别方法
US20210342371A1 (en) Method and Apparatus for Processing Knowledge Graph
CN110033281B (zh) 一种智能客服至人工客服转换的方法及装置
CN107357875A (zh) 一种语音搜索方法、装置及电子设备
CN108804677A (zh) 结合多层级注意力机制的深度学习问题分类方法及系统
CN108229718A (zh) 一种信息预测方法及装置
CN106991161A (zh) 一种自动生成开放式问题答案的方法
CN113535963B (zh) 一种长文本事件抽取方法、装置、计算机设备及存储介质
CN107608953A (zh) 一种基于不定长上下文的词向量生成方法
CN104750674A (zh) 一种人机会话满意度预测方法及系统
CN112861518B (zh) 文本纠错方法、装置和存储介质及电子装置
CN111897961A (zh) 一种宽度神经网络模型的文本分类方法及相关组件
Subarkah et al. The effect of the number of attributes on the selection of study program using classification and regression trees algorithms
CN110399547A (zh) 用于更新模型参数的方法、装置、设备和存储介质
CN104572915A (zh) 一种基于内容环境增强的用户事件相关度计算方法
CN114254615A (zh) 组卷方法、装置、电子设备和存储介质
CN117494760A (zh) 一种基于超大规模语言模型的富语义标签数据增广方法
CN111597400A (zh) 基于寻路算法的计算机检索系统及方法
CN111400495A (zh) 一种基于模板特征的视频弹幕消费意图识别方法
CN114328846B (zh) 一种用于高校政策咨询的智能客服应答系统及方法
CN110489660A (zh) 一种社交媒体公开数据的用户经济状况画像方法
CN113221547B (zh) 基于信息抽取和知识图谱的试题推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant