CN109145083B - 一种基于深度学习的候选答案选取方法 - Google Patents

一种基于深度学习的候选答案选取方法 Download PDF

Info

Publication number
CN109145083B
CN109145083B CN201710539957.7A CN201710539957A CN109145083B CN 109145083 B CN109145083 B CN 109145083B CN 201710539957 A CN201710539957 A CN 201710539957A CN 109145083 B CN109145083 B CN 109145083B
Authority
CN
China
Prior art keywords
question
candidate answer
knowledge
word
semantic representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710539957.7A
Other languages
English (en)
Other versions
CN109145083A (zh
Inventor
杨燕
安炜杰
贺樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201710539957.7A priority Critical patent/CN109145083B/zh
Publication of CN109145083A publication Critical patent/CN109145083A/zh
Application granted granted Critical
Publication of CN109145083B publication Critical patent/CN109145083B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于深度学习的候选答案选取方法,包括:步骤S1,输入问句和候选答案,分别解析为问句词序列和候选答案词序列;步骤S2,通过长短时记忆网络对问句词序列和候选答案词序列建模,得到问句的语义表示和候选答案的语义表示;步骤S3,选取问句词序列中权重值最高的词的词向量来初始化知识记忆模块;步骤S4,根据知识记忆模块中存储的知识信息和问句的语义表示,计算问句的知识表示;步骤S5,计算问句的知识表示与候选答案的语义表示之间的相似度,选取相似度最高的候选答案输出。本发明在深度学习网络中引入一个知识记忆模块来提高问句与候选答案之间的联系,提高答案选取的质量,以更好地应用于社区问答网站和问答系统中。

Description

一种基于深度学习的候选答案选取方法
技术领域
本发明涉及深度学习、问答系统和答案选取技术领域,尤其涉及一种基于深度学习的候选答案选取方法。
背景技术
随着人们对信息获取的准确性的需求提高,传统搜索技术不再能满足人们的需求。社区问答系统使得用户可以发布问题进行提问以满足自己的信息需求,同时可以与其他用户交流和分享自己的经验、知识和体会。社区问答系统中积累了大量的用户问答数据资源,如何利用好这些资源,更好地满足用户的信息需求是目前研究机构和工业界研究的一个主要问题。
具体来说,用户在社区问答系统中新提交的问题需要等待其他用户的回答,也即需要一个“响应时间”才能得到需要的信息。为了及时得到所需信息,用户可以将其信息需求以查询问题的方式提交到社区问答的检索系统中,检索系统从系统所积累的历史问题答案库中检索出与查询问题在语义上相同或相似的问题,并将候选历史问题及其答案返回给用户。
目前对于候选答案的查找主要分为两大方向,第一是传统的检索方法,主要是利用词型词义的及句法树信息的问句相似度匹配等算法。第二是深度学习方法,对语句的语义信息进行建模,学习为计算机可处理的结构,从而对问句的语义进行表示。我们的目标是设计更合理的模型对问句的语义信息进行精确表示,提高相似问句检索的性能。
近年来深度学习方法被用来自动的从数据中抽取特征,最近的研究将问题看作是一系列词的序列,然后用递归神经网络(递归神经网络(RNN)是两种人工神经网络的总称,一种是时间递归神经网络(Recurrent Neural Network),另一种是结构递归神经网络(Recursive Neural Network))对其建模,学习其语义特征。为了学习到句子中的重要成分对语义信息的影响,注意力(Attention)机制被用来学习句子中的重要部分,来增强问句的语义表示。通过计算得到的问句和候选答案的相似度来对候选答案进行重新排序,选取能够回答该问题的答案。
考虑到问题与答案之间往往存在知识关联,例如问句“温哥华位于什么地方”,如果有“温哥华是加拿大的一个港口城市”这样一条知识,那么就能从候选答案中选出包含加拿大这样一个关键成分的答案。因此知识信息在候选答案选取任务中发挥着重要的作用。
发明内容
针对现有技术中的缺陷,本发明提供一种基于深度学习的候选答案选取方法,该方法在深度学习框架中引入一个知识记忆模块来提高问句与候选答案之间的联系,提高答案选取的质量,以更好地应用于社区问答网站和问答系统中。
根据本发明的一个方面,提供一种基于深度学习的候选答案选取方法,所述候选答案选取方法包括以下步骤:
步骤S1,输入问句和候选答案,将输入的问句解析为问句词序列,将输入的候选答案解析为候选答案词序列;
步骤S2,通过长短时记忆网络对问句词序列和候选答案词序列建模,得到问句的语义表示和候选答案的语义表示;
步骤S3,选取问句词序列中权重值最高的词的词向量来初始化知识记忆模块,所述知识记忆模块中存储有多条知识信息;
步骤S4,根据知识记忆模块中存储的知识信息和问句的语义表示,计算问句的知识表示;
步骤S5,计算问句的知识表示与候选答案的语义表示之间的相似度,选取相似度最高的候选答案输出。
优选地,步骤S2具体包括:
步骤S21,将问句词序列中的词映射为对应的词向量,形成问句词向量集,将候选答案词序列中的词映射为对应的词向量,形成候选答案词向量集;
步骤S22,将问句词向量集中的词向量逐一输入长短时记忆网络,计算问句的语义表示,将候选答案词向量集中的词向量逐一输入长短时记忆网络,计算候选答案的语义表示。
优选地,所述长短时记忆网络包括复数个计算模块,所述计算模块的个数与所述问句词向量集中的词向量的个数,或者与所述候选答案词向量集中的词向量的个数相等,
每个词向量对应输入一个计算模块,每个计算模块输出一计算结果和一状态量,后一个计算模块以前一个计算模块的计算结果和状态量为输入,最后一个计算模块的计算结果作为问句的语义表示或者候选答案的语义表示。
优选地,每个计算模块的计算公式为:
it=σ(Wixt+Uiht-1+bi)
ft=σ(Wfxt+Ufht-1+bf)
ot=σ(Woxt+Uoht-1+bo)
Figure BDA0001333026010000031
Figure BDA0001333026010000032
ht=ot*tanh(ct)
其中,xt为第t个计算模块输入的词向量,Wi、Wf、Wo、Wc为作用在xt上的参数,ht-1为上一个计算模块输出的计算结果,Ui、Uf、Uo、Uc为作用在ht-1上的参数,bi、bf、bo、bc为偏置项,ct为第t个计算模块输出的状态量,ht为第t个计算模块输出的计算结果,t为正整数。
优选地,步骤S3具体包括:
步骤S31,计算问句词序列中每个词的TF-IDF值;
步骤S32,选取TF-IDF值最高的词的词向量来初始化知识记忆模块。
优选地,步骤S4具体包括:
步骤S41,计算知识记忆模块中每条知识信息与问句的语义表示的相关度;
步骤S42,结合知识信息与问句的语义表示的相关度,计算问句的知识表示。
优选地,步骤S41计算每条知识信息与问句的语义表示的相关度的公式为:
Figure BDA0001333026010000041
其中,αj是知识记忆模块中第j条知识信息kj与问句的语义表示q的相关度,j为正整数;e(·)是度量函数,e(kj,q)=vTtanh(WHkj+WQq+b),
其中,WH,WQ是分别作用在kj和q上的参数,b为偏置项。
优选地,步骤S42计算问句的知识表示的公式为:
Figure BDA0001333026010000042
Rq=s+q
其中,Rq为计算所得的结合知识信息的问句的知识表示。
优选地,步骤5计算问句的知识表示与候选答案的语义表示之间的相似度的公式具体为:
sim(Rq,Ra)=exp(-||Rq-Ra||1)
其中,Ra为候选答案的语义表示。
有鉴于此,本发明在深度学习网络,即长短时记忆网络中引入一个知识记忆模块来提高问句与候选答案之间的联系,以问题和候选答案对为输入,经过生成问句/候选答案语义表示、结合知识记忆模块中知识信息对问句重新进行知识表示和相似度计算三个阶段,最后得到问句和候选答案的相似度打分,从而可以选取相似度最高的候选答案作为输出。本发明提高了候选答案选取的质量,以更好地应用于社区问答网站和问答系统中。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1是本发明的基于深度学习的候选答案选取方法的步骤示意图;
图2是本发明的基于深度学习的候选答案选取方法的结构流程图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的实施方式;相反,提供这些实施方式使得本发明将全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的结构,因而将省略对它们的重复描述。
所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的实施方式的充分理解。然而,本领域技术人员应意识到,没有特定细节中的一个或更多,或者采用其它的方法、组元等,也可以实践本发明的技术方案。在某些情况下,不详细示出或描述公知结构或者操作以避免模糊本发明。
图1是本发明的基于深度学习的候选答案选取方法的步骤示意图,图2是本发明的基于深度学习的候选答案选取方法的结构流程图。结合图1和图2所示,本发明的基于深度学习的候选答案选取方法包括:
步骤S1,输入问句和候选答案,将输入的问句解析为问句词序列,将输入的候选答案解析为候选答案词序列。
具体的,用Q代表输入的问句,用A代表输入的候选答案,则根据Q解析得到问句词序列{q1,q2...,qn},根据A解析得到候选答案词序列{a1,a2,...,am}。其中n、m分别为正整数。
步骤S2,通过长短时记忆网络(Long-Short Term Memory,简称LSTM,在图2中以虚线框10标示)对问句词序列和候选答案词序列建模,得到问句的语义表示和候选答案的语义表示。
步骤S2具体包括:步骤S21,将问句词序列中的词映射为对应的词向量,形成问句词向量集,将候选答案词序列中的词映射为对应的词向量,形成候选答案词向量集。具体是通过在数据集上训练的词向量获得问句Q的词序列向量集
Figure BDA0001333026010000061
图2中标号11则代表问句Q的词序列向量集中的每个向量;以及候选答案A的词序列向量集
Figure BDA0001333026010000062
图2中标号21则代表候选答案A的词序列向量集中的每个向量。
步骤S22,将问句词向量集中的词向量逐一输入长短时记忆网络,计算问句的语义表示,将候选答案词向量集中的词向量逐一输入长短时记忆网络,计算候选答案的语义表示。也即通过一个长短时记忆网络LSTM分别对问句Q和候选答案A进行建模,得到问句Q的语义表示q和候选答案A的语义表示Ra。在图2中,标号12即代表问句Q的语义表示q,标号22即代表候选答案A的语义表示Ra
其中,长短时记忆网络LSTM包括复数个计算模块(对应图2中虚线框10中的多个方框模块),计算模块的个数与问句词向量集中的词向量的个数(对应图2中的方框11的个数),或者与候选答案词向量集中的词向量的个数匹配(对应图2中的方框21的个数),每个词向量对应输入一个计算模块,每个计算模块输出一计算结果和一状态量,后一个计算模块以前一个计算模块的计算结果和状态量为输入,最后一个计算模块的计算结果作为问句的语义表示或者候选答案的语义表示。
具体的,每个计算模块的计算公式为:
it=σ(Wixt+Uiht-1+bi)
ft=σ(Wfxt+Ufht-1+bf)
ot=σ(Woxt+Uoht-1+bo)
Figure BDA0001333026010000063
Figure BDA0001333026010000064
ht=ot*tanh(ct)
其中,xt为第t个计算模块输入的词向量,Wi、Wf、Wo、Wc为作用在xt上的参数,ht-1为上一个计算模块输出的计算结果,Ui、Uf、Uo、Uc为作用在ht-1上的参数,bi、bf、bo、bc为偏置项,ct为第t个计算模块输出的状态量,ht为第t个计算模块输出的计算结果,t为正整数。
步骤S3,选取问句词序列中权重值最高的词的词向量来初始化知识记忆模块(Knowledge Memory,图2中以标号30标示),知识记忆模块中存储有多条知识信息。
具体的,步骤S3包括:步骤S31,计算问句词序列中每个词的TF-IDF值;步骤S32,选取TF-IDF值最高的词的词向量来初始化知识记忆模块。也即,通过在数据集上统计每个词的TF-IDF值来确定初始化Knowledge Memory的词向量信息。具体来说,取数据集中TF-IDF值较高的词的词向量来作为初始值。
其中,TF-IDF实际上是:TF*IDF,TF词频(Term Frequency),IDF逆向文件频率(Inverse Document Frequency)。词频TF指的是某一个词在文件中出现的频率。逆向文件频率IDF是一个词普遍重要性的度量。结合到本申请,TF-IDF的主要思想是:如果某个词在一个语句中出现的词频TF高,并且在其他语句中很少出现,则认为此词具有很好的类别区分能力,适合用来分类,也即适合用来表示该语句。
步骤S4,根据知识记忆模块中存储的知识信息和问句的语义表示,计算问句的知识表示。
具体的,步骤S4包括:步骤S41,计算知识记忆模块中每条知识信息与问句的语义表示的相关度。计算每条知识信息与问句的语义表示的相关度的公式为:
Figure BDA0001333026010000071
其中,αj是知识记忆模块中第j条知识信息kj与问句的语义表示q的相关度,e(·)是度量函数,e(kj,q)=vTtanh(WHkj+WQq+b),
其中,WH,WQ是分别作用在kj和q上的参数,b为偏置项。
步骤S42,结合知识信息与问句的语义表示的相关度,计算问句的知识表示。计算问句的知识表示的公式为:
Figure BDA0001333026010000081
Rq=s+q
其中,Rq为计算所得的结合知识信息的问句的知识表示。也即,在得到每条知识信息的权重(Knowledge Weightα,在图2中以标号31标示)后,通过加权求和的方法得到关于问句的语义表示q的知识信息S(图2中以标号32表示关于问句的语义表示q的知识信息S),然后将该部分知识信息S加入问句的语义表示q中,获得结合知识信息表示的新的问句的知识表示Rq(图2中以标号33表示)。
步骤S5,计算问句的知识表示与候选答案的语义表示之间的相似度,选取相似度最高的候选答案输出。
具体的,计算问句的知识表示与候选答案的语义表示之间的相似度的公式具体为:
sim(Rq,Ra)=exp(-||Rq-Ra||1)
其中,Ra为候选答案的语义表示,在图2中以标号34表示该步计算sim(Rq,Ra)。
综上,本发明以问句和候选答案对为输入,经过生成问句/候选答案的语义表示、结合Knowledge Memory知识信息对问句的语义表示进行知识表示,以及相似度计算三个阶段,最后得到问句和候选答案的相似度打分,从而可以选取相似度最高的候选答案作为输出。本发明在深度学习网络中引入知识记忆模块来提高问句与候选答案之间的联系,提高了答案选取的质量,以更好的应用于社区问答网站和问答系统中。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。

Claims (8)

1.一种基于深度学习的候选答案选取方法,其特征在于,所述候选答案选取方法包括以下步骤:
步骤S1,输入问句和候选答案,将输入的问句解析为问句词序列,将输入的候选答案解析为候选答案词序列;
步骤S2,通过长短时记忆网络对问句词序列和候选答案词序列建模,得到问句的语义表示和候选答案的语义表示;
步骤S3,选取问句词序列中权重值最高的词的词向量来初始化知识记忆模块,所述知识记忆模块中存储有多条知识信息;
步骤S4,根据知识记忆模块中存储的知识信息和问句的语义表示,计算问句的知识表示,包括:步骤S41,计算知识记忆模块中每条知识信息与问句的语义表示的相关度;步骤S42,结合知识信息与问句的语义表示的相关度,计算问句的知识表示;
步骤S5,计算问句的知识表示与候选答案的语义表示之间的相似度,选取相似度最高的候选答案输出。
2.如权利要求1所述的候选答案选取方法,其特征在于,步骤S2具体包括:
步骤S21,将问句词序列中的词映射为对应的词向量,形成问句词向量集,将候选答案词序列中的词映射为对应的词向量,形成候选答案词向量集;
步骤S22,将问句词向量集中的词向量逐一输入长短时记忆网络,计算问句的语义表示,将候选答案词向量集中的词向量逐一输入长短时记忆网络,计算候选答案的语义表示。
3.如权利要求2所述的候选答案选取方法,其特征在于,所述长短时记忆网络包括复数个计算模块,所述计算模块的个数与所述问句词向量集中的词向量的个数,或者与所述候选答案词向量集中的词向量的个数匹配,
每个词向量对应输入一个计算模块,每个计算模块输出一计算结果和一状态量,后一个计算模块以前一个计算模块的计算结果和状态量为输入,最后一个计算模块的计算结果作为问句的语义表示或者候选答案的语义表示。
4.如权利要求3所述的候选答案选取方法,其特征在于,每个计算模块的计算公式为:
it=σ(Wixt+Uiht-1+bi)
ft=σ(Wfxt+Ufht-1+bf)
ot=σ(Woxt+Uoht-1+bo)
Figure FDA0002711521050000021
Figure FDA0002711521050000022
ht=ot*tanh(ct)
其中,xt为第t个计算模块输入的词向量,Wi、Wf、Wo、Wc为作用在xt上的参数,ht-1为上一个计算模块输出的计算结果,Ui、Uf、Uo、Uc为作用在ht-1上的参数,bi、bf、bo、bc为偏置项,ct为第t个计算模块输出的状态量,ct-1为上一个计算模块输出的状态量,ht为第t个计算模块输出的计算结果,t为正整数;
σ为Sigmoid函数的数学符号,it、ft、ot分别为Sigmoid函数的计算结果;tanh为双曲正切函数的数学符号,
Figure FDA0002711521050000023
为双曲正切函数的计算结果。
5.如权利要求1所述的候选答案选取方法,其特征在于,步骤S3具体包括:
步骤S31,计算问句词序列中每个词的TF-IDF值;
步骤S32,选取TF-IDF值最高的词的词向量来初始化知识记忆模块。
6.如权利要求1所述的候选答案选取方法,其特征在于,步骤S41计算每条知识信息与问句的语义表示的相关度的公式为:
Figure FDA0002711521050000024
其中,exp为指数函数的数学符号,αj是知识记忆模块中第j条知识信息kj与问句的语义表示q的相关度,j为正整数;
e(·)是度量函数,e(kj,q)=vTtanh(WHkj+WQq+b),
其中,WH,WQ是分别作用在kj和q上的参数,b为偏置项,vT为对tanh函数的计算结果进行向量的转置。
7.如权利要求6所述的候选答案选取方法,其特征在于,步骤S42计算问句的知识表示的公式为:
Figure FDA0002711521050000031
Rq=s+q,
其中,Rq为计算所得的问句的知识表示。
8.如权利要求6所述的候选答案选取方法,其特征在于,步骤5计算问句的知识表示与候选答案的语义表示之间的相似度的公式为:
sim(Rq,Ra)=exp(-||Rq-Ra||1),
其中,Ra为候选答案的语义表示,||Rq-Ra||1为(Rq-Ra)的一阶范数。
CN201710539957.7A 2017-06-27 2017-06-27 一种基于深度学习的候选答案选取方法 Expired - Fee Related CN109145083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710539957.7A CN109145083B (zh) 2017-06-27 2017-06-27 一种基于深度学习的候选答案选取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710539957.7A CN109145083B (zh) 2017-06-27 2017-06-27 一种基于深度学习的候选答案选取方法

Publications (2)

Publication Number Publication Date
CN109145083A CN109145083A (zh) 2019-01-04
CN109145083B true CN109145083B (zh) 2021-01-01

Family

ID=64803229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710539957.7A Expired - Fee Related CN109145083B (zh) 2017-06-27 2017-06-27 一种基于深度学习的候选答案选取方法

Country Status (1)

Country Link
CN (1) CN109145083B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110096580B (zh) * 2019-04-24 2022-05-24 北京百度网讯科技有限公司 一种faq对话方法、装置及电子设备
CN112445899B (zh) * 2019-08-29 2024-05-03 南京大学 一种基于神经网络的知识库问答中的属性匹配方法
CN111159345B (zh) * 2019-12-27 2023-09-05 中国矿业大学 一种中文知识库答案获取方法及其装置
CN111597316B (zh) * 2020-05-15 2023-12-01 北京信息科技大学 融合语义与问题关键信息的多阶段注意力答案选取方法
CN112559707A (zh) * 2020-12-16 2021-03-26 四川智仟科技有限公司 一种基于知识驱动的客服问答方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN104239340A (zh) * 2013-06-19 2014-12-24 北京搜狗信息服务有限公司 搜索结果筛选方法与装置
CN106095872A (zh) * 2016-06-07 2016-11-09 北京高地信息技术有限公司 用于智能问答系统的答案排序方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9508340B2 (en) * 2014-12-22 2016-11-29 Google Inc. User specified keyword spotting using long short term memory neural network feature extractor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN104239340A (zh) * 2013-06-19 2014-12-24 北京搜狗信息服务有限公司 搜索结果筛选方法与装置
CN106095872A (zh) * 2016-06-07 2016-11-09 北京高地信息技术有限公司 用于智能问答系统的答案排序方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Attention-based encoder-decoder model for answer selection in question answering;Nie,Yuan-ping等;《FRONTIERS OF INFORMATION TECHNOLOGY & ELECTRONIC ENGINEERING》;20170430;第18卷(第4期);第535-544页 *
Incorporating Loose-Structured Knowledge into LSTM with Recall Gate for Conversation Modeling;Zhen Xu等;《arXiv:1605.05110v2》;arXiv, USA;20170206 *
LSTM-based Deep Learning Models for Answer Ranking;Li, Zhenzhen等;《2016 IEEE FIRST INTERNATIONAL CONFERENCE ON DATA SCIENCE IN CYBERSPACE (DSC 2016)》;20161231;第90-97页 *
深度学习与多元特征相结合的答案选择排序研究;赵姗姗;《中国优秀硕士学位论文全文数据库信息科技辑》;20170228(第2期);第I140-356页 *

Also Published As

Publication number Publication date
CN109145083A (zh) 2019-01-04

Similar Documents

Publication Publication Date Title
Daniluk et al. Frustratingly short attention spans in neural language modeling
CN109145083B (zh) 一种基于深度学习的候选答案选取方法
US11544474B2 (en) Generation of text from structured data
Yao et al. Information extraction over structured data: Question answering with freebase
CN111506714A (zh) 基于知识图嵌入的问题回答
CN108628935B (zh) 一种基于端到端记忆网络的问答方法
WO2022199504A1 (zh) 内容识别方法、装置、计算机设备和存储介质
CN109063147A (zh) 基于文本相似度的在线课程论坛内容推荐方法及系统
CN112800205B (zh) 基于语义变化流形分析获取问答相关段落的方法、装置
US20210174161A1 (en) Method and apparatus for multi-document question answering
CN113505204A (zh) 召回模型训练方法、搜索召回方法、装置和计算机设备
Fernández-Reyes et al. CV Retrieval System based on job description matching using hybrid word embeddings
CN111090765B (zh) 一种基于缺失多模态哈希的社交图像检索方法及系统
CN113761124A (zh) 文本编码模型的训练方法、信息检索方法及设备
CN112559711A (zh) 一种同义文本提示方法、装置及电子设备
CN117034916A (zh) 构建词向量表示模型和词向量表示的方法、装置及设备
Sangeetha et al. Information retrieval system for laws
CN109902273A (zh) 关键词生成模型的建模方法和装置
CN113204679B (zh) 一种代码查询模型的生成方法和计算机设备
CN115526177A (zh) 对象关联模型的训练
CN112214511A (zh) 一种基于wtp-wcd算法的api推荐方法
Zhang et al. Two-step multi-factor attention neural network for answer selection
CN104298704A (zh) 在博客上实现文本推送的方法和系统
CN110059314A (zh) 一种基于增强学习的关系抽取方法
CN114969291B (zh) 一种自动问答方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210101

Termination date: 20210627

CF01 Termination of patent right due to non-payment of annual fee