CN107256228A - 基于结构化注意力机制的答案选择系统及方法 - Google Patents

基于结构化注意力机制的答案选择系统及方法 Download PDF

Info

Publication number
CN107256228A
CN107256228A CN201710301451.2A CN201710301451A CN107256228A CN 107256228 A CN107256228 A CN 107256228A CN 201710301451 A CN201710301451 A CN 201710301451A CN 107256228 A CN107256228 A CN 107256228A
Authority
CN
China
Prior art keywords
answer
structuring
notice
sentence
notice mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710301451.2A
Other languages
English (en)
Inventor
徐华
贺星伟
邓俊辉
孙晓民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201710301451.2A priority Critical patent/CN107256228A/zh
Publication of CN107256228A publication Critical patent/CN107256228A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • G06F16/24522Translation of natural language queries to structured queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出一种基于结构化注意力机制的答案选择系统及方法,系统包括:处理模块,处理模块用于根据tree LSTM处理输入的句子,以生成句子的语义表示;第一计算模块,计算模块用于根据句子的语义表示,计算问题和答案之间的注意力权重;第二计算模块,第二计算模块用于根据注意力权重计算出答案的最终表示。本发明能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。

Description

基于结构化注意力机制的答案选择系统及方法
技术领域
本发明涉及计算机程序基于组件对象的软件工程技术领域,特别涉及一种基于结构化注意力机制的答案选择系统及方法。
背景技术
答案选择(Answer selection)是问答系统中非常重要的一个子问题。在过去几年中,answer selection被广泛关注。其中,用深度学习的解决answer selection工作取得了很好的效果。其中端到端的注意力机制,在该问题上取得了最好的结果。端到端的attention计算了答案和问题之间的词语权重。然而,端到端的注意力机制,把整个语句看作一个有序的字符串,依次处理来生成句子的表示,这种表示方式没有考虑到句子之间的句法信息,以及句子之间的更复杂的联系。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的一个目的在于提出一种基于结构化注意力机制的答案选择系统,该系统能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。
本发明的第二个目的在于提出一种基于结构化注意力机制的答案选择方法。
为了实现上述目的,本发明第一方面的实施例提出了一种基于结构化注意力机制的答案选择系统,包括:处理模块,所述处理模块用于根据tree LSTM处理输入的句子,以生成所述句子的语义表示;第一计算模块,所述第一计算模块用于根据所述句子的语义表示,计算问题和答案之间的注意力权重;第二计算模块,所述第二计算模块用于根据所述注意力权重计算出所述答案的最终表示。
另外,根据本发明上述实施例的基于结构化注意力机制的答案选择系统还可以具有如下附加的技术特征:
在一些示例中,所述tree LSTM的计算过程如下式:
在一些示例中,所述第二计算模块用于:利用average pooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(t)+WqmOq
在一些示例中,所述第二计算模块还用于:根据余弦相似度计算Oq和Oa之间的得分:
S(Oq,Oa)=Oq.Oa
在一些示例中,所述第二计算模块还用于:将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。
根据本发明实施例的基于结构化注意力机制的答案选择系统,利用tree LSTM来生成的句子的表示,然后在tree LSTM所计算出的词语表示上来计算attention,能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。
为了实现上述目的,本发明第二方面的实施例提出了一种基于结构化注意力机制的答案选择方法,包括以下步骤:根据tree LSTM处理输入的句子,以生成所述句子的语义表示;根据所述句子的语义表示,计算问题和答案之间的注意力权重;根据所述注意力权重计算出所述答案的最终表示。
另外,根据本发明上述实施例的基于结构化注意力机制的答案选择方法还可以具有如下附加的技术特征:
在一些示例中,所述tree LSTM的计算过程如下式:
在一些示例中,所述计算出所述答案的最终表示,进一步包括:利用averagepooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,i表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(t)+WqmOq
在一些示例中,还包括:根据余弦相似度计算Oq和Oa之间的得分:
S(Oq,Oa)=Oq.Oa
在一些示例中,还包括:将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。
根据本发明实施例的基于结构化注意力机制的答案选择方法,利用tree LSTM来生成的句子的表示,然后在tree LSTM所计算出的词语表示上来计算attention,能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明实施例的基于结构化注意力机制的答案选择系统的结构框图;
图2是根据本发明一个实施例的循环神经网络RNN的结构示意图;
图3是根据本发明一个实施例的双向LSTM的结构示意图;
图4是根据本发明一个实施例的tree LSTM的计算过程示意图;
图5是根据本发明一个具体实施例的基于结构化注意力机制的答案选择系统的网络结构示意图;
图6是根据本发明实施例的基于结构化注意力机制的答案选择方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
以下结合附图描述根据本发明实施例的基于结构化注意力机制的答案选择系统及方法。
图1是根据本发明一个实施例的基于结构化注意力机制的答案选择系统的结构框图。图5是根据本发明一个实施例的基于结构化注意力机制的答案选择系统的网络结构示意图。如图5所示,该系统的网络结构主要包括:embedding layer,tree lstm layer,pooling layer,attention layer,score layer以及hinge loss。如图1所示,该系统100包括:处理模块110、第一计算模块120和第二计算模块130。
其中,处理模块110用于根据tree LSTM处理输入的句子,以生成句子的语义表示。
具体地说,循环神经网络(Recurrent Neural Networks,RNN)是一种常见的人工神经网络,网络中结点间的连接线形成有向环,RNN在许多自然语言处理任务中都有重要的应用。区别于前向反馈神经网络(Feed-forward Neural Networks,FNN)中输入输出是相互独立的关系,RNN能够有效利用到上一时刻的输出结果。因此,RNN用来处理序列数据比较合适。理论上讲,RNN可以处理任意长的序列,但在实际中是做不到的。RNN在语言模型、文本生成、机器翻译、语言识别和图像描述生成等任务中都取得了很不错的效果。RNN的训练优化算法是BackPropagation Through Time,例如图2所示。
长短期记忆单元(Long Short-Term Memory network,LSTM),是一种特殊形式的RNN网络。在传统RNN网络的梯度后向传播阶段,梯度信号最后会与RNN隐含层中相关的权重相乘多次(次数与步长一样),这就意味着,相关权重的大小会对网络的学习训练过程产生巨大的影响。如果权重太小(或者说是权重矩阵的特征向量小于1.0),就会导致“梯度消失”,梯度变得越来越小使得网络学习过程缓慢,甚至完全停止。对于“长距离(长期)依赖”问题,由于梯度消失问题,使得RNN的学习变得非常困难(在理论上,RNN是能够解决长期依赖问题的,但在实践中似乎无法处理,这个问题已经被Hochreiter等人深入探讨过,并且找到了根本性原因)。如果权重太大(或者说是权重矩阵的特征向量大于1.0),会导致梯度爆炸,无法收敛。因此,为了解决RNN存在的这些问题,Hochreiter等人提出了LSTM记忆单元结果。LSTM的特殊结构能够有效地避免这些问题。LSTM计算如下:
进一步地,LSTM分为单向LSTM和双向LSTM。其中,单向LSTM的一个缺点是它只能利用出现在当前节点之前的信息。在句子文本建模任务中,充分利用过去和未来的信息能够更全面的掌握语义信息,生成更有效的句子向量。双向LSTM利用两个独立的隐含层双向处理文本来达到同时利用上下文的目的,两个隐含层的结果最后都送入到同一个输出层,例如图3所示。
基于此,在本发明的一个实施例中,Tree LSTM的计算过程如图4所示,具体地,tree LSTM的计算过程如下式:
第一计算模块120用于根据句子的语义表示,计算问题和答案之间的注意力权重。
第二计算模块130用于根据注意力权重计算出答案的最终表示。
换言之,即在上面计算出问题和答案的隐状态之后,利用average pooling计算出问题的表示。具体地,在本发明的一个实施例中,第二计算模块130用于:
利用average pooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,i表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(t)+WqmOq
在本发明的一个实施例中,第二计算模块130还用于:根据余弦相似度计算Oq和Oa之间的得分,对应于图5中的Score layer。Oq和Oa之间的得分具体为
S(Oq,Oa)=Oq.Oa
在本发明的一个实施例中,结合图5所示,第二计算模块130还用于:将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。进一步地,利用反向传播计算梯度,利用adam方法更新网络的参数。
在具体实施例中,本发明实施例的系统例如基于Linux Ubuntu 64位操作系统,采用torch深度学习框架开发实现,为了测试模型的有效性,通过在WikiQA数据集上进行实验,且实验结果表明本发明实施例的模型比传统的LSTM模型表现更好。
综上,根据本发明实施例的基于结构化注意力机制的答案选择系统,利用treeLSTM来生成的句子的表示,然后在tree LSTM所计算出的词语表示上来计算attention,能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。
本发明的进一步实施例还提出了一种基于结构化注意力机制的答案选择方法。
图6是根据本发明一个实施例的基于结构化注意力机制的答案选择方法的流程图。如图6所示,该方法包括以下步骤:
步骤S1:根据tree LSTM处理输入的句子,以生成句子的语义表示。
具体地,在本发明的一个实施例中,tree LSTM的计算过程如下式:
步骤S2:根据句子的语义表示,计算问题和答案之间的注意力权重。
步骤S3:根据注意力权重计算出答案的最终表示。
具体地,在本发明的一个实施例中,计算出所述答案的最终表示,进一步包括:
利用average pooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(t)+WqmOq
进一步地,在本发明的一个实施例中,还包括:根据余弦相似度计算Oq和Oa之间的得分:
S(Qq,Oa)=Qq.Oa
进一步地,在本发明的一个实施例中,还包括:将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。
需要说明的是,本发明实施例的基于结构化注意力机制的答案选择方法的具体实现方式与本发明实施例的基于结构化注意力机制的答案选择系统的具体实现方式类似,具体请参见系统部分的描述,为了减少冗余,此处不再赘述。
综上,根据本发明实施例的基于结构化注意力机制的答案选择方法,利用treeLSTM来生成的句子的表示,然后在tree LSTM所计算出的词语表示上来计算attention,能够更好地解决答案选择问题,在WikiQA数据集上取得了很好的效果。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。

Claims (10)

1.一种基于结构化注意力机制的答案选择系统,其特征在于,包括:
处理模块,所述处理模块用于根据tree LSTM处理输入的句子,以生成所述句子的语义表示;
第一计算模块,所述第一计算模块用于根据所述句子的语义表示,计算问题和答案之间的注意力权重;
第二计算模块,所述第二计算模块用于根据所述注意力权重计算出所述答案的最终表示。
2.根据权利要求1所述的基于结构化注意力机制的答案选择系统,其特征在于,所述tree LSTM的计算过程如下式:
fjt=σ(W(f)xj+U(f)hk+b(f)),
hj=oj⊙tanh(cj)。
3.根据权利要求1所述的基于结构化注意力机制的答案选择系统,其特征在于,所述第二计算模块用于:
利用average pooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,i表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(r)+WqmOq
4.根据权利要求3所述的基于结构化注意力机制的答案选择系统,其特征在于,所述第二计算模块还用于:
根据余弦相似度计算Oq和Oa之间的得分:
S(Oq,Oa)=Oq.Oa
5.根据权利要求4所述的基于结构化注意力机制的答案选择系统,其特征在于,所述第二计算模块还用于:
将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。
6.一种基于结构化注意力机制的答案选择方法,其特征在于,包括以下步骤:
根据tree LSTM处理输入的句子,以生成所述句子的语义表示;
根据所述句子的语义表示,计算问题和答案之间的注意力权重;
根据所述注意力权重计算出所述答案的最终表示。
7.根据权利要求6所述的基于结构化注意力机制的答案选择方法,其特征在于,所述tree LSTM的计算过程如下式:
fjt=σ(W(f)xj+U(f)hk+b(f)),
hj=oj⊙tanh(cj)。
8.根据权利要求6所述的基于结构化注意力机制的答案选择方法,其特征在于,所述计算出所述答案的最终表示,进一步包括:
利用average pooling计算出问题的表示Oq
其中,Oq,i表示Oq的第i个元素,hqt,i表示,hqt的第i个元素;
在得到问题的表示之后,根据注意力机制计算答案的最终表示如下:
Maq(t)=Wamha(t)+WqmOq
9.根据权利要求8所述的基于结构化注意力机制的答案选择方法,其特征在于,还包括:
根据余弦相似度计算Oq和Oa之间的得分:
S(Oq,Oa)=Oq.Oa
10.根据权利要求9所述的基于结构化注意力机制的答案选择方法,其特征在于,还包括:
将hinge loss作为神经网络的目标函数,定义如下:
其中,N表示所有负例答案的集合,M表示边界,s表示计算得分的函数,q表示问题,a+表示正例答案,a-表示负例答案。
CN201710301451.2A 2017-05-02 2017-05-02 基于结构化注意力机制的答案选择系统及方法 Pending CN107256228A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710301451.2A CN107256228A (zh) 2017-05-02 2017-05-02 基于结构化注意力机制的答案选择系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710301451.2A CN107256228A (zh) 2017-05-02 2017-05-02 基于结构化注意力机制的答案选择系统及方法

Publications (1)

Publication Number Publication Date
CN107256228A true CN107256228A (zh) 2017-10-17

Family

ID=60028157

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710301451.2A Pending CN107256228A (zh) 2017-05-02 2017-05-02 基于结构化注意力机制的答案选择系统及方法

Country Status (1)

Country Link
CN (1) CN107256228A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
CN107967254A (zh) * 2017-10-31 2018-04-27 科大讯飞股份有限公司 知识点预测方法及装置、存储介质、电子设备
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
CN108052512A (zh) * 2017-11-03 2018-05-18 同济大学 一种基于深度注意力机制的图像描述生成方法
CN108228703A (zh) * 2017-10-31 2018-06-29 北京市商汤科技开发有限公司 图像问答方法、装置、系统和存储介质
CN108875074A (zh) * 2018-07-09 2018-11-23 北京慧闻科技发展有限公司 基于交叉注意力神经网络的答案选择方法、装置和电子设备
CN108959246A (zh) * 2018-06-12 2018-12-07 北京慧闻科技发展有限公司 基于改进的注意力机制的答案选择方法、装置和电子设备
CN109002519A (zh) * 2018-07-09 2018-12-14 北京慧闻科技发展有限公司 基于卷积循环神经网络的答案选择方法、装置和电子设备
CN109146296A (zh) * 2018-08-28 2019-01-04 南京葡萄诚信息科技有限公司 一种人工智能评估人才方法
CN109597994A (zh) * 2018-12-04 2019-04-09 挖财网络技术有限公司 短文本问题语义匹配方法和系统
CN109977199A (zh) * 2019-01-14 2019-07-05 浙江大学 一种基于注意力池化机制的阅读理解方法
CN109977428A (zh) * 2019-03-29 2019-07-05 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN110555346A (zh) * 2018-06-01 2019-12-10 杭州海康威视数字技术股份有限公司 驾驶员情绪检测方法、装置、电子设备及存储介质
CN111737984A (zh) * 2020-06-23 2020-10-02 四川长虹电器股份有限公司 一种Web网页表格标题生成方法
CN112733522A (zh) * 2019-10-14 2021-04-30 上海流利说信息技术有限公司 一种离题检测方法、装置、设备及可读存储介质
CN111699498B (zh) * 2018-02-09 2021-08-13 易享信息技术有限公司 作为问答的多任务学习

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354710A (zh) * 2016-08-18 2017-01-25 清华大学 一种神经网络关系抽取方法
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354710A (zh) * 2016-08-18 2017-01-25 清华大学 一种神经网络关系抽取方法
CN106383815A (zh) * 2016-09-20 2017-02-08 清华大学 结合用户和产品信息的神经网络情感分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAI SHENG TAI 等: ""Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks"", 《COMPUTER SCIENCE》 *
MING TAN 等: ""Improved Representation Learning for Question Answer Matching"", 《PROCEEDINGS OF THE 54TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766506A (zh) * 2017-10-20 2018-03-06 哈尔滨工业大学 一种基于层次化注意力机制的多轮对话模型构建方法
US11222236B2 (en) 2017-10-31 2022-01-11 Beijing Sensetime Technology Development Co., Ltd. Image question answering method, apparatus and system, and storage medium
CN107967254A (zh) * 2017-10-31 2018-04-27 科大讯飞股份有限公司 知识点预测方法及装置、存储介质、电子设备
WO2019085905A1 (zh) * 2017-10-31 2019-05-09 北京市商汤科技开发有限公司 图像问答方法、装置、系统和存储介质
CN108228703A (zh) * 2017-10-31 2018-06-29 北京市商汤科技开发有限公司 图像问答方法、装置、系统和存储介质
CN108052512A (zh) * 2017-11-03 2018-05-18 同济大学 一种基于深度注意力机制的图像描述生成方法
CN108052512B (zh) * 2017-11-03 2021-05-11 同济大学 一种基于深度注意力机制的图像描述生成方法
CN108010514B (zh) * 2017-11-20 2021-09-10 四川大学 一种基于深度神经网络的语音分类方法
CN108010514A (zh) * 2017-11-20 2018-05-08 四川大学 一种基于深度神经网络的语音分类方法
US11501076B2 (en) 2018-02-09 2022-11-15 Salesforce.Com, Inc. Multitask learning as question answering
US11615249B2 (en) 2018-02-09 2023-03-28 Salesforce.Com, Inc. Multitask learning as question answering
CN111699498B (zh) * 2018-02-09 2021-08-13 易享信息技术有限公司 作为问答的多任务学习
CN110555346A (zh) * 2018-06-01 2019-12-10 杭州海康威视数字技术股份有限公司 驾驶员情绪检测方法、装置、电子设备及存储介质
CN108959246A (zh) * 2018-06-12 2018-12-07 北京慧闻科技发展有限公司 基于改进的注意力机制的答案选择方法、装置和电子设备
CN108959246B (zh) * 2018-06-12 2022-07-12 北京慧闻科技(集团)有限公司 基于改进的注意力机制的答案选择方法、装置和电子设备
CN108875074B (zh) * 2018-07-09 2021-08-10 北京慧闻科技发展有限公司 基于交叉注意力神经网络的答案选择方法、装置和电子设备
CN109002519A (zh) * 2018-07-09 2018-12-14 北京慧闻科技发展有限公司 基于卷积循环神经网络的答案选择方法、装置和电子设备
CN108875074A (zh) * 2018-07-09 2018-11-23 北京慧闻科技发展有限公司 基于交叉注意力神经网络的答案选择方法、装置和电子设备
CN109146296A (zh) * 2018-08-28 2019-01-04 南京葡萄诚信息科技有限公司 一种人工智能评估人才方法
CN109597994A (zh) * 2018-12-04 2019-04-09 挖财网络技术有限公司 短文本问题语义匹配方法和系统
CN109597994B (zh) * 2018-12-04 2023-06-06 挖财网络技术有限公司 短文本问题语义匹配方法和系统
CN109977199B (zh) * 2019-01-14 2021-06-29 浙江大学 一种基于注意力池化机制的阅读理解方法
CN109977199A (zh) * 2019-01-14 2019-07-05 浙江大学 一种基于注意力池化机制的阅读理解方法
CN109977428A (zh) * 2019-03-29 2019-07-05 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN109977428B (zh) * 2019-03-29 2024-04-02 北京金山数字娱乐科技有限公司 一种答案获取的方法及装置
CN112733522A (zh) * 2019-10-14 2021-04-30 上海流利说信息技术有限公司 一种离题检测方法、装置、设备及可读存储介质
CN111737984A (zh) * 2020-06-23 2020-10-02 四川长虹电器股份有限公司 一种Web网页表格标题生成方法

Similar Documents

Publication Publication Date Title
CN107256228A (zh) 基于结构化注意力机制的答案选择系统及方法
See et al. Compression of neural machine translation models via pruning
Su et al. On transferability of prompt tuning for natural language processing
CN110298361A (zh) 一种rgb-d图像的语义分割方法和系统
CN107871014A (zh) 一种基于深度融合哈希的大数据跨模态检索方法及系统
CN108229582A (zh) 一种面向医学领域的多任务命名实体识别对抗训练方法
CN107766506A (zh) 一种基于层次化注意力机制的多轮对话模型构建方法
CN110534087A (zh) 一种文本韵律层级结构预测方法、装置、设备及存储介质
CN106126507A (zh) 一种基于字符编码的深度神经翻译方法及系统
Yang et al. Collaborative pushing and grasping of tightly stacked objects via deep reinforcement learning
CN108845990A (zh) 基于双向注意力机制的答案选择方法、装置和电子设备
CN109086423A (zh) 一种文本匹配方法及装置
CN107292352A (zh) 基于卷积神经网络的图像分类方法和装置
CN107679225B (zh) 一种基于关键词的回复生成方法
CN106897254A (zh) 一种网络表示学习方法
CN108763191A (zh) 一种文本摘要生成方法及系统
CN110096711A (zh) 序列全局关注和局部动态关注的自然语言语义匹配方法
CN108038539A (zh) 一种集成长短记忆循环神经网络与梯度提升决策树的方法
CN111191461B (zh) 一种基于课程学习的远程监督关系抽取方法
CN107480788A (zh) 一种深度卷积对抗生成网络的训练方法及训练系统
CN112232086A (zh) 一种语义识别方法、装置、计算机设备及存储介质
Ugur et al. Refining discovered symbols with multi-step interaction experience
CN111914553B (zh) 一种基于机器学习的金融信息负面主体判定的方法
CN115221846A (zh) 一种数据处理方法及相关设备
Saphra et al. Language models learn POS first

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171017