CN112115253A - 基于多视角注意力机制的深度文本排序方法 - Google Patents
基于多视角注意力机制的深度文本排序方法 Download PDFInfo
- Publication number
- CN112115253A CN112115253A CN202010824405.2A CN202010824405A CN112115253A CN 112115253 A CN112115253 A CN 112115253A CN 202010824405 A CN202010824405 A CN 202010824405A CN 112115253 A CN112115253 A CN 112115253A
- Authority
- CN
- China
- Prior art keywords
- text
- query
- layer
- vector
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000003993 interaction Effects 0.000 claims abstract description 61
- 230000008569 process Effects 0.000 claims abstract description 12
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 10
- 238000012163 sequencing technique Methods 0.000 claims abstract description 9
- 230000006403 short-term memory Effects 0.000 claims abstract description 7
- 230000007787 long-term memory Effects 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 90
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 239000010410 layer Substances 0.000 description 75
- 238000010586 diagram Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000008357 Okapia johnstoni Species 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于多视角注意力机制的深度文本排序架构,其中,包括:输入层,用于输入网络模型中的数据;编码层使用双向长短期记忆网络分别编码查询和文本中单词的上下文特征,在双向长短期记忆网络中包括前向LSTM和后向LSTM;内部交互层,用来建模文本中不同单词的重要程度,对重要程度不同的单词给予不同的权重,采用自注意力机制建模查询与文本各自内部的重要语义信息;外部交互层,用来建模查询与文本之间的交互相关性,采用双向注意力机制来捕获查询与文本交互过程中的匹配模式;输出层,将外部交互层的输出作为输入,输出查询与文本的相关性分数作为排序依据。
Description
技术领域
本发明属于信息检索领域,具体涉及一种基于多视角注意力机制的深度文本排序方法。
背景技术
文本排序是指给定查询和候选文本集合,在候选文本集合中找到与查询相关的文本并按照相关性排序的过程。一种可靠的文本排序方法将大大提升文本检索的效率并降低人工成本,这在内容过滤、舆情分析、态势感知等领域具有较高的研究价值和应用需求。
早期的信息检索排序方法主要是基于关键字的查询文本匹配。随着机器学习算法的发展,人们提出了效果更好的检索机制。逻辑推理方法使用逻辑回归概率来确定查询和文档之间的相关性。信息检索中的其他传统技术包括基于Boosting的方法、基于TF-IDF相似度和Okapi BM25是最常用的基于术语的文本搜索和排序方法。
随着深度神经网络在文本数据特征表示学习中的成功,人们提出了一些用于文本检索的神经网络排序方法。现有的神经网络排序方法可以分为两类,即以基于表示的匹配方法和基于交互的匹配方法。
在基于表示的方法中,深度结构语义方法使用简单的前向神经网络来学习查询和文本的语义表示,并使用余弦相似度函数计算它们的语义相似度。卷积深度结构语义方法使用卷积层表示词汇的三元组特征,而Palangi等人提出的方法则使用长短期记忆网络LSTM编码器的最后输出状态作为查询和文本的特征,同样这两个方法都使用查询和文档表示之间的余弦相似度函数来计算它们的相关性。在Hu等人提出的工作中,作者提出了卷积神经网络文本语义匹配方法 Architecture-I(ARC-I),该方法也使用卷积结构来创建查询和文本的表示,并使用前馈神经网络来计算它们的相关性。所有这些方法都使用了查询和文本的文本级语义表示。
在Guo等人提出了深度语义匹配方法,该方法利用了查询词和文档词之间的交互特征。Hu等人提出的Architecture-II(ARC-II)使用卷积运算来计算文本的交互特征,并将这些特征反馈到一个深度前馈网络中,以计算相关性得分。MatchPyramid方法则利用查询和文本词向量之间的点积作为交互特征,然后利用卷积层计算相关度得分。这些方法都使用了基于交互的文本匹配方法。
当文本较长时,或者与查询有很少的词汇字面重叠时,传统的技术通常不能取得较好地效果。与传统的方法相比,神经网络排序方法具有足够的建模能力以及更大的潜力来学习这些复杂任务。
在文本检索的大多数情况下,与查询相关的文本是来自文本中的某个或者某几个句子。因此,将整个文本的表示与查询的表示相匹配不会产生很好的结果,基于表示的方法往往效果不能使人满意。因为文本的表示中还包含来自其他不相关部分的特征。
基于交互的匹配方法的一个共同限制是它们没有充分利用文本中内在的层次结构,因此,在文本较长的情况下效果常常表现不佳。
发明内容
本发明的目的在于提供一种基于多视角注意力机制的深度文本排序架构,用于解决现有排序方法对文本较短或较长都有很大局限性,对于非对称的文本导致了现有文本匹配方法难以捕获文本中的有效语义信息。
本发明一种基于多视角注意力机制的深度文本排序架构,其中,包括:输入层,用于输入网络模型中的数据;编码层使用双向长短期记忆网络分别编码查询和文本中单词的上下文特征,在双向长短期记忆网络中包括前向LSTM和后向LSTM;内部交互层,用来建模文本中不同单词的重要程度,对重要程度不同的单词给予不同的权重,采用自注意力机制建模查询与文本各自内部的重要语义信息;外部交互层,用来建模查询与文本之间的交互相关性,采用双向注意力机制来捕获查询与文本交互过程中的匹配模式;输出层,将外部交互层的输出作为输入,输出查询与文本的相关性分数作为排序依据。
根据本发明的基于多视角注意力机制的深度文本排序方法的一实施例,其中,输入网络模型中的数据,包括查询和文本,定义 Q=[q1,q2,q3,...,qn]表示查询集合,D={d1,d2,d3,...,dm}表示文本集合,表示查询中的单词,表示文本中的单词,输入层将查询与文本中的每个单词分别映射到K维向量空间,如式(1)以及式(2)所示:
其中,式(3)表示使用前向LSTM对上层输出的查询的词向量进行编码,式(4)表示使用后向LSTM对上层输出的查询的词向量进行编码,式(5)表示对查询的前向上下文向量和后向的上下文向量进行拼接;
经过该编码层的编码后,得到的查询上下文向量表示包括:
其中,式(7)表示使用前向LSTM对上层输出的文本的词向量进行编码,式(8)表示使用后向LSTM对上层输出的文本的词向量进行编码,式(9)表示对文本的前向上下文向量和后向的上下文向量进行拼接;
经过该编码层的编码后,得到的文本上下文向量表示如下:
根据本发明的基于多视角注意力机制的深度文本排序方法的一实施例,其中,外部交互层通过Query2Doc注意力机制用来捕获文本中哪些单词与查询中的单词有最高的相似度,将这些单词给予更高的权重,对于Query2Doc注意力,给定xq作为输入,输出的计算表示如式(17)以及式(18)所示:
根据本发明的基于多视角注意力机制的深度文本排序方法的一实施例,其中,Doc2Query注意力机制用来捕获查询中哪些单词与文本中的单词有最高的相似度,
根据本发明的基于多视角注意力机制的深度文本排序方法的一实施例,其中,输出层首先对yq和yd按元素相乘得到相似度向量p,然后将向量p经过一个前馈神经网络后得到相似度分数s,其计算过程如式(21)以及式(22)所示:
根据本发明的基于多视角注意力机制的深度文本排序方法的一实施例,其中,对于输出层的查询排序的模型训练,采用铰链损失函数来训练。给定一个三元组(q,d+,d-),其中d+表示数据集中的正例,d-表示数据集中的负例,损失函数的定义如下所示:
l(q,d+,d-;θ)=max(0,1-s(q,d+)+s(q,d-)) (23);
其中,s(q,d)表示查询与文本的预测相似度得分,θ为模型的训练参数,包括注意力机制中的参数和前馈神经网络中的参数。
本发明的一种基于多视角注意力机制的深度文本排序方法将注意力机制应用于文本内部和文本之间,分别捕获文本自身的内部语义信息和交互过程中文本的匹配,获取更有效的信息。
附图说明
图1为基于多视角注意力机制的深度文本排序方法模型框架图;
图2所示编码层双向长短期记忆网络Bi-LSTM结构图;
图3所示为内部交互层结构图;
图4所示为外部交互层的由查询到文本的注意力机制结构图;
图5所示为外部交互层的文本到查询的注意力机制结构图;
图6所示为输出层结构图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明提出了一种基于多视角注意力机制的深度文本匹配方法,综合考虑查询扩展技术、内部注意力机制与外部注意力机制等因素对文本检索的性能影响,通过多视角注意力机制可以增加对文本中关键信息的关注并捕获查询与文本交互过程中的匹配信息。
使用该方法建立模型,主要由输入层、编码层、内部交互层、外部交互层和输出层五部分组成。为便于理解,下面将按照网络模型层次采用自底向上的方法介绍模型。图1为基于多视角注意力机制的深度文本排序方法模型框架图,如图1所示,
1、输入层
输入层的目的是准备用于输入网络模型中的数据,包括查询和文本。定义Q=[q1,q2,q3,...,qn]表示查询集合,D={d1,d2,d3,...,dm}表示文本集合,表示查询中的单词,表示文本中的单词。输入层将查询与文本中的每个单词分别映射到K维向量空间,如式(1)、式(2)所示:
2、编码层
图2所示编码层双向长短期记忆网络Bi-LSTM结构图,如图2所示,编码层使用双向长短期记忆网络Bi-LSTM分别编码查询和文本中单词的上下文特征,在双向长短期记忆网络Bi-LSTM中包括前向 LSTM和后向LSTM。
其中,式(3)表示使用前向LSTM对上层输出的查询的词向量进行编码,式(4)表示使用后向LSTM对上层输出的查询的词向量进行编码,式(5)表示对查询的前向上下文向量和后向的上下文向量进行拼接。
经过该编码层的编码后,最终得到的查询上下文向量表示如下:
其中,嵌入矩阵E对应的实体空间的维度是V*K,其中V代表整个语料中的单词个数,K代表每个单词的维度。公式(6)中,H^q对应的实体空间维度是i*W,其中i代表的是查询中i个单词,i属于V,在经过LSTM编码层的神经单元后,每个单词的维度由原来的K维变为了W维。
其中,式(7)表示使用前向LSTM对上层输出的文本的词向量进行编码,式(8)表示使用后向LSTM对上层输出的文本的词向量进行编码,式(9)表示对文本的前向上下文向量和后向的上下文向量进行拼接。
经过该编码层的编码后,最终得到的文本上下文向量表示如下:
在公式(10)中,H^d对应的实体空间维度是j*W,其中j代表的是文本中j个单词,j属于V,在经过LSTM编码层后,每单词的维度由原来的K维变为了W维。
3、内部交互层
内部交互层用来建模文本中不同单词的重要程度,对更重要的单词给予更高的权重。该层采用自注意力机制Self-Attention建模查询与文本各自内部的重要语义信息,图3所示为内部交互层结构图,如图3 所示。
4、外部交互层
外部交互层用来建模查询与文本之间的交互相关性。为了获取两者之间的交互相关性,该层采用双向注意力机制来捕获查询与文本交互过程中的匹配模式。双向注意力机制在阅读理解任务中已经表现出良好的性能。因此,本文利用双向注意力机制在文本检索任务中。该双向注意力机制包括由查询到文本的注意力机制(Query2Doc),以及由文本到查询的注意力机制(Doc2Query),图4所示为外部交互层的由查询到文本的注意力机制结构图;图5所示为外部交互层的文本到查询的注意力机制结构图,如图4以及图5所示,
Query2Doc注意力机制用来捕获文本中哪些单词与查询中的单词有最高的相似度,将这些单词给予更高的权重。对于Query2Doc注意力,该层给定xq作为输入,输出的计算表示如式(17)、式(18) 所示:
Doc2Query注意力机制用来捕获查询中哪些单词与文本中的单词有最高的相似度,并将这些单词给予更高的权重。对于Doc2Query注意力,该层给定xd作为输入,输出计算表示如式(19)、式(20) 所示:
5、输出层
输出层将外部交互层的输出yq和yd作为输入,输出查询与文本的相关性分数作为排序依据,图6所示为输出层结构图,如图6所示,具体地,首先对yq和yd按元素相乘得到相似度向量p,然后将向量p经过一个前馈神经网络(FFNN)后得到相似度分数s,其计算过程如式(21)、式(22)所示:
对模型训练:
由于检索任务是一个典型的排序问题,因此采用铰链损失函数来训练。给定一个三元组(q,d+,d-),其中d+表示数据集中的正例,d-表示数据集中的负例,损失函数的定义如下所示:
l(q,d+,d-;θ)=max(0,1-s(q,d+)+s(q,d-)) (23)
其中,s(q,d)表示查询与文本的预测相似度得分,θ为模型的训练参数,包括注意力机制中的参数和前馈神经网络中的参数。
本发明采用两类基准方法进行对比实验,包括传统检索方法和神经网络排序方法。神经网络排序方法具体包括:
ArcI:ArcI模型采用一维卷积层和最大池化层产生输入的两个文本的特征表示,然后将两个特征进行拼接,最后用多层感知器(MLP) 获得相似性得分。
ArcII:ArcII模型使用一维卷积来建立两个输入句子的交互矩阵。在交互矩阵上使用2D卷积、max pooling和MLP得到最终得分。
MatchPyramid:MatchPyramid模型使用两个输入句子的词嵌入之间的点积来建立两个输入句子之间的交互矩阵,然后将所得矩阵用卷积神经网络进行处理,最终匹配得分采用卷积神经网络输出的MLP 计算。
本发明采用Yahoo!Answers API中提供的getByCategory函数从 Yahoo!Answers网站上获取问答对来构建数据集Yahoo Answers。使用两个与排序位置敏感的评价指标:主集合平均准确率(MAP)和归一化折损累积增益(NDCG)。NDCG分别对检索结果中的前三个和前五个进行排名。
表1三类模型在Yahoo Answers数据集上的实验结果
由表1可以发现,不同类型的模型在对称数据集上和非对称数据集上的效果均表现出明显差别,对称数据集上的效果比非对称数据集上的效果平均高出10%左右,两个数据集中性能表现最好的结果用粗体标出。
本发明提出的基于多视角注意力机制的深度文本排序方法借鉴了基于表示模型与基于交互式模型的优点,分别考虑了文本的表示与文本的交互,从而提高模型的性能。通过多视角注意力机制可以增加对文本中关键信息的关注并捕获查询与文本交互过程中的匹配模式。具体地,构造两种注意力机制,包括内部注意力机制和外部注意力机制。内部注意力机制主要用于捕获查询内部的关键信息与文本内部的关键信息,从而降低噪声信息的干扰,能够有效克服已有排序模型无法捕获长文本语义信息的问题;而外部注意力机制主要用于捕获查询与文本之间的关键信息,能够捕捉文本之间的交互匹配模式。基于多视角注意力机制深度文本排序方法在两个数据集上的效果均优于其它两类方法,该结果表明基于多视角注意力机制深度文本排序方法不仅能处理对称的数据,而且能够有效解决文本检索中的非对称性问题。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.一种基于多视角注意力机制的深度文本排序架构,其特征在于,包括:
输入层,用于输入网络模型中的数据;
编码层使用双向长短期记忆网络分别编码查询和文本中单词的上下文特征,在双向长短期记忆网络中包括前向LSTM和后向LSTM;
内部交互层,用来建模文本中不同单词的重要程度,对重要程度不同的单词给予不同的权重,采用自注意力机制建模查询与文本各自内部的重要语义信息;
外部交互层,用来建模查询与文本之间的交互相关性,采用双向注意力机制来捕获查询与文本交互过程中的匹配模式;
输出层,将外部交互层的输出作为输入,输出查询与文本的相关性分数作为排序依据。
3.如权利要求1所述的基于多视角注意力机制的深度文本排序方法,其特征在于,
其中,式(3)表示使用前向LSTM对上层输出的查询的词向量进行编码,式(4)表示使用后向LSTM对上层输出的查询的词向量进行编码,式(5)表示对查询的前向上下文向量和后向的上下文向量进行拼接;
经过该编码层的编码后,得到的查询上下文向量表示包括:
其中,式(7)表示使用前向LSTM对上层输出的文本的词向量进行编码,式(8)表示使用后向LSTM对上层输出的文本的词向量进行编码,式(9)表示对文本的前向上下文向量和后向的上下文向量进行拼接;
经过该编码层的编码后,得到的文本上下文向量表示如下:
8.如权利要求1所述的基于多视角注意力机制的深度文本排序方法,其特征在于,对于输出层的查询排序的模型训练,采用铰链损失函数来训练。给定一个三元组(q,d+,d-),其中d+表示数据集中的正例,d-表示数据集中的负例,损失函数的定义如下所示:
l(q,d+,d-;θ)=max(0,1-s(q,d+)+s(q,d-)) (23);
其中,s(q,d)表示查询与文本的预测相似度得分,θ为模型的训练参数,包括注意力机制中的参数和前馈神经网络中的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010824405.2A CN112115253B (zh) | 2020-08-17 | 2020-08-17 | 基于多视角注意力机制的深度文本排序方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010824405.2A CN112115253B (zh) | 2020-08-17 | 2020-08-17 | 基于多视角注意力机制的深度文本排序方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112115253A true CN112115253A (zh) | 2020-12-22 |
CN112115253B CN112115253B (zh) | 2023-02-03 |
Family
ID=73804924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010824405.2A Active CN112115253B (zh) | 2020-08-17 | 2020-08-17 | 基于多视角注意力机制的深度文本排序方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115253B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112836012A (zh) * | 2021-01-25 | 2021-05-25 | 中山大学 | 一种基于排序学习的相似患者检索方法 |
CN113095433A (zh) * | 2021-04-27 | 2021-07-09 | 北京石油化工学院 | 入侵检测网络结构模型的训练方法 |
CN113535918A (zh) * | 2021-07-14 | 2021-10-22 | 梁晨 | 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质 |
CN114065729A (zh) * | 2021-11-16 | 2022-02-18 | 神思电子技术股份有限公司 | 一种基于深度文本匹配模型的文本排序方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180329884A1 (en) * | 2017-05-12 | 2018-11-15 | Rsvp Technologies Inc. | Neural contextual conversation learning |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN111159223A (zh) * | 2019-12-31 | 2020-05-15 | 武汉大学 | 一种基于结构化嵌入的交互式代码搜索方法及装置 |
CN111475642A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种文本分类方法、装置及模型训练方法 |
-
2020
- 2020-08-17 CN CN202010824405.2A patent/CN112115253B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180329884A1 (en) * | 2017-05-12 | 2018-11-15 | Rsvp Technologies Inc. | Neural contextual conversation learning |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN111159223A (zh) * | 2019-12-31 | 2020-05-15 | 武汉大学 | 一种基于结构化嵌入的交互式代码搜索方法及装置 |
CN111475642A (zh) * | 2020-02-29 | 2020-07-31 | 新华三大数据技术有限公司 | 一种文本分类方法、装置及模型训练方法 |
Non-Patent Citations (2)
Title |
---|
李文慧等: "改进biLSTM网络的短文本分类方法", 《计算机工程与设计》 * |
王家乾等: "基于混合多头注意力和胶囊网络的特定目标情感分析", 《中文信息学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651242A (zh) * | 2021-01-20 | 2021-04-13 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112651242B (zh) * | 2021-01-20 | 2024-04-26 | 重庆大学 | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 |
CN112836012A (zh) * | 2021-01-25 | 2021-05-25 | 中山大学 | 一种基于排序学习的相似患者检索方法 |
CN112836012B (zh) * | 2021-01-25 | 2023-05-12 | 中山大学 | 一种基于排序学习的相似患者检索方法 |
CN113095433A (zh) * | 2021-04-27 | 2021-07-09 | 北京石油化工学院 | 入侵检测网络结构模型的训练方法 |
CN113095433B (zh) * | 2021-04-27 | 2023-06-23 | 北京石油化工学院 | 入侵检测网络结构模型的训练方法 |
CN113535918A (zh) * | 2021-07-14 | 2021-10-22 | 梁晨 | 预训练对偶注意力神经网络语义推断对话检索方法及系统、检索设备、存储介质 |
CN114065729A (zh) * | 2021-11-16 | 2022-02-18 | 神思电子技术股份有限公司 | 一种基于深度文本匹配模型的文本排序方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112115253B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115253B (zh) | 基于多视角注意力机制的深度文本排序方法 | |
CN111259127B (zh) | 一种基于迁移学习句向量的长文本答案选择方法 | |
CN111581401B (zh) | 一种基于深度相关性匹配的局部引文推荐系统及方法 | |
Manmadhan et al. | Visual question answering: a state-of-the-art review | |
CN112100351A (zh) | 一种通过问题生成数据集构建智能问答系统的方法及设备 | |
CN111611361A (zh) | 抽取式机器智能阅读理解问答系统 | |
CN112966127A (zh) | 一种基于多层语义对齐的跨模态检索方法 | |
CN103778227B (zh) | 从检索图像中筛选有用图像的方法 | |
Shi et al. | Deep adaptively-enhanced hashing with discriminative similarity guidance for unsupervised cross-modal retrieval | |
CN112347268A (zh) | 一种文本增强的知识图谱联合表示学习方法及装置 | |
CN112182166A (zh) | 一种文本匹配方法、装置、电子设备及存储介质 | |
Castellano et al. | Leveraging knowledge graphs and deep learning for automatic art analysis | |
CN113343125B (zh) | 一种面向学术精准推荐的异质科研信息集成方法及系统 | |
CN110674252A (zh) | 一种面向司法领域的高精度语义搜索系统 | |
CN116097250A (zh) | 用于多模式文档理解的布局感知多模式预训练 | |
CN111291188A (zh) | 一种智能信息抽取方法及系统 | |
CN110516145B (zh) | 一种基于句向量编码的信息搜索方法 | |
CN113076465A (zh) | 一种基于深度哈希的通用跨模态检索模型 | |
Thirumuruganathan et al. | Data curation with deep learning [vision] | |
CN116611024A (zh) | 一种基于事实和情感对立性的多模态反讽检测方法 | |
CN117574904A (zh) | 基于对比学习和多模态语义交互的命名实体识别方法 | |
CN112632250A (zh) | 一种多文档场景下问答方法及系统 | |
CN114595306A (zh) | 基于距离感知自注意力机制和多角度建模的文本相似度计算系统及方法 | |
CN112883199A (zh) | 一种基于深度语义邻居和多元实体关联的协同消歧方法 | |
CN116662500A (zh) | 一种基于bert模型与外部知识图谱的问答系统构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |