CN113011193A - 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 - Google Patents
基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 Download PDFInfo
- Publication number
- CN113011193A CN113011193A CN202110383167.0A CN202110383167A CN113011193A CN 113011193 A CN113011193 A CN 113011193A CN 202110383167 A CN202110383167 A CN 202110383167A CN 113011193 A CN113011193 A CN 113011193A
- Authority
- CN
- China
- Prior art keywords
- sentence
- model
- vectors
- consultation
- lstm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000001514 detection method Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 98
- 230000006870 function Effects 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 230000008447 perception Effects 0.000 claims abstract description 10
- 238000012216 screening Methods 0.000 claims abstract description 4
- 238000012549 training Methods 0.000 claims description 9
- 230000014509 gene expression Effects 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于Bi‑LSTM算法的检测咨询语句重复性评价方法及系统,包括输入咨询语句;使用DM模型将所输入的咨询语句转化为对应的词向量表示,使用Embedding的方式将离散的词向量转化为连续的一维句向量;在编码层中将所生成的句向量输入到Bi‑LSTM模型的神经网络;使用互注意力机制将其模型输出结果生成对应互注意力表示;通过距离加权函数来测算出特征向量之间的相似程度;通过多层感知网络进行分类筛选,判断问题语句存在重复值或者不存在重复值。本发明使用对应语句的句向量而非词向量来进行语义相似度的检测,利用语句的语序信息增加检测的准确率;使用互注意力机制帮助模型从过去和未来来获取语句的语义信息。
Description
技术领域
本发明涉及语义重复性评价领域,具体涉及到一种基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统。
背景技术
已有现有技术将注意力机制(Attention)引入双向长短时记忆网络(Bi-LSTM),从而用于智能问答系统的研究,如图1所示,在此系统中,句向量层将所输入的语句通过CBOW模型生成相对应的句向量,然后将其输入双向长短时记忆网络中;紧接着,此记忆网络通过对于语句进行训练并结合模型前向和后向的结果进行输出;然后将模型Bi-LSTM模型的输出结果输入到融合了注意力模型Encoder-Decoder框架,从而得到语句相对应的回答。
也已有现有技术运用GloVe模型将咨询语句转化为词向量,并使用基于互注意力机制(Co-Attention)孪生长短期记忆模型(Siamese Bi-LSTM)将其进行语义重复性的检测,所设计系统的检测流程如图2所示,在此系统中,其通过GloVe模型将所输入的问句转化为对应的词向量,并对所得的词向量进行拼接、求均值等操作。然后将所获得的问句特征向量输入到孪生长短期记忆模型和互注意力模型中,从而得到对应语句的互注意力表示。最后将所得到的语句向量进行相似度的测算并通过分类网络来判断其是否存在重复值。
然而,目前的现有技术还存在着以下技术问题:
现阶段的深度学习模型在没有使用互注意力机制(Co-Attention)的情况下,无法有效地从语句的上下文两个时态方向去获取语义,从而容易造成语义识别的误差;
使用Word2Vec模型或者GloVe模型将语句转化为词向量表示时,模型无法利用语句的语序信息,也容易造成语义识别的误差。
发明内容
针对上述技术问题,本发明的目的在于提供一种基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统,本发明通过将智能学习平台上的咨询语句转化为句向量而非传统的词向量,并且将互注意力机制(Co-Attention)引入双向长短时记忆网络(Siamese Bi-LSTM)来检测对应句向量的语义重复程度,提升了对于语句信息的利用率,提高了对于语义重复性识别的准确度,从而减少了重复的咨询语句占用智能学习平台的后端储存空间。
为实现上述目的,本发明是根据以下技术方案实现的:
本发明提出一种一种基于Bi-LSTM算法的检测咨询语句重复性评价方法,其特征在于,包括如下步骤:
步骤S1:输入咨询语句;
步骤S2:使用DM模型将所输入的咨询语句转化为对应的词向量表示,使用Embedding的方式将离散的词向量转化为连续的一维句向量;
步骤S3:在编码层中将所生成的句向量输入到Bi-LSTM模型的神经网络中;
步骤S4:使用互注意力机制将Bi-LSTM模型的输出结果生成对应的互注意力表示;
步骤S5:通过距离加权函数来测算出特征向量之间的相似程度;
步骤S6:通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
本发明优选的技术方案在于,步骤S1中设定咨询语句包括W1和W2,记为:S(W1,W2),其中,
当S(W1,W2)→1时,表示两个咨询语句的语义相似或相同,即此组语句存在重复值;
当S(W1,W2)→0时,表示两个咨询语句的语义不相同,即此组语句不存在重复值。
本发明优选的技术方案在于,步骤S1进一步包括不同的咨询语句分别输入到神经网络的子网络中。
本发明优选的技术方案在于,步骤S2还包括对DM模型进行训练,训练步骤包括:
DM模型生成一个与词向量拥有相同维数的语句识别向量;
将所有的咨询语句的向量和词向量进行累加处理,得到对应的语句向量;
将对应的语句向量传递到下一层的编码层中。
本发明优选的技术方案在于,步骤S3包括
步骤S31:使用神经网络算法进行计算生成的句向量;
步骤S32:使用LSTM模型从后向以及前向每个时间步的隐藏层状态进行连接操作,并且通过连接函数计算出Bi-LSTM所输出的每个句向量。
本发明优选的技术方案在于,所述步骤S4包括:
步骤S41:使用互注意力机制对Bi-LSTM模型进行优化,构造语义的相似度矩阵;
步骤S42:对相似度矩阵的行和列进行最大池化来对池化层进行特征提取,从而得到对应语句的互注意力表示。
本发明优选的技术方案在于,所述DM模型通过GloVe模型或者Word2Vec模型替换。
本发明优选的技术方案在于,所述距离加权函数为欧氏距离加权函数或者马氏距离加权函数或者明氏距离加权函数。
本发明还提出了一种基于Bi-LSTM算法的检测咨询语句重复性评价系统,其特征在于,包括:
咨询语句输入部,其用于输入咨询语句;
词向量表示部,其通过DM模型将所输入的咨询语句转化为对应的词向量表示;
一维句向量表示部,其通过Embedding的方式将离散的词向量转化为连续的一维句向量;
Bi-LSTM模型,Bi-LSTM模型用于通过自身的神经网络接收通过在编码层中将所生成的句向量;
互注意力机制表示部,其对所述Bi-LSTM模型的生成结果生成对应的互注意力表示;
距离加权函数计算部,其用于测算特征向量之间的相似程度;
多层感知部,其通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
本发明与现有技术相比,具有如下优点:
1.本发明使用对应语句的句向量而非词向量来进行语义相似度的检测,能够更好地利用语句的语序信息,从而增加检测的准确率。
2.本发明使用互注意力机制(Co-attention)能帮助模型从过去和未来两个不同的时态来获取语句的语义信息。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为现有技术的智能问答系统示意图;
图2为另一种现有技术设计系统的检测流程示意图;
图3为使用本申请模型来进行语句重复性检测的流程示意图。
图4为使用DM模型生成句向量的过程示意图;
图5为使用互注意力机制生成对应的互注意力表示示意图;
图6为使用欧氏距离加权函数计算欧式距离的示意图;
图7为判断问题语句存在重复值或者不存在重复值的示意图;
图8为模型试验结果示意图;
图9为在同样使用词向量下各模型的判断准确率示意图;
图10为在同样使用句向量下各模型的判断准确率示意图;
图11为使用句向量之后各模型准确率的变动示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。
根据现有技术的不足,本发明提出了一种基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统,尤其是针对经管类的咨询语句,如图3所示,图3为使用本申请模型来进行语句重复性检测的流程示意图。本发明的一种基于Bi-LSTM算法的检测咨询语句重复性评价方法,其特征在于,包括如下步骤:
步骤S1:输入咨询语句;
步骤S2:使用DM模型将所输入的咨询语句转化为对应的词向量表示,使用Embedding的方式将离散的词向量转化为连续的一维句向量;
步骤S3:在编码层中将所生成的句向量输入到Bi-LSTM模型的神经网络中;
步骤S4:使用互注意力机制将Bi-LSTM模型的输出结果生成对应的互注意力表示;
步骤S5:通过距离加权函数来测算出特征向量之间的相似程度;
步骤S6:通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
在步骤S1中设定咨询语句包括W1和W2,记为:S(W1,W2),其中,
当S(W1,W2)→1时,表示两个咨询语句的语义相似或相同,即此组语句存在重复值;
当S(W1,W2)→0时,表示两个咨询语句的语义不相同,即此组语句不存在重复值。
步骤S1的输入咨询语句包括分别将不同的咨询语句分别输入到神经网络的子网络中,如图3所示。
步骤S2还包括对DM模型进行训练,训练步骤包括:
DM模型生成一个与词向量拥有相同维数的语句识别向量;
将所有的咨询语句的向量和词向量进行累加处理,得到对应的语句向量;
将对应的语句向量传递到下一层的编码层中。
如图4所示为使用DM模型和Embedding的方式生成句向量的过程。
步骤S3包括:
步骤S31:使用神经网络算法进行计算生成的句向量;
在对于Bi-LSTM模型进行训练时,通过对于误差的逆向传播来调整权重。并且,在神经网络中计算遗忘门、输出门输入门以及输入门的细胞状态,公式如下:
bt=dt⊙bt-1+qt⊙st
ht=tan h(bt)⊙ot
其中,⊙:元素对应乘积;pq、pd、po、ps:所需要学习的参数。gq、gd、go、gs:偏差向量;σ:用于激活函数的s型函数;tanh:双曲正切函数;Xt=[ht-n,ht-(n-1),...,ht-2,ht-1]为LSTM层的输出,用以表示所有输出结果的矢量。
步骤S32:使用LSTM模型从后向以及前向每个时间步的隐藏层状态进行连接操作,并且通过连接函数计算出Bi-LSTM所输出的每个句向量。其中连接函数为:Xt=((ht)→⊙(ht)←),其中:⊙表示将将两个输出结果结合起来,h→表示前向层从t-n时间段到t-1时间段的正序迭代计算输出的结果;h←表示使用从t-n时间段到t-1时间段的逆向输入的运算输出结果。
步骤S4包括:步骤S41:使用互注意力机制对Bi-LSTM模型进行优化,构造语义的相似度矩阵;
先构造语义相似度矩阵如下:
步骤S42:对相似度矩阵的行和列进行最大池化来对池化层进行特征提取,从而得到对应语句的互注意力表示。其过程如下:
Sij为n、m语句的相似度矩阵,且S∈Rln×lm。S(.)为softmax函数。
n',m'分别为n语句和m语句的互注意力表示,步骤S4的流程如图5所示。
DM模型通过GloVe模型或者Word2Vec模型替换。
本发明的距离加权函数为欧氏距离加权函数或者马氏距离加权函数或者明氏距离加权函数。
欧式函数的表达式如下:
x,y:在K维度空间上的向量,x和y的欧氏距离定义为空间中x和y的真实距离。如果x和y是在二维空间上的向量,则此时u(x,y)的取值便可使用勾股定理进行测算,在二维空间中计算欧式距离的示意图如图6所示。
步骤S6的流程图如图7所示,MLP模型获取从上述算法中输出的问题语句的向量表示以及其语义的相似度距离间的连接并作为MLP模型的输入,对应的算法如下:
V=[f(w1);f(w2);d(w1,w2)]
接着输出两个问题语句间的匹配几率作为输出结果,最终将输出一个单独的1×2向量从而判断语句存在或者不存在重复值。
本发明还提出了一种基于Bi-LSTM算法的检测咨询语句重复性评价系统,包括:
咨询语句输入部,其用于输入咨询语句;
词向量表示部,其通过DM模型将所输入的咨询语句转化为对应的词向量表示;
一维句向量表示部,其通过Embedding的方式将离散的词向量转化为连续的一维句向量;
Bi-LSTM模型,Bi-LSTM模型用于通过自身的神经网络接收通过在编码层中将所生成的句向量;
互注意力机制表示部,其对所述Bi-LSTM模型的生成结果生成对应的互注意力表示;
距离加权函数计算部,其用于测算特征向量之间的相似程度;
多层感知部,其通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
本发明的评价方法的实验采用TensorFlow系统,并选择使用C++加快其运算效率,最后运用高级机器学习应用程序接口(API)来达到模型训练的效率最大化。
所使用的实验数据皆来自经管之家平台,本次实验单独选取了经管之家平台上有关于如何运用STATA软件进行计量模型分析的的咨询帖。此次实验选取了总计800个有关于“加权最小二乘法什么情况下适用”、“如何做STATA面板数据的模型分析”以及“STATA控制变量不符合预期怎么办”的相关咨询帖作为实验数据,并将咨询帖的问答结果进行语句的整合,从而得到两个文本文档,分别命名为提问文本和回复文本,总计约为6400条咨询数据,选择其中的4800条数据进行训练,1600条数据进行数据测试。使用jieba分词器将文本中的语句进行分词,紧接着删去标点符号等,为后续生成句向量做好前期准备。
再使用欧氏距离函数针对基于互注意力机制的Bi-LSTM模型的输出结果进行相似度测算,并通过MLP过滤器来判断其是否存在重复性语句。
模型的参数设置如下:
本次试验结果如图8所示,所选取词向量的Bi-LSTM、Attention-Bi-LSTM、Co-Attention-Bi-LSTM的判断准确率分别为76.26%、81.13%以及86.76%,而选取句向量的Bi-LSTM、Attention-Bi-LSTM、Co-Attention-Bi-LSTM的判断准确率分别为80.61%、85.86%以及89.42%,由此可知,Co-Attention-Bi-LSTM的判断准确率相对较高。
如图9和图10所示,它们分别为在同样使用词向量下各模型的判断准确率示意图以及在同样使用句向量下各模型的判断准确率示意图;Co-Attention-Bi-LSTM的判断准确率也比较高。
图11为使用句向量之后各模型准确率的变动示意图。从图11可以看出,Co-Attention-Bi-LSTM的判断准确率也是比Bi-LSTM、Attention-Bi-LSTM的判断准确率高。
本发明通过将经管类智能学习平台上的咨询语句转化为句向量而非传统的词向量,并且将将互注意力机制(Co-Attention)引入双向长短时记忆网络(Siamese Bi-LSTM)来检测对应句向量的语义重复程度,提升了对于语句信息的利用率,提高了对于语义重复性识别的准确度,从而减少了重复的咨询语句占用经管类智能学习平台的后端储存空间。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (9)
1.一种基于Bi-LSTM算法的检测咨询语句重复性评价方法,其特征在于,包括如下步骤:
步骤S1:输入咨询语句到神经网络中;
步骤S2:使用DM模型将所输入的咨询语句转化为对应的词向量表示,使用Embedding的方式将离散的词向量转化为连续的一维句向量;
步骤S3:在编码层中将所生成的句向量输入到Bi-LSTM模型的神经网络中;
步骤S4:使用互注意力机制将Bi-LSTM模型的输出结果生成对应的互注意力表示;
步骤S5:通过距离加权函数来测算出特征向量之间的相似程度;
步骤S6:通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
2.根据权利要求1所述的评价方法,其特征在于,步骤S1中设定咨询语句包括W1和W2,记为:S(W1,W2),其中,
当S(W1,W2)→1时,表示两个咨询语句的语义相似或相同,即此组语句存在重复值;
当S(W1,W2)→0时,表示两个咨询语句的语义不相同,即此组语句不存在重复值。
3.根据权利要求2所述的评价方法,其特征在于,步骤S1进一步包括不同的咨询语句分别输入到神经网络的子网络中。
4.根据权利要求3所述的评价方法,其特征在于,步骤S2还包括对DM模型进行训练,训练步骤包括:
DM模型生成一个与词向量拥有相同维数的语句识别向量;
将所有的咨询语句的向量和词向量进行累加处理,得到对应的语句向量;
将对应的语句向量传递到下一层的编码层中。
5.根据权利要求4所述的评价方法,其特征在于,步骤S3包括
步骤S31:使用神经网络算法进行计算生成的句向量;
步骤S32:使用LSTM模型从后向以及前向每个时间步的隐藏层状态进行连接操作,并且通过连接函数计算出Bi-LSTM所输出的每个句向量。
6.根据权利要求5所述的评价方法,其特征在于,所述步骤S4包括:
步骤S41:使用互注意力机制对Bi-LSTM模型进行优化,构造语义的相似度矩阵;
步骤S42:对相似度矩阵的行和列进行最大池化来对池化层进行特征提取,从而得到对应语句的互注意力表示。
7.根据权利要求1所述的评价方法,其特征在于,所述DM模型可通过GloVe模型或者Word2Vec模型替换。
8.根据权利要求1所述的评价方法,其特征在于,所述距离加权函数为欧氏距离加权函数或者马氏距离加权函数或者明氏距离加权函数。
9.一种基于Bi-LSTM算法的检测咨询语句重复性评价系统,其特征在于,包括:
咨询语句输入部,其用于输入咨询语句;
词向量表示部,其通过DM模型将所输入的咨询语句转化为对应的词向量表示;
一维句向量表示部,其通过Embedding的方式将离散的词向量转化为连续的一维句向量;
Bi-LSTM模型,其通过自身的神经网络接收由编码层所生成的句向量;
互注意力机制表示部,其对所述Bi-LSTM模型的输出结果生成对应的互注意力表示;
距离加权函数计算部,其用于测算特征向量之间的相似程度;
多层感知部,其通过多层感知网络进行分类筛选,从而判断问题语句存在重复值或者不存在重复值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110383167.0A CN113011193B (zh) | 2021-04-09 | 2021-04-09 | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110383167.0A CN113011193B (zh) | 2021-04-09 | 2021-04-09 | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113011193A true CN113011193A (zh) | 2021-06-22 |
CN113011193B CN113011193B (zh) | 2021-11-23 |
Family
ID=76388322
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110383167.0A Expired - Fee Related CN113011193B (zh) | 2021-04-09 | 2021-04-09 | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113011193B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190295533A1 (en) * | 2018-01-26 | 2019-09-26 | Shanghai Xiaoi Robot Technology Co., Ltd. | Intelligent interactive method and apparatus, computer device and computer readable storage medium |
US20190377738A1 (en) * | 2018-06-08 | 2019-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for determining search results, device and computer storage medium |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN110619127A (zh) * | 2019-08-29 | 2019-12-27 | 内蒙古工业大学 | 一种基于神经网络图灵机的蒙汉机器翻译方法 |
CN110851573A (zh) * | 2018-07-27 | 2020-02-28 | 北京京东尚科信息技术有限公司 | 语句处理方法、系统和电子设备 |
US10720151B2 (en) * | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
CN112381615A (zh) * | 2020-11-27 | 2021-02-19 | 华中科技大学 | 基于用户重复行为模式挖掘的短序列推荐方法 |
CN112527993A (zh) * | 2020-12-17 | 2021-03-19 | 浙江财经大学东方学院 | 一种跨媒体层次化深度视频问答推理框架 |
CN112597296A (zh) * | 2020-12-17 | 2021-04-02 | 中山大学 | 一种基于计划机制和知识图谱引导的摘要生成方法 |
-
2021
- 2021-04-09 CN CN202110383167.0A patent/CN113011193B/zh not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190295533A1 (en) * | 2018-01-26 | 2019-09-26 | Shanghai Xiaoi Robot Technology Co., Ltd. | Intelligent interactive method and apparatus, computer device and computer readable storage medium |
US20190377738A1 (en) * | 2018-06-08 | 2019-12-12 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for determining search results, device and computer storage medium |
CN110851573A (zh) * | 2018-07-27 | 2020-02-28 | 北京京东尚科信息技术有限公司 | 语句处理方法、系统和电子设备 |
US10720151B2 (en) * | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
CN110619127A (zh) * | 2019-08-29 | 2019-12-27 | 内蒙古工业大学 | 一种基于神经网络图灵机的蒙汉机器翻译方法 |
CN110569508A (zh) * | 2019-09-10 | 2019-12-13 | 重庆邮电大学 | 融合词性和自注意力机制的情感倾向性分类方法及系统 |
CN112381615A (zh) * | 2020-11-27 | 2021-02-19 | 华中科技大学 | 基于用户重复行为模式挖掘的短序列推荐方法 |
CN112527993A (zh) * | 2020-12-17 | 2021-03-19 | 浙江财经大学东方学院 | 一种跨媒体层次化深度视频问答推理框架 |
CN112597296A (zh) * | 2020-12-17 | 2021-04-02 | 中山大学 | 一种基于计划机制和知识图谱引导的摘要生成方法 |
Non-Patent Citations (2)
Title |
---|
Y CHENG 等: ""DOCUMENT CLASSIFICATION BASED ON CONVOLUTIONAL NEURAL NETWORK AND HIERARCHICAL ATTENTION NETWORK"", 《NEURAL NETWORK WORLD》 * |
闫艺婷: ""基于知识图谱的保险问答算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Also Published As
Publication number | Publication date |
---|---|
CN113011193B (zh) | 2021-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11631007B2 (en) | Method and device for text-enhanced knowledge graph joint representation learning | |
CN112163426B (zh) | 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法 | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
CN110232395B (zh) | 一种基于故障中文文本的电力系统故障诊断方法 | |
CN112732916B (zh) | 一种基于bert的多特征融合模糊文本分类系统 | |
CN108563624A (zh) | 一种基于深度学习的自然语言生成方法 | |
CN108566627A (zh) | 一种利用深度学习识别诈骗短信的方法及系统 | |
CN111506732B (zh) | 一种文本多层次标签分类方法 | |
CN111597340A (zh) | 一种文本分类方法及装置、可读存储介质 | |
CN112487189B (zh) | 一种图卷积网络增强的隐式篇章文本关系分类方法 | |
CN110019822B (zh) | 一种少样本关系分类方法及系统 | |
CN111368082A (zh) | 一种基于层次网络的领域自适应词嵌入的情感分析方法 | |
CN111008224A (zh) | 一种基于深度多任务表示学习的时间序列分类和检索方法 | |
CN112347780B (zh) | 基于深度神经网络的司法事实查明生成方法、装置、介质 | |
CN112561718A (zh) | 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法 | |
CN111723572B (zh) | 基于CNN卷积层和BiLSTM的中文短文本相关性度量方法 | |
CN111859979A (zh) | 讽刺文本协同识别方法、装置、设备及计算机可读介质 | |
Suyanto | Synonyms-based augmentation to improve fake news detection using bidirectional LSTM | |
CN113987910A (zh) | 一种耦合神经网络与动态时间规划的居民负荷辨识方法及装置 | |
Rahaman et al. | Automated evaluation of handwritten answer script using deep learning approach | |
Varshitha et al. | Natural language processing using convolutional neural network | |
CN113312907B (zh) | 基于混合神经网络的远程监督关系抽取方法及装置 | |
CN111259115A (zh) | 内容真实性检测模型的训练方法、装置和计算设备 | |
CN115456176B (zh) | 一种基于知识增强的文本匹配方法及系统 | |
CN113011193B (zh) | 基于Bi-LSTM算法的检测咨询语句重复性评价方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211123 |