CN110348014B - 一种基于深度学习的语义相似度计算方法 - Google Patents
一种基于深度学习的语义相似度计算方法 Download PDFInfo
- Publication number
- CN110348014B CN110348014B CN201910620461.1A CN201910620461A CN110348014B CN 110348014 B CN110348014 B CN 110348014B CN 201910620461 A CN201910620461 A CN 201910620461A CN 110348014 B CN110348014 B CN 110348014B
- Authority
- CN
- China
- Prior art keywords
- network
- semantic similarity
- similarity calculation
- deep learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 44
- 238000013135 deep learning Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 52
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 38
- 239000011159 matrix material Substances 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000011176 pooling Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 3
- 230000006870 function Effects 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000008034 disappearance Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011423 initialization method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
发明公开了一种基于深度学习的语义相似度计算方法,涉及语义相似度计算领域;其包括步骤1:构建训练数据集,并预处理训练数据获取one‑hot稀疏向量;步骤2:构建包括N层BI‑LSTM网络、残差网络、相似度矩阵、CNN卷积神经网络、池化层和全连接层的语义相似度计算网络模型;步骤3:将one‑hot稀疏向量输入上述网络模型,利用训练数据集训练参数,完成有监督训练;步骤4:将待测文本输入已训练的上述网络模型,判定是否为相似文本后输出结果。本发明语义相似度计算网络模型包括多层BI‑LSTM网络、残差网络、CNN卷积神经网络、池化层和全连接层,同时使用BI‑LSTM网络和CNN卷积神经网络,BI‑LSTM网络中加入残差网络,克服了多层网络带来的梯度消失问题,增强了模型的特征提取能力。
Description
技术领域
本发明涉及语义相似度计算领域,尤其是一种基于深度学习的语义相似度计算方法。
背景技术
语义相似度计算是自然语言处理领域的一项基本任务,随着人工智能时代的到来,越来越多的科学家和学者们将目光放在自然语言处理领域,而语义相似度计算任务因为其在文档复制检查、信息检索和机器翻译等领域都有十分广泛的应用,越来越多的研究人员投身于语义相似度计算的研究。近年来,因为深度学习技术的兴起,也使得语义相似度计算得到了突飞猛进的发展。比起传统方法,深度学习技术能提取深层语义,获得更加丰富的特征表达。
应用于语义相似度计算的深度学习模型包括CNN模型,BI-LSTM模型和MatchPyramid模型。CNN模型可以提取N-gram特征,即利用CNN卷积核的滑动窗口提取中心词和周围词的特征,符合人类自然语言的表达;BI-LSTM模型专门用于处理具有时序数据的模型,自然语言就是一个天然的时序数据,所以BI-LSTM模型可以很好提取语义特征;MatchPyramid模型是利用词向量点积的方法构造一个二维相似度矩阵,将此矩阵看作一个二维图像,进而使用CNN模型进行处理,利于提取特征。一方面,上述的模型的网络层数较浅,特征提取能力差;另一方面,CNN模型和BI-LSTM模型虽然都可以对文本进行语义特征的提取,但是两种模型提取的特征是不同的特征,单独使用其中一种模型,特征提取不够完善;MatchPyramid模型利用词向量进行相似度矩阵的构造,仅靠词向量对于文本语义的表达不够充分。因此,需要一种基于深度学习的语义相似度计算方法克服以上问题,实现完整提取特征,增强特征提取能力。
发明内容
本发明的目的在于:本发明提供了一种基于深度学习的语义相似度计算方法,解决现有模型特征提取不完善、网络层数浅导致相似度计算准确度低的问题。
本发明采用的技术方案如下:
一种基于深度学习的语义相似度计算方法,包括如下步骤:
步骤1:构建训练数据集,并预处理训练数据获取one-hot稀疏向量;
步骤2:构建包括N层BI-LSTM网络、残差网络、相似度矩阵、CNN卷积神经网络、池化层和全连接层的语义相似度计算网络模型;
步骤3:将one-hot稀疏向量输入上述语义相似度计算网络模型,利用训练数据集训练所述网络模型的参数,完成有监督训练;
步骤4:将待测文本转化为one-hot稀疏向量后,输入已训练的语义相似度计算网络模型,判定是否为相似文本后输出结果。
优选地,所述步骤1包括如下步骤:
步骤1.1:对构建的训练数据集的数据格式进行统一;
步骤1.2:删除训练数据集中缺失数据、无关数据的特殊符号和乱码;
步骤1.3:对步骤1.2中的训练数据集进行分词和构建词典后,根据词语在词典中的位置,将数据转化为one-hot稀疏向量。
优选地,所述步骤2包括如下步骤:
步骤2.1:对两个文本输入分别建立Embedding层即词向量嵌入层,将one-hot稀疏向量转化为低维度词向量XE,如以下公式所示:
XE=XO×W
其中,XO为one-hot稀疏向量,维度为L×DL,L为句子长度,DL为词典长度,W为可训练的权重,维度为DL×D,D为词向量嵌入的维度;
步骤2.2:基于低维度词向量构建深度特征提取网络:构建两个N层BI-LSTM网络结构,在每一个BI-LSTM网络中添加一个残差网络;
步骤2.3:构建相似度矩阵:对两个N层BI-LSTM网络的输出做点积操作,构建相似度矩阵;
步骤2.4:构建特征提取网络:在相似度矩阵后依次连接CNN卷积神经网络、最大池化层和全连接神经网络1;
步骤2.5:构建输出网络:基于步骤2.4的网络依次连接一个全连接神经网络2和softmax层。
优选地,所述步骤3包括如下步骤:
步骤3.1:初始化步骤2中所述深度学习语义相似度计算网络的所有参数;
步骤3.2:将训练集数据输入到深度学习语义相似度计算网络中获得输出;
步骤3.3:根据训练集标签和网络输出计算交叉熵损失函数值;
步骤3.4:将损失函数值进行反向传播更新深度学习语义相似度计算网络参数;
步骤3.5:反复迭代3.2至3.4,直至深度学习语义相似度计算网络收敛,完成有监督训练获取深度学习语义相似度计算模型。
优选地,所述步骤4包括如下步骤:
步骤4.1:将待测文本中的两个文本转化成one-hot稀疏向量;
步骤4.2:加载深度学习语义相似度计算模型,将one-hot稀疏向量输入深度学习语义相似度计算模型获得二分类概率输出,取概率大值对应的类别作为预测结果。
优选地,所述N为等于或者大于3的正整数。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明构建包括多层BI-LSTM网络、残差网络、CNN卷积神经网络、池化层和全连接层的深度学习语义相似度计算网络,同时使用BI-LSTM网络和CNN卷积神经网络,采用BI-LSTM网络中加入残差网络,克服了多层网络带来的梯度消失问题,增强了模型的特征提取能力;
2.本发明使用三层BI-LSTM网络结构的输出来构建二维相似度矩阵,对这个矩阵使用CNN卷积神经网络,促使CNN卷积神经网络提取的特征语义信息更丰富,也解决了MatchPyramid模型使用词向量构建相似度矩阵特征不充分的问题。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明的总体流程图;
图2为本发明的预处理流程图;
图3为本发明的网络架构示意图;
图4为本发明的训练流程图;
图5为本发明的预测流程图;
图6为本发明的示例相似度计算示意图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明,即所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,术语“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以下结合实施例对本发明的特征和性能作进一步的详细描述。
实施例1
如图1-5所示,本发明包含四个步骤:训练数据集构建,网络模型搭建,模型训练和模型预测。训练数据集的构建和网络模型搭建是为了模型训练做基础,训练完模型以后,再利用已训练好的模型进行语义相似度的计算。
1.1手工构建训练数据集,数据集中每条数据保持统一的格式,在本申请中的格式为“文本1文本2标签”,每一条数据由两个文本即“文本1”和“文本2”以及一个标签组成,数据范例如下:“我想修改绑定的手机号绑定的手机号应该怎么修改1”,在每条数据中分隔“文本1”,“文本2”和“标签”的是制表符,标签为1则两个文本为相似文本,标签为0则该条数据为非相似文本。
1.2检查训练数据是否有缺失,即格式中“文本1”,“文本2”和“标签”的某一项或者某几项有缺失,则删除此条数据;再者如果文本中包含无意义的特殊符号以及由某些原因导致的乱码,将这些符号或者乱码从数据中删除。
1.3将所有训练数据进行分词,选用常规的分词工具,例如:jieba分词工具,利用分词之后的结果构建一个词典,其中词在词典中的位置按词的频率大小排序,再利用词在词典中的位置,将文本数据转化成one-hot稀疏向量,one-hot向量是一个稀疏向量,其中只有某一个维度元素为1,其他元素都为0,整个向量的维度对应词典的长度,元素为1的维度对应本词在词典用的位置,例如:“我想修改绑定的手机号”这个话的分词结果是“我想修改绑定的手机号”其中“我”这个词在字典的位置是2,那么其对应的one-hot向量是[0,1,0,0,0,…,0],只有在第2维的值为1剩余都为0,向量长度等于词典大小。
2.1本发明的第二个步骤是网络模型的构建,首先建立embedding层即词向量嵌入层,这一层是将one-hot向量映射为低维度词向量XE,具体是将one-hot向量乘以一个可训练的权重,公式表达如下:
XE=XO×W
其中,XO为one-hot向量,维度为L×DL,L为句子长度,DL为词典长度,W为可训练的权重,维度为DL×D,D为词向量嵌入的维度,在本例中词向量维度取300维;
2.2构建一个三层的BI-LSTM网络,在每个BI-LSTM网络中加入一个残差网络,BI-LSTM网络结构分为三个门,包括遗忘门、输入门和输出门,遗忘门的公式如下:
ft=σ(Wf·[ht-1,xt]+bf)
其中,σ为sigmoid激活函数,Wf为遗忘门可训练的权重,ht-1为t-1时刻的cell输出,xt即为2.1中的词向量,bf为偏置。
输入门的公式如下:
it=σ(Wi·[ht-1,xt]+bi)
其中,tanh表示tanh激活函数,Wi为输入门可训练的权重,Wc为cell可训练权重,ht-1为t-1时刻的cell输出,为输出门更新前的输出,Ct为输出门更新后的输出,xt即为2.1中的词向量,bi,bc为偏置。
输出门的公式如下:
ot=σ(Wo[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中,Wo为输出门可训练的权重,ht-1为t-1时刻的cell输出,xt即为2.1中的词向量,bo为偏置。
残差网络的公式表达如下:
y=F(x,Wi)+x
其中,F(x,Wi)为当前层BI-LSTM网络的输出,x为上一层BI-LSTM网络的输出,y是本层BI-LSTM网络的输出,也是下一层BI-LSTM网络的输入,BI-LSTM网络中的权重设置为150维。
2.4在获得相似度矩阵后,接卷积神经网络、最大池化层和一个全连接神经网络,其中卷积运算具体为:
上式中,k为10×10卷积核权重矩阵,Aij为yij对应的输入数据中10×10邻域,xl为二维相似度矩阵;卷积核滑动的步长为1。最大池化公式如下:
全连接网络的公式如下:
y=f(Wx+b)
其中,W为权重,x为网络输入,y为网络输出,b为偏置,全连接层的权重维度为60。
2.5在CNN网络结构后再加上一个全连接的神经网络和softmax层作为网络模型的最后输出层,全连接网络公式与上面类似,但这里的全连接网络的权重维度为2,因为语义相似度问题本质上也是二分类问题,再对全连接网络的输出做softmax归一化操作,获得预测的概率。softmax公式如下:
其中,ei为输出向量的一个元素,ej为输出向量的每一个元素。至此本发明的网络模型构建已经完成。
本网络模型的参数设置如表1:
表1本发明的网络结构参数
参数名称 | 参数值 |
embedding维度 | 300 |
BI-LSTM网络隐藏层参数大小 | 150 |
构建相似度矩阵方式 | 点积 |
卷积核大小 | 10X10 |
池化方式 | 最大池化 |
全连接层1维度 | 60 |
全连接层2维度 | 2 |
优化算法 | adam |
3.1对整个网络模型的参数进行初始化,本实施例采用随机初始化的方法,随机初始化的方法细节如下:
其中,rand为随机数,ni-1为第i-1层的权重总数。
3.2将训练数据集分批次输入到网络模型中,获得网络输出。批次大小可根据硬件性能和数据集大小确定,在本例中批次大小为64。
3.3根据训练集的标签0或1以及网络的输出计算交叉熵损失函数,交叉熵损失函数公式如下:
其中,x为网络输入,q为网络模型,p为标签。
3.4将损失函数值进行反向传播,更新深度网络的权重参数,即计算每一层网络的梯度,反向的梯度计算过程如下式:
其中,L表示损失函数,Wi为网络权重,yi为网络输出,xi为网络输入。
通过反向传播获得每个参数的梯度,再利用adam优化算法更新权重,公式表达如下:
mt=β1·mt-1+(1-β1)·gt
vt=β2·vt-1+(1-β2)·gt 2
其中,gt为t时刻的梯度,mt为t时刻的梯度的一阶矩,vt表示t时刻的梯度的二阶矩,为经过t轮迭代的梯度一阶矩,为经过t轮迭代的梯度二阶矩,t为迭代步数,β1,β2,ε是超参数,β2设为0.9999,ε设为10-8。
3.5重复3.2到3.4直至模型收敛。
4.1在模型训练完成以后,利用已经训练好的模型进行预测,首先将输入文本转化成one-hot向量。
4.2加载已训练好的模型,将one-hot向量输入到模型中,获得模型最终的输出,此输出为二分类的概率,取概率更大的类别作为模型的最后预测结果。
本例的结果如下图6所示,本发明构建包括多层BI-LSTM网络、残差网络、CNN卷积神经网络、池化层和全连接层的深度学习语义相似度计算网络,同时使用BI-LSTM网络和CNN卷积神经网络,采用BI-LSTM网络中加入残差网络,克服了多层网络带来的梯度消失问题,增强了模型的特征提取能力;还使用三层BI-LSTM网络结构的输出来构建二维相似度矩阵,对这个矩阵使用CNN卷积神经网络,促使CNN卷积神经网络提取的特征语义信息更丰富,也解决了MatchPyramid模型使用词向量构建相似度矩阵特征不充分的问题。根据示例和测试数据可得,本申请的网络模型能够挖掘更多的语义特征,克服了现有模型的缺点,在语义相似度计算任务上能够取得更好的效果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于深度学习的语义相似度计算方法,其特征在于:包括如下步骤:
步骤1:构建训练数据集,并预处理训练数据获取one-hot稀疏向量;
步骤2:构建包括N层BI-LSTM网络、残差网络、相似度矩阵、CNN卷积神经网络、池化层和全连接层的语义相似度计算网络模型;
步骤3:将one-hot稀疏向量输入上述语义相似度计算网络模型,利用训练数据集训练所述网络模型的参数,完成有监督训练;
步骤4:将待测文本转化为one-hot稀疏向量后,输入已训练的语义相似度计算网络模型,判定是否为相似文本后输出结果;
具体的,所述步骤2包括如下步骤:
步骤2.1:对两个文本输入分别建立Embedding层即词向量嵌入层,将one-hot稀疏向量转化为低维度词向量XE,如以下公式所示:
XE=XO×W
其中,XO为one-hot稀疏向量,维度为L×DL,L为句子长度,DL为词典长度,W为可训练的权重,维度为DL×D,D为词向量嵌入的维度;
步骤2.2:基于低维度词向量构建深度特征提取网络:构建两个N层BI-LSTM网络结构,在每一个BI-LSTM网络中添加一个残差网络;
步骤2.3:构建相似度矩阵:对两个N层BI-LSTM网络的输出做点积操作,构建相似度矩阵;
步骤2.4:构建特征提取网络:在相似度矩阵后依次连接CNN卷积神经网络、最大池化层和全连接神经网络1;
步骤2.5:构建输出网络:基于步骤2.4的网络依次连接一个全连接神经网络2和softmax层;
所述步骤3包括如下步骤:
步骤3.1:初始化步骤2中所述深度学习语义相似度计算网络的所有参数;
步骤3.2:将训练集数据输入到深度学习语义相似度计算网络中获得输出;
步骤3.3:根据训练集标签和网络输出计算交叉熵损失函数值;
步骤3.4:将损失函数值进行反向传播更新深度学习语义相似度计算网络参数;
步骤3.5:反复迭代3.2至3.4,直至深度学习语义相似度计算网络收敛,完成有监督训练获取深度学习语义相似度计算模型。
2.根据权利要求1所述的一种基于深度学习的语义相似度计算方法,其特征在于:所述步骤1包括如下步骤:
步骤1.1:对构建的训练数据集的数据格式进行统一;
步骤1.2:删除训练数据集中缺失数据、无关数据的特殊符号和乱码;
步骤1.3:对步骤1.2中的训练数据集进行分词和构建词典后,根据词语在词典中的位置,将数据转化为one-hot稀疏向量。
3.根据权利要求1所述的一种基于深度学习的语义相似度计算方法,其特征在于:所述步骤4包括如下步骤:
步骤4.1:将待测文本中的两个文本转化成one-hot稀疏向量;
步骤4.2:加载深度学习语义相似度计算模型,将one-hot稀疏向量输入深度学习语义相似度计算模型获得二分类概率输出,取概率大值对应的类别作为预测结果。
4.根据权利要求1所述的一种基于深度学习的语义相似度计算方法,其特征在于:所述N为等于或者大于3的正整数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620461.1A CN110348014B (zh) | 2019-07-10 | 2019-07-10 | 一种基于深度学习的语义相似度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910620461.1A CN110348014B (zh) | 2019-07-10 | 2019-07-10 | 一种基于深度学习的语义相似度计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110348014A CN110348014A (zh) | 2019-10-18 |
CN110348014B true CN110348014B (zh) | 2023-03-24 |
Family
ID=68174802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910620461.1A Active CN110348014B (zh) | 2019-07-10 | 2019-07-10 | 一种基于深度学习的语义相似度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110348014B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826341A (zh) * | 2019-11-26 | 2020-02-21 | 杭州微洱网络科技有限公司 | 一种基于seq2seq模型的语义相似度计算方法 |
CN110942805A (zh) * | 2019-12-11 | 2020-03-31 | 云南大学 | 一种基于半监督深度学习的绝缘子元件预测系统 |
CN111783442A (zh) * | 2019-12-19 | 2020-10-16 | 国网江西省电力有限公司电力科学研究院 | 入侵检测方法、设备和服务器、存储介质 |
CN111191464A (zh) * | 2020-01-17 | 2020-05-22 | 珠海横琴极盛科技有限公司 | 基于组合距离的语义相似度计算方法 |
CN112749539B (zh) * | 2020-01-20 | 2023-09-15 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、计算机可读存储介质和计算机设备 |
CN111325323B (zh) * | 2020-02-19 | 2023-07-14 | 山东大学 | 一种融合全局信息和局部信息的输变电场景描述自动生成方法 |
CN111325028B (zh) * | 2020-02-20 | 2021-06-18 | 齐鲁工业大学 | 一种基于深度分层编码的智能语义匹配方法和装置 |
CN111476028A (zh) * | 2020-04-02 | 2020-07-31 | 言图科技有限公司 | 一种汉语短语识别方法、系统、存储介质及电子设备 |
CN111914213B (zh) * | 2020-07-31 | 2023-11-10 | 中国原子能科学研究院 | 一种稀疏矩阵向量乘运算时间预测方法及系统 |
CN112560502B (zh) * | 2020-12-28 | 2022-05-13 | 桂林电子科技大学 | 一种语义相似度匹配方法、装置及存储介质 |
CN113420231A (zh) * | 2021-05-25 | 2021-09-21 | 国网浙江省电力有限公司物资分公司 | 一种应用于采购系统的数据推荐算法 |
CN113283351B (zh) * | 2021-05-31 | 2024-02-06 | 深圳神目信息技术有限公司 | 一种使用cnn优化相似度矩阵的视频抄袭检测方法 |
CN113673483B (zh) * | 2021-09-07 | 2023-07-14 | 天津大学 | 一种基于深度神经网络的多视角多目标关联方法 |
CN113806739B (zh) * | 2021-09-16 | 2022-04-19 | 北京华清信安科技有限公司 | 基于深度学习的业务访问数据检测方法 |
CN113590763A (zh) * | 2021-09-27 | 2021-11-02 | 湖南大学 | 一种基于深度学习的相似文本检索方法、装置及存储介质 |
CN113949646B (zh) * | 2021-10-15 | 2023-06-13 | 安徽大学 | 一种基于深度学习的Web服务QoS预测方法 |
CN116702772A (zh) * | 2021-11-26 | 2023-09-05 | 浪潮卓数大数据产业发展有限公司 | 一种文本特征提取及辅助检索的方法 |
CN114844840B (zh) * | 2022-04-26 | 2024-04-02 | 哈尔滨工业大学 | 一种基于计算似然比的分布外网络流量数据检测方法 |
CN115278774B (zh) * | 2022-07-20 | 2024-08-20 | 云南电网有限责任公司电力科学研究院 | 一种北斗短报文缺失数据补录方法及系统 |
CN116308464B (zh) * | 2023-05-11 | 2023-09-08 | 广州市沃钛移动科技有限公司 | 目标客户获取系统和方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109710787A (zh) * | 2018-12-30 | 2019-05-03 | 陕西师范大学 | 基于深度学习的图像描述方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8311973B1 (en) * | 2011-09-24 | 2012-11-13 | Zadeh Lotfi A | Methods and systems for applications for Z-numbers |
CN103996056B (zh) * | 2014-04-08 | 2017-05-24 | 浙江工业大学 | 一种基于深度学习的纹身图像分类方法 |
US10909329B2 (en) * | 2015-05-21 | 2021-02-02 | Baidu Usa Llc | Multilingual image question answering |
US20180068330A1 (en) * | 2016-09-07 | 2018-03-08 | International Business Machines Corporation | Deep Learning Based Unsupervised Event Learning for Economic Indicator Predictions |
CN107025284B (zh) * | 2017-04-06 | 2020-10-27 | 中南大学 | 网络评论文本情感倾向的识别方法及卷积神经网络模型 |
CN107832326B (zh) * | 2017-09-18 | 2021-06-08 | 北京大学 | 一种基于深层卷积神经网络的自然语言问答方法 |
CN108376132B (zh) * | 2018-03-16 | 2020-08-28 | 中国科学技术大学 | 相似试题的判定方法及系统 |
CN108519890B (zh) * | 2018-04-08 | 2021-07-20 | 武汉大学 | 一种基于自注意力机制的鲁棒性代码摘要生成方法 |
CN109213995B (zh) * | 2018-08-02 | 2022-11-18 | 哈尔滨工程大学 | 一种基于双语词嵌入的跨语言文本相似度评估技术 |
CN109299462B (zh) * | 2018-09-20 | 2022-11-29 | 武汉理工大学 | 基于多维卷积特征的短文本相似度计算方法 |
CN109389055B (zh) * | 2018-09-21 | 2021-07-20 | 西安电子科技大学 | 基于混合卷积和注意力机制的视频分类方法 |
CN109471923A (zh) * | 2018-10-15 | 2019-03-15 | 电子科技大学 | 一种基于同义词扩充的客服聊天机器人本体半自动构建的方法 |
CN109800310B (zh) * | 2018-12-03 | 2021-11-09 | 国网浙江省电力有限公司杭州供电公司 | 一种基于结构化表达的电力运维文本分析方法 |
CN109710923B (zh) * | 2018-12-06 | 2020-09-01 | 浙江大学 | 基于跨媒体信息的跨语言实体匹配方法 |
CN109697228A (zh) * | 2018-12-13 | 2019-04-30 | 平安科技(深圳)有限公司 | 智能问答方法、装置、计算机设备及存储介质 |
CN109948425B (zh) * | 2019-01-22 | 2023-06-09 | 中国矿业大学 | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 |
-
2019
- 2019-07-10 CN CN201910620461.1A patent/CN110348014B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109710787A (zh) * | 2018-12-30 | 2019-05-03 | 陕西师范大学 | 基于深度学习的图像描述方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110348014A (zh) | 2019-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348014B (zh) | 一种基于深度学习的语义相似度计算方法 | |
CN109960800B (zh) | 基于主动学习的弱监督文本分类方法及装置 | |
CN108733792B (zh) | 一种实体关系抽取方法 | |
CN110705260B (zh) | 一种基于无监督图神经网络结构的文本向量生成方法 | |
CN104834747B (zh) | 基于卷积神经网络的短文本分类方法 | |
CN107729497B (zh) | 一种基于知识图谱的词嵌入深度学习方法 | |
CN111125358B (zh) | 一种基于超图的文本分类方法 | |
CN111985369A (zh) | 基于跨模态注意力卷积神经网络的课程领域多模态文档分类方法 | |
CN107562784A (zh) | 基于ResLCNN模型的短文本分类方法 | |
CN112069328B (zh) | 一种基于多标签分类的实体关系联合抽取模型的建立方法 | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN110609849B (zh) | 一种基于sql语法树节点类型的自然语言生成方法 | |
CN112232087B (zh) | 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法 | |
CN113220876B (zh) | 一种用于英文文本的多标签分类方法及系统 | |
CN109919175B (zh) | 一种结合属性信息的实体多分类方法 | |
CN110175221B (zh) | 利用词向量结合机器学习的垃圾短信识别方法 | |
CN107329954B (zh) | 一种基于文档内容和相互关系的主题检测方法 | |
CN110717330A (zh) | 基于深度学习的词句级短文本分类方法 | |
CN111400494A (zh) | 一种基于GCN-Attention的情感分析方法 | |
CN111191031A (zh) | 一种基于WordNet和IDF的非结构化文本的实体关系分类方法 | |
CN113488196A (zh) | 一种药品说明书文本命名实体识别建模方法 | |
CN114925195A (zh) | 一种融合词汇编码与结构编码的标准内容文本摘要生成方法 | |
CN114925205A (zh) | 基于对比学习的gcn-gru文本分类方法 | |
CN113204640B (zh) | 一种基于注意力机制的文本分类方法 | |
CN113191150B (zh) | 一种多特征融合的中文医疗文本命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |