CN111611809B - 一种基于神经网络的汉语语句相似度计算方法 - Google Patents

一种基于神经网络的汉语语句相似度计算方法 Download PDF

Info

Publication number
CN111611809B
CN111611809B CN202010455892.XA CN202010455892A CN111611809B CN 111611809 B CN111611809 B CN 111611809B CN 202010455892 A CN202010455892 A CN 202010455892A CN 111611809 B CN111611809 B CN 111611809B
Authority
CN
China
Prior art keywords
vector
input
sentence
layer
statement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010455892.XA
Other languages
English (en)
Other versions
CN111611809A (zh
Inventor
叶家豪
兰萍
杨丹
李文勇
吴志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tibet University
Original Assignee
Tibet University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tibet University filed Critical Tibet University
Priority to CN202010455892.XA priority Critical patent/CN111611809B/zh
Publication of CN111611809A publication Critical patent/CN111611809A/zh
Application granted granted Critical
Publication of CN111611809B publication Critical patent/CN111611809B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供的一种基于神经网络的汉语语句相似度计算方法,通过构建基于混合语义的编码器,使编码器的收敛速度加快,降低系统对训练语料数量的需求,进而降低系统发生数据过拟合的可能性;再构建语句相似度计算与分类模型实现汉语语句相似度的计算,计算结果准确率高,有效的缓解了现有的基于神经网络的文本相似度方案存在多领域中计算精度不一致的问题。

Description

一种基于神经网络的汉语语句相似度计算方法
技术领域
本发明涉及面向自然语言处理技术领域,更具体的,涉及一种基于神经网络的汉语语句相似度计算方法。
背景技术
目前,计算单词或者语句的文本相似度方法可以分为四类[1]Y.Li,D.McLean,Z.A.Bandar,J.D.O'Shea and K.Crockett,"Sentence similarity based on semanticnets and corpus statistics,"in IEEE Transactions on Knowledge and DataEngineering,vol.18,no.8,pp.1138-1150,Aug.2006.doi:10.1109/TKDE.2006.130,分别是基于单词共现计算文本相似度的方法、基于知识库数据计算文本相似度的方法、基于网络引擎计算文本相似度的方法和基于神经网络计算文本相似度的方法。
基于单词共现计算相似度的方法[2]C.T.Meadow,B.R.Boyce,and D.H.Kraft,Text InformationRetrieval Systems,seconded.Academic Press,2000是将查询文本作为集合,集合中的元素为字符或者单词,以集合元素的重合程度量化查询文本间的相似度,该类方法计算简洁,但由于无法计算查询文本间的语义相似度,导致该类方法的计算精度低。
基于知识库的计算相似度的方法[3]P.W.Foltz,W.Kintsch,and T.K.Landauer,“The Measurement ofTextual Coherence with Latent Semantic Analysis,”DiscourseProcesses,vol.25,nos.2-3,pp.285-307,1998将单词放于树状知识库中,利用单词子概念之间的最短路径长度,公共节点深度,概念密度等特征量化单词的相似度。知识库的规模、布局及更新速度直接影响该类方法的性能,由于本体知识库的搭建和更新需要语言领域专家的参与,所以知识库存在更新速度慢的缺点,导致该类方法的性能随着时间的推移而逐渐下降。同时,该类方法是基于文本的基础语义计算文本相似度,因此,相同的文本在不同的语句中计算的文本相似度相同,无法基于文本的具体语义计算文本的语义相关性,导致该类方法的计算精度在整体上不足以满足精细的NLP任务的要求。
基于网络引擎的计算相似度的方法[4]Cilibrasi R L,Vitanyi P M B.TheGoogle Similarity Distance[J].IEEE Transactions on Knowledge and DataEngineering主要分为基于文本搜索共现页面和基于文本搜索共现窗口两种,不同的搜索引擎会导致不同的单词相似度结果,而且即使查询文本出现在一个页面中共同出现,也无法确定两个文本之间的相干关系,所以这种方法的计算精度难以满足用户的需求。
基于神经网络计算相似度的方法利用文本的上下文特征计算文本在具体语句中的具体语义相关性,该类方法计算精度高,但是神经网络模型存在在多领域中计算精度不一致的问题,且当查询文本为字或单词时,由于查询文本缺少上下文信息特征,神经网络模型无法判断文本的具体语义,该类方法性能下降。
综上所述,基于知识库的方法和基于神经网络的方法分别具有多领域计算精度一致和计算精度高的优点。但由于基于知识库的方案计算精度低和本体知识库更新速度慢的缺陷。目前,基于神经网络的文本相似度方案仍存在多领域中计算精度不一致的问题。
发明内容
本发明为克服现有的基于神经网络的文本相似度方案存在多领域中计算精度不一致的技术缺陷,提供一种基于神经网络的汉语语句相似度计算方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于神经网络的汉语语句相似度计算方法,包括以下步骤:
S1:将待处理的输入语句分别表示为第一语句预向量、第二语句预向量;
S2:获取训练集数据,构建并训练基于混合语义的编码器;
S3:将第一语句预向量、第二语句预向量分别输入两个相同的编码器中,处理得到对应的第一语句编码向量、第二语句编码向量;
S4:构建语句相似度计算与分类模型;
S5:将第一语句编码向量、第二语句编码向量输入语句相似度计算与分类模型中进行拼接、映射和归一化处理,得到类别概率向量;
S6:取类别概率向量中的最大值的类别作为语句的分类结果并取类别概率向量的第二个值作为两个输入语句的相似度,完成汉语语句相似度的计算。
其中,所述步骤S1具体为:
根据《通用规范汉字表》的一级字表中3500个常用中文字构建语句预向量空间;对输入语句以标点符号作为分割符将语句进行分割,同时为了降低语句的噪音,删除语句中的特殊字符与乱码字符;将3500个汉字以《通用规范汉字表》中顺序编号,输入语句都可以表示为语句预向量空间中的一个向量S;S的表达式为S=(idtoken1,idtoken2,...,idtokeni,...idtoken3500),表达式中idtokeni表示输入语句是的第i个字的编号,当向量长度大于输入语句长度,超出的部分令id=0;因此得到第一语句预向量、第二语句预向量。
其中,在所述步骤S2中,所述训练集数据包括中文版的维基百科的汉语条目释义和大型中文问题匹配数据集LCQMC中的训练集和验证集。
其中,在所述步骤S2中,构建并训练基于混合语义的编码器过程具体为:
构建BERT预训练编码器模型;
使用中文版的维基百科的汉语条目释义对BERT预训练编码器模型进行训练,在BERT预训练编码器模型的基础上进一步构建基于基础语义的预训练编码模型,使预训练编码模型学习文本的基础语义特征,即文本进行编码得到的向量表征中蕴含文本的基础语义;
接着使用LCQMC数据集中的训练集与验证集和LCQMC数据集数据增强后的数据集中的训练集与验证集的数据,对得到的预训练编码模型拼接为下游任务模型后进行训练;目的在于提取文本的上下文信息特征,令文本进行编码得到的向量表征中蕴含文本的不同语句中的具体语义特征,对预训练编码模型进行微调,使下游任务模型更适应下游任务,得到的下游任务模型即为基于混合语义的编码器,即BERT编码器。
其中,所述步骤S3具体为:
由于BERT编码器的最大输入长度为1*512维的向量,因此截取第一语句预向量或第二语句预向量的前512维向量,即得到输入语句向量S*,表达为:S*=(idtoken1,idtoken2,...idtoken512);
由于处理的是文本语句,所以截取前512维的语句预向量不会造成语句的语义丢失;同时,将输入语句向量长度固定为512,输入语句向量在BERT编码器中会自动增添句首与句末的标志符,输入语句向量会转化成S*=([CLS],idtoken1,idtoken2,...idtoken512,[SEP]);
接着令BERT编码器输出每一个字的编码,即令下游任务模型的输入转化为512*768维的文本语义向量矩阵,令语句的语义表达更加精细;因此,BERT编码器首先将第一语句预向量、第二语句预向量截取为第一输入语句向量和第二输入语句向量,再将第一输入语句向量和第二输入语句向量的每一个汉字的编码结果顺序,即第一语句编码向量、第二语句编码向量输出至步骤S4构建的语句相似度计算与分类模型中,对超出输入语句长度的编码部分进行补零处理。
其中,在所述步骤S4中,所述语句相似度计算与分类模型包括两个LSTM模块、一个拼接层,一个全连接MLP层,一个DROPOUT层以及一个SOFTMAX层组成。
其中,在所述步骤S5中,所述的两个LSTM模块分别对应处理第一语句编码向量、第二语句编码向量;LSTM模块以顺序的方式读取BERT编码器的输出,利用LSTM的记忆网络特性在保留输入文本信息的前提下生成整体语义信息,具体为:
将第一个字的编码结果输入至LSTM模块中作为初始记忆状态C0;然后LSTM依次读取剩下的字编码作为一个时刻的输入,即输入文本的编码结果在LSTM模块中表示为(C0X1,X2,...Xt,...X511),其中Xt代表t时刻的输入,每一个Xt首先经过LSTM模块中的遗忘门控单元以确定上一个时刻的记忆状态的重要程度,是否需要遗忘一部分的内容,t时刻遗忘门控单元的计算公式如下:
ft=Sigmoid(Wf*[ht-1,Xt]+bf)   (1)
公式(1)中Wf是遗忘门控单元的权重矩阵,ht-1是上一个时刻的输出状态,bf为遗忘门控单元的偏置系数,σ代表着SIGMOID函数,该函数会的输出是值域为[0,1]的实数,输出越接近1则表示上一个时刻的记忆状态Ct-1越重要,保留程度越高,输出为1则Ct-1完全保留;输出越接近0则表明上一个时刻的记忆状态Ct-1越不重要,遗忘程度越高,输出为0则Ct-1完全遗忘;
SIGMOID函数的计算式如下:
Figure BDA0002509354460000041
接着Xt经过更新门控单元以确定Xt的重要程度,以确定当前的输入需要更新到Ct-1中的程度;更新门控单元计算更新系数it与更新记忆状态
Figure BDA0002509354460000044
的方式如下:
it=Sigmoid(Wi*[ht-1,Xt]+bi)   (3)
Figure BDA0002509354460000043
Figure BDA0002509354460000042
公式(3)中Wi是更新门控单元的权重矩阵,bi是更新门控单元的偏执系数;σ代表着SIGMOID函数,该函数输出的数值表示当前时刻的输入Xt的重要程度,越接近1则表示Xt越重要,则需要更新到当前时刻的记忆单元Ct的程度越高,反之则需要更新到Ct的程度越低;公式(4)中WC是计算更新记忆状态的权重矩阵,bC是计算更新记忆状态的偏执系数;tanh层会生成一个1*768维的向量;
基于计算遗忘门控单元和更新门控单元的计算结果,联合计算出当前时刻的记忆状态Ct,计算式如下:
Figure BDA0002509354460000051
最后Xt经过输出门控单元,以及根据当前时刻的记忆状态Ct计算出当前时刻的输出状态ht,计算的公式如下:
ot=σ(Wo[ht-1,Xt]+bo)   (7)
ht=ot*tanh(Ct)   (8)
公式(7)中Wo是输出门控单元的权重矩阵,bo是输出门控单元的偏执系数,ot是输出权重系数;
当两个输入文本的编码结果经过LSTM模块的层层更新生成输入文本的语义表达后,将两者的语义表达在拼接层进行拼接,形成一个1*1536维的拼接向量作为MLP层与DROPOUT层的输入;
由全连接MLP层和DROPOUT层对拼接向量进行处理,输出相似度;
最后由SOFTMAX层对得到的相似度进行归一化处理,得到类别概率向量。
其中,在所述步骤S5中,所述DROPOUT层中的DROPOUT率为0.1.
其中,在所述步骤S5中,所述拼接向量在MLP层中处理过程如下:
拼接向量首先在MLP层的权重矩阵和偏置的处理下,维度数下降至1*768,完成输入层至隐藏层的转移;
隐藏层向量经过MLP层的激活函数,即SIGMOID的处理维度下降至1*2,完成隐藏层至输出层的转移。
其中,在所述步骤S5中,全连接MLP层和DROPOUT层的输出经过SOFTMAX函数的处理,得到类别概率向量;SOFTMAX函数的计算式如下:
Figure BDA0002509354460000052
其中,i表示文本分类的类别,gi表示文本类别的值。
上述方案中,本发明利用中文版的维基百科的条目释义和大型中文问题匹配数据集(A Large-scale Chinese Question Matching Corpus,LCQMC)训练基于转变器的双向编码模型(Bidirectional Encoder Representations from Transformers,BERT),令编码器学习文本的基础语义信息特征和具体语义特征,令文本的编码具有混合语义信息特征,并结合两个长短期记忆网络(long-Short Term Memory,LSTM)模块,一个拼接层、一个全连接层及DROPOUT层搭建下游的相似度计算与分类神经网络模型,利用文本的长度与位置特征计算文本相似度和类别。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供的一种基于神经网络的汉语语句相似度计算方法,通过构建基于混合语义的编码器,使编码器的收敛速度加快,降低系统对训练语料数量的需求,进而降低系统发生数据过拟合的可能性;再构建语句相似度计算与分类模型实现汉语语句相似度的计算,计算结果准确率高,有效的缓解了现有的基于神经网络的文本相似度方案存在多领域中计算精度不一致的问题。
附图说明
图1为神经网络模型框架示意图;
图2为编码器训练步骤流程图;
图3为MLP+DROPOUT层框架示意图;
图4为模型在训练集中的性能示意图;
图5为模型在训练集中的损失函数示意图;
图6为模型在验证集中的性能示意图;
图7为模型在验证集中的损失函数示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于神经网络的汉语语句相似度计算方法,包括以下步骤:
S1:将待处理的输入语句分别表示为第一语句预向量、第二语句预向量;
S2:获取训练集数据,构建并训练基于混合语义的编码器;
S3:将第一语句预向量、第二语句预向量分别输入两个相同的编码器中,处理得到对应的第一语句编码向量、第二语句编码向量;
S4:构建语句相似度计算与分类模型;
S5:将第一语句编码向量、第二语句编码向量输入语句相似度计算与分类模型中进行拼接、映射和归一化处理,得到类别概率向量;
S6:取类别概率向量中的最大值的类别作为语句的分类结果并取类别概率向量的第二个值作为两个输入语句的相似度,完成汉语语句相似度的计算。
在具体实施过程中,在本发明构建的神经网络系统中,首先将输入语句表示成1*3500维的语句预向量,继而在模型的输入层截取前1*512维的语句预向量作为BERT编码器的输入。在编码器的部分,构建基于BERT的孪生神经网络编码器,使编码器的收敛速度加快,降低系统对训练语料数量的需求,进而降低系统发生数据过拟合的可能性。经过训练好的编码器的处理,输入语句1和输入语句2分别被表征成具有混合语义的512*768维的语句编码1和语句编码向量2。语句编码结果经过LSTM模型后,被映射成1*768维的语句整体信息向量,将两个输入语句的整体信息向量拼接成1*1568维的向量作为全连接层和DROPOUT层的输入,全连接层将输入向量映射成一个1*2维的概率向量,最后将此概率向量输入到SOFTMAX层计算归一化概率,得到归一化的1*2维的类别概率向量,取向量中的最大值的类别作为语句的分类结果并取类别概率向量的第二个值作为两个输入句子中的相似度。
更具体的,所述步骤S1具体为:
首先,根据国家语言文字工作委员会在2013年发布的《通用规范汉字表》的一级字表中3500个常用中文字构建的语句预向量空间;对输入语句以标点符号作为分割符将语句进行分割,同时为了降低语句的噪音,删除语句中的特殊字符与乱码字符;将3500个汉字以《通用规范汉字表》中顺序编号,输入语句都可以表示为语句预向量空间中的一个向量S;S的表达式为S=(idtoken1,idtoken2,...,idtokeni,...idtoken3500),表达式中idtokeni表示输入语句是的第i个字的编号,当向量长度大于输入语句长度,超出的部分令id=0;因此得到第一语句预向量、第二语句预向量。
更具体的,在所述步骤S2中,所述训练集数据包括中文版的维基百科的汉语条目释义和大型中文问题匹配数据集LCQMC中的训练集和验证集。
在具体实施过程中,中文版的维基百科于2002年8月创立,截止2020年,中文版的维基百科拥有110万篇条目,包含了各个地区的华人语料,本发明以3500个常用中文字为基准,爬虫中文版维基百科中的搜索信息,得到常用字的详细释义、参考词组以及分类。该训练集数据目的是提取字的基础释义特征。
LCQMC数据集是哈尔滨工业大学在自然语言处理国际顶会COLING2018构建的问题语义匹配数据集,其建立的目标是判断两个问题的语义是否相似。该数据集更注重意图匹配而不是某个具体重点词汇的释义。数据集包含了训练集的238766个问题对,验证集的8802个问题对以及测试集的12500个问题对。
更具体的,在所述步骤S2中,由于BERT的模型最少层数为12,决定了BERT需要海量的训练数据才能较好地利用提取的特征表征文本数据。为了避免大型神经网络的数据过拟合问题,本发明采取了构建预训练模型、微调、数据增长与添加DROPOUT层等四种防止过拟合的方式。构建并训练基于混合语义的编码器过程具体为:
构建BERT预训练编码器模型;
使用中文版的维基百科的汉语条目释义对BERT预训练编码器模型进行训练,在BERT预训练编码器模型的基础上进一步构建基于基础语义的预训练编码模型,使预训练编码模型学习文本的基础语义特征,即文本进行编码得到的向量表征中蕴含文本的基础语义;
接着使用LCQMC数据集中的训练集与验证集和LCQMC数据集数据增强后的数据集中的训练集与验证集的数据,对得到的预训练编码模型拼接为下游任务模型后进行训练;目的在于提取文本的上下文信息特征,令文本进行编码得到的向量表征中蕴含文本的不同语句中的具体语义特征,对预训练编码模型进行微调,使下游任务模型更适应下游任务,得到的下游任务模型即为基于混合语义的编码器,即BERT编码器。
在具体实施过程中,如图2所示,为了解决基于知识库的相似度计算方式无法表征文本在特定语句的具体语义和基于神经网络的相似度计算方式在不同领域中计算精度不相同的问题,本发明将文本的基础语义和上下文特征相结合,令文本的向量表征中同时包含这两种特征,使文本的向量表征一种混合语义,这种方式的向量表征适用于不同领域的文本。
更具体的,所述步骤S3具体为:
由于BERT编码器的最大输入长度为1*512维的向量,因此截取第一语句预向量或第二语句预向量的前512维向量,即得到输入语句向量S*,表达为:S*=(idtoken1,idtoken2,...idtoken512);
由于处理的是文本语句,所以截取前512维的语句预向量不会造成语句的语义丢失;同时,为了使编码器的输出长度固定,使文本的语义精细地表达,将输入语句向量长度固定为512,输入语句向量在BERT编码器中会自动增添句首与句末的标志符,输入语句向量会转化成S*=([CLS],idtoken1,idtoken2,...idtoken512,[SEP]);
一般的BERT模型的输出是一个字的长度的编码,即将文本句首标识符[CLS]的编码输出。这种形式的编码输出只是一种文本整体信息的表达,本发明修改了BERT编码器的输出,令编码器输出每一个字的编码,即令下游任务模型的输入转化为512*768维的文本语义向量矩阵,令语句的语义表达更加精细,而不只是一个语句整体的信息表达;因此,BERT编码器首先将第一语句预向量、第二语句预向量截取为第一输入语句向量和第二输入语句向量,再将第一输入语句向量和第二输入语句向量的每一个汉字的编码结果顺序,即第一语句编码向量、第二语句编码向量输出至步骤S4构建的语句相似度计算与分类模型中,对超出输入语句长度的编码部分进行补零处理。
在具体实施过程中,舍弃传统BERT编码器只输出文本的句首标识符[CLS]的编码的优势有:
传统BERT编码器对输入文本的编码输出是在下游任务模型的约束下所得到的输入文本整体语义表征,而本发明所构建的BERT输出是输入文本所有字的编码,与传统的输出方式相比,本发明所构建的输出方式可以得到输入语句更加具体的语义表征。
在传统的BERT编码器中,无论输入文本的长度是多少,编码器输出的都是一个Token长度的编码,这种输出方式无法表达输入文本的长度特征。而本发明构建的输出方式仅需要计算文本编码中非全零元素的行数,即可获得输入文本的长度,所以这种输出方式包含输入文本的长度特征。
在传统的BERT编码器中,编码器输出的一个汉字长度的编码,这种输出方式无法表达输入文本的位置特征,本发明构建的输出方式以顺序的方式输入到下游任务模型中,这种输出方式包含了文本的位置特征。
更具体的,在所述步骤S4中,由于BERT编码器的神经网络层数是12,为了避免相似度计算系统整体过于庞大导致数据过拟合问题的发生,下游任务模型的层数设计不宜过多。因此所述语句相似度计算与分类模型包括两个LSTM模块、一个拼接层,一个全连接MLP层,一个DROPOUT层以及一个SOFTMAX层组成。
在具体实施过程中,本发明使用的LSTM模块的参数如下:单次训练样本数(BatchSize)为64、时刻输入数(N steps)为512、输入维度(Input dimension)为768、隐藏层的维度(Hidden dimension)为768、输出维度(Output dimension)为768。
更具体的,在所述步骤S5中,所述的两个LSTM模块分别对应处理第一语句编码向量、第二语句编码向量;LSTM模块以顺序的方式读取BERT编码器的输出,利用LSTM的记忆网络特性在保留输入文本信息的前提下生成整体语义信息,具体为:
将第一个字的编码结果输入至LSTM模块中作为初始记忆状态C0;然后LSTM依次读取剩下的字编码作为一个时刻的输入,即输入文本的编码结果在LSTM模块中表示为(C0,X1,X2,...Xt,...X511),其中Xt代表t时刻的输入,每一个Xt首先经过LSTM模块中的遗忘门控单元以确定上一个时刻的记忆状态的重要程度,是否需要遗忘一部分的内容,t时刻遗忘门控单元的计算公式如下:
ft=Sigmoid(Wf*[ht-1,Xt]+bf)   (1)
公式(1)中Wf是遗忘门控单元的权重矩阵,ht-1是上一个时刻的输出状态,bf为遗忘门控单元的偏置系数,σ代表着SIGMOID函数,该函数会的输出是值域为[0,1]的实数,输出越接近1则表示上一个时刻的记忆状态Ct-1越重要,保留程度越高,输出为1则Ct-1完全保留;输出越接近0则表明上一个时刻的记忆状态Ct-1越不重要,遗忘程度越高,输出为0则Ct-1完全遗忘;
SIGMOID函数的计算式如下:
Figure BDA0002509354460000101
接着Xt经过更新门控单元以确定Xt的重要程度,以确定当前的输入需要更新到Ct-1中的程度;更新门控单元计算更新系数it与更新记忆状态
Figure BDA0002509354460000103
的方式如下:
it=Sigmoid(Wi*[ht-1,Xt]+bi)   (3)
Figure BDA0002509354460000102
Figure BDA0002509354460000111
公式(3)中Wi是更新门控单元的权重矩阵,bi是更新门控单元的偏执系数;σ代表着SIGMOID函数,该函数输出的数值表示当前时刻的输入Xt的重要程度,越接近1则表示Xt越重要,则需要更新到当前时刻的记忆单元Ct的程度越高,反之则需要更新到Ct的程度越低;公式(4)中WC是计算更新记忆状态的权重矩阵,bC是计算更新记忆状态的偏执系数;tanh层会生成一个1*768维的向量;
基于计算遗忘门控单元和更新门控单元的计算结果,联合计算出当前时刻的记忆状态Ct,计算式如下:
Figure BDA0002509354460000112
最后Xt经过输出门控单元,以及根据当前时刻的记忆状态Ct计算出当前时刻的输出状态ht,计算的公式如下:
ot=σ(Wo[ht-1,Xt]+bo)   (7)
ht=ot*tanh(Ct)   (8)
公式(7)中Wo是输出门控单元的权重矩阵,bo是输出门控单元的偏执系数,ot是输出权重系数;
当两个输入文本的编码结果经过LSTM模块的层层更新生成输入文本的语义表达后,将两者的语义表达在拼接层进行拼接,形成一个1*1536维的拼接向量作为MLP层与DROPOUT层的输入;
由全连接MLP层和DROPOUT层对拼接向量进行处理,输出相似度;
最后由SOFTMAX层对得到的相似度进行归一化处理,得到类别概率向量。
更具体的,在所述步骤S5中,所述DROPOUT层中的DROPOUT率为0.1.
更具体的,如图3所示,实心圆代表模型训练时进行参加训练的数据文本,空心圆代表模型训练时被DROPOUT层随机舍弃的数据文本,DROPOUT层通过随机舍弃模型中的数据点,形成随机数据训练模型,这种方法降低模型出现数据过拟合情况的可能性。
如图3所示,在所述步骤S5中,所述拼接向量在MLP层中处理过程如下:
拼接向量首先在MLP层的权重矩阵和偏置的处理下,维度数下降至1*768,完成输入层至隐藏层的转移;
隐藏层向量经过MLP层的激活函数,即SIGMOID的处理维度下降至1*2,完成隐藏层至输出层的转移。
更具体的,在所述步骤S5中,全连接MLP层和DROPOUT层的输出经过SOFTMAX函数的处理,得到类别概率向量;SOFTMAX函数的计算式如下:
Figure BDA0002509354460000121
其中,i表示文本分类的类别,gi表示文本类别的值。
在具体实施过程中,本发明利用中文版的维基百科的条目释义和大型中文问题匹配数据集(ALarge-scale Chinese Question Matching Corpus,LCQMC)训练基于转变器的双向编码模型(Bidirectional Encoder Representations from Transformers,BERT),令编码器学习文本的基础语义信息特征和具体语义特征,令文本的编码具有混合语义信息特征,并结合两个长短期记忆网络(long-Short Term Memory,LSTM)模块,一个拼接层、一个全连接层及DROPOUT层搭建下游的相似度计算与分类神经网络模型,利用文本的长度与位置特征计算文本相似度和类别。
实施例2
更具体的,在实施例1的基础上,在LCQMC数据集中对中文领域内基于混合语义的神经网络计算文本相似度方案的性能进行了分析。
在具体实施过程中,对于神经网络性能包括五个分析指标:正确率(Accuracy)、召回率(Recall)、精准率(Precision)、F1分数(F1-score)以及模型损失函数(Loss)。
表1.预测数据的分类
正例(预测分类结果) 反例(预测分类结果)
正例(真实分类结果) 真正例(TP) 伪反例(FN)
反例(真实分类结果) 伪正例(FP) 真反例(TN)
在具体实施过程中,表1是基于样本真实分类结果和预测分类结果对测试样本的分类,本发明利用四个分类样本的数量计算正确率、召回率、精准率和F1分数。
正确率为预测分类结果正确的样本数占预测样本总数的比例。正确率的计算公式如下:
Figure BDA0002509354460000122
召回率为预测分类结果正确的正例样本数占真实正例样本数的比例,召回率体现模型在研究领域内召回目标类别的能力。召回率的计算式如下:
Figure BDA0002509354460000131
精准率为真实正例样本数占预测分类结果为正例的样本数的比例。精准率体现模型在研究领域内精准捕获目标类别的能力。精准率的计算式如下:
Figure BDA0002509354460000132
F1分数为召回率和召回率的调和平均值,F1分数体现了模型的综合能力。F1分数的计算式如下:
Figure BDA0002509354460000133
损失函数体现模型的在研究领域内的预测结果与真实结果之间偏离程度。由于本发明所搭建的神经网络模型计算文本的分类结果,所以使用交叉熵损失函数作为该方案的损失函数,使用的优化器为“Adam”,优化器的学习率为10-5。交叉熵损失函数的计算式如下:
Figure BDA0002509354460000134
公式(14)中N为预测的样本总数,yi表示样本i的标签,正例取值为1,反例取值为0。pi表示样本i预测为正例的概率,即样本i之间的文本相似度。
在具体实施过程中,如图4所示,随着神经网络模型训练LCQMC中训练集的训练批次数的上升,模型的正确率、F1分数、准确率以及召回率也迅速提升。当训练次数达到3次时,模型的四项性能指标都提升至90%以上。增加模型的训练批次数,四项性能指标稳步提升,当训练批次数达到42时,基于混合语义计算文本相似度的神经网络模型在训练集中性能达到最高,四项性能指标都在95%以上。在这个基础上继续增加模型的训练批次数,四项性能指标基本稳定不变,即模型在训练集中性能不再提升。
如图5所示,随着神经网络模型训练LCQMC中训练集的训练批次数的上升,交叉熵损失函数值迅速下降,即模型预测结果与真实结果的偏离程度迅速减少,当模型的训练次数达到3次时,损失函数值减少至50。继续增加模型的训练批次数,损失函数稳步下降,当训练批次数达到42时,损失系数下降到0。继续增加模型的训练批次数,损失函数值产生波动变化,但波动变化量不大,即模型的交叉熵损失函数基本稳定。
图6是经过训练集训练后的模型在验证集文本中的性能表现。在训练初期阶段,随着神经网络模型训练LCQMC中验证集的训练次数的上升,模型的正确率、F1分数以及准确率迅速提升,召回率呈下降趋势。当模型的训练次数达到3次时,四项性能指标集中在84%附近。继续增加模型的训练批次数,模型的正确率、F1分数以及准确率性能上升,召回率在波动中上升。当训练次数达到40时,模型的四项性能数值达到87%。继续增加模型的训练次数,正确率与F1分数基本不变,召回率和准确率呈波动变化,但波动幅度逐渐变小,这是由于LCQMC验证集数据为聚集型数据,标签类别一致的数据没有分散,缺少输入的随机性。
图7是经过训练集训练后的模型在验证集文本中的损失函数表现。训练初期阶段,随着神经网络模型训练LCQMC中验证集的训练次数的上升,模型的交叉熵损失函数迅速下降。当模型的训练次数达到37时,模型的损失达到最低值,最低值为38。继续增加训练次数,模型的损失函数在40附近波动上升,上升幅度逐渐减小。由于基于混合语义的神经网络模型在验证集中的四项性能指标低于模型在训练集中的四项性能指标,所以图7中损失函数值比图5中的损失函数值高。
经过训练后的方案模型在LCQMC数据集中与其它方案模型的性能对比数据如表2。
表2.在LCQMC数据集中方案性能对比
Figure BDA0002509354460000141
Figure BDA0002509354460000151
如表2所示,本发明提出的基于混合语义的神经网络模型,在LCQMC的测试集中的正确率、F1分数以及准确率高于以往的方案,较之前方案的最优值分别有0.015、0.0393、0.0789的提升量。而模型在验证集的正确率以及测试集的召回率与之前方案的最优值接近。基于2018蚂蚁金服自然语言处理比赛的规则,分类模型最重要的性能指标分别是测试集的正确率与F1分数。由此可见,本发明提出的基于混合语义的神经网络模型性能优于其它方案的模型,验证了该方案对提高汉语语句相似度计算精度的有效性。同时,模型在LCQMC的验证集和测试集中正确率几乎一致,证实该模型可有效缓解神经网络模型在多领域内精度不一致的问题。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (8)

1.一种基于神经网络的汉语语句相似度计算方法,其特征在于,包括以下步骤:
S1:将待处理的输入语句分别表示为第一语句预向量、第二语句预向量;
S2:获取训练集数据,构建并训练基于混合语义的编码器;
S3:将第一语句预向量、第二语句预向量分别输入两个相同的编码器中,处理得到对应的第一语句编码向量、第二语句编码向量;
S4:构建语句相似度计算与分类模型;所述语句相似度计算与分类模型包括两个LSTM模块、一个拼接层,一个全连接MLP层,一个DROPOUT层以及一个SOFTMAX层组成;
S5:将第一语句编码向量、第二语句编码向量输入语句相似度计算与分类模型中进行拼接、映射和归一化处理,得到类别概率向量;具体的:
所述的两个LSTM模块分别对应处理第一语句编码向量、第二语句编码向量;LSTM模块以顺序的方式读取BERT编码器的输出,利用LSTM的记忆网络特性在保留输入文本信息的前提下生成整体语义信息,具体为:
将第一个字的编码结果输入至LSTM模块中作为初始记忆状态C0;然后LSTM依次读取剩下的字编码作为一个时刻的输入,即输入文本的编码结果在LSTM模块中表示为(C0,X1,X2,…Xt,…X511),其中Xt代表t时刻的输入,每一个Xt首先经过LSTM模块中的遗忘门控单元以确定上一个时刻的记忆状态的重要程度,是否需要遗忘一部分的内容,t时刻遗忘门控单元的计算公式如下:
ft=Sigmoid(Wf*[ht-1,Xt]+bf)    (1)
公式(1)中Wf是遗忘门控单元的权重矩阵,ht-1是上一个时刻的输出状态,bf为遗忘门控单元的偏置系数,σ代表着SIGMOID函数,该函数的输出是值域为[0,1]的实数,输出越接近1则表示上一个时刻的记忆状态Ct-1越重要,保留程度越高,输出为1则Ct-1完全保留;输出越接近0则表明上一个时刻的记忆状态Ct-1越不重要,遗忘程度越高,输出为0则Ct-1完全遗忘;
SIGMOID函数的计算式如下:
Figure FDA0004121258580000011
接着Xt经过更新门控单元以确定Xt的重要程度,以确定当前的输入需要更新到Ct-1中的程度;更新门控单元计算更新系数it与更新记忆状态
Figure FDA0004121258580000012
的方式如下:
it=Sigmoid(Wi*[ht-1,Xt]+bi)    (3)
Figure FDA0004121258580000021
Figure FDA0004121258580000022
公式(3)中Wi是更新门控单元的权重矩阵,bi是更新门控单元的偏置系数;σ代表着SIGMOID函数,该函数输出的数值表示当前时刻的输入Xt的重要程度,越接近1则表示Xt越重要,则需要更新到当前时刻的记忆单元Ct的程度越高,反之则需要更新到Ct的程度越低;公式(4)中WC是计算更新记忆状态的权重矩阵,bC是计算更新记忆状态的偏置系数;tanh层会生成一个1*768维的向量;
基于计算遗忘门控单元和更新门控单元的计算结果,联合计算出当前时刻的记忆状态Ct,计算式如下:
Figure FDA0004121258580000023
最后Xt经过输出门控单元,以及根据当前时刻的记忆状态Ct计算出当前时刻的输出状态ht,计算的公式如下:
ot=σ(Wo[ht-1,Xt]+bo)    (7)
ht=ot*tanh(Ct)    (8)
公式(7)中Wo是输出门控单元的权重矩阵,bo是输出门控单元的偏置系数,ot是输出权重系数;
当两个输入文本的编码结果经过LSTM模块的层层更新生成输入文本的语义表达后,将两者的语义表达在拼接层进行拼接,形成一个1*1536维的拼接向量作为MLP层与DROPOUT层的输入;
由全连接MLP层和DROPOUT层对拼接向量进行处理,输出相似度;
最后由SOFTMAX层对得到的相似度进行归一化处理,得到类别概率向量;
S6:取类别概率向量中的最大值的类别作为语句的分类结果并取类别概率向量的第二个值作为两个输入语句的相似度,完成汉语语句相似度的计算。
2.根据权利要求1所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,所述步骤S1具体为:
根据《通用规范汉字表》的一级字表中3500个常用中文字构建语句预向量空间;对输入语句以标点符号作为分割符将语句进行分割,同时为了降低语句的噪音,删除语句中的特殊字符与乱码字符;将3500个汉字以《通用规范汉字表》中顺序编号,输入语句都可以表示为语句预向量空间中的一个向量S;S的表达式为S=(idtoken1,idtoken2,…,idtokeni,…idtoken3500),表达式中idtokeni表示输入语句是的第i个字的编号,当向量长度大于输入语句长度,超出的部分令id=0;因此得到第一语句预向量、第二语句预向量。
3.根据权利要求2所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,在所述步骤S2中,所述训练集数据包括中文版的维基百科的汉语条目释义和大型中文问题匹配数据集LCQMC中的训练集和验证集。
4.根据权利要求3所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,在所述步骤S2中,构建并训练基于混合语义的编码器过程具体为:
构建BERT预训练编码器模型;
使用中文版的维基百科的汉语条目释义对BERT预训练编码器模型进行训练,在BERT预训练编码器模型的基础上进一步构建基于基础语义的预训练编码模型,使预训练编码模型学习文本的基础语义特征,即文本进行编码得到的向量表征中蕴含文本的基础语义;
接着使用LCQMC数据集中的训练集与验证集和LCQMC数据集数据增强后的数据集中的训练集与验证集的数据,对得到的预训练编码模型拼接为下游任务模型后进行训练;目的在于提取文本的上下文信息特征,令文本进行编码得到的向量表征中蕴含文本的不同语句中的具体语义特征,对预训练编码模型进行微调,使下游任务模型更适应下游任务,得到的下游任务模型即为基于混合语义的编码器,即BERT编码器。
5.根据权利要求4所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,所述步骤S3具体为:
由于BERT编码器的最大输入长度为1*512维的向量,因此截取第一语句预向量或第二语句预向量的前512维向量,即得到输入语句向量S*,表达为:S*=(idtoken1,idtoken2,…idtoken512);
由于处理的是文本语句,所以截取前512维的语句预向量不会造成语句的语义丢失;同时,将输入语句向量长度固定为512,输入语句向量在BERT编码器中会自动增添句首与句末的标志符,输入语句向量会转化成S*=([CLS],idtoken1,idtoken2,…idtoken512,[SEP]);
接着令BERT编码器输出每一个字的编码,即令下游任务模型的输入转化为512*768维的文本语义向量矩阵,令语句的语义表达更加精细;因此,BERT编码器首先将第一语句预向量、第二语句预向量截取为第一输入语句向量和第二输入语句向量,再将第一输入语句向量和第二输入语句向量的每一个汉字的编码结果,即第一语句编码向量、第二语句编码向量,顺序输出至步骤S4构建的语句相似度计算与分类模型中,对超出输入语句长度的编码部分进行补零处理。
6.根据权利要求1所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,在所述步骤S5中,所述DROPOUT层中的DROPOUT率为0.1。
7.根据权利要求1所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,在所述步骤S5中,所述拼接向量在MLP层中处理过程如下:
拼接向量首先在MLP层的权重矩阵和偏置的处理下,维度数下降至1*768,完成输入层至隐藏层的转移;
隐藏层向量经过MLP层的激活函数,即SIGMOID的处理维度下降至1*2,完成隐藏层至输出层的转移。
8.根据权利要求7所述的一种基于神经网络的汉语语句相似度计算方法,其特征在于,在所述步骤S5中,全连接MLP层和DROPOUT层的输出经过SOFTMAX函数的处理,得到类别概率向量;SOFTMAX函数的计算式如下:
Figure FDA0004121258580000041
其中,i表示文本分类的类别,gi表示文本类别的值。
CN202010455892.XA 2020-05-26 2020-05-26 一种基于神经网络的汉语语句相似度计算方法 Active CN111611809B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010455892.XA CN111611809B (zh) 2020-05-26 2020-05-26 一种基于神经网络的汉语语句相似度计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010455892.XA CN111611809B (zh) 2020-05-26 2020-05-26 一种基于神经网络的汉语语句相似度计算方法

Publications (2)

Publication Number Publication Date
CN111611809A CN111611809A (zh) 2020-09-01
CN111611809B true CN111611809B (zh) 2023-04-18

Family

ID=72200597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010455892.XA Active CN111611809B (zh) 2020-05-26 2020-05-26 一种基于神经网络的汉语语句相似度计算方法

Country Status (1)

Country Link
CN (1) CN111611809B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257442B (zh) * 2020-09-27 2023-01-24 重庆生产力促进中心 一种基于扩充语料库神经网络的政策文件信息提取方法
CN112308743B (zh) * 2020-10-21 2022-11-11 上海交通大学 一种基于三元组相似任务的审判风险预警方法
CN112487823A (zh) * 2020-11-18 2021-03-12 广东电力信息科技有限公司 一种基于bert模型的文本语义相似度计算方法
CN112507081B (zh) * 2020-12-16 2023-05-23 平安科技(深圳)有限公司 相似句匹配方法、装置、计算机设备及存储介质
CN112489740A (zh) * 2020-12-17 2021-03-12 北京惠及智医科技有限公司 病历检测方法及相关模型的训练方法和相关设备、装置
CN112560429A (zh) * 2020-12-23 2021-03-26 信雅达科技股份有限公司 基于深度学习的智能培训检测方法及系统
CN112905991B (zh) * 2021-02-05 2022-07-12 杭州电子科技大学 一种基于深度神经网络编码的自然语言语义密钥生成方法
CN113378970B (zh) * 2021-06-28 2023-08-22 山东浪潮成方数字服务有限公司 语句相似性检测方法、装置、电子设备及存储介质
CN113743081B (zh) * 2021-09-03 2023-08-01 西安邮电大学 技术服务信息的推荐方法
CN114219050B (zh) * 2022-02-22 2022-06-21 杭州远传新业科技股份有限公司 文本相似度模型的训练方法、系统、装置和介质
CN116720503A (zh) * 2023-03-13 2023-09-08 吉林省元启科技有限公司 一种基于树状解析编码的在线学习系统答案判别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN104391963A (zh) * 2014-12-01 2015-03-04 北京中科创益科技有限公司 一种自然语言文本关键词关联网络构建方法
CN110347790A (zh) * 2019-06-18 2019-10-18 广州杰赛科技股份有限公司 基于注意力机制的文本查重方法、装置、设备及存储介质
CN110826341A (zh) * 2019-11-26 2020-02-21 杭州微洱网络科技有限公司 一种基于seq2seq模型的语义相似度计算方法
CN110825877A (zh) * 2019-11-12 2020-02-21 中国石油大学(华东) 一种基于文本聚类的语义相似度分析方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090187399A1 (en) * 2008-01-22 2009-07-23 O'dell Robert B Using Homophones and Near-Homophones to Improve Methods of Computer Text Entry for Chinese Characters
CN108351876A (zh) * 2015-09-22 2018-07-31 纽昂斯通讯公司 用于兴趣点识别的系统和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN104391963A (zh) * 2014-12-01 2015-03-04 北京中科创益科技有限公司 一种自然语言文本关键词关联网络构建方法
CN110347790A (zh) * 2019-06-18 2019-10-18 广州杰赛科技股份有限公司 基于注意力机制的文本查重方法、装置、设备及存储介质
CN110825877A (zh) * 2019-11-12 2020-02-21 中国石油大学(华东) 一种基于文本聚类的语义相似度分析方法
CN110826341A (zh) * 2019-11-26 2020-02-21 杭州微洱网络科技有限公司 一种基于seq2seq模型的语义相似度计算方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yang Sun 等.Structure-Based Convolutional Neural Networks for Chinese Sentence Similarity Measurement.《2018 11th International Symposium on Computational Intelligence and Design(ISCID)》.2019, *
郜炎峰 等.基于马尔科夫模型的汉语语句相似度计算.《 哈尔滨商业大学学报(自然科学版)》.2017,全文. *

Also Published As

Publication number Publication date
CN111611809A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
CN111611809B (zh) 一种基于神经网络的汉语语句相似度计算方法
CN107798140B (zh) 一种对话系统构建方法、语义受控应答方法及装置
CN111931506B (zh) 一种基于图信息增强的实体关系抽取方法
CN106844331A (zh) 一种句子相似度计算方法和系统
CN109726745B (zh) 一种融入描述知识的基于目标的情感分类方法
CN110046228B (zh) 短文本主题识别方法和系统
CN109783806B (zh) 一种利用语义解析结构的文本匹配方法
CN109543017A (zh) 法律问题关键词生成方法及其系统
Zhou et al. Sentiment analysis of text based on CNN and bi-directional LSTM model
CN113761890B (zh) 一种基于bert上下文感知的多层级语义信息检索方法
CN109522396B (zh) 一种面向国防科技领域的知识处理方法及系统
Raghavan et al. Online inference-rule learning from natural-language extractions
CN111581364B (zh) 一种面向医疗领域的中文智能问答短文本相似度计算方法
Chang et al. A METHOD OF FINE-GRAINED SHORT TEXT SENTIMENT ANALYSIS BASED ON MACHINE LEARNING.
CN114841353A (zh) 一种融合句法信息的量子语言模型建模系统及其应用
CN114064901B (zh) 一种基于知识图谱词义消歧的书评文本分类方法
CN108763355A (zh) 一种基于用户的智能机器人交互数据处理系统及方法
Lubis et al. spelling checking with deep learning model in analysis of Tweet data for word classification process
CN114707516A (zh) 一种基于对比学习的长文本语义相似度计算方法
CN114398900A (zh) 一种基于RoBERTa模型的长文本语义相似度计算方法
CN109325243A (zh) 字符级基于序列模型的蒙古文切词方法及其切词系统
CN113343118A (zh) 混合新媒体下的热点事件发现方法
CN111985223A (zh) 一种基于长短记忆网络和情感词典结合的情感计算方法
Zhang et al. An approach for named entity disambiguation with knowledge graph
CN114386425B (zh) 用于对自然语言文本内容进行处理的大数据体系建立方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant