CN112085091B - 基于人工智能的短文本匹配方法、装置、设备及存储介质 - Google Patents
基于人工智能的短文本匹配方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112085091B CN112085091B CN202010930286.9A CN202010930286A CN112085091B CN 112085091 B CN112085091 B CN 112085091B CN 202010930286 A CN202010930286 A CN 202010930286A CN 112085091 B CN112085091 B CN 112085091B
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- short text
- initial
- word segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 258
- 238000004364 calculation method Methods 0.000 claims abstract description 73
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000009467 reduction Effects 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000011218 segmentation Effects 0.000 claims description 103
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 20
- 238000012546 transfer Methods 0.000 claims description 16
- 230000004913 activation Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003247 decreasing effect Effects 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 5
- 238000004422 calculation algorithm Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及人工智能技术领域,揭露一种基于人工智能的短文本匹配方法、装置、设备及存储介质,其中方法包括将获取的第一短文本和第二短文本进行拼接,得到初始文本,并通过BERT模型对初始文本进行编码,得到初始向量,然后通过初始向量降维处理,得到目标向量,再通过计算第一短文本和第二短文本的文本相似度;再将目标向量和文本相似度值进行拼接,得到新的向量,并将其输入到DCN模型进行训练,对训练结果进行概率计算,得到预测概率;若预测概率大于预设阈值,则确认第一短文本和第二短文本的短文本语义匹配成功。本申请还涉及区块链技术,初始文本存储于区块链中。本申请通过对短文本进行精准分析,以提高短文本语义匹配的准确度。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及基于人工智能的短文本匹配方法、装置、设备及存储介质。
背景技术
随着人工智能技术的飞速发展,许多服务平台都开始采用机器人对用户问题进行快速响应,无论是问答系统、对话系统还是智能客服,都可以认为是问题与问题或者问题与回复之间的语义匹配问题。根据文本长度的不同,语义匹配可以细分短文本语义匹配,短文本-长文本语义匹配和长文本语义匹配这三类。短文本的语义匹配在工业界的应用场景非常广泛。例如,在百度、google等网站的网页搜索中,需要度量用户查询和网页标题的语义相关性;在智能问答系统中,需要度量用户问题和FAQ中的问题之间的相似度。这些场景都会用到短文本语义匹配。
现有的短文本语义匹配方法主要是基于神经网络的深度语义匹配模型,这类模型把短文本抽象表示为高维向量,并利用特定的匹配算法计算短文本之间的相关性。虽然能提取短文本的深层次语义特征,但是对于一些浅层次的特征,如句子中的字词层面的特征,以及浅层次的语义特征等的提取效果就差强人意,并且短文本的字词长度较短,用神经网络模型对其提取特征时很容易就会出现过拟合现象,最终导致短文本匹配精准度较低。如何获取一种对于短文本高效准确地语义识别方法,成为一个亟待解决的难题。
发明内容
本申请实施例的目的在于提出一种基于人工智能的短文本匹配方法,通过对短文本进行精准分析,以提高短文本语义匹配的准确度。
为了解决上述技术问题,本申请实施例提供一种基于人工智能的短文本匹配方法,包括:
获取第一短文本和第二短文本,将所述第一短文本和所述第二短文本进行拼接,得到初始文本;
通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量;
采用深度神经网络对所述初始向量进行降维处理,得到目标向量;
通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值;
将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出向量;
对所述输出向量进行加权求和,得到结果向量,并对所述结果向量进行Si gmoi d函数计算,得到预测概率;
若所述预测概率大于预设阈值,则确认所述第一短文本和所述第二短文本的短文本语义匹配成功。
进一步的,所述通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值包括:
对所述第一短文本和第二短文本进行分词处理,得到第一分词和第二分词;
统计所述第一分词和第二分词的词频,得到第一分词频率和第二分词频率;
对所述第一分词频率和所述第二分词频率进行向量化处理,得到第一分词向量和第二分词向量;
计算所述第一分词向量和所述第二分词向量的余弦相似度值,得到所述文本相识度值。
进一步的,所述通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值,包括:
对所述第一短文本和所述第二短文本进行分词处理,并删除分词处理后第一短文本和第二短文本的停用词,得到第三分词和第四分词;
统计第三分词和第四分词的转移代价,并将所述转移代价进行累加,得到累加值,其中,转移代价为分词的向量距离乘以分词的移动距离;
将数值最小的累加值作为所述文本相识度值。
进一步的,所述通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值,包括:
对所述第一短文本进行分词处理,得到第五分词,并对所述第五分词进行语素分析,得到每个第五分词的语素;
通过对所述每个第五分词的语素添加预设权重,并按照所述预设权重,计算所述每个第五分词与所述第二短文本的相关性得分;
将所述相关性得分进行加权求和后,得到所述文本相识度值。
进一步的,所述采用深度神经网络对所述初始向量进行降维处理,得到目标向量包括:
将所述初始向量输入所述深度神经网络中;
通过逐渐递减节点个数的方式,对所述初始向量进行激活函数计算,得到计算结果,并将所述计算结果作为所述目标向量。
进一步的,所述将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出向量包括:
将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并把所述新的向量输入到DCN模型,其中,所述DCN模型包括并行的交叉网络Cross network和深度网络Deepnetwork;
通过所述交叉网络Cross network和所述深度网络Deep network对所述新的向量进行向量计算,得到输出结果,并将所述输出结果进行拼接,得到输出向量。
进一步的,所述通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量包括:
获取所述第一短文本和所述第二短文本拼接时的起始标记位;
将所述初始文本输入到BERT模型进行编码,得到编码向量;
获取所述起始标记位对应的编码向量,并将所述起始标记位对应的编码向量作为所述初始向量。
为了解决上述技术问题,本申请实施例提供一种基于人工智能的短文本匹配装置,包括:
初始向量获取模块,用于通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量;
目标向量获取模块,用于采用深度神经网络对所述初始向量进行降维处理,得到目标向量;
文本相似度值模块,用于通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值;
训练结果获取模块,用于将所述目标特征和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出向量;
预测概率确定模块,用于对所述输出向量进行加权求和,得到结果向量,并对所述结果向量进行Sigmoid函数计算,得到预测概率;
短文语义匹配模块,用于若所述预测概率大于预设阈值,则确认所述第一短文本和所述第二短文本的短文本语义匹配成功。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种计算机设备,包括,一个或多个处理器;存储器,用于存储一个或多个程序,使得一个或多个处理器实现上述任意一项所述的基于人工智能的短文本匹配方案。
为解决上述技术问题,本发明采用的一个技术方案是:一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的基于人工智能的短文本匹配方案。
以上方案中的一种基于人工智能的短文本匹配方法,通过BERT模型对第一短文本和第二短文本拼接后的初始文本进行编码,获取初始向量,实现提取两个短文本共同的语义特征,还实现处理近义词间的匹配关系,还能定量表述语义,为后续提高短文本语义匹配精确度提供基础;通过深度神经网络对所述初始向量进行降维处理,得到目标向量和计算文本相似度值,有利于防止由于BERT模型提取的特征过于深入而产生过拟合现象,最后通过DCN模型对目标向量和文本相似度值进行拼接后的向量计算,得到输出向量,再通过对输出向量的概率计算,获取第一短文本和第二短文本的匹配程度,进而有效的提升短文本语义匹配的准确度。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的基于人工智能的短文本匹配方法的应用环境示意图;
图2根据本申请实施例提供的基于人工智能的短文本匹配方法的一实现流程图;
图3是本申请实施例提供的基于人工智能的短文本匹配方法的模型结构示意图;
图4是本申请实施例提供的基于人工智能的短文本匹配方法中步骤S4的一实现流程图;
图5是本申请实施例提供的基于人工智能的短文本匹配方法中步骤S4的另一实现流程图;
图6是本申请实施例提供的基于人工智能的短文本匹配方法中步骤S4的又一实现流程图;
图7是本申请实施例提供的基于人工智能的短文本匹配方法中步骤S2的一实现流程图;
图8是本申请实施例提供的基于人工智能的短文本匹配装置示意图;
图9是本申请实施例提供的计算机设备的示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
下面结合附图和实施方式对本发明进行详细说明。
请参阅图1,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、搜索类应用、即时通信工具等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的一种基于人工智能的短文本匹配方法一般由服务器执行,相应地,一种基于人工智能的短文本匹配装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
请参阅图2和图3,图2示出了基于人工智能的短文本匹配方法的一种具体实施方式,图3示出了基于人工智能的短文本匹配方法的模型结构。
需注意的是,若有实质上相同的结果,本发明的方法并不以图2所示的流程顺序为限,该方法包括如下步骤:
S1:获取第一短文本和第二短文本,将第一短文本和第二短文本进行拼接,得到初始文本。
具体的,对获取到的两个需要进行语义匹配识别的短文本第一短文本和第二短文本进行文本拼接,在第一短文本的第一个字符前,插入CLS标记,在第二短文本之前,插入SEP标志,进而采用CLS标记+第一短文本标志+SEP标志+第二短文本的串联方式进行拼接,得到初始文本。
其中,CLS是一个起始标记位,代表句子的开始,SEP是一个连接标志位。
S2:通过BERT模型对初始文本进行编码,得到初始文本的初始向量。
具体地,将初始文本输入BERT模型中,采用BERT模型对初始文本进行编码,取标记对应的编码,作为初始文本的初始向量。步骤2的详细实现过程可参考步骤S201至步骤S203的描述,为避免重复,此处不再累赘。
其中,BERT模型的目标是利用大规模无标注语料训练、获得文本的包含丰富语义信息的Representation,即文本的语义表示,然后将文本的语义表示在特定NLP任务中作微调,最终应用于该NLP任务。
S3:采用深度神经网络对初始向量进行降维处理,得到目标向量。
具体地,将得到的初始向量输入到深度神经网络中,通过深度神经网络进行降维,得到预设维度的目标向量。
其中,深度神经网络(深度神经网络(Deep Neural Networks,DNN))是机器学习(ML,Machine Learning)领域中一种技术,是一种非监督的多层神经网络,在本实施例中,通过深度神经网络对初始向量进行降维,以便提高语义理解地精度,同时,也有利于减少数据量,提高后续计算的效率。
其中,降维处理是将高维数据化为低维度数据的操作。
其中,预设维度可以根据实际需要进行设定,本实施例中,预设维度的优选范围在10到100之间,例如,在一具体实施方式中,将预设维度设置为30。
S4:通过预设的相似度计算方式,计算第一短文本和第二短文本的文本相似度,得到文本相似度值。
具体地,通过一些预设的相似度计算方式,对第一短文本和第二短文本的文本相识度进行计算,得到文本相识度值。
在本实施例中,采用多种相似度的计算方式进行文本相似度,并将文本相似度值均保留参与后续运算,避免单个相似度计算方式计算导致的精度不够的问题,提高文本相似度的准确性,有利于提高后续概率计算的准确度。
其中,预设的相似度计算方式可以根据实际需求来选取,在本实施例中,预设的相似度计算方式具体包括:TF-IDF算法、WMD算法和BM25算法,通过TF-IDF算法、WMD算法和BM25算法分别计算第一短文本和第二短文本的文本相识度,得到三个相似度值f1、f2、f3。选用TF-IDF算法的详细实现过程可参考步骤S401至步骤S404的描述,MD算法的详细实现过程可参考步骤S411至步骤S413的描述,BM25算法详细实现过程可参考步骤S421至步骤S423的描述,为避免重复,此处不再累赘。
需要说明的是,步骤S2至步骤S3,与步骤S4之间,并没有直接的先后逻辑关系,其具体也可以是并行执行,此处不应理解为对其执行顺序的限定。
S5:将目标向量和文本相似度值进行拼接,得到新的向量,并将新的向量输入到DCN模型进行向量计算,得到输出向量。
具体地,将目标向量和文本相似度值进行拼接,得到新的向量,该新的向量包含整个句子语义的深度特征,以及两个短文本相似度特征,并将该新的向量输入到DCN模型中进行训练,得到训练结果。
其中,将目标向量和多种计算方式得到的文本相似度值进行拼接,得到新的向量,新的向量不仅包含来自于BERT提取的深层次语义信息,而且还包括通过TF-IDF、MD算法和BM25算法等算法计算得到的字词层面的特征以及浅层次的语义特征。
其中,DCN模型为Deep&Cross Network模型的简称,包括两部分:交叉网络Crossnetwork和深度网络Deep network。
其中,新的向量的拼接过程:假设目标向量为且/>文本相似度值分别为f1、f2、f3,则目标向量和文本相似度拼接后新的向量x为:
其中,向量计算包括将新的向量分别输入到交叉网络Cross network和深度网络Deep network的计算处理;其中,交叉网络Cross network对新的向量x计算处理:其中xl+1,c、xl,c、x0,c分别为交叉网络Cross network的非线性层的第l+1层、第l层和第0层的输入,这里x0,c就是前面拼接得到的新的向量x,wc,l、bc,l为非线性层第l层的参数。
其中,深度网络Deep network对新的向量x计算处理:xl+1,d=f(Wlxl,d+bl),Wl、bl是深度网络Deep network的全连接神经网络中第l层隐藏层的参数,xl+1,d、xl,d分别是第l+1层隐藏层和第l层隐藏层的输入,f(·)是激活函数。
其中,输出向量为有交叉网络Cross network和深度网络Deep network对新的向量进行向量计算后,得到的结果进行拼接所形成的向量。其中,将得到的结果进行拼接的过程和上述新的向量拼接过程一样,为避免重复,此处不再累赘。
S6:对输出向量进行加权求和,得到结果向量,并对结果向量进行Sigmoid函数计算,得到预测概率。
具体的,对输出向量进行加权求和后,再经过sigmoid函数计算得到最终的预测概率。
其中,预测概率为第一短文本和第二短文本的匹配程度。
其中,sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。在本发明中,通过sigmoid函数计算第一短文本和第二短文本,得到最终的预测概率。
S7:若预测概率大于预设阈值,则确认第一短文本和第二短文本的短文本语义匹配成功。
其中,预设阈值可以根据实际需要进行设定,本实施例中,预设阈值的优选范围在0.6到1之间,例如,在一具体实施方式中,将预设阈值设置为0.85。
在本方案中,通过BERT模型对第一短文本和第二短文本拼接后的初始文本进行编码,获取初始向量,实现提取两个短文本共同的语义特征,还实现处理近义词间的匹配关系,还能定量表述语义,为后续提高短文本语义匹配精确度提供基础;通过深度神经网络对初始向量进行降维处理,得到目标向量和计算文本相似度值,有利于防止由于BERT模型提取的特征过于深入而产生过拟合现象,最后通过DCN模型对目标向量和文本相似度值进行拼接后的向量计算,得到输出向量,再通过对输出向量的概率计算,获取第一短文本和第二短文本的匹配程度,进而有效的提升短文本语义匹配的准确度。
请参阅图4,图4示出了步骤S4的一种具体实施方式,步骤S4中通过预设的相似度计算方式,计算第一短文本和第二短文本的文本相似度,得到文本相似度值的具体实现过程,详叙如下:
S401:对第一短文本和第二短文本进行分词处理,得到第一分词和第二分词。
例如,第一短文本texta为:“这件衣服尺码大了,那个尺码合适”,第二短文本textb为:“这件衣服尺码不小,那个更合适”,进行分词处理后,得到第一分词为“这件/衣服/尺码/大了,那个/尺码/合适”,第二分词为“这件/衣服/尺码/不小,那个/更/合适”。
S402:统计第一分词和第二分词的词频,得到第一分词频率和第二分词频。
具体的,先列出所有的分词,构成词集,再统计第一分词和第二分词的词频,得到第一分词频率和第二分词频。
例如,第一分词texta:这件1、衣服1、号码2、大了1、那个1、更0、合适1、不0、小0;第二分词textb:这件1、衣服1、号码1、大了0、那个1、更1、合适1、不1、小1。
S403:对第一分词频率和第二分词频率进行向量化处理,得到第一分词向量和第二分词向量。
具体的,进行向量化处理,便于后续的数值计算。
例如,向量化处理后得到,texta[1,1,2,1,1,0,1,0,0],textb[1,1,1,0,1,1,1,1,1]
S404:计算第一分词向量和第二分词向量的余弦相似度值,得到文本相识度值。
具体的,由于上一步骤已经将第一分词频率和第二分词频率进行向量处理,能够进行数值计算,所以通过计算第一分词向量和第二分词向量的余弦相似度值,最终得到文本相似度f1。
需要说明的是,步骤S401-S404,是通过TF-IDF算法方式,计算第一短文本和第二短文本的文本相似度f1。
其中,TF-IDF算法是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜索引擎应用,作为文件与用户查询之间相关程度的度量或评级。
本实施例中,通过对第一短文本和第二短文本进行分词处理,得到第一分词和第二分词,再统计第一分词和第二分词的词频,得到第一分词频率和第二分词频,然后对第一分词频率和第二分词频率进行向量化处理,得到第一分词向量和第二分词向量,最后计算第一分词向量和第二分词向量的余弦相似度值,得到文本相识度值,为后续构建新的向量提供基础,进而提供短文本语义匹配的准确度。
请参阅图5,图5示出了步骤S4的另一种具体实施方式,包括:
S411:对第一短文本和第二短文本进行分词处理,并删除分词处理后第一短文本和第二短文本的停用词,得到第三分词和第四分词。
其中,停用词是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会过滤掉某些字或词,这些字或词即被称为Stop Words(停用词)。
S412:统计第三分词和第四分词的转移代价,并将转移代价进行累加,得到累加值。
具体的,先构建第三分词和第四分词的词向量,将第三分词所有词全部移动到第四分词中,将第四分词全部移动到第三分词中后,再通过构建的词向量计算转移代价,并将转移代价进行累加,得到累加值。
其中,转移代价为分词的向量距离乘以分词的移动距离。
S413:将数值最小的累加值作为文本相识度值。
具体的,上述步骤计算得到了累加值,而累加值越小越能够体现文本相似度,故而将将数值最小的累加值作为文本相识度值f2。
需要说明的是,步骤S411-S413,是通过WMD算法方式,计算第一短文本和第二短文本的文本相似度f2。
其中,WMD(Word Mover′s Distance)算法是基于单词嵌入,计算两个文本间的距离,即测量一个文本转化为另一个文本的最小距离的一种算法。在本实施例中,通过计算第三分词和第四分词转移代价,来计算文本相识度值f2。
本实施例中,通过对第一短文本和第二短文本进行分词处理,并删除分词处理后第一短文本和第二短文本的停用词,得到第三分词和第四分词,再统计第三分词和第四分词的转移代价,并将转移代价进行累加,得到累加值,将数值最小的累加值作为文本相识度值,为后续构建新的向量提供基础,进而提供短文本语义匹配的准确度。
请参阅图6,图6示出了步骤S5的有一种具体实施方式,包括:
S421:对第一短文本进行分词处理,得到第五分词,并对第五分词进行语素分析,得到每个第五分词的语素。
具体的,将第一短文本进行分词处理后,得到一系列的第五分词,然后针对每个分词进行语素分析,得到每个第五分词的语素。
其中,语素是最小的语音、语义结合体,是最小的有意义的语言单位。语素不是独立运用的语言单位,它的主要功能是作为构成词语的材料。语素分析就是将第五分词进行解析,使得第五分词分解为独立的语音,即为语素。
S422:通过对每个第五分词的语素添加预设权重,并按照预设权重,计算每个第五分词与第二短文本的相关性得分。
具体的,预设权重根据IDF计算公式计算而得来。
其中,IDF是逆向文件频率(inverse document frequency,IDF),是一个词语普遍重要性的度量。某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取以10为底的对数得到。
其中,相关性得分用来判断每个第五分词与第二短文本相关性,进而为后续计算第一短文本和第二短文本的相似度值。
S423:将相关性得分进行加权求和后,得到文本相识度值。
具体的,因为每一个第五分词对第二分词的相关性不同,故而将得到的所有相关性得分进行加权求和后,得到文本相识度值f3。
需要说明的是,步骤S421-S423,是通过BM25算法方式,计算第一短文本和第二短文本的文本相似度f3。
其中,BM25算法是一种用来评价搜索词和文档之间相关性的算法,它是一种基于概率检索模型提出的算法。
本实施例中,通过对第一短文本进行分词处理,得到第五分词,并对第五分词进行语素分析,得到每个第五分词的语素,再通过对每个第五分词的语素添加预设权重,并按照预设权重,计算每个第五分词与第二短文本的相关性得分,将相关性得分进行加权求和后,得到文本相识度值,为后续构建新的向量提供基础,进而提供短文本语义匹配的准确度。
进一步的,步骤S3包括:
将初始向量输入深度神经网络中。
具体的,把初始向量输入进一个深度神经网络中,便于对初始向量进行降维处理。
其中,深度神经网络是一个由两个全连接层组成的全连接神经网络。
通过逐渐递减节点个数的方式,对初始向量进行激活函数计算,得到计算结果,并将计算结果作为目标向量。
具体的,由于深度神经网络是一个由两个全连接层组成的全连接神经网络,当初始向量输入深度神经网络中,由两个全连接层对初始向量进行激活函数的计算,在此过程中,通过逐渐降低全连接层的节点数,能够实现降低激活函数的参数,使得初始向量的维度逐渐下降,当下降到预设维度时,则停止计算,以达到降维的效果。
本实施例中,将初始向量输入深度神经网络中,通过逐渐递减节点个数的方式,对初始向量进行激活函数计算,得到计算结果,并将计算结果作为目标向量,平衡了向量间的维度,避免维度过高而使得相似度特征不起作用,进而提高了短文本语义匹配的准确度。
进一步的,步骤S5包括:
将目标向量和文本相似度值进行拼接,得到新的向量,并把新的向量输入到DCN模型,其中,DCN模型包括并行的交叉网络Cross network和深度网络Deep network。
具体的,将目标向量和上述步骤得到的相似度值f1、f2、f3进行拼接,得到新的向量,并把新的向量输入到DCN模型中。
其中,交叉网络Cross network由多个非线性层组成,前一个非线性层的输出是后一个的输入;深度网络Deep network在连接神经网络中的前一个隐藏层的输出是后一个隐藏层的输入。
通过交叉网络Cross network和深度网络Deep network对新的向量进行向量计算,得到输出结果,并将输出结果进行拼接,得到输出向量。
具体的,DCN模型对新的向量进行向量计算过程中,交叉网络Cross network和深度网络Deep network对输入的新的向量进行计算,将前一个计算结果作为后一个计算的输入,最终,得到交叉网络Cross network和深度网络Deep network的输出结果。
本实施例中,通过将目标向量和文本相似度值进行拼接,得到新的向量,并把新的向量输入到DCN模型,然后通过交叉网络Cross network和深度网络Deep network对新的向量进行向量计算,得到输出结果,并将输出结果进行拼接,得到拼接结果,并将拼接结果作为训练结果,能够对新的向量进行有效训练,为后续的概率计算提供基础,进而提高短文本语义匹配的准确度。
请参阅图7,图7示出了步骤S2的一种具体实施方式,步骤S2中通过BERT模型对初始文本进行编码,得到初始文本的初始向量的具体实现过程,详叙如下:
S201:获取第一短文本和第二短文本拼接时的起始标记位。
具体的,在第一短文本的第一个字符前,插入CLS标记,该CLS标记即为起始标记位,用以后续识别拼接的初始位置。
S202:将初始文本输入到BERT模型进行编码,得到编码向量。
具体的,将拼接后得到的初始文本输入到BERT模型进行编码,得到编码向量。
S203:获取起始标记位对应的编码向量,并将起始标记位对应的编码向量作为初始向量。
具体的,取起始标记位对应的编码向量,作为整个句子的语义向量,即为初始向量。
进一步的,初始向量计算公式如下:
c=BERT([CLS,texta,SEP,textb,SEP])
其中,c为初始向量,texta、textb分别表示第一短文本和第二短文本。
本实施例中,通过获取第一短文本和第二短文本拼接时的起始标记位,然后将初始文本输入到BERT模型进行编码,得到编码向量,获取起始标记位对应的编码向量,并将起始标记位对应的编码向量作为初始向量,实现初始向量的获取,为后续生成新的向量提供基础,进而提高短文本语义识别的准确度。
需要强调的是,为进一步保证上述初始文本的私密和安全性,上述初始文本还可以存储于一区块链的节点中。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
请参考图8,作为对上述图2所示方法的实现,本申请提供了一种基于人工智能的短文本匹配装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的基于人工智能的短文本匹配装置包括:初始文本获取模块81、初始向量获取模块82、目标向量获取模块83、文本相似度值模块84、训练结果获取模块85、预测概率确定模块86及短文语义匹配模块87,其中:
初始文本获取模块81,用于获取第一短文本和第二短文本,将第一短文本和第二短文本进行拼接,得到初始文本;
初始向量获取模块82,用于通过BERT模型对初始文本进行编码,得到初始文本的初始向量;
目标向量获取模块83,用于采用深度神经网络对初始向量进行降维处理,得到目标向量;
文本相似度值模块84,用于通过预设的相似度计算方式,计算第一短文本和第二短文本的文本相似度,得到文本相似度值;
训练结果获取模块85,用于将目标向量和文本相似度值进行拼接,得到新的向量,并将新的向量输入到DCN模型进行向量计算,得到输出向量;
预测概率确定模块86,用于对输出向量进行加权求和,得到结果向量,并对结果向量进行Sigmoid函数计算,得到预测概率;
短文语义匹配模块87,用于若预测概率大于预设阈值,则确认第一短文本和第二短文本的短文本语义匹配成功。
进一步的,文本相似度值模块84包括:
第一分词单元,用于对第一短文本和第二短文本进行分词处理,得到第一分词和第二分词;
词频获取单元,用于统计第一分词和第二分词的词频,得到第一分词频率和第二分词频率;
向量获取单元,用于对第一分词频率和第二分词频率进行向量化处理,得到第一分词向量和第二分词向量;
余弦相似度值单元,用于计算第一分词向量和第二分词向量的余弦相似度值,得到文本相识度值。
进一步的,文本相似度值模块84还包括:
第二分词单元,用于对第一短文本和第二短文本进行分词处理,并删除分词处理后第一短文本和第二短文本的停用词,得到第三分词和第四分词;
累加值获取单元,用于统计第三分词和第四分词的转移代价,并将转移代价进行累加,得到累加值,其中,转移代价为分词的向量距离乘以分词的移动距离;
相似度确定单元,用于将数值最小的累加值作为文本相识度值。
进一步的,文本相似度值模块84还包括:
第三分词单元,用户对第一短文本进行分词处理,得到第五分词,并对第五分词进行语素分析,得到每个第五分词的语素;
相关性得分单元,用于通过对每个第五分词的语素添加预设权重,并按照预设权重,计算每个第五分词与第二短文本的相关性得分;
加权求和单元,用于将相关性得分进行加权求和后,得到文本相识度值。
进一步的,目标向量获取模块83包括:
初始向量输入单元,用于将初始向量输入深度神经网络中;
激活函数计算单元,用于通过逐渐递减节点个数的方式,对初始向量进行激活函数计算,得到计算结果,并将计算结果作为目标向量。
进一步的,训练结果获取模块85包括:
新的向量获取单元,用于将目标向量和文本相似度值进行拼接,得到新的向量,并把新的向量输入到DCN模型,其中,DCN模型包括并行的交叉网络Cross network和深度网络Deep network;
拼接结果获取单元,用于通过交叉网络Cross network和深度网络Deep network对新的向量进行向量计算,得到输出结果,并将输出结果进行拼接,得到输出向量。
进一步的,初始向量获取模块82包括:
起始标记位获取单元,用于获取第一短文本和第二短文本拼接时的起始标记位;
编码向量获取单元,用于将初始文本输入到BERT模型进行编码,得到编码向量;
初始向量确定单元,用于获取起始标记位对应的编码向量,并将起始标记位对应的编码向量作为初始向量。
需要强调的是,为进一步保证上述初始文本的私密和安全性,上述初始文本还可以存储于一区块链的节点中。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图8,图9为本实施例计算机设备基本结构框图。
计算机设备9包括通过系统总线相互通信连接存储器91、处理器92、网络接口93。需要指出的是,图中仅示出了具有三种组件存储器91、处理器92、网络接口93的计算机设备9,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field -Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
存储器91至少包括一种类型的可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器91可以是计算机设备9的内部存储单元,例如该计算机设备9的硬盘或内存。在另一些实施例中,存储器91也可以是计算机设备9的外部存储设备,例如该计算机设备9上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器91还可以既包括计算机设备9的内部存储单元也包括其外部存储设备。本实施例中,存储器91通常用于存储安装于计算机设备9的操作系统和各类应用软件,例如基于人工智能的短文本匹配方法的程序代码等。此外,存储器91还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器92在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器92通常用于控制计算机设备9的总体操作。本实施例中,处理器92用于运行存储器91中存储的程序代码或者处理数据,例如运行一种基于人工智能的短文本匹配方法的程序代码。
网络接口93可包括无线网络接口或有线网络接口,该网络接口93通常用于在计算机设备9与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,计算机可读存储介质存储有服务器维护程序,服务器维护程序可被至少一个处理器执行,以使至少一个处理器执行如上述的一种基于人工智能的短文本匹配方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例的方法。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (7)
1.一种基于人工智能的短文本匹配方法,其特征在于,包括:
获取第一短文本和第二短文本,将所述第一短文本和所述第二短文本进行拼接,得到初始文本;
通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量;
采用深度神经网络对所述初始向量进行降维处理,得到目标向量;
通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值,所述文本相似度值包括第一文本相似度值、第二文本相似度值以及第三文本相似度值;
将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出向量;
对所述输出向量进行加权求和,得到结果向量,并对所述结果向量进行Sigmoid函数计算,得到预测概率;
若所述预测概率大于预设阈值,则确认所述第一短文本和所述第二短文本的短文本语义匹配成功;
所述通过预设的计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值的步骤,具体包括:
对所述第一短文本和第二短文本进行分词处理,得到第一分词和第二分词;
统计所述第一分词和第二分词的词频,得到第一分词频率和第二分词频率;
对所述第一分词频率和所述第二分词频率进行向量化处理,得到第一分词向量和第二分词向量;
计算所述第一分词向量和所述第二分词向量的余弦相似度值,得到所述第一文本相似度值;
对所述第一短文本和所述第二短文本进行分词处理,并删除分词处理后第一短文本和第二短文本的停用词,得到第三分词和第四分词;
统计第三分词和第四分词的转移代价,并将所述转移代价进行累加,得到累加值,其中,转移代价为分词的向量距离乘以分词的移动距离;
将数值最小的累加值作为所述第二文本相似度值;
对所述第一短文本进行分词处理,得到第五分词,并对所述第五分词进行语素分析,得到每个第五分词的语素;
通过对所述每个第五分词的语素添加预设权重,并按照所述预设权重,计算所述每个第五分词与所述第二短文本的相关性得分;
将所述相关性得分进行加权求和后,得到所述第三文本相似度值。
2.根据权利要求1所述的基于人工智能的短文本匹配方法,其特征在于,所述采用深度神经网络对所述初始向量进行降维处理,得到目标向量包括:
将所述初始向量输入所述深度神经网络中;
通过逐渐递减节点个数的方式,对所述初始向量进行激活函数计算,得到计算结果,并将所述计算结果作为所述目标向量。
3.根据权利要求1所述的基于人工智能的短文本匹配方法,其特征在于,所述将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出向量:
将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并把所述新的向量输入到DCN模型,其中,所述DCN模型包括并行的交叉网络Cross network和深度网络Deepnetwork;
通过所述交叉网络Cross network和所述深度网络Deep network对所述新的向量进行向量计算,得到输出结果,并将所述输出结果进行拼接,得到所述输出向量。
4.根据权利要求1所述的基于人工智能的短文本匹配方法,其特征在于,所述通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量包括:
获取所述第一短文本和所述第二短文本拼接时的起始标记位;
将所述初始文本输入到BERT模型进行编码,得到编码向量;
获取所述起始标记位对应的编码向量,并将所述起始标记位对应的编码向量作为所述初始向量。
5.一种基于人工智能的短文本匹配装置,其特征在于,所述基于人工智能的短文本匹配装置用于执行实现如权利要求1至4中任一项所述的基于人工智能的短文本匹配方法,所述基于人工智能的短文本匹配装置包括:
初始文本获取模块,用于获取第一短文本和第二短文本,将所述第一短文本和所述第二短文本进行拼接,得到初始文本;
初始向量获取模块,用于通过BERT模型对所述初始文本进行编码,得到所述初始文本的初始向量;
目标向量获取模块,用于采用深度神经网络对所述初始向量进行降维处理,得到目标向量;
文本相似度值模块,用于通过预设的相似度计算方式,计算所述第一短文本和所述第二短文本的文本相似度,得到文本相似度值;
训练结果获取模块,用于将所述目标向量和所述文本相似度值进行拼接,得到新的向量,并将所述新的向量输入到DCN模型进行向量计算,得到输出结果;
预测概率确定模块,用于对所述输出向量进行加权求和,得到结果向量,并对所述结果向量进行Sigmoid函数计算,得到预测概率;
短文语义匹配模块,用于若所述预测概率大于预设阈值,则确认所述第一短文本和所述第二短文本的短文本语义匹配成功。
6.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至4中任一项所述的基于人工智能的短文本匹配方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的基于人工智能的短文本匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930286.9A CN112085091B (zh) | 2020-09-07 | 2020-09-07 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010930286.9A CN112085091B (zh) | 2020-09-07 | 2020-09-07 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112085091A CN112085091A (zh) | 2020-12-15 |
CN112085091B true CN112085091B (zh) | 2024-04-26 |
Family
ID=73732860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010930286.9A Active CN112085091B (zh) | 2020-09-07 | 2020-09-07 | 基于人工智能的短文本匹配方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112085091B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486659B (zh) * | 2021-05-25 | 2024-03-15 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及存储介质 |
CN113361248B (zh) * | 2021-06-30 | 2022-08-12 | 平安普惠企业管理有限公司 | 一种文本的相似度计算的方法、装置、设备及存储介质 |
CN113642312A (zh) * | 2021-08-19 | 2021-11-12 | 平安医疗健康管理股份有限公司 | 体检数据的处理方法、装置、设备及存储介质 |
CN113657104A (zh) * | 2021-08-31 | 2021-11-16 | 平安医疗健康管理股份有限公司 | 文本抽取方法、装置、计算机设备及存储介质 |
CN115225328B (zh) * | 2022-06-21 | 2024-05-28 | 杭州安恒信息技术股份有限公司 | 页面访问数据的处理方法、装置、电子设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344399A (zh) * | 2018-09-14 | 2019-02-15 | 重庆邂智科技有限公司 | 一种基于堆叠双向lstm神经网络的文本相似度计算方法 |
CN109815484A (zh) * | 2018-12-21 | 2019-05-28 | 平安科技(深圳)有限公司 | 基于交叉注意力机制的语义相似度匹配方法及其匹配装置 |
CN109992772A (zh) * | 2019-03-13 | 2019-07-09 | 众安信息技术服务有限公司 | 一种文本相似度计算方法及装置 |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN111221942A (zh) * | 2020-01-09 | 2020-06-02 | 平安科技(深圳)有限公司 | 智能化文本对话生成方法、装置及计算机可读存储介质 |
CN111368037A (zh) * | 2020-03-06 | 2020-07-03 | 平安科技(深圳)有限公司 | 基于Bert模型的文本相似度计算方法和装置 |
CN111461897A (zh) * | 2020-02-28 | 2020-07-28 | 上海商汤智能科技有限公司 | 一种获取核保结果的方法及相关装置 |
-
2020
- 2020-09-07 CN CN202010930286.9A patent/CN112085091B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344399A (zh) * | 2018-09-14 | 2019-02-15 | 重庆邂智科技有限公司 | 一种基于堆叠双向lstm神经网络的文本相似度计算方法 |
CN109815484A (zh) * | 2018-12-21 | 2019-05-28 | 平安科技(深圳)有限公司 | 基于交叉注意力机制的语义相似度匹配方法及其匹配装置 |
WO2020124959A1 (zh) * | 2018-12-21 | 2020-06-25 | 平安科技(深圳)有限公司 | 基于交叉注意力机制的语义相似度匹配方法及其装置 |
CN109992772A (zh) * | 2019-03-13 | 2019-07-09 | 众安信息技术服务有限公司 | 一种文本相似度计算方法及装置 |
CN110298037A (zh) * | 2019-06-13 | 2019-10-01 | 同济大学 | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 |
CN111221942A (zh) * | 2020-01-09 | 2020-06-02 | 平安科技(深圳)有限公司 | 智能化文本对话生成方法、装置及计算机可读存储介质 |
CN111461897A (zh) * | 2020-02-28 | 2020-07-28 | 上海商汤智能科技有限公司 | 一种获取核保结果的方法及相关装置 |
CN111368037A (zh) * | 2020-03-06 | 2020-07-03 | 平安科技(深圳)有限公司 | 基于Bert模型的文本相似度计算方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112085091A (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112085091B (zh) | 基于人工智能的短文本匹配方法、装置、设备及存储介质 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN111797214A (zh) | 基于faq数据库的问题筛选方法、装置、计算机设备及介质 | |
CN113434636B (zh) | 基于语义的近似文本搜索方法、装置、计算机设备及介质 | |
CN112287069B (zh) | 基于语音语义的信息检索方法、装置及计算机设备 | |
CN115146068B (zh) | 关系三元组的抽取方法、装置、设备及存储介质 | |
CN111694937A (zh) | 基于人工智能的面试方法、装置、计算机设备及存储介质 | |
CN112800205B (zh) | 基于语义变化流形分析获取问答相关段落的方法、装置 | |
CN112598039B (zh) | 获取nlp分类领域阳性样本方法及相关设备 | |
CN113707299A (zh) | 基于问诊会话的辅助诊断方法、装置及计算机设备 | |
CN112199954B (zh) | 基于语音语义的疾病实体匹配方法、装置及计算机设备 | |
CN113821587B (zh) | 文本相关性确定方法、模型训练方法、装置及存储介质 | |
CN112395391B (zh) | 概念图谱构建方法、装置、计算机设备及存储介质 | |
CN113505601A (zh) | 一种正负样本对构造方法、装置、计算机设备及存储介质 | |
CN113657105A (zh) | 基于词汇增强的医学实体抽取方法、装置、设备及介质 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN116796730A (zh) | 基于人工智能的文本纠错方法、装置、设备及存储介质 | |
CN113822040B (zh) | 一种主观题阅卷评分方法、装置、计算机设备及存储介质 | |
CN117828024A (zh) | 一种插件检索方法、装置、存储介质及设备 | |
CN113569118A (zh) | 自媒体推送方法、装置、计算机设备及存储介质 | |
CN112307738A (zh) | 用于处理文本的方法和装置 | |
CN116701593A (zh) | 基于GraphQL的中文问答模型训练方法及其相关设备 | |
CN114328894A (zh) | 文档处理方法、装置、电子设备及介质 | |
CN112132367A (zh) | 一种用于企业经营管理风险识别的建模方法及装置 | |
CN113987115B (zh) | 一种文本相似度计算方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |