CN111382243A - 文本的类别匹配方法、类别匹配装置及终端 - Google Patents
文本的类别匹配方法、类别匹配装置及终端 Download PDFInfo
- Publication number
- CN111382243A CN111382243A CN201811636557.9A CN201811636557A CN111382243A CN 111382243 A CN111382243 A CN 111382243A CN 201811636557 A CN201811636557 A CN 201811636557A CN 111382243 A CN111382243 A CN 111382243A
- Authority
- CN
- China
- Prior art keywords
- text
- word
- fusion
- feature
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000004927 fusion Effects 0.000 claims abstract description 174
- 239000013598 vector Substances 0.000 claims description 149
- 238000013528 artificial neural network Methods 0.000 claims description 47
- 230000006870 function Effects 0.000 claims description 26
- 230000004913 activation Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 230000002349 favourable effect Effects 0.000 abstract description 5
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 18
- 238000013507 mapping Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 3
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明涉及自然语言处理技术领域,提供了一种文本的类别匹配方法、类别匹配装置、终端及计算机可读存储介质,其中,所述类别匹配方法包括:对第一文本和第二文本进行词特征融合,得到词融合特征;对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。本发明应用于智能客服机器人,以用户输入的问题为第一文本,以文本库中待匹配的文本为第二文本,可以得到高精度的匹配结果,有利于对用户的提问返回准确的回答。
Description
技术领域
本发明属于自然语言处理技术领域,尤其涉及一种文本的类别匹配方法、类别匹配装置、终端及计算机可读存储介质。
背景技术
随着互联网大规模应用的普及,检索匹配算法能够越来越快速、便捷地将内容、资讯分发到对应的终端。而如何更准确高效地理解用户的需求,并返回合适的内容给用户亟需完善。
传统技术中的智能客服机器人通常采用关键词匹配的方式对用户输入的问题进行匹配,故匹配精度不高,用户体验不好。
发明内容
有鉴于此,本发明实施例提供了一种文本的类别匹配方法、类别匹配装置、终端及计算机可读存储介质,以解决现有技术中智能客服机器人对用户输入的问题进行匹配的精度不高的问题。
该算法的提出可以有效改善智能客服机器人的匹配精度、闲聊机器人的使用体验。
本发明实施例的第一方面提供了一种文本的类别匹配方法,包括:
对第一文本和第二文本进行词特征融合,得到词融合特征;
对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
本发明实施例的第二方面提供了一种文本的类别匹配装置,所述类别匹配装置包括:
词特征融合单元,用于对第一文本和第二文本进行词特征融合,得到词融合特征;
字特征融合单元,用于对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
特征合并单元,用于将所述词特征融合单元得到的词融合特征和所述字特征融合单元得到的字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
类别匹配单元,用于基于所述特征合并单元得到的深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
本发明实施例的第三方面提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如任一项所述文本的类别匹配方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如任一项所述文本的类别匹配方法的步骤。
本发明与现有技术相比存在的有益效果是:
本发明通过第一文本和第二文本进行词特征融合,得到词层面的融合特征;通过对第一文本和第二文本进行字特征融合,得到字层面的融合特征;进而将二者合并,得到第一文本和第二文本的深度融合特征,利用该深度融合特征进行分类,该深度融合特征结合了两个文本的字层面特征和词层面特征,故包含的特征信息较为全面,由此确定的二者的匹配结果可以更加准确。应用于智能客服机器人上,以用户输入的问题为第一文本,以文本库中待匹配的文本为第二文本,可以得到高精度的匹配结果,有利于对用户的提问返回准确的回答。既可以减轻人工客服人员的工作强度,又能为企事业单位提供细粒度的知识管理技术。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的文本的类别匹配方法的实现流程图;
图2是本发明另一实施例提供的文本的类别匹配方法的实现流程图;
图3是本发明实施例提供的文本的类别匹配装置的结构示意图;
图4是本发明实施例提供的终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
参见图1,其示出了本发明实施例提供的文本的类别匹配方法的实现流程图,详述如下:
在步骤101中、对第一文本和第二文本进行词特征融合,得到词融合特征。
在本发明实施例中,第一文本可以为用户输入的一个问题对应的文本,第二文本可以为文本匹配库中的一个文本,该文本匹配库为预先建立的整理后的文本集合,例如可以是一个问题集合,而该问题集合中的每个问题都可以对应一个标准的回答(答案)。本发明可以用于为用户输入的问题匹配一个与其属于同一类别的问题,进而实现对用户问题的类别识别。
在本发明实施例中,在对两个文本进行词特征融合之前,首先需要获得这两个文本的词向量表示,进而基于获得的两个词向量表示进行词特征融合(向量的融合),得到这两个文本的词融合特征。
可选的,上述步骤101具体可以通过以下步骤实现:
步骤1011、获取第一文本对应的第一词向量;
步骤1012、获取第二文本对应的第二词向量。
在本发明实施例中,获取第一词向量也即获取第一文本的词向量表示,获取第二词向量也即获取第二文本的词向量表示,上述获取文本的词向量表示的方式可以如下:
首先对文本进行分词处理,得到该文本对应的词的集合,之后进行去停用词处理,将该文本对应的词的集合中的停用词去掉,包括去掉其中无实际意义的语气助词,以及去除标点符号等等。最后利用词映射模型将各个词映射为词向量,将各个词对应的词向量的集合作为该文本的一种向量表示(词特征表示)。词映射模型可以选用word2vec模型。
在一种实现方式中,在利用word2vec模型生成词向量之前,可以利用预先收集的客服语料对word2vec模型进行重训练,由此实现模型的初始化,这样可以使映射得到的词向量既有一定的通用性,又符合客服语料的词义要求。其中,生成的词向量的维度可以预先指定,例如可以为300维。
步骤1013、计算第一词向量和第二词向量的向量积。
步骤1014、将第一词向量和第二词向量的向量积计算结果进行激活输出,并提取该激活输出的结果的前第一预设数量的最大值作为所述词融合特征。
在本发明实施例中,第一文本对应的第一词向量和第二文本对应的第二词向量可以如下表示:
q1w=(x1w,x2w,x3w,...,xmw)
q2w=(y1w,y2w,y3w,...,ynw)
其中,m、n分别为第一文本与第二文本的词向量长度,q1w和q2w分别表示第一词向量和第二词向量,x1w,x2w,x3w,...,xmw表示第一文本拆分出的词向量,y1w,y2w,y3w,...,ynw表示第二文本拆分出的词向量。
在一种实现方式中,可以根据客服常见的咨询问题的长度对词向量的长度进行标准化,例如对第一文本和第二文本对应的词向量进行补齐或截断,使第一文本与第二文本对应的词向量长度相等,也即m=n。这样对词向量长度进行规范化处理后可以有利于后续的向量计算。
具体的,可以利用以下公式计算第一词向量和第二词向量的向量积,并进行激活输出:
其中,表示第一词向量和第二词向量的向量积的激活输出,q1w和q2w分别表示第一词向量和第二词向量,为向量积计算计算的数学表示,relu表示激励方式,f()表示预定义的函数,例如该函数可以为对relu的激励输出结果取TopK(前K个最大值,K为预设的整数,例如K=10),也即选取最关键的词特征。
在步骤102中、对第一文本和第二文本进行字特征融合,得到字融合特征。
在本发明实施例中,在对两个文本进行字特征融合之前,首先需要获得这两个文本的字向量表示,进而基于获得的两个字向量表示进行字特征融合(向量的融合),得到这两个文本的字融合特征。
可选的,上述步骤102具体可以通过以下步骤实现:
步骤1021、获取所述第一文本对应的第一字向量;
步骤1022、获取所述第二文本对应的第二字向量。
在本发明实施例中,获取第一字向量也即获取第一文本的字向量表示,获取第二字向量也即获取第二文本的字向量表示,上述获取文本的字向量表示的方式可以如下:
首先对文本进行字的拆分处理,得到该文本对应的字的集合。然后利用字映射模型将各个字映射为字向量,将各个字对应的字向量的集合作为该文本的一种字向量表示(词特征表示)。例如,字映射模型也可以选用word2vec模型。
在实际应用中,可以采用正态分布对字映射模型进行初始化。其中,生成的词向量的维度可以预先指定,例如可以为300维。若文本为英文,可以按字符进行拆分,例如,is可以拆分为i和s。
步骤1023、计算所述第一字向量和所述第二字向量的向量积;
步骤1024、将所述第一字向量和所述第二字向量的向量积计算结果进行激活输出,并提取该激活输出结果的前第二预设数量的最大值作为所述字融合特征。
在本发明实施例中,第一文本对应的第一字向量和第二文本对应的第二字向量可以如下表示:
q1c=(x1c,x2c,x3c,...,xpc)
q2c=(y1c,y2c,y3c,...,yqc)
其中,p、q分别为第一文本与第二文本的字向量长度,q1c和q2c分别表示第一词向量和第二词向量,x1c,x2c,x3c,...,xpc表示第一文本拆分出的字向量,y1c,y2c,y3c,...,yqc表示第二文本拆分出的字向量。
在一种实现方式中,可以根据客服常见的咨询问题的长度对字向量的长度进行标准化,例如对第一文本和第二文本对应的字向量进行补齐或截断,使第一文本与第二文本对应的字向量长度相等,也即p=q。这样对字向量长度进行规范化处理后可以有利于后续的向量计算。
具体的,可以利用以下公式计算第一字向量和第二字向量的向量积,并进行激活输出:
其中,表示第一字向量和第二字向量的向量积的激活输出,q1c和q2c分别表示第一字向量和第二字向量,为向量积计算的数学表示,relu表示激励方式,f()表示预定义的函数,例如该函数可以为对relu的激励输出结果取TopK(前K个最大值,K为预设的整数,例如K=30),也即选取最关键的字特征。
需要说明的是,文本的字向量表示中的融合的最大长度比词向量的最大长度要长,通常可以设定为词向量的2.5倍,但考虑到英文的存在,所以最大长度是词向量最长的3倍。例如最终获取的词向量的向量积的长度取K值为10,最终获取的字向量的向量积的长度取K值为30。
在本发明实施例中,上述对文本的词向量表示和字向量表示的处理过程可以理解为将用户输入的问题(文本)对应的字及词当成了卷积神经网络中的过滤器(filter)去作用于语料库(文本库)中的问句文本,并经由激活函数进行激活输出。这样可以使用户输入的问句与语料库中的问句更好的融合。并且,相比于全连接的融合少了很多参数,且能起到一定的注意力机制(attention)的作用,也即侧重于关注用户输入的字、词与语料库中问句的字、词间的相似程度。
在步骤103中、将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征。
在本发明实施例中,在得到第一文本和第二文本的词融合特征和字融合特征之后,将二者合并,可以得到第一文本和第二文本的深度融合特征。
示例性的,若获得的词融合特征为长度10、维度300的向量,字融合特征为长度30、维度300的向量,二者合并得到长度40、维度300的深度融合特征向量。
可选的,所述将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征包括:
将所述词融合特征和所述字融合特征合并,得到合并特征;
采用预设的多层感知机对所述合并特征进行特征抽取,得到所述第一文本和所述第二文本的深度融合特征,其中,所述多层感知机的数学表示为:
Zl=relu(W(l-1)Z(l-1)+B(l-1))
其中,l表示所述多层感知机的层数,W(l-1)和B(l-1)分别表示所述多层感知机的第l层的权重参数矩阵和偏置向量,Zl表示所述多层感知机的第l层的输出,Z(l-1)表示所述多层感知机的第l层的输入,relu表示激活函数。
需要说明的是,上述取TopK的过程指取得最相似的前K个值作为输出。如此可以去除一些不相关因素的影响,并能够避免检匹配过程中的效率及计算量的损失。
在步骤104中、基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
在本发明实施例中,所获得的深度融合特征包含了第一文本和第二文本的字层面的关键匹配特征,也包含了词层面的关键匹配特征,根据该深度融合特征可以更为准确的确定第一文本和第二文本的类别匹配结果。
需要说明的是,上述权重参数矩阵以及偏置向量等参数可以利用预先构建的训练数据对匹配过程进行训练来确定。
在一种实现方式中,可以收集客服语料文本,并构建如下形式的训练数据:(训练数据(类别,问题1,问题2))进行训练。其中,类别是阐述问题1(用户问题),问题2(语料库中众多问答数据中的一条问题)两者之间的关系,在数学上可用1、2、3等不同的等级表示,例如,类别为3表示二者最接近,类别为2表示二者次接近,类别为1表示二者不接近。
在训练过程中,可以基于如下的损失函数计算输出的损失值,并根据损失值进行梯度更新,直至完成训练确定上述参数。为了加快模型训练的速度还可以选用Adam算法来完成梯度的更新。上述损失函数使用多分类损失函数,可以为:
其中,M为样本总数,tkj表示为训练样本k的第j类别的真实标签值,ykj表示为训练样本k的第j个类别的预测标签值。
由上可知,本发明通过第一文本和第二文本进行词特征融合,得到词层面的融合特征;通过对第一文本和第二文本进行字特征融合,得到字层面的融合特征;进而将二者合并,得到第一文本和第二文本的深度融合特征,利用该深度融合特征进行分类,该深度融合特征结合了两个文本的字层面特征和词层面特征,故包含的特征信息较为全面,由此确定的二者的匹配结果可以更加准确。应用于智能客服机器人上,以用户输入的问题为第一文本,以文本库中待匹配的文本为第二文本,可以得到高精度的匹配结果,有利于对用户的提问返回准确的回答。既可以减轻人工客服人员的工作强度,又能为企事业单位提供细粒度的知识管理技术。
图2示出了本发明另一实施例提供的文本的匹配方法的实现流程图,详述如下:
在步骤201中、对第一文本和第二文本进行词特征融合,得到词融合特征;
在步骤202中、对第一文本和第二文本进行字特征融合,得到字融合特征;
在步骤203中、将词融合特征和字融合特征合并,获得第一文本和第二文本的深度融合特征。
在本实施例中,上述步骤201至步骤203具体可参见图1所示实施例中的步骤101至步骤103,在此不再赘述。
在步骤204中、利用预设的第一浅层神经网络对所述第一文本进行词特征抽取,得到浅层词特征。
在步骤205中、利用预设的第二浅层神经网络对所述第一文本进行字特征抽取,得到浅层字特征。
在步骤206中、将所述浅层字特征和所述浅层词特征进行拼接,得到所述第一文本的浅层特征。
在本发明实施例中,为了对用户的问句进行特征的筛选,我们也在字向量及词向量间同时采用浅层的神经网络作为用户问句的特征抽取网络,可以认为可以适量避免对用户输入问题的错误理解。
具体的,可以利用第一浅层神经网络对第一文本的词向量表示进行浅层词特征抽取,利用第二浅层神经网络对第一文本的字向量表示进行浅层自特征抽取,浅层神经网络可以指包括一个隐藏层的神经网络。
其中,U表示所述第一浅层神经网络的权重矩阵,bw表示所述第一浅层神经网络的偏置向量,relu表示所述第一浅层神经网络的激活函数,gw表示所述第一浅层神经网络输出的浅层词特征,q1w表示输入所述第一浅层神经网络的所述第一文本的对应的词向量;
其中,V表示所述第二浅层神经网络的权重矩阵,bv表示所述第二浅层神经网络的偏置向量,relu表示所述第二浅层神经网络的激活函数,gv表示所述第二浅层神经网络输出的浅层字特征,q1v表示输入所述第二浅层神经网络的所述第一文本的对应的字向量。
h=relu(W(h)g+b(h))
其中W(h)、b(h)分别为该映射层的权重矩阵及偏置向量。
在步骤207中、将所述浅层特征和所述深度融合特征进行拼接,得到所述第一文本和所述第二文本的类别匹配特征。
在本发明实施例中,通过上述深度融合特征和浅层特征进行拼接,使深度融合特征和浅层特征一起对输出进行作用,起到了一定的注意力机制的作用。将深度融合特征和浅层特征进行拼接的数学表示可以为其中,e表示拼接后获得的类别匹配特征,z(L)表示深度融合特征,h表示浅层特征。
在步骤208中、将所述类别匹配特征输入预设的分类器,输出所述第一文本和所述第二文本的类别匹配结果。
在本发明实施例中,分类器可以为softmax分类器,例如输出层为5的softmax分类器,通过softmax函数将输出层的值进行归一化处理,保证各类别值的概率和为1。
其中,c为所述第一文本和所述第二文本的总类别个数,yi表示所述第一文本和所述第二文本的类别为i的概率值。
在本发明实施例中,输出的概率值最高的结果对应的类别即可作为第一文本的匹配类别。
需要说明的是,上述权重参数矩阵以及偏置向量等参数可以利用预先构建的训练数据对匹配过程进行训练来确定。
在一种实现方式中,可以收集客服语料文本,并构建如下形式的训练数据:(训练数据(类别,问题1,问题2))进行训练。其中,类别是阐述问题1(用户问题),问题2(语料库中众多问答数据中的一条问题)两者之间的关系,在数学上可用1、2、3等不同的等级表示,例如,类别为3表示二者最接近,类别为2表示二者次接近,类别为1表示二者不接近。
在训练过程中,可以基于如下的损失函数计算输出的损失值,并根据损失值进行梯度更新,直至完成训练确定上述参数。为了加快模型训练的速度还可以选用Adam算法来完成梯度的更新。上述损失函数使用多分类损失函数,可以为:
其中,M为样本总数,tkj表示为训练样本k的第j类别的真实标签值,ykj表示为训练样本k的第j个类别的预测标签值。
由上可知,本发明通过第一文本和第二文本进行词特征融合,得到词层面的融合特征;通过对第一文本和第二文本进行字特征融合,得到字层面的融合特征;进而将二者合并,得到第一文本和第二文本的深度融合特征,利用该深度融合特征进行分类,该深度融合特征结合了两个文本的字层面特征和词层面特征,故包含的特征信息较为全面,由此确定的二者的匹配结果可以更加准确。应用于智能客服机器人上,以用户输入的问题为第一文本,以文本库中待匹配的文本为第二文本,可以得到高精度的匹配结果,有利于对用户的提问返回准确的回答。既可以减轻人工客服人员的工作强度,又能为企事业单位提供细粒度的知识管理技术。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图3示出了本发明实施例提供的文本的匹配装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图3所示,文本的匹配装置3包括:词特征融合单元31,字特征融合单元32,特征合并单元33和类别匹配单元34。
词特征融合单元31,用于对第一文本和第二文本进行词特征融合,得到词融合特征;
字特征融合单元32,用于对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
特征合并单元33,用于将词特征融合单元31得到的词融合特征和字特征融合单元32得到的字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
类别匹配单元34,用于基于特征合并单元33得到的深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
可选的,文本的匹配装置3还包括:
第一获取单元,用于获取所述第一文本对应的第一词向量。
第二获取单元,用于获取所述第二文本对应的第二词向量。
第一计算单元,用于计算所述第一词向量和所述第二词向量的向量积;
词特征融合单元31具体用于,将所述第一词向量和所述第二词向量的向量积计算结果进行激活输出,并提取该激活输出的结果的前第一预设数量的最大值作为所述词融合特征。
可选的,文本的匹配装置3还包括:
第三获取单元,用于获取所述第一文本对应的第一字向量;
第四获取单元,用于获取所述第二文本对应的第二字向量;
第二计算单元,用于计算所述第一字向量和所述第二字向量的向量积;
字特征融合单元32具体用于,将所述第一字向量和所述第二字向量的向量积计算结果进行激活输出,并提取该激活输出结果的前第二预设数量的最大值作为所述字融合特征。
可选的,特征合并单元33具体用于,将所述词融合特征和所述字融合特征合并,得到合并特征;
采用预设的多层感知机对所述合并特征进行特征抽取,得到所述第一文本和所述第二文本的深度融合特征,其中,所述多层感知机的数学表示为:
Zl=relu(W(l-1)Z(l-1)+B(l-1))
其中,l表示所述多层感知机的层数,W(l-1)和B(l-1)分别表示所述多层感知机的第l层的权重参数矩阵和偏置向量,Zl表示所述多层感知机的第l层的输出,Z(l-1)表示所述多层感知机的第l层的输入,relu表示激活函数。
可选的,文本的匹配装置3还包括:
第一特征抽取单元,用于利用预设的第一浅层神经网络对所述第一文本进行词特征抽取,得到浅层词特征;
第二特征抽取单元,用于利用预设的第二浅层神经网络对所述第一文本进行字特征抽取,得到浅层字特征;
第一拼接单元,用于将所述浅层字特征和所述浅层词特征进行拼接,得到所述第一文本的浅层特征;
第二拼接单元,用于将所述浅层特征和所述深度融合特征进行拼接,得到所述第一文本和所述第二文本的类别匹配特征;
相应的,类别匹配单元34具体用于,将所述类别匹配特征输入预设的分类器,输出所述第一文本和所述第二文本的类别匹配结果。
其中,U表示所述第一浅层神经网络的权重矩阵,bw表示所述第一浅层神经网络的偏置向量,relu表示所述第一浅层神经网络的激活函数,gw表示所述第一浅层神经网络输出的浅层词特征,q1w表示输入所述第一浅层神经网络的所述第一文本的对应的词向量;
其中,V表示所述第二浅层神经网络的权重矩阵,bv表示所述第二浅层神经网络的偏置向量,relu表示所述第二浅层神经网络的激活函数,gv表示所述第二浅层神经网络输出的浅层字特征,q1v表示输入所述第二浅层神经网络的所述第一文本的对应的字向量。
其中c为所述第一文本和所述第二文本的总类别个数,yi表示所述第一文本和所述第二文本的类别为i的概率值。
由上可知,本发明通过第一文本和第二文本进行词特征融合,得到词层面的融合特征;通过对第一文本和第二文本进行字特征融合,得到字层面的融合特征;进而将二者合并,得到第一文本和第二文本的深度融合特征,利用该深度融合特征进行分类,该深度融合特征结合了两个文本的字层面特征和词层面特征,故包含的特征信息较为全面,由此确定的二者的匹配结果可以更加准确。应用于智能客服机器人上,以用户输入的问题为第一文本,以文本库中待匹配的文本为第二文本,可以得到高精度的匹配结果,有利于对用户的提问返回准确的回答。既可以减轻人工客服人员的工作强度,又能为企事业单位提供细粒度的知识管理技术。
图4是本发明一实施例提供的终端的示意图。如图4所示,该实施例的终端4包括:处理器40、存储器41以及存储在所述存储器41中并可在所述处理器40上运行的计算机程序42。所述处理器40执行所述计算机程序42时实现上述各个文本的类别匹配方法实施例中的步骤,例如图1所示的步骤101至步骤104。或者,所述处理器40执行所述计算机程序42时实现上述各装置实施例中各模块/单元的功能,例如图3所示单元31至34的功能。
示例性的,所述计算机程序42可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器41中,并由所述处理器40执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序42在所述终端4中的执行过程。例如,所述计算机程序42可以被分割成词特征融合单元,字特征融合单元,特征合并单元和类别匹配单元,各单元具体功能如下:
词特征融合单元,用于对第一文本和第二文本进行词特征融合,得到词融合特征;
字特征融合单元,用于对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
特征合并单元,用于将所述词特征融合单元得到的词融合特征和所述字特征融合单元得到的字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
类别匹配单元,用于基于所述特征合并单元得到的深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
所述终端4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端可包括,但不仅限于,处理器40、存储器41。本领域技术人员可以理解,图4仅仅是终端4的示例,并不构成对终端4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器40可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器41可以是所述终端4的内部存储单元,例如终端4的硬盘或内存。所述存储器41也可以是所述终端4的外部存储设备,例如所述终端4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述终端4的内部存储单元也包括外部存储设备。所述存储器41用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器41还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种文本的类别匹配方法,其特征在于,所述类别匹配方法包括:
对第一文本和第二文本进行词特征融合,得到词融合特征;
对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
2.根据权利要求1所述的文本的类别匹配方法,其特征在于,所述对第一文本和第二文本进行词特征融合,得到词融合特征包括:
获取所述第一文本对应的第一词向量;
获取所述第二文本对应的第二词向量;
计算所述第一词向量和所述第二词向量的向量积;
将所述第一词向量和所述第二词向量的向量积计算结果进行激活输出,并提取该激活输出的结果的前第一预设数量的最大值作为所述词融合特征。
3.根据权利要求2所述的文本的类别匹配方法,其特征在于,所述对所述第一文本和所述第二文本进行字特征融合,得到字融合特征包括:
获取所述第一文本对应的第一字向量;
获取所述第二文本对应的第二字向量;
计算所述第一字向量和所述第二字向量的向量积;
将所述第一字向量和所述第二字向量的向量积计算结果进行激活输出,并提取该激活输出结果的前第二预设数量的最大值作为所述字融合特征。
4.根据权利要求3所述的文本的类别匹配方法,其特征在于,所述将所述词融合特征和所述字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征包括:
将所述词融合特征和所述字融合特征合并,得到合并特征;
采用预设的多层感知机对所述合并特征进行特征抽取,得到所述第一文本和所述第二文本的深度融合特征,其中,所述多层感知机的数学表示为:
Zl=relu(W(l-1)Z(l-1)+B(l-1))
其中,l表示所述多层感知机的层数,W(l-1)和B(l-1)分别表示所述多层感知机的第l层的权重参数矩阵和偏置向量,Zl表示所述多层感知机的第l层的输出,Z(l-1)表示所述多层感知机的第l层的输入,relu表示激活函数。
5.根据权利要求1至4任一项所述的文本的类别匹配方法,其特征在于,在所述基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果之前还包括:
利用预设的第一浅层神经网络对所述第一文本进行词特征抽取,得到浅层词特征;
利用预设的第二浅层神经网络对所述第一文本进行字特征抽取,得到浅层字特征;
将所述浅层字特征和所述浅层词特征进行拼接,得到所述第一文本的浅层特征;
将所述浅层特征和所述深度融合特征进行拼接,得到所述第一文本和所述第二文本的类别匹配特征;
相应的,所述基于所述深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果具体为:
将所述类别匹配特征输入预设的分类器,输出所述第一文本和所述第二文本的类别匹配结果。
6.根据权利要求5所述的文本的类别匹配方法,其特征在于,所述第一浅层神经网络的数学表示为:gw=relu(Uq1w+bw);
其中,U表示所述第一浅层神经网络的权重矩阵,bw表示所述第一浅层神经网络的偏置向量,relu表示所述第一浅层神经网络的激活函数,gw表示所述第一浅层神经网络输出的浅层词特征,q1w表示输入所述第一浅层神经网络的所述第一文本的对应的词向量;
所述第二浅层神经网络的数学表示为:gv=relu(Vq1v+bv);
其中,V表示所述第二浅层神经网络的权重矩阵,bv表示所述第二浅层神经网络的偏置向量,relu表示所述第二浅层神经网络的激活函数,gv表示所述第二浅层神经网络输出的浅层字特征,q1v表示输入所述第二浅层神经网络的所述第一文本的对应的字向量。
8.一种文本的类别匹配装置,其特征在于,所述类别匹配装置包括:
词特征融合单元,用于对第一文本和第二文本进行词特征融合,得到词融合特征;
字特征融合单元,用于对所述第一文本和所述第二文本进行字特征融合,得到字融合特征;
特征合并单元,用于将所述词特征融合单元得到的词融合特征和所述字特征融合单元得到的字融合特征合并,获得所述第一文本和所述第二文本的深度融合特征;
类别匹配单元,用于基于所述特征合并单元得到的深度融合特征,确定所述第一文本和所述第二文本的类别匹配结果。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述文本的类别匹配方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的文本的类别匹配方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636557.9A CN111382243A (zh) | 2018-12-29 | 2018-12-29 | 文本的类别匹配方法、类别匹配装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811636557.9A CN111382243A (zh) | 2018-12-29 | 2018-12-29 | 文本的类别匹配方法、类别匹配装置及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111382243A true CN111382243A (zh) | 2020-07-07 |
Family
ID=71218188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811636557.9A Pending CN111382243A (zh) | 2018-12-29 | 2018-12-29 | 文本的类别匹配方法、类别匹配装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382243A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897929A (zh) * | 2020-08-04 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 多轮问句的处理方法和装置、存储介质及电子设备 |
CN113343676A (zh) * | 2021-04-13 | 2021-09-03 | 山东师范大学 | 一种基于卷积神经网络的句子分类方法及系统 |
CN113591908A (zh) * | 2021-06-23 | 2021-11-02 | 北京百度网讯科技有限公司 | 事件指称匹配方法、模型训练方法、装置和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107656990A (zh) * | 2017-09-14 | 2018-02-02 | 中山大学 | 一种基于字和词两个层面特征信息的文本分类方法 |
CN108595590A (zh) * | 2018-04-19 | 2018-09-28 | 中国科学院电子学研究所苏州研究院 | 一种基于融合注意力模型的中文文本分类方法 |
CN108829818A (zh) * | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN108959246A (zh) * | 2018-06-12 | 2018-12-07 | 北京慧闻科技发展有限公司 | 基于改进的注意力机制的答案选择方法、装置和电子设备 |
CN108959396A (zh) * | 2018-06-04 | 2018-12-07 | 众安信息技术服务有限公司 | 机器阅读模型训练方法及装置、问答方法及装置 |
-
2018
- 2018-12-29 CN CN201811636557.9A patent/CN111382243A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107656990A (zh) * | 2017-09-14 | 2018-02-02 | 中山大学 | 一种基于字和词两个层面特征信息的文本分类方法 |
CN108595590A (zh) * | 2018-04-19 | 2018-09-28 | 中国科学院电子学研究所苏州研究院 | 一种基于融合注意力模型的中文文本分类方法 |
CN108959396A (zh) * | 2018-06-04 | 2018-12-07 | 众安信息技术服务有限公司 | 机器阅读模型训练方法及装置、问答方法及装置 |
CN108829818A (zh) * | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN108959246A (zh) * | 2018-06-12 | 2018-12-07 | 北京慧闻科技发展有限公司 | 基于改进的注意力机制的答案选择方法、装置和电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897929A (zh) * | 2020-08-04 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 多轮问句的处理方法和装置、存储介质及电子设备 |
CN111897929B (zh) * | 2020-08-04 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 多轮问句的处理方法和装置、存储介质及电子设备 |
CN113343676A (zh) * | 2021-04-13 | 2021-09-03 | 山东师范大学 | 一种基于卷积神经网络的句子分类方法及系统 |
CN113343676B (zh) * | 2021-04-13 | 2022-12-06 | 山东师范大学 | 一种基于卷积神经网络的句子分类方法及系统 |
CN113591908A (zh) * | 2021-06-23 | 2021-11-02 | 北京百度网讯科技有限公司 | 事件指称匹配方法、模型训练方法、装置和电子设备 |
CN113591908B (zh) * | 2021-06-23 | 2023-09-29 | 北京百度网讯科技有限公司 | 事件指称匹配方法、模型训练方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111291570B (zh) | 一种实现司法文书中要素识别的方法及装置 | |
CN110188195B (zh) | 一种基于深度学习的文本意图识别方法、装置及设备 | |
CN112632226B (zh) | 基于法律知识图谱的语义搜索方法、装置和电子设备 | |
CN112818093A (zh) | 基于语义匹配的证据文档检索方法、系统及存储介质 | |
CN113761377B (zh) | 基于注意力机制多特征融合的虚假信息检测方法、装置、电子设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113722483A (zh) | 话题分类方法、装置、设备及存储介质 | |
CN111382243A (zh) | 文本的类别匹配方法、类别匹配装置及终端 | |
CN112988963A (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN112597300A (zh) | 文本聚类方法、装置、终端设备及存储介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN117501283A (zh) | 文本到问答模型系统 | |
CN111126067A (zh) | 实体关系抽取方法及装置 | |
CN113626576A (zh) | 远程监督中关系特征抽取方法、装置、终端及存储介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
Purba et al. | A hybrid convolutional long short-term memory (CNN-LSTM) based natural language processing (NLP) model for sentiment analysis of customer product reviews in Bangla | |
CN111414755A (zh) | 一种基于细粒度情感字典的网络情绪分析方法 | |
CN114842982B (zh) | 一种面向医疗信息系统的知识表达方法、装置及系统 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN113722477B (zh) | 基于多任务学习的网民情绪识别方法、系统及电子设备 | |
CN115640378A (zh) | 工单检索方法、服务器、介质及产品 | |
CN112364666B (zh) | 文本表征方法、装置及计算机设备 | |
CN111767710B (zh) | 印尼语的情感分类方法、装置、设备及介质 | |
CN111382246B (zh) | 文本的匹配方法、匹配装置、终端及计算机可读存储介质 | |
CN114579876A (zh) | 虚假信息检测方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200707 |