CN114297338B - 文本匹配方法、装置、存储介质和程序产品 - Google Patents
文本匹配方法、装置、存储介质和程序产品 Download PDFInfo
- Publication number
- CN114297338B CN114297338B CN202111458767.5A CN202111458767A CN114297338B CN 114297338 B CN114297338 B CN 114297338B CN 202111458767 A CN202111458767 A CN 202111458767A CN 114297338 B CN114297338 B CN 114297338B
- Authority
- CN
- China
- Prior art keywords
- text
- matrix layer
- target
- matched
- probability distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 129
- 238000003860 storage Methods 0.000 title claims abstract description 34
- 239000011159 matrix material Substances 0.000 claims abstract description 483
- 239000010410 layer Substances 0.000 claims abstract description 356
- 238000012545 processing Methods 0.000 claims abstract description 101
- 238000012216 screening Methods 0.000 claims abstract description 36
- 239000002356 single layer Substances 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 64
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 27
- 230000011218 segmentation Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012163 sequencing technique Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 25
- 238000013473 artificial intelligence Methods 0.000 abstract description 24
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 239000013598 vector Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 3
- 238000012550 audit Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012954 risk control Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供了一种文本匹配方法、装置、存储介质和程序产品,涉及人工智能技术领域,可以应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景,包括:获取目标矩阵结构和待匹配文本的待匹配文本特征;目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;针对目标矩阵结构中的各矩阵层,通过目标文本匹配模型对待匹配文本特征进行概率分布预测处理,得到各矩阵层对应的概率分布结果;基于概率分布结果分别对各矩阵层中的节点进行筛选处理,得到待匹配文本特征在各矩阵层中对应的目标节点;将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本。本申请能够有效提高文本匹配的匹配效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种文本匹配方法、装置、存储介质和程序产品。
背景技术
随着人工智能技术的发展,人工智能技术被广泛应用于信息推荐、信息检索、舆论分析和信息挖掘等场景,文本匹配是上述各种场景中最基础的任务之一。现有的文本匹配方法通常是先获取文本间的语义相似度,如向量空间距离或夹角等,然后根据语义相似度排序确定匹配的文本,或者利用预训练模型进行文本匹配。然而,通过语义相似度计算的方法进行文本匹配,表达能力非常局限,得到的相似度结果准确性差,且计算量较大,不适用于大规模文本匹配;预训练模型存在参数量庞大的自限性,导致其预测性能较差,同样不适合大规模文本匹配。因此,需要提供一种改进的文本匹配方案,以解决上述问题。
发明内容
本申请提供了一种文本匹配方法、装置和存储介质,可以有效提高文本匹配的准确率和匹配效率,优化后续任务的应用效果。
一方面,本申请提供了一种文本匹配方法,所述方法包括:
获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,所述目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;
针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果;所述概率分布结果表征所述待匹配文本特征针对单个矩阵层中各节点的概率分布;
基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点;
将所述目标节点对应的候选文本确定为与所述待匹配文本匹配的目标文本;
其中,所述目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于所述目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和所述候选文本的节点表示更新的迭代训练得到的。
另一方面提供了一种文本匹配装置,所述装置包括:
文本特征获取模块:用于获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,所述目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;
概率分布预测模块:用于针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果;所述概率分布结果表征所述待匹配文本特征针对单个矩阵层中各节点的概率分布;
目标节点筛选模块:用于基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点;
目标文本确定模块:用于将所述目标节点对应的候选文本确定为与所述待匹配文本匹配的目标文本;
其中,所述目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于所述目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和所述候选文本的节点表示更新的迭代训练得到的。
另一方面提供了一种计算机设备,所述设备包括处理器和存储器,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的文本匹配方法。
另一方面提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如上述的文本匹配方法。
另一方面提供了一种服务器,所述服务器包括处理器和存储器,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如上述的文本匹配方法。
另一方面提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令被处理器执行时实现如上述的文本匹配方法。
本申请提供的文本匹配方法、装置、设备、存储介质、服务器和计算机程序产品,具有如下技术效果:
本申请的技术方案获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;并针对目标矩阵结构中的各矩阵层,通过目标文本匹配模型对待匹配文本特征进行概率分布预测处理,得到各矩阵层对应的概率分布结果;其中,概率分布结果表征待匹配文本特征针对单个矩阵层中各节点的概率分布;然后,基于概率分布结果分别对各矩阵层中的节点进行筛选处理,得到待匹配文本特征在各矩阵层中对应的目标节点;进而将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本;通过引入矩阵结构和基于矩阵结构构建的文本匹配模型进行概率分布预测,来筛选节点和确定匹配文本,无需进行文本间的文本向量相似度计算,有效提高文本匹配的匹配效率和准确率,能够支持大规模海量文本的匹配任务。并且,引入矩阵结构能够支持多种类型的文本匹配模型,针对不同应用场景可以灵活配置模型种类,在文本匹配模型的训练过程中,是进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练,同样无需计算文本向量相似度,有效提高模型训练效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1是本申请实施例提供的一种应用环境的示意图;
图2是本申请实施例提供的一种文本匹配方法的流程示意图;
图3是本申请实施例提供的一个目标矩阵结构的示意图;
图4是基于图3中的目标矩阵结构和对应的目标文本匹配模型对待匹配文本特征embedding(x)的概率分布预测处理过程示意图;
图5是本申请实施例提供的一个目标矩阵结构的文本路径示意图;
图6是本申请实施例提供另一种文本匹配方法的流程示意图;
图7是本申请实施例提供的另一种文本匹配方法的流程示意图;
图8是本申请实施例提供一种文本匹配装置的框架示意图;
图9是本申请实施例提供的一种文本匹配方法的电子设备的硬件结构框图;
图10是本申请实施例提供的一个区块链系统的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或子模块的过程、方法、系统、产品或服务器不必限于清楚地列出的那些步骤或子模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或子模块。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
beam search:greedy search的一种改进算法,相对于greedy search扩大了搜索空间,从树的根节点开始向下搜索,第一层选择概率最大的前k个节点作为候选,之后每一层根据上一层的k个候选挑选出所有组合中条件最大的k个节点作为候选节点,始终保持k个候选序列。
Bert:Bidirectional Encoder Representations from Transformers,基于变换器的双向编码器表示技术,用于自然语言处理的预训练技术。
EM算法:期望最大化算法。分两步,其中一个为期望步(E步),另一个为极大步(M步);其基本思想是:首先根据己经给出的观测数据,估计出模型参数的值;然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计,然后反复迭代,直至最后收敛,迭代结束。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
近年来,随着人工智能技术研究和进步,人工智能技术在多个领域得到广泛应用,本申请实施例提供的方案涉及人工智能的机器学习/深度学习和自然语言处理等技术,具体通过如下实施例进行说明。
请参阅图1,图1是本申请实施例提供的一种应用环境的示意图,如图1所示,该应用环境可以至少包括服务器01和终端02。在实际应用中,终端01、服务器01以及终端02可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
本申请实施例中,服务器01可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
具体的,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。其中,人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
具体地,上述涉及的服务器可以包括实体设备,可以具体包括有网络通信子模块、处理器和存储器等等,也可以包括运行于实体设备中的软体,可以具体包括有应用程序等。
本申请实施例中,终端02可以包括智能手机、台式电脑、平板电脑、笔记本电脑、数字助理、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、智能语音交互设备、智能家电、智能可穿戴设备、车载终端设备等类型的实体设备,也可以包括运行于实体设备中的软体,例如应用程序等。
本申请实施例中,服务器01可以用于提供文本匹配服务,以得到与待匹配文本匹配的目标文本;还可以提供基于目标文本的待匹配路径特征的后续任务应用服务,如基于待匹配路径特征的文本召回服务、文本分析服务和信息推荐服务等。具体的,服务器01还可以提供目标文本匹配模型的训练服务,以及还可以提供候选文本、训练数据和模型数据等的存储服务等。终端02可以用于获取待匹配文本,并将待匹配文本发送至服务器01,以使服务器01进行文本匹配。
此外,可以理解的是,图1所示的仅仅是一种文本匹配方法的应用环境,该应用环境可以包括更多或更少的节点,本申请在此不做限制。
本申请实施例涉及的应用环境,或应用环境中的终端02和服务器01等可以是由客户端、多个节点(接入网络中的任意形式的计算设备,如服务器、用户终端)通过网络通信的形式连接形成的分布式系统。分布式系统可以为区块链系统,该区块链系统可以提供文本匹配服务和模型训练服务等,还可以为上述各服务提供数据存储功能,例如存储候选文本、模型配置数据、模型参数数据、以及文本匹配过程中的行为数据和处理结果等。
参见图10,图10是本发明实施例提供的分布式系统100应用于区块链系统的一个可选的结构示意图,由多个节点(接入网络中的任意形式的计算设备,如服务器、用户终端)和客户端形成,节点之间形成组成的点对点(P2P,Peer To Peer)网络,P2P协议是一个运行在传输控制协议(TCP,Transmission Control Protocol)协议之上的应用层协议。在分布式系统中,任何机器如服务器、终端都可以加入而成为节点,节点包括硬件层、中间层、操作系统层和应用层。
其中,区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新兴应用模式,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。区块链底层平台可以包括用户管理、基础服务、智能合约以及运营检测等处理模块。其中,用户管理模块负责所有区块链参与者的身份信息管理,包括维护公私钥生成(账户管理)、密钥管理以及用户真实身份和区块链地址对应关系维护(权限管理)等,并且在授权的情况下,监管和审计某些真实身份的交易情况,提供风险控制的规则配置(风控审计);基础服务模块部署在所有区块链节点设备上,用来验证业务请求的有效性,并对有效请求完成共识后记录到存储上,对于一个新的业务请求,基础服务先对接口适配解析和鉴权处理(接口适配),然后通过共识算法将业务信息加密(共识管理),在加密之后完整一致的传输至共享账本上(网络通信),并进行记录存储;智能合约模块负责合约的注册发行以及合约触发和合约执行,开发人员可以通过某种编程语言定义合约逻辑,发布到区块链上(合约注册),根据合约条款的逻辑,调用密钥或者其它的事件触发执行,完成合约逻辑,同时还提供对合约升级注销的功能;运营检测模块主要负责产品发布过程中的部署、配置的修改、合约设置、云适配以及产品运行中的实时状态的可视化输出,例如:告警、检测网络情况、检测节点设备健康状态等。平台产品服务层提供典型应用的基本能力和实现框架,开发人员可以基于这些基本能力,叠加业务的特性,完成业务逻辑的区块链实现。应用服务层提供基于区块链方案的应用服务给业务参与方进行使用。
以下基于上述应用环境介绍本申请的一种文本匹配方法,应用于服务器端,本申请实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。请参考图2,图2是本申请实施例提供的一种文本匹配方法的流程示意图,本说明书提供了如实施例或流程图的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的系统或服务器产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。具体的如图2所示,方法可以包括下述步骤。
S201:获取目标矩阵结构和待匹配文本的待匹配文本特征。
本申请实施例中,目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本。具体的,节点对应目标矩阵结构中的元素,目标矩阵结构包括的矩阵层数为目标矩阵结构的矩阵宽度。示例性的,请参考图3,图3示出了一个目标矩阵结构的结构示意图,图中目标矩阵结构的矩阵长度为K,矩阵宽度为D,共有D层矩阵层,单层矩阵层中包括K个节点,目标矩阵结构包括K*D个节点。具体的,目标矩阵结构的矩阵长度和矩阵宽度可以是预设的。
在实际应用中,待匹配文本可以是终端提交的针对文本召回、信息推荐或信息检索等任务的待匹配文本,文本形式可以包括但不限于标题文本、关键词文本或文章文本等,本申请不做具体限定。具体的,候选文本为预存的用于与待匹配文本进行匹配的文本,通常情况下,可以预存大量的候选文本,如几十万个等。在一些情况下,大量的候选文本可以基于类目分类,类目表征候选文本的类别属性,例如表征候选文本的类别属性为科技、人文、购物和娱乐等;每个类目还可以包括多级子类目,例如科技可以包括物理、化学、生物和计算机等一级子类目,计算机还可以包括人工智能、测试和图形界面等下一级子类目;每个候选文本可以具有多个类目标签或多个同级的子类目标签,即同时属于多个类目或多个同级的子类目,例如一个候选文本的类目标签可以同时包括物理、化学和生物等类目标签,或同时包括人工智能和测试等子类目标签。
在实际应用中,可以预先固定每个候选文本在目标矩阵结构的各矩阵层中的节点表示,即固定候选文本在目标矩阵结构中对应的节点,目标矩阵结构中的每个节点表征一簇候选文本,即可以代表一个包含若干候选文本的集合,每个节点对应的候选文本的数量为自然数;也就是说,将目标矩阵结构作为候选文本的索引结构。节点表示表征该候选文本与目标矩阵结构中节点间的映射关系。
在一些实施例中,每个候选文本在每层矩阵层中均固定有一个对应的节点,即一个节点表示ci,d,其中i表征该候选文本的文本标识,d∈[1,D],表征矩阵层的层标识,相应的,候选文本在目标矩阵结构中的候选文本路径表示为c(i)=ci,1,…,ci,d,对应的候选路径特征embedding(c(i))为[ci,1,…,ci,d],c(i)表示第i个候选文本的候选文本路径,ci,1表示文本在第一层矩阵层上对应的节点,例如可以为图3中的矩阵结构中的第1列第2行的节点②。也就是说,全部用于匹配的候选文本在每层矩阵层中均具有其各自对应的一个节点表示,映射至一个节点,在每层矩阵层中具有唯一的节点索引。
在实际应用中,获取待匹配文本的待匹配文本特征可以包括下述步骤。
S2011:获取待匹配文本。
S2012:对待匹配文本进行分词处理,得到对应的目标分词序列。
S2013:调用预设的预训练模型对目标分词序列进行特征提取,得到待匹配文本特征。
具体的,可以采用现有技术的分词方式以字粒度或词粒度对待匹配文本进行分词处理,得到目标分词序列,并将该目标分词序列输入预设的预训练模型,以进行特征提取,得到待匹配文本特征。分词方式可以包括但不限于word2vec等,预训练模型可以包括但不限于Bert模型等,本申请在此不做具体限定。
S203:针对目标矩阵结构中的各矩阵层,通过目标文本匹配模型对待匹配文本特征进行概率分布预测处理,得到各矩阵层对应的概率分布结果。
其中,目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练得到的。
本申请实施例中,概率分布结果表征待匹配文本特征针对单个矩阵层中各节点的概率分布。具体的,通过目标文本匹配模型分别预测待匹配文本特征在每层矩阵层上的概率分布,得到各矩阵层各自对应的概率分布结果。
在实际应用中,概率分布结果可以包括待匹配文本针对每层矩阵层的概率分布值和概率分布特征。目标文本匹配模型包括多个匹配子模型,匹配子模型与矩阵层一一对应,也就是说,每个矩阵层对应一个匹配子模型,各个匹配子模型间依次连接,如图3中,第1列对应匹配子模型1,第2列对应匹配子模型2,以此类推,第D列对应匹配子模型D,目标文本匹配模型包括D个匹配子模型。匹配子模型1至D沿矩阵宽度方向依次连接,匹配子模型1的输出可以作为匹配子模型2的输入,以此类推。具体的,目标文本匹配模型中各个匹配子模型的结构和模型设置相同。具体的,匹配子模型可以包括但不限于多层感知器MLP等深度模型。
在实际应用中,概率分布结果可以包括概率分布值和概率分布特征,相应的,S203可以包括下述步骤。
S2031:将待匹配文本特征作为目标矩阵结构的第一层矩阵层对应的匹配子模型的输入,以进行待匹配文本特征的概率分布预测处理,得到第一层矩阵层对应的概率分布值和概率分布特征。
具体的,可以沿矩阵宽度对目标矩阵结构的各矩阵层进行标号,如图3中可以沿自左向右的方向将各矩阵层标号为1,2…,D,第一层矩阵层对应图3中的第1列,第二层矩阵层对应图3中的第2列,依次类推。
具体的,在获取待匹配文本特征后,将待匹配文本特征输入第一层矩阵层对应的匹配子模型,如匹配子模型1,进行针对第一层矩阵层的概率分布预测处理,得到待匹配文本特征针对第一层矩阵层中每个节点的概率分布值和待匹配文本特征针对第一层矩阵层的概率分布特征。其中,单层矩阵层对应的概率分布特征为基于该层矩阵层中各节点的概率分布值生成的、维数为目标矩阵结构的矩阵长度的概率向量。
以图3中的目标矩阵结构为例,每层矩阵层(每列)中包括K个节点,匹配子模型输出待匹配文本针对每层矩阵层中K个节点各自的概率分布值Pi(Cdk),Cdk代表第d层矩阵层的第k个节点,k∈[1,K],示例性的,Pi(C12)表征待匹配文本i在第一层矩阵层第2个节点的概率分布值。相应的,待匹配文本i在矩阵层的概率分布特征embedding(P(Ck))i为[Pi(Cd1),Pi(Cd2),Pi(Cd3),Pi(Cd4)…,Pi(CdK)],第一层矩阵层的概率分布特征embedding(P(C1))i为[Pi(C11),Pi(C12),Pi(C13),Pi(C14)…,Pi(C1K)]。
S2032:将第一层矩阵层对应的概率分布特征与待匹配文本特征进行拼接处理,得到第一拼接特征。
具体的,将第一层矩阵层对应的概率分布特征和待匹配文本特征拼接为一个特征,得到第一拼接特征。具体的,相邻矩阵层对应的匹配子模型间相连接,可以通过第一层矩阵层的匹配子模型直接输出第一拼接特征,也可以在相邻矩阵层对应的匹配子模型间构建连接层,通过连接层对前一匹配子模型的输入特征和输出的概率分布特征进行拼接。
S2033:以第一拼接特征作为第二层矩阵层对应的匹配子模型的输入,以进行第一拼接特征的概率分布预测处理,得到第二层矩阵层对应的概率分布值和概率分布特征。
可以理解的,这里的概率分布预测处理与步骤S2032相类似,在此不做赘述。
S2034:重复执行将输入当前层矩阵层对应的匹配子模型的拼接特征,与当前矩阵层对应的匹配子模型输出的概率分布特征进行拼接处理,得到更新的拼接特征,以及以更新的拼接特征作为下一层矩阵层对应的匹配子模型的输入,以进行更新的拼接特征的概率分布预测处理,得到下一层矩阵层对应的概率分布值和概率分布特征的步骤,至得到目标矩阵结构的最后一层矩阵层对应的概率分布值和概率分布特征。
具体的,将第二层矩阵层对应的概率分布特征和第一拼接特征进行拼接处理,得到第二拼接特征,即第一拼接特征对应的更新的拼接特征,并将第二拼接特征输入第三层矩阵层对应的匹配子模型,得到第三层矩阵层对应的概率分布值和概率分布特征。依次类推,通过重复的依次执行上述拼接处理和概率分布预测处理的步骤,至得到最后一层矩阵层对应的概率分布值和概率分布特征。
具体的,请参考图4,图4示出了基于图3中的目标矩阵结构和对应的目标文本匹配模型对待匹配文本特征embedding(x)的概率分布预测处理过程示意图,通过各匹配子模型的softmax层输出该层的概率分布特征。第一步将待匹配文本特征embeding(x)输入第一层匹配子模型,接softmax层输出概率分布值P(c1k),进而可以根据概率分布值高低确定先走第一层矩阵层的哪个节点。走到第R步(R∈[1,D])时,用前R-1步走过的所有节点的embedding(P(cR-1))和原始的检索文本特征embeding(x)拼接在一起,接softmax层判断第R步应该走到哪个节点。最终根据输出的目标矩阵结构整体的概率分布值选择Top m个路径。这Top m个路径经过的节点对应的候选文本即为与原始检索最相似的文本。
可以理解的,若目标矩阵结构具有三层矩阵层,则第三层矩阵层对应的概率分布值和概率分布特征为最后一层矩阵层的输出结果。在得到各层矩阵层的概率分布结果后,即得到目标矩阵结构中每个节点的概率分布值和整体概率分布特征。
S205:基于概率分布结果分别对各矩阵层中的节点进行节点筛选处理,得到待匹配文本特征在各矩阵层中对应的目标节点。
本申请实施例中,基于每层矩阵层的概率分布结果中的概率分布值对每层矩阵层中的节点进行筛选处理,得到每层矩阵层中与待匹配文本特征对应的目标节点。相应的,请参考图6,S205可以包括下述步骤。
S2051:基于各矩阵层对应的概率分布值,分别对各矩阵层各自的节点进行节点概率排序。
S2052:基于节点概率排序,分别从各矩阵层各自的节点中筛选出预设数量的节点,得到各矩阵层各自对应的目标节点。
可以理解的,概率分布值越大的节点表示该节点与待匹配文本越相似,即该节点对应的候选文本与待匹配文本的相似度越高。相应的,基于任意一层矩阵层对应的节点概率排序,进行对应的节点筛选,具体的,可以筛选出概率分布值最高的预设数量的节点作为该层矩阵层的目标节点。在一些实施例中,预设数量可以为1,即每层矩阵层中概率分布值最高的节点即为目标节点。在另一些实施例中,预设数量可以为多个(m个),例如3个,即每层矩阵层中概率分布值最高的m个节点即为目标节点。
S207:将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本。
本申请实施例中,目标矩阵结构中的每个节点对应若干个候选文本,在筛选出每层矩阵层中的目标节点后,将各个目标节点所对应的候选文本作为匹配的目标文本。
综上,上述技术方案通过引入矩阵结构和基于矩阵结构构建的文本匹配模型进行概率分布预测,来筛选节点和确定匹配文本,无需进行文本间的文本向量相似度计算,有效提高文本匹配的匹配效率和准确率,能够支持大规模海量文本的匹配任务。并且,引入矩阵结构能够支持多种类型的文本匹配模型,针对不同应用场景可以灵活配置模型种类,在文本匹配模型的训练过程中,是进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练,同样无需计算文本向量相似度,有效提高模型训练效率。
基于上述部分或全部实施方式,本申请实施例中,在得到目标节点后,在S205之后,请参考图7,方法还可以包括下述步骤。
S209:基于待匹配文本特征在各矩阵层中对应的目标节点,确定待匹配文本在目标矩阵结构中的待匹配文本路径。
S211:获取待匹配文本路径的待匹配路径特征。
在实际应用中,与前述的候选文本路径表示和候选路径特征相类似的,在确定待匹配文本特征在各矩阵层中对应的目标节点后,即确定目标节点表示后,能够得到待匹配文本的待匹配文本路径,以及根据各层的目标节点表示能够得到待匹配文本的待匹配文本路径表示和待匹配路径特征。
具体的,在预设数量为1,即每层矩阵层中概率分布值最高的节点即为目标节点的情况下,待匹配文本在目标矩阵结构中能够匹配到一条待匹配文本路径,即存在一个待匹配文本路径表示c(T)=cT,1,…,cT,d,,基于该待匹配文本路径表示能够生成一个维数为矩阵宽度的待匹配路径特征embedding(c(T))为[cT,1,…,cT,d]。以图3为例,若D为3层,第一层的目标节点为节点②,第二层的目标节点为节点①,第三层的目标节点为节点⑤,请参考图5,待匹配文本路径表示为c(T)=c2,1,c1,2,c5,3,待匹配路径特征embedding(c(T))为[c2,1,c1,2,c5,3]。
具体的,在预设数量为多个(m个),即每层矩阵层中概率分布值最高的m个节点即为目标节点的情况下,可以对各层矩阵层中的目标节点进行组合,得到多条待匹配文本路径,和相应的多个待匹配文本路径表示及待匹配路径特征。需要说明的是,每条待匹配文本路径在每层矩阵层中只对应一个节点,并遍历各层矩阵层。具体的,可以将得到的目标节点对应的所有路径作为待匹配文本的待匹配文本路径,也可以基于beam search算法,选取概率最高的前h条路径作为待匹配文本路径,h的值可以基于实际需求设定。
S213:对待匹配路径特征和目标矩阵结构对应的候选文本的候选路径特征进行相似度处理,得到与待匹配路径特征匹配的候选路径特征。
在实际应用中,在得到一个或多个待匹配路径特征后,将该待匹配路径特征作为召回特征,与目标矩阵结构中各节点对应的候选文本的候选路径特征进行相似度处理,将相似度大于等于预设相似度的候选路径特征作为上述匹配的候选路径特征。具体的,这里的相似度处理包括但不限于余弦相似度或欧氏距离等,也可以为向量语义相似度计算等,或者为其它的向量相似度处理方法,本申请在此不做限定。
S215:将匹配的候选路径特征对应的候选文本作为待匹配文本的目标召回文本。
在一些情况下,将匹配的候选路径特征所表示的候选文本作为目标召回文本。在另一些情况下,可以确定匹配的候选路径特征对应的各候选文本路径,进而确定各候选文本路径在目标矩阵结构中所经过的节点,将所经过的所有节点对应的候选文本作为目标召回文本。
综上,以待匹配路径特征作为召回特征,在文本召回任务中,无需计算大量候选文本与待匹配文本间的文本相似度,极大提高文本召回效率,同时有效提高文本召回的精确度和准确率。
基于上述部分或全部实施方式,本申请实施例中,在进行文本匹配模型的模型训练之前,需要预先构建目标矩阵结构和对候选文本进行针对目标矩阵结构的节点表示,相应的,在S201之前,方法还可以包括下述步骤。
S301:构建具有预设的矩阵长度和矩阵宽度的矩阵,得到目标矩阵结构;预设宽度为目标矩阵结构包括的矩阵层数。
具体的,矩阵长度K可以与下述多个候选文本的数量相等,也可以小于候选文本的数量。示例性的,矩阵长度K可以为1000,矩阵宽度D即矩阵层数可以为3-5等。
S303:获取多个候选文本。
具体的,可以获取预存的所有候选文本作为多个候选文本,也可以随机抽取多个候选文本,在候选文本具有类目标签的情况下,还可以基于类目采样抽取多个候选文本,本申请在此不做限定。
S305:初始化多个候选文本在目标矩阵结构的各矩阵层中的节点表示,得到多个候选文本中每个候选文本在各矩阵层中的节点表示。
在实际应用中,在每层矩阵层中初始化多个候选文本中每个候选文本的节点表示,即在每层中确定每个候选文本对应的一个节点表示。
在实际应用中,S305可以包括:针对目标矩阵结构的每层矩阵层,基于预设分配方式将多个候选文本分配至矩阵层中的各节点,得到多个候选文本中每个候选文本在各矩阵层中的节点表示。如前述的,候选文本在目标矩阵结构中的候选文本路径表示为c(i)=ci,1,…,ci,d,对应的候选路径特征embedding(c(i))为[ci,1,…,ci,d]。
具体的,预设分配方式可以为上述的随机分配,也可以为基于预设的类目分配方式。具体的,针对每层矩阵层,可以随机初始化每个候选文本的节点表示,也可以基于文本的类目初始化每个候选文本的节点表示,如将相同类目或相同子类目的候选文本优先分配至同一节点,或分配至相邻的节点。
本申请实施例中,在进行文本匹配模型的模型训练之前,还需要预先构建用于迭代训练的初始预测模型,相应的,方法还可以包括下述步骤。
S307:构建目标矩阵结构的各矩阵层各自对应的预测子模型。
S309:建立各预测子模型间的连接关系,得到初始预测模型。
具体的,预测子模型对应于目标文本匹配模型的匹配子模型,预测子模型与矩阵层一一对应,且相邻预测子模型间彼此连接,在完成初始预测模型的迭代训练后,各预测子模型形成匹配子模型,进而构成目标文本匹配模型。
基于上述部分或全部实施方式,本申请实施例中,在步骤S203之前,还提供一种目标文本匹配模型的训练方法,具体的,方法可以包括下述步骤。
S401:将多个参考候选文本各自的参考文本特征作为初始预测模型的输入,以分别对各参考文本特征进行针对目标矩阵结构的各矩阵层的概率分布预测处理,得到多个参考候选文本中的每个参考候选文本针对各矩阵层的参考概率分布结果。
在实际应用中,参考候选文本为从多个候选文本中抽取的文本。在模型训练的过程中,一些情况下,可以利用多个候选文本,即目标矩阵结构对应的全部候选文本作为训练样本,分别作为初始预测模型的输入,相应的,抽取多个候选文本中的全部候选文本作为参考候选文本。另一些情况下,抽取多个候选文本中的部分文本作为参考候选文本,示例性的,可以分别从目标矩阵结构的每个节点中抽取一个或几个候选文本,也可以是从多个候选文本中随机抽取。相应的,在步骤S401之前,还可以包括:从多个候选文本中确定多个参考候选文本;获取多个参考候选文本各自对应的参考文本特征。参考文本特征的获取方式与前述的步骤S2011至S2013相类似,在此不做赘述。
在实际应用中,针对每个参考文本特征,S401中初始预测模型的概率分布预测处理与前述步骤S203相类似,具体可以包括下述步骤。
S4011:将参考文本特征作为目标矩阵结构的第一层矩阵层对应的预测子模型的输入,以进行参考文本特征的概率分布预测处理,得到第一层矩阵层对应的参考概率分布值和参考概率分布特征。
S4012:将第一层矩阵层对应的参考概率分布特征与参考文本特征进行拼接处理,得到参考拼接特征。
S4013:以参考拼接特征作为第二层矩阵层对应的预测子模型的输入,以进行参考拼接特征的概率分布预测处理,得到第二层矩阵层对应的参考概率分布值和参考概率分布特征。
S4014:重复执行将输入当前层矩阵层对应的预测子模型的参考拼接特征,与当前矩阵层对应的预测子模型输出的参考概率分布特征进行拼接处理,得到更新的参考拼接特征,以及以更新的拼接特征作为下一层矩阵层对应的预测子模型的输入,以进行更新的参考拼接特征的概率分布预测处理,得到下一层矩阵层对应的参考概率分布值和参考概率分布特征的步骤,至得到目标矩阵结构的最后一层矩阵层对应的参考概率分布值和参考概率分布特征。
具体的,对每个参考文本特征执行上述步骤S4011至S4014,得到每个参考文本特征针对目标矩阵结构的整体的参考概率分布值。
S403:基于每个参考候选文本针对各矩阵层的参考概率分布结果,分别对各矩阵层中的节点进行节点筛选处理,得到每个参考候选文本在各矩阵层中对应的参考节点。
在实际应用中,针对每个参考候选文本,S403中的节点筛选处理方式与前述S205中的节点筛选处理方式相类似,在此不再赘述。具体的,针对每个参考候选文本,可以从每层矩阵层中筛选出一个或多个(m个)参考节点。参考节点的m值与前述的目标节点的m值可以相同,也可以不同。示例性的,在m大于1的情况下,可以基于beam search算法进行参考节点的筛选。
S405:基于每个参考候选文本针对各矩阵层的参考概率分布结果和每个参考候选文本在各矩阵层中对应的参考节点,利用预设损失函数进行初始预测模型的损失计算处理,得到损失计算结果;预设损失函数为基于各参考文本在所述各矩阵层中的节点表示构建的累加条件概率函数。
在实际应用中,预设损失函数包括初始预测模型中的各预测子模型各自对应的损失函数,以及初始预测模型整体的全局损失函数;损失计算结果包括初始预测模型中每个预测子模型的损失,以及初始预测模型的全局损失。相应的,S405可以包括下述步骤。
S4051:基于每个参考候选文本针对各矩阵层的参考概率分布结果,分别对初始预测模型中的各预测子模型进行损失计算处理,得到各预测子模型各自的模型损失。
具体的,根据每个参考文本特征针对当前矩阵层的参考概率分布值,以及每个参考文本特征针对当前矩阵层之前所有矩阵层的参考概率分布值,利用当前矩阵层对应的预测子模型的损失函数进行损失计算,得到当前矩阵层对应的预测子模型的模型损失。
具体的,根据每个参考文本特征针对第一层矩阵层的参考概率分布值,对第一层矩阵层对应的预测子模型进行损失计算;根据每个参考文本特征针对第一层矩阵层和第二层矩阵层的参考概率分布值,对第二层矩阵层对应的预测子模型进行损失计算;依次类推,完成各预测子模型的损失计算。
S4052:基于每个参考候选文本针对各矩阵层的参考概率分布结果和每个参考候选文本在各矩阵层中对应的参考节点,对初始预测模型进行全局损失计算处理,得到初始预测模型的全局损失。
具体的,针对每个参考候选文本i,可以从每层矩阵层中筛选出概率分布值最高的Top m个参考节点,进而能够得到每个参考候选文本i在目标矩阵结构中的q个候选文本路径和对应的候选文本路径表示,例如可以基于beam search算法确定q个候选文本路径和对应的候选文本路径表示。根据每个参考候选文本i的q个候选文本路径表示和q个候选文本路径中的参考节点的概率分布值,利用全局损失函数进行初始预测模型的全局损失计算,得到该全局损失。具体的,在m的值为1的情况下,每个参考候选文本i在目标矩阵结构中存在1个候选文本路径。
S407:根据得到的损失计算结果,基于无监督学习方法对初始预测模型进行训练,得到更新的初始预测模型。
在实际应用中,对初始预测模型进行训练是指根据模型损失更新每个预测子模型的权重参数,以及根据全局损失更新初始预测模型的全局权重参数。
S409:根据每个参考候选文本在各矩阵层中对应的参考节点,更新多个参考候选文本各自在各矩阵层中的节点表示。
在实际应用中,在得到每个参考候选文本i在每层矩阵层中的Top m个参考节点后,根据参考节点确定每个参考候选文本i在目标矩阵结构中的m个候选文本路径和对应的q个候选文本路径表示。基于q个候选文本路径表示更新每个在各矩阵层中的节点表示。在m的值为1的情况下,每一层中具有一个参考节点,将该参考节点作为参考候选文本i在该层的更新的节点表示,即将参考候选文本i分配至该参考节点上。在m的值大于等于1的情况下,参考候选文本i在每层矩阵层中具有m个更新的节点表示,即参考候选文本i在每层矩阵层中有m种节点更新选择。
S411:循环执行上述的概率分布预测处理、节点筛选处理、损失计算处理、初始预测模型的训练和参考候选文本的节点表示更新的步骤,至满足迭代训练收敛条件,得到目标文本匹配模型,并确定目标矩阵结构中各节点各自对应的候选文本。
在实际应用中,循环执行上述步骤S401至S409,以进行初始预测模型和参考候选文本的节点表示更新的迭代训练,将满足迭代训练收敛条件的初始预测子模型作为目标文本匹配模型,以及将满足迭代训练收敛条件的迭代轮次中更新的候选文本的节点表示作为最终的结果,以固定各候选文本与目标矩阵结构中节点间的映射关系,确定出目标矩阵结构中各节点各自对应的候选文本。
在实际应用中,迭代训练收敛条件可以为迭代次数达到预设次数,或者也可以为相邻迭代轮次得到的模型损失间的差和全局损失间的差满足阈值条件,或者也可以为需更新节点表示的参考候选文本i的数量小于等于一定值,或相邻迭代轮次需更新节点表示的参考候选文本i的数量差小于等于一定值。
在一个实施例中,初始预测模型可以包括D个MLP模型(预测子模型),以图3中的目标矩阵结构为例,每个候选文本在每一层矩阵层都有一个节点表示,c(i)表示第i个候选文本的候选文本路径,其中第i个候选文本对应的候选文本路径为:c(i)=ci,1,…,ci,d,其中,ci,1表示候选文本i在第一层上对应的节点。
可以理解的,从矩阵的第1列到第D列每一列是一个深度模型MLP,输出每个节点的概率分布值,概率分布值越大的节点表示与输入的候选文本特征对应的候选文本越相似。
在模型训练过程中,假设候选文本i的候选文本特征为embedding(x),输入第一层MLP模型,生成K维的概率分布特征embedding(1);第2步将embeddi ng(x)和第1步生成的embedding(1)拼接起来作为第二层MLP模型的输入,输出第二层的K维的概率分布特征embedding(2),后面每一层以此类推。第D层将之前D-1层的所有概率分布特征embedding和embedding(x)拼接起来,作为第D层模型的输入,得到最后一层输出的概率分布值。在一些情况下,最后输出的概率分布值是路径上所有概率分布值的乘积,表达式参考下述公式。
其中,x为输入的候选文本特征,这里的θd表征第d层MLP模型的模型权重参数。
相应的,预测子模型的损失函数和初始预测模型的全局损失函数如下述公式所示。其中,N为输入初始预测模型的候选文本的数量。
在模型训练过程中,每层矩阵层对应MLP模型的输出的概率分布结果维度为K个,为了减少计算复杂度,对输出的概率分布结果只取概率分布值最大的top 1个节点。在一些情况下,为了防止出现过拟合导致某个路径的概率分布值过大,加入正则化参数f(c),来表示每条路径对应的节点总数相应的,预测子模型的损失函数和初始预测模型的全局损失函数如下述公式所示。其中,∑c∈K*Df(c)表示所有路径对应的节点总数,α为常数。
通过随机初始化模型参数,固定xi,ci,1,…,ci,d,来优化模型参数θd,实现模型的迭代训练。
具体的,可以基于EM方法分别优化MLP模型的参数和文本对应的embedding。
首先执行E步:随机初始化每个候选文本的路径c(i)。
再执行M步:根据损失函数优化每一层预测子模型的模型参数θd和全局模型参数。根据上一次迭代优化的模型,计算第i个文本在第d层概率最高的1个节点为cid,最终候选文本i在d层对应的所有节点分别为ci,1,…,ci,d。
再执行E步:根据上一步重新计算的候选文本路径c(i),重新更新候选文本i在每一层矩阵层中对应的节点表示,得到候选文本i的更新的候选文本路径c(i)′。
c(i)′=ci,1,…,ci,d
最终候选文本i的候选路径表示embedding即等于[ci,1,…,ci,d]。
循环M步和E步直至收敛。
综上,上述技术方案通过引入矩阵结构和基于矩阵结构构建的文本匹配模型进行概率分布预测,来筛选节点和确定匹配文本,无需进行文本间的文本向量相似度计算,有效提高文本匹配的匹配效率和准确率,能够支持大规模海量文本的匹配任务。并且,引入矩阵结构能够支持多种类型的文本匹配模型,针对不同应用场景可以灵活配置模型种类,在文本匹配模型的训练过程中,是进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练,同样无需计算文本向量相似度,有效提高模型训练效率。
本申请实施例还提供了一种文本匹配装置800,如图8所示,图8示出了本申请实施例提供的一种文本匹配装置的结构示意图,装置可以包括下述模块。
文本特征获取模块10:用于获取目标矩阵结构和待匹配文本的待匹配文本特征。其中,目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本。
概率分布预测模块20:用于针对目标矩阵结构中的各矩阵层,通过目标文本匹配模型对待匹配文本特征进行概率分布预测处理,得到各矩阵层对应的概率分布结果。概率分布结果表征待匹配文本特征针对单个矩阵层中各节点的概率分布。
目标节点筛选模块30:用于基于概率分布结果分别对各矩阵层中的节点进行节点筛选处理,得到待匹配文本特征在各矩阵层中对应的目标节点。
目标文本确定模块40:用于将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本。
其中,目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练得到的。
在一些实施例中,目标文本匹配模型包括多个匹配子模型,匹配子模型与矩阵层一一对应。概率分布预测模块20包括:
第一预测处理单元:用于将待匹配文本特征作为目标矩阵结构的第一层矩阵层对应的匹配子模型的输入,以进行待匹配文本特征的概率分布预测处理,得到第一层矩阵层对应的概率分布值和概率分布特征。
拼接处理单元:用于将第一层矩阵层对应的概率分布特征与待匹配文本特征进行拼接处理,得到第一拼接特征。
第二预测处理单元:用于以第一拼接特征作为第二层矩阵层对应的匹配子模型的输入,以进行第一拼接特征的概率分布预测处理,得到第二层矩阵层对应的概率分布值和概率分布特征。
重复执行单元:用于重复执行将输入当前层矩阵层对应的匹配子模型的拼接特征,与当前矩阵层对应的匹配子模型输出的概率分布特征进行拼接处理,得到更新的拼接特征,以及以更新的拼接特征作为下一层矩阵层对应的匹配子模型的输入,以进行更新的拼接特征的概率分布预测处理,得到下一层矩阵层对应的概率分布值和概率分布特征的步骤,至得到目标矩阵结构的最后一层矩阵层对应的概率分布值和概率分布特征。
在一些实施例中,目标节点筛选模块30包括:
概率排序单元:用于基于各矩阵层对应的概率分布值,分别对各矩阵层各自的节点进行节点概率排序。
节点筛选单元:用于基于节点概率排序,分别从各矩阵层各自的节点中筛选出预设数量的节点,得到各矩阵层各自对应的目标节点。
在一些实施例中,装置还包括:
矩阵构建模块:用于在获取目标矩阵结构和待匹配文本的待匹配文本特征之前,构建具有预设的矩阵长度和矩阵宽度的矩阵,得到目标矩阵结构。预设宽度为目标矩阵结构包括的矩阵层数。
候选文本获取模块:用于获取多个候选文本。
节点表示初始化模块:用于初始化多个候选文本在目标矩阵结构的各矩阵层中的节点表示,得到多个候选文本中每个候选文本在各矩阵层中的节点表示。
在一些实施例中,节点表示初始化模块可以具体用于:针对目标矩阵结构的每层矩阵层,基于预设分配方式将多个候选文本分配至矩阵层中的各节点,得到多个候选文本中每个候选文本在在各矩阵层中的节点表示。
在一些实施例中,装置还包括:
预测子模型构建模块:用于构建目标矩阵结构的各矩阵层各自对应的预测子模型。
连接关系建立模块:用于建立各预测子模型间的连接关系,得到初始预测模型。
在一些实施例中,装置还包括:
第三预测处理模块:用于将多个参考候选文本各自的参考文本特征作为初始预测模型的输入,以分别对各参考文本特征进行针对目标矩阵结构的各矩阵层的概率分布预测处理,得到多个参考候选文本中的每个参考候选文本针对各矩阵层的参考概率分布结果;其中,参考候选文本为从多个候选文本中抽取的文本;
参考节点筛选模块:用于基于每个参考候选文本针对各矩阵层的参考概率分布结果,分别对各矩阵层中的节点进行节点筛选处理,得到每个参考候选文本在各矩阵层中对应的参考节点。
损失计算模块:用于基于每个参考候选文本针对各矩阵层的参考概率分布结果和每个参考候选文本在各矩阵层中对应的参考节点,利用预设损失函数进行初始预测模型的损失计算处理,得到损失计算结果;预设损失函数为基于各参考文本在所述各矩阵层中的节点表示构建的累加条件概率函数。
初始预测模型更新模块:用于根据损失计算结果,基于无监督学习方法对初始预测模型进行训练,得到更新的初始预测模型。
节点表示更新模块:用于根据每个参考候选文本在各矩阵层中对应的参考节点,更新多个参考候选文本各自在各矩阵层中的节点表示。
迭代训练模块:用于循环执行上述的概率分布预测处理、节点筛选处理、损失计算处理、初始预测模型的训练和参考候选文本的节点表示更新的步骤,至满足迭代训练收敛条件,得到目标文本匹配模型,并确定目标矩阵结构中各节点各自对应的候选文本。
在一些实施例中,装置还包括:
待匹配文本路径确定模块:用于在将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本之后,基于待匹配文本特征在各矩阵层中对应的目标节点,确定待匹配文本在目标矩阵结构中的待匹配文本路径。
待匹配路径特征获取模块:用于获取待匹配文本路径的待匹配路径特征。
相似度处理模块:用于对待匹配路径特征和目标矩阵结构对应的候选文本的候选路径特征进行相似度处理,得到与待匹配路径特征匹配的候选路径特征。
文本召回模块:用于将匹配的候选路径特征对应的候选文本作为待匹配文本的目标召回文本。
在一些实施例中,文本特征获取模块10包括:
待匹配文本获取单元:用于获取待匹配文本。
分词处理单元:用于对待匹配文本进行分词处理,得到对应的目标分词序列。
特征提取单元:用于调用预设的预训练模型对目标分词序列进行特征提取,得到待匹配文本特征。
需要说明的是,上述装置实施例与方法实施例基于相同的实施方式。
本申请实施例提供了一种文本匹配设备,该识别设备可以为终端或服务器,该文本匹配设备包括处理器和存储器,该存储器中存储有至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现如上述方法实施例所提供的文本匹配方法。
存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、功能所需的应用程序等;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器还可以包括存储器控制器,以提供处理器对存储器的访问。
本申请实施例所提供的方法实施例可以在移动终端、计算机终端、服务器或者类似的运算装置等电子设备中执行。图9是本申请实施例提供的一种文本匹配方法的电子设备的硬件结构框图。如图9所示,该电子设备900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,CPU)910(处理器910可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器930,一个或一个以上存储应用程序923或数据922的存储介质920(例如一个或一个以上海量存储设备)。其中,存储器930和存储介质920可以是短暂存储或持久存储。存储在存储介质920的程序可以包括一个或一个以上模块,每个模块可以包括对电子设备中的一系列指令操作。更进一步地,中央处理器910可以设置为与存储介质920通信,在电子设备900上执行存储介质920中的一系列指令操作。电子设备900还可以包括一个或一个以上电源960,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口940,和/或,一个或一个以上操作系统921,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
输入输出接口940可以用于经由一个网络接收或者发送数据。上述的网络具体实例可包括电子设备900的通信供应商提供的无线网络。在一个实例中,输入输出接口940包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,输入输出接口940可以为射频(RadioFrequency,RF)模块,其用于通过无线方式与互联网进行通讯。
本领域普通技术人员可以理解,图9所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备900还可包括比图9中所示更多或者更少的组件,或者具有与图9所示不同的配置。
本申请的实施例还提供了一种计算机可读存储介质,存储介质可设置于电子设备之中以保存用于实现方法实施例中一种文本匹配方法相关的至少一条指令或至少一段程序,该至少一条指令或该至少一段程序由该处理器加载并执行以实现上述方法实施例提供的文本匹配方法。
可选地,在本实施例中,上述存储介质可以位于计算机网络的多个网络服务器中的至少一个网络服务器。可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各种可选实现方式中提供的方法。
由上述本申请提供的文本匹配方法、装置、设备、服务器、终端存储介质和程序产品的实施例可见,本申请的技术方案获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;并针对目标矩阵结构中的各矩阵层,通过目标文本匹配模型对待匹配文本特征进行概率分布预测处理,得到各矩阵层对应的概率分布结果;其中,概率分布结果表征待匹配文本特征针对单个矩阵层中各节点的概率分布;然后,基于概率分布结果分别对各矩阵层中的节点进行筛选处理,得到待匹配文本特征在各矩阵层中对应的目标节点;进而将目标节点对应的候选文本确定为与待匹配文本匹配的目标文本;通过引入矩阵结构和基于矩阵结构构建的文本匹配模型进行概率分布预测,来筛选节点和确定匹配文本,无需进行文本间的文本向量相似度计算,有效提高文本匹配的匹配效率和准确率,能够支持大规模海量文本的匹配任务。并且,引入矩阵结构能够支持多种类型的文本匹配模型,针对不同应用场景可以灵活配置模型种类,在文本匹配模型的训练过程中,是进行针对目标矩阵结构的各矩阵层的概率分布预测和候选文本的节点表示更新的迭代训练,同样无需计算文本向量相似度,有效提高模型训练效率。
需要说明的是:上述本申请实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本申请中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备和存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指示相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (21)
1.一种文本匹配方法,其特征在于,所述方法包括:
获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,所述目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;
针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果;其中,所述概率分布结果表征所述待匹配文本特征针对单个矩阵层中各节点的概率分布;
基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点;
将所述目标节点对应的候选文本确定为与所述待匹配文本匹配的目标文本;
其中,所述目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于所述目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和所述候选文本的节点表示更新的迭代训练得到的。
2.根据权利要求1所述的方法,其特征在于,所述目标文本匹配模型包括多个匹配子模型,所述匹配子模型与所述矩阵层一一对应;
所述针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果包括:
将所述待匹配文本特征作为所述目标矩阵结构的第一层矩阵层对应的匹配子模型的输入,以进行所述待匹配文本特征的概率分布预测处理,得到所述第一层矩阵层对应的概率分布值和概率分布特征;
将所述第一层矩阵层对应的概率分布特征与所述待匹配文本特征进行拼接处理,得到第一拼接特征;
以所述第一拼接特征作为第二层矩阵层对应的匹配子模型的输入,以进行所述第一拼接特征的概率分布预测处理,得到所述第二层矩阵层对应的概率分布值和概率分布特征;
重复执行将输入当前矩阵层对应的匹配子模型的拼接特征,与所述当前矩阵层对应的匹配子模型输出的概率分布特征进行拼接处理,得到更新的拼接特征,以及以更新的拼接特征作为下一层矩阵层对应的匹配子模型的输入,以进行所述更新的拼接特征的概率分布预测处理,得到所述下一层矩阵层对应的概率分布值和概率分布特征的步骤,至得到所述目标矩阵结构的最后一层矩阵层对应的概率分布值和概率分布特征。
3.根据权利要求2所述的方法,其特征在于,所述基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点包括:
基于各矩阵层对应的概率分布值,分别对所述各矩阵层各自的节点进行节点概率排序;
基于所述节点概率排序,分别从所述各矩阵层各自的节点中筛选出预设数量的节点,得到所述各矩阵层各自对应的目标节点。
4.根据权利要求1所述的方法,其特征在于,在所述获取目标矩阵结构和待匹配文本的待匹配文本特征之前,所述方法还包括:
构建具有预设的矩阵长度和矩阵宽度的矩阵,得到所述目标矩阵结构;预设的矩阵宽度为所述目标矩阵结构包括的矩阵层数;
获取多个候选文本;
初始化所述多个候选文本在所述目标矩阵结构的各矩阵层中的节点表示,得到所述多个候选文本中每个候选文本在各矩阵层中的节点表示。
5.根据权利要求4所述的方法,其特征在于,所述初始化所述多个候选文本在所述目标矩阵结构的各矩阵层中的节点表示包括:
针对所述目标矩阵结构的每层矩阵层,基于预设分配方式将所述多个候选文本分配至所述矩阵层中的各节点,得到所述多个候选文本中每个候选文本在在各矩阵层中的节点表示。
6.根据权利要求4所述的方法,其特征在于,所述方法还包括:
构建所述目标矩阵结构的各矩阵层各自对应的预测子模型;
建立各预测子模型间的连接关系,得到所述初始预测模型。
7.根据权利要求4-6中任一项所述的方法,其特征在于,在所述针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果之前,所述方法还包括:
将多个参考候选文本各自的参考文本特征作为所述初始预测模型的输入,以分别对各参考文本特征进行针对所述目标矩阵结构的各矩阵层的概率分布预测处理,得到所述多个参考候选文本中的每个参考候选文本针对所述各矩阵层的参考概率分布结果;其中,所述参考候选文本为从所述多个候选文本中抽取的文本;
基于所述每个参考候选文本针对所述各矩阵层的参考概率分布结果,分别对所述各矩阵层中的节点进行节点筛选处理,得到每个参考候选文本在所述各矩阵层中对应的参考节点;
基于所述每个参考候选文本针对所述各矩阵层的参考概率分布结果和所述每个参考候选文本在所述各矩阵层中对应的参考节点,利用预设损失函数进行所述初始预测模型的损失计算处理,得到损失计算结果;所述预设损失函数为基于各参考文本在所述各矩阵层中的节点表示构建的累加条件概率函数;
根据所述损失计算结果,基于无监督学习方法对所述初始预测模型进行训练,得到更新的初始预测模型;
根据所述每个参考候选文本在所述各矩阵层中对应的参考节点,更新所述多个参考候选文本各自在所述各矩阵层中的节点表示;
循环执行上述的概率分布预测处理、节点筛选处理、损失计算处理、初始预测模型的训练和参考候选文本的节点表示更新的步骤,至满足迭代训练收敛条件,得到所述目标文本匹配模型,并确定所述目标矩阵结构中各节点各自对应的候选文本。
8.根据权利要求1-6中任一项所述的方法,其特征在于,在所述基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点之后,所述方法还包括:
基于所述待匹配文本特征在所述各矩阵层中对应的目标节点,确定所述待匹配文本在所述目标矩阵结构中的待匹配文本路径;
获取所述待匹配文本路径的待匹配路径特征;
对所述待匹配路径特征和所述目标矩阵结构对应的候选文本的候选路径特征进行相似度处理,得到与所述待匹配路径特征匹配的候选路径特征;
将所述匹配的候选路径特征对应的候选文本作为所述待匹配文本的目标召回文本。
9.根据权利要求1-6中任一项所述的方法,其特征在于,获取所述待匹配文本的待匹配文本特征包括:
获取待匹配文本;
对所述待匹配文本进行分词处理,得到对应的目标分词序列;
调用预设的预训练模型对所述目标分词序列进行特征提取,得到所述待匹配文本特征。
10.一种文本匹配装置,其特征在于,所述装置包括:
文本特征获取模块:用于获取目标矩阵结构和待匹配文本的待匹配文本特征;其中,所述目标矩阵结构包括多个具有相同节点数的矩阵层,单层矩阵层中包括多个节点,单个节点对应若干个候选文本;
概率分布预测模块:用于针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果;所述概率分布结果表征所述待匹配文本特征针对单个矩阵层中各节点的概率分布;
目标节点筛选模块:用于基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点;
目标文本确定模块:用于将所述目标节点对应的候选文本确定为与所述待匹配文本匹配的目标文本;
其中,所述目标文本匹配模型是以候选文本作为训练样本,根据无监督学习方法对基于所述目标矩阵结构构建的初始预测模型,进行针对目标矩阵结构的各矩阵层的概率分布预测和所述候选文本的节点表示更新的迭代训练得到的。
11.根据权利要求10所述的装置,其特征在于,所述目标文本匹配模型包括多个匹配子模型,所述匹配子模型与所述矩阵层一一对应;
所述概率分布预测模块包括:
第一预测处理单元:用于将所述待匹配文本特征作为所述目标矩阵结构的第一层矩阵层对应的匹配子模型的输入,以进行所述待匹配文本特征的概率分布预测处理,得到所述第一层矩阵层对应的概率分布值和概率分布特征;
拼接处理单元:用于将所述第一层矩阵层对应的概率分布特征与所述待匹配文本特征进行拼接处理,得到第一拼接特征;
第二预测处理单元:用于以所述第一拼接特征作为第二层矩阵层对应的匹配子模型的输入,以进行所述第一拼接特征的概率分布预测处理,得到所述第二层矩阵层对应的概率分布值和概率分布特征;
重复执行单元:用于重复执行将输入当前矩阵层对应的匹配子模型的拼接特征,与所述当前矩阵层对应的匹配子模型输出的概率分布特征进行拼接处理,得到更新的拼接特征,以及以更新的拼接特征作为下一层矩阵层对应的匹配子模型的输入,以进行所述更新的拼接特征的概率分布预测处理,得到所述下一层矩阵层对应的概率分布值和概率分布特征的步骤,至得到所述目标矩阵结构的最后一层矩阵层对应的概率分布值和概率分布特征。
12.根据权利要求11所述的装置,其特征在于,所述目标节点筛选模块包括:
概率排序单元:用于基于各矩阵层对应的概率分布值,分别对所述各矩阵层各自的节点进行节点概率排序;
节点筛选单元:用于基于所述节点概率排序,分别从所述各矩阵层各自的节点中筛选出预设数量的节点,得到所述各矩阵层各自对应的目标节点。
13.根据权利要求10所述的装置,其特征在于,所述装置还包括:
矩阵构建模块:用于在所述获取目标矩阵结构和待匹配文本的待匹配文本特征之前,构建具有预设的矩阵长度和矩阵宽度的矩阵,得到所述目标矩阵结构;预设的矩阵宽度为所述目标矩阵结构包括的矩阵层数;
候选文本获取模块:用于获取多个候选文本;
节点表示初始化模块:用于初始化所述多个候选文本在所述目标矩阵结构的各矩阵层中的节点表示,得到所述多个候选文本中每个候选文本在各矩阵层中的节点表示。
14.根据权利要求13所述的装置,其特征在于,节点表示初始化模块具体用于:
针对所述目标矩阵结构的每层矩阵层,基于预设分配方式将所述多个候选文本分配至所述矩阵层中的各节点,得到所述多个候选文本中每个候选文本在在各矩阵层中的节点表示。
15.根据权利要求13所述的装置,其特征在于,所述装置还包括:
预测子模型构建模块:用于构建所述目标矩阵结构的各矩阵层各自对应的预测子模型;
连接关系建立模块:用于建立各预测子模型间的连接关系,得到所述初始预测模型。
16.根据权利要求13-15中任一项所述的装置,其特征在于,所述装置还包括:
第三预测处理模块:用于在所述针对所述目标矩阵结构中的各矩阵层,通过目标文本匹配模型对所述待匹配文本特征进行概率分布预测处理,得到所述各矩阵层对应的概率分布结果之前,将多个参考候选文本各自的参考文本特征作为所述初始预测模型的输入,以分别对各参考文本特征进行针对所述目标矩阵结构的各矩阵层的概率分布预测处理,得到所述多个参考候选文本中的每个参考候选文本针对所述各矩阵层的参考概率分布结果;其中,所述参考候选文本为从所述多个候选文本中抽取的文本;
参考节点筛选模块:用于基于所述每个参考候选文本针对所述各矩阵层的参考概率分布结果,分别对所述各矩阵层中的节点进行节点筛选处理,得到每个参考候选文本在所述各矩阵层中对应的参考节点;
损失计算模块:用于基于所述每个参考候选文本针对所述各矩阵层的参考概率分布结果和所述每个参考候选文本在所述各矩阵层中对应的参考节点,利用预设损失函数进行所述初始预测模型的损失计算处理,得到损失计算结果;所述预设损失函数为基于各参考文本在所述各矩阵层中的节点表示构建的累加条件概率函数;
初始预测模型更新模块:用于根据所述损失计算结果,基于无监督学习方法对所述初始预测模型进行训练,得到更新的初始预测模型;
节点表示更新模块:用于根据所述每个参考候选文本在所述各矩阵层中对应的参考节点,更新所述多个参考候选文本各自在所述各矩阵层中的节点表示;
迭代训练模块:用于循环执行上述的概率分布预测处理、节点筛选处理、损失计算处理、初始预测模型的训练和参考候选文本的节点表示更新的步骤,至满足迭代训练收敛条件,得到所述目标文本匹配模型,并确定所述目标矩阵结构中各节点各自对应的候选文本。
17.根据权利要求10-15中任一项所述的装置,其特征在于,所述装置还包括:
待匹配文本路径确定模块:用于在所述基于所述概率分布结果分别对所述各矩阵层中的节点进行节点筛选处理,得到所述待匹配文本特征在所述各矩阵层中对应的目标节点之后,基于所述待匹配文本特征在所述各矩阵层中对应的目标节点,确定所述待匹配文本在所述目标矩阵结构中的待匹配文本路径;
待匹配路径特征获取模块:用于获取所述待匹配文本路径的待匹配路径特征;
相似度处理模块:用于对所述待匹配路径特征和所述目标矩阵结构对应的候选文本的候选路径特征进行相似度处理,得到与所述待匹配路径特征匹配的候选路径特征;
文本召回模块:用于将所述匹配的候选路径特征对应的候选文本作为所述待匹配文本的目标召回文本。
18.根据权利要求10-15中任一项所述的装置,其特征在于,所述文本特征获取模块包括:
待匹配文本获取单元:用于获取待匹配文本;
分词处理单元:用于对所述待匹配文本进行分词处理,得到对应的目标分词序列;
特征提取单元:用于调用预设的预训练模型对所述目标分词序列进行特征提取,得到所述待匹配文本特征。
19.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由处理器加载并执行以实现如权利要求1-9中任一项所述的文本匹配方法。
20.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,所述计算机指令被处理器执行时实现如权利要求1-9中任一项所述的文本匹配方法。
21.一种计算机设备,所述设备包括处理器和存储器,其特征在于,所述存储器中存储有至少一条指令或至少一段程序,所述至少一条指令或所述至少一段程序由所述处理器加载并执行以实现如权利要求1-9中任一项所述的文本匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111458767.5A CN114297338B (zh) | 2021-12-02 | 2021-12-02 | 文本匹配方法、装置、存储介质和程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111458767.5A CN114297338B (zh) | 2021-12-02 | 2021-12-02 | 文本匹配方法、装置、存储介质和程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114297338A CN114297338A (zh) | 2022-04-08 |
CN114297338B true CN114297338B (zh) | 2024-05-14 |
Family
ID=80965559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111458767.5A Active CN114297338B (zh) | 2021-12-02 | 2021-12-02 | 文本匹配方法、装置、存储介质和程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114297338B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114861057B (zh) * | 2022-05-17 | 2023-05-30 | 北京百度网讯科技有限公司 | 资源发送方法、推荐模型的训练及装置 |
CN114969339B (zh) * | 2022-05-30 | 2023-05-12 | 中电金信软件有限公司 | 一种文本匹配方法、装置、电子设备及可读存储介质 |
CN114996010B (zh) * | 2022-06-06 | 2024-05-24 | 中国地质大学(北京) | 面向移动边缘环境下的智能服务保障方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013118435A1 (ja) * | 2012-02-09 | 2013-08-15 | 日本電気株式会社 | 意味的類似度計算方法、システム及びプログラム |
KR101680481B1 (ko) * | 2015-07-31 | 2016-11-28 | 부산대학교 산학협력단 | 실내 네트워크 맵 매칭 방법 및 실내 네트워크 맵 매칭 시스템 |
US9710544B1 (en) * | 2016-05-19 | 2017-07-18 | Quid, Inc. | Pivoting from a graph of semantic similarity of documents to a derivative graph of relationships between entities mentioned in the documents |
CN110147532A (zh) * | 2019-01-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
CN111666753A (zh) * | 2020-05-11 | 2020-09-15 | 清华大学深圳国际研究生院 | 基于全局和局部匹配的短文本匹配方法及系统 |
CN111930894A (zh) * | 2020-08-13 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 长文本匹配方法及装置、存储介质、电子设备 |
CN113486659A (zh) * | 2021-05-25 | 2021-10-08 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及存储介质 |
CN113568901A (zh) * | 2021-01-29 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及存储介质 |
CN113704422A (zh) * | 2021-04-13 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本推荐方法、装置、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
US10216724B2 (en) * | 2017-04-07 | 2019-02-26 | Conduent Business Services, Llc | Performing semantic analyses of user-generated textual and voice content |
US11823013B2 (en) * | 2017-08-29 | 2023-11-21 | International Business Machines Corporation | Text data representation learning using random document embedding |
US20210166058A1 (en) * | 2019-12-03 | 2021-06-03 | Ping An Technology (Shenzhen) Co., Ltd. | Image generation method and computing device |
US11481418B2 (en) * | 2020-01-02 | 2022-10-25 | International Business Machines Corporation | Natural question generation via reinforcement learning based graph-to-sequence model |
-
2021
- 2021-12-02 CN CN202111458767.5A patent/CN114297338B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013118435A1 (ja) * | 2012-02-09 | 2013-08-15 | 日本電気株式会社 | 意味的類似度計算方法、システム及びプログラム |
KR101680481B1 (ko) * | 2015-07-31 | 2016-11-28 | 부산대학교 산학협력단 | 실내 네트워크 맵 매칭 방법 및 실내 네트워크 맵 매칭 시스템 |
US9710544B1 (en) * | 2016-05-19 | 2017-07-18 | Quid, Inc. | Pivoting from a graph of semantic similarity of documents to a derivative graph of relationships between entities mentioned in the documents |
CN110147532A (zh) * | 2019-01-24 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
CN111666753A (zh) * | 2020-05-11 | 2020-09-15 | 清华大学深圳国际研究生院 | 基于全局和局部匹配的短文本匹配方法及系统 |
CN111930894A (zh) * | 2020-08-13 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 长文本匹配方法及装置、存储介质、电子设备 |
CN113568901A (zh) * | 2021-01-29 | 2021-10-29 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置及存储介质 |
CN113704422A (zh) * | 2021-04-13 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本推荐方法、装置、计算机设备和存储介质 |
CN113486659A (zh) * | 2021-05-25 | 2021-10-08 | 平安科技(深圳)有限公司 | 文本匹配方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114297338A (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Qi et al. | Finding all you need: web APIs recommendation in web of things through keywords search | |
CN114297338B (zh) | 文本匹配方法、装置、存储介质和程序产品 | |
CN111066021B (zh) | 使用随机文档嵌入的文本数据表示学习 | |
CN114332984B (zh) | 训练数据处理方法、装置和存储介质 | |
CN113919344B (zh) | 文本处理方法和装置 | |
CN114330312B (zh) | 标题文本处理方法、装置、存储介质和程序 | |
Kang et al. | Neural and attentional factorization machine-based Web API recommendation for mashup development | |
US11423307B2 (en) | Taxonomy construction via graph-based cross-domain knowledge transfer | |
CN110866119B (zh) | 一种文章质量的确定方法、装置、电子设备及存储介质 | |
CN111400504A (zh) | 企业关键人的识别方法和装置 | |
CN113158554B (zh) | 模型优化方法、装置、计算机设备及存储介质 | |
CN110597956B (zh) | 一种搜索方法、装置及存储介质 | |
CN114580794B (zh) | 数据处理方法、装置、程序产品、计算机设备和介质 | |
Sui et al. | Bayesian contextual bandits for hyper parameter optimization | |
CN113822315A (zh) | 属性图的处理方法、装置、电子设备及可读存储介质 | |
CN112989024B (zh) | 文本内容的关系提取方法、装置、设备及存储介质 | |
CN117194771B (zh) | 一种图模型表征学习的动态知识图谱服务推荐方法 | |
CN111260074B (zh) | 一种超参数确定的方法、相关装置、设备及存储介质 | |
CN116956996A (zh) | 数据处理方法、装置、介质及设备 | |
CN113705247B (zh) | 主题模型效果评估方法、装置、设备、存储介质和产品 | |
Thonglek et al. | Automated quantization and retraining for neural network models without labeled data | |
CN115147020A (zh) | 装修数据处理方法、装置、设备及存储介质 | |
CN116992440A (zh) | 代码匹配方法、装置、电子设备和存储介质 | |
CN113822412A (zh) | 一种图节点标注方法、装置、设备及存储介质 | |
US20240346333A1 (en) | Method, device, and product for generating use case interface in neuromorphic computation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |