CN111930894A - 长文本匹配方法及装置、存储介质、电子设备 - Google Patents
长文本匹配方法及装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN111930894A CN111930894A CN202010811453.8A CN202010811453A CN111930894A CN 111930894 A CN111930894 A CN 111930894A CN 202010811453 A CN202010811453 A CN 202010811453A CN 111930894 A CN111930894 A CN 111930894A
- Authority
- CN
- China
- Prior art keywords
- long text
- text data
- matrix
- similarity
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本公开提供一种长文本匹配方法及装置、电子设备、存储介质;涉及人工智能技术领域。所述长文本匹配方法包括:获取第一长文本数据以及第二长文本数据;构建第一长文本数据对应的第一共现矩阵,以及构建第二长文本数据对应的第二共现矩阵;基于第一共现矩阵以及第二共现矩阵,构建第一长文本数据与第二长文本数据对应的相似度交互矩阵;对相似度交互矩阵进行转化处理,得到第一长文本数据与第二长文本数据对应的匹配结果,以根据匹配结果在第二长文本数据中选择与第一长文本数据匹配的目标长文本数据。本公开可以为输入的长文本数据匹配相似度较高的长文本数据,提高匹配的长文本数据的准确度。
Description
技术领域
本公开涉及人工智能技术领域,具体而言,涉及一种长文本匹配方法、长文本匹配装置、电子设备以及计算机可读存储介质。
背景技术
随着科学技术的飞速发展,人工智能(Artificial Intelligence,AI)技术越来越得到人们的重视。其中,自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
目前,相关的文本匹配技术方案中,大多数都是针对短文本的匹配,而将短文本对应的匹配方案应用到长文本匹配时,匹配结果的准确率较低,影响相关产品的用户体验。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种长文本匹配方法、长文本匹配装置、电子设备以及计算机可读存储介质,进而在一定程度上克服由于相关技术的限制和缺陷而导致的,在对长文本数据进行匹配时,匹配结果的准确度较低的问题。
根据本公开的第一方面,提供一种长文本匹配方法,包括:
获取输入的第一长文本数据以及待匹配的第二长文本数据;
对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
在本公开的一种示例性实施例中,在获取输入的第一长文本数据以及待匹配的第二长文本数据之后,所述方法还包括:
对所述第一长文本数据和所述第二长文本数据进行切词处理;
根据预训练的词向量模型将切词处理后的第一长文本数据和切词处理后的第二长文本数据进行转化处理,得到第一词向量序列以及第二词向量序列。
在本公开的一种示例性实施例中,所述构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵,包括:
基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵;以及
基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵,包括:
根据预设尺寸的滑动窗口对所述第一词向量序列进行处理,以对所述第一词向量序列中在所述滑动窗口内的词向量建立第一连接关系;
通过所述第一词向量序列以及所述第一连接关系构建所述第一长文本数据对应的第一共现矩阵。
在本公开的一种示例性实施例中,基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵,包括:
根据预设尺寸的滑动窗口对所述第二词向量序列进行处理,以对所述第二词向量序列中在所述滑动窗口内的词向量建立第二连接关系;
通过所述第二词向量序列以及所述第二连接关系构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量;
根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量,包括:
通过预训练的门控图神经网络分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理;
基于注意力机制网络对转化处理后的所述第一共现矩阵和所述第二共现矩阵中的词向量添加权重数据,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量。
在本公开的一种示例性实施例中,所述根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
计算所述第一表征向量中的词向量与所述第二表征向量中的词向量的相似度数据;
根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,所述根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
将所述第一表征向量和所述第二表征向量分别作为所述相似度交互矩阵的横轴和纵轴,并将所述相似度数据作为所述相似度交互矩阵的值,以构建所述相似度交互矩阵。
在本公开的一种示例性实施例中,对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,包括:
根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行聚合处理;
将聚合处理后的相似度交互矩阵输入到多层感知机层网络,得到所述第一长文本数据和所述第二长文本数据对应的匹配结果。
在本公开的一种示例性实施例中,根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行转化处理,包括:
根据预构建的二维卷积层网络对所述相似度交互矩阵进行卷积处理,得到所述相似度交互矩阵对应的特征矩阵;
根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,以完成对所述相似度交互矩阵的转化处理。
在本公开的一种示例性实施例中,所述根据预构建的二维池化层网络对所述特征矩阵进行池化处理,包括:
基于所述二维池化层网络对所述特征矩阵进行动态池化处理,以使所述二维池化层网络能够对长度不断变化的词向量序列进行池化处理。
根据本公开的第二方面,提供一种长文本匹配装置,包括:
长文本数据获取模块,用于获取输入的第一长文本数据以及待匹配的第二长文本数据;
共现矩阵构建模块,用于对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
相似度交互矩阵构建模块,用于基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
长文本数据匹配模块,用于对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
在本公开的一种示例性实施例中,所述长文本匹配装置还包括文本切词单元,所述文本切词单元被配置为:
对所述第一长文本数据和所述第二长文本数据进行切词处理;
根据预训练的词向量模型将切词处理后的第一长文本数据和切词处理后的第二长文本数据进行转化处理,得到第一词向量序列以及第二词向量序列。
在本公开的一种示例性实施例中,所述共现矩阵构建模块还包括:
第一共现矩阵构建单元,用于基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵;以及
第二共现矩阵构建单元,用于基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,所述第一共现矩阵构建单元还被配置为:
根据预设尺寸的滑动窗口对所述第一词向量序列进行处理,以对所述第一词向量序列中在所述滑动窗口内的词向量建立第一连接关系;
通过所述第一词向量序列以及所述第一连接关系构建所述第一长文本数据对应的第一共现矩阵。
在本公开的一种示例性实施例中,所述第二共现矩阵构建单元还被配置为:
根据预设尺寸的滑动窗口对所述第二词向量序列进行处理,以对所述第二词向量序列中在所述滑动窗口内的词向量建立第二连接关系;
通过所述第二词向量序列以及所述第二连接关系构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建模块还包括:
表征向量生成单元,用于分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量;
相似度交互矩阵构建单元,用于根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,所述表征向量生成单元还用于:
通过预训练的门控图神经网络分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理;
基于注意力机制网络对转化处理后的所述第一共现矩阵和所述第二共现矩阵中的词向量添加权重数据,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建单元还包括:
相似度计算子单元,用于计算所述第一表征向量中的词向量与所述第二表征向量中的词向量的相似度数据;
相似度交互矩阵构建子单元,用于根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建模块还用于:
将所述第一表征向量和所述第二表征向量分别作为所述相似度交互矩阵的横轴和纵轴,并将所述相似度数据作为所述相似度交互矩阵的值,以构建所述相似度交互矩阵。
在本公开的一种示例性实施例中,所述长文本数据匹配模块还包括:
矩阵转化单元,用于根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行聚合处理;
匹配结果生成单元,用于将聚合处理后的相似度交互矩阵输入到多层感知机层网络,得到所述第一长文本数据和所述第二长文本数据对应的匹配结果。
在本公开的一种示例性实施例中,所述矩阵转化单元包括:
卷积子单元,用于根据预构建的二维卷积层网络对所述相似度交互矩阵进行卷积处理,得到所述相似度交互矩阵对应的特征矩阵;
池化子单元,用于根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,以完成对所述相似度交互矩阵的转化处理。
在本公开的一种示例性实施例中,所述池化子单元还用于:
基于所述二维池化层网络对所述特征矩阵进行动态池化处理,以使所述二维池化层网络能够对长度不断变化的词向量序列进行池化处理。
根据本公开的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的长文本匹配方法中,构建输入的第一长文本数据对应的第一共现矩阵,以及构建待匹配的第二长文本数据对应的第二共现矩阵;基于第一共现矩阵以及第二共现矩阵,构建能够表征第一长文本数据与第二长文本数据之间交互关系的相似度交互矩阵;对相似度交互矩阵进行转化处理,得到第一长文本数据与所述第二长文本数据对应的匹配结果,以根据匹配结果在第二长文本数据中选择与第一长文本数据匹配的目标长文本数据。一方面,构建第一长文本数据对应的第一共现矩阵以及构建第二长文本数据对应的第二共现矩阵,通过共现矩阵能够表征长文本数据的内部词语之间交互关系,进而通过第一共现矩阵和第二共现矩阵确定长文本数据之间的匹配结果,提高匹配结果的表达准确度,从而提升长文本数据对应匹配结果的准确性;另一方面,通过共现矩阵计算得到的第一长文本数据与第二长文本数据对应的相似度交互矩阵,进而根据相似度交互矩阵得到匹配结果,基于相似度交互矩阵使得到匹配结果能够表征长文本数据之间的交互关系,进一步提高匹配结果的表达准确度,从而提升长文本数据对应匹配结果的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的一种长文本匹配方法及装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的一个实施例的长文本匹配方法的流程示意图;
图4示意性示出了根据本公开的一个实施例的生成长文本数据对应的字向量序列的流程示意图;
图5示意性示出了根据本公开的一个实施例的构建第一词向量序列对应的第一共现矩阵的流程示意图;
图6示意性示出了根据本公开的一个实施例的构建第二词向量序列对应的第二共现矩阵的流程示意图;
图7示意性示出了根据本公开的一个实施例的生成长文本数据对应的表征向量的流程示意图;
图8示意性示出了根据本公开的一个实施例的通过门控图神经网络对节点信息进行更新的流程示意图;
图9示意性示出了根据本公开的一个实施例的通过文本表征模块对长文本数据进行表征的示意图;
图10示意性示出了根据本公开的一个实施例的确定匹配结果的流程示意图;
图11示意性示出了根据本公开的一个实施例的基于相似度交互矩阵确定匹配结果的流程示意图;
图12示意性示出了根据本公开的一个实施例的通过文本匹配模块对长文本数据进行匹配的示意图;
图13示意性示出了根据本公开的一个实施例的长文本匹配装置的示意框图;
图14示意性示出了根据本公开的一个实施例的长文本匹配方法的一种应用场景示意图;
图15示意性示出了根据本公开的一个实施例的长文本匹配方法的另一种应用场景示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种长文本匹配方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。
本公开实施例所提供的长文本匹配方法一般由服务器105执行,相应地,长文本匹配装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的长文本匹配方法也可以由终端设备101、102、103执行,相应的,长文本匹配装置也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,可以是用户通过终端设备101、102、103将第一长文本数据上传至服务器105,服务器通过本公开实施例所提供的长文本匹配方法将目标长文本数据传输给终端设备101、102、103等。
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。
在一些实施例中,计算机系统200还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图3~图12所示的各个步骤等。
以下对本公开实施例的技术方案进行详细阐述:
目前,文本匹配模型在自然语言处理的许多任务,比如信息检索、自动问答、机器翻译、对话系统、问题复述等有着广泛的应用,但是对于长文本之间的匹配还研究得比较少,传统的文本匹配模型应用到长文本的匹配时并不能取得满意的效果。
发明人发现,相关的技术方案中,文本匹配主要分为两大类:基于语义表示(representation-based)的分类模型,和基于词语交互(interaction-based)的分类模型。
其中,基于语义表示的分类模型,思路是基于孪生(Siamese)网络,提取文本的整体语义后再进行匹配,主要特点是,典型的Siamese网络结构,双塔共享参数,将两个文本数据映射到同一空间,才具有匹配意义表征层进行编码(使用多层感知机MLP、卷积神经网络CNN、循环神经网络RNN、自注意机制Self-attention、翻译编码器Transformer encoder、新语言表示模型BERT均可);匹配层进行交互计算,采用点积、余弦相似度、高斯距离、MLP、相似度矩阵均可。基于语义表示的分类模型对应的经典模型有:深度语义匹配模型DSSM、深度相关性匹配模型ARC-I等。
基于词语交互的分类模型,思路是捕捉直接的匹配信号(模式),将词间的匹配信号作为灰度图,再进行后续建模抽象,主要特点是,交互层由两个文本中词与词之间构成交互矩阵,交互运算类似于注意力机组,加性乘性都可以;表征层是负责对交互矩阵进行抽象表征,使用CNN、S-RNN均可;基于词语交互的分类模型对应的经典模型有:深度相关性匹配模型ARC-II、构造匹配矩阵模型MatchPyramid等。
但是上述两种文本匹配模型,仅是针对短文本数据而言的,对于长文本数据的匹配,效果较差,匹配结果的准确率较低;其次,基于语义表示或基于词语交互的文本匹配模型不能有效挖掘文本数据匹配过程中所有的交互信号,包括文本数据的内部词语之间的交互关系的和文本与文本之间的交互关系,导致匹配结果太过片面,不能很好地匹配到相似程度较高的匹配结果,匹配效果较差。
基于上述一个或多个问题,本示例实施方式提供了一种长文本匹配方法。该长文本匹配方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定,下面以服务器执行该方法为例进行说明。参考图3所示,该长文本匹配方法可以包括以下步骤S310至步骤S340:
步骤S310、获取输入的第一长文本数据以及待匹配的第二长文本数据;
步骤S320、对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
步骤S330、基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
步骤S340、对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
在本示例实施方式所提供的长文本匹配方法中,一方面,构建第一长文本数据对应的第一共现矩阵以及构建第二长文本数据对应的第二共现矩阵,通过共现矩阵能够表征长文本数据的内部词语之间交互关系,进而通过第一共现矩阵和第二共现矩阵确定长文本数据之间的匹配结果,提高匹配结果的表达准确度,从而提升长文本数据对应匹配结果的准确性;另一方面,通过共现矩阵计算得到的第一长文本数据与第二长文本数据对应的相似度交互矩阵,进而根据相似度交互矩阵得到匹配结果,基于相似度交互矩阵使得到匹配结果能够表征长文本数据之间的交互关系,进一步提高匹配结果的表达准确度,从而提升长文本数据对应匹配结果的准确性。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,获取输入的第一长文本数据以及待匹配的第二长文本数据。
本公开的一个示例实施例中,第一长文本数据可以是指通过相关输入方式输入的待匹配的长文本数据,例如,第一长文本数据可以是通过在具有搜索功能或者智能问答功能的应用程序提供的输入接口输入的长文本数据,也可以是通过与智能健康机器人或者系统提供的语音采集单元采集的语音数据,经过语音识别模型将语音数据转换成的长文本数据,当然,第一长文本数据还可以是以其他方式输入的待匹配的长文本数据,本示例实施例对此不做特殊限定。
第二长文本数据可以是指采集的、用于与第一长文本数据进行匹配的长文本数据,例如第二长文本数据可以是预先采集并存储在问答数据库中的长文本数据,也可以是通过网络爬虫(Web Crawler)在相关网站中抓取的与第一长文本数据相关的长文本数据,当然,第二长文本数据还可以是以其他方式采集的用于与第一长文本数据进行匹配的长文本数据,本示例实施例对此不做特殊限定。
在检测到目标对象通过提供的输入方式进行输入操作时,获取输入的第一长文本数据,以及在问答数据库中或者相关网站中获取需要与第一长文本数据进行匹配的多个第二长文本数据,进而可以在第二长文本数据中选择与第一长文本数据最为匹配的长文本数据。
在步骤S320中,对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵。
本公开的一个示例实施例中,第一共现矩阵(第一共现图)可以是指用于表征第一长文本数据中词语与词语之间的交互信号的特征矩阵;第二共现矩阵(第二共现图)可以是指用于表征第二长文本数据中词语与词语之间的交互信号的特征矩阵。
通过构建第一长文本数据对应的第一共现矩阵以及构建第二长文本数据对应的第二共现矩阵,以通过第一共现矩阵和第二长文本数据有效表示第一长文本数据和第二长文本数据中词语之间的交互信号,充分挖掘第一长文本数据和第二长文本数据中所包含的语义信息,有效提高匹配精度。
在步骤S330中,基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
本公开的一个示例实施例中,相似度交互矩阵可以是指根据第一长文本数据对应的第一共现矩阵、以及第二长文本数据对应的第二共现矩阵构建的矩阵,该相似度交互矩阵能够表征第一长文本数据与第二长文本数据之间交互关系。进而,由于相似度交互矩阵能够表示第一长文本数据以及第二长文本数据之间的交互信号,根据相似度交互矩阵匹配第一长文本数据对应的第二长文本数据,能够有效挖掘长文本数据之间的信息,进一步提升匹配结果的准确性。
在步骤S340中,对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
本公开的一个示例实施例中,转化处理可以是指能够将相似度交互矩阵转化为第一长文本数据与第二长文本数据对应的匹配结果的处理过程,例如,转化处理可以是将相似度交互矩阵输入到预构建的多层感知机,并通过预构建的多层感知机将相似度交互矩阵输出为匹配结果的处理过程,也可以是通过相关的矩阵运算,将相似度交互矩阵转化为一个预定区间内的数值即匹配结果的处理过程,当然,转化处理还可以是其他能够将相似度交互矩阵转化为第一长文本数据与第二长文本数据对应的匹配结果的处理过程,本示例实施例对此不做特殊限定。
匹配结果可以是指将相似度交互矩阵进行转化处理得到的数值,例如,匹配结果可以是0.9,表征第一长文本数据与第二长文本数据是较为匹配的(匹配结果的取值可以在0-1之间,匹配结果越靠近1说明第一长文本数据与第二长文本数据越匹配,匹配结果越靠近0说明第一长文本数据与第二长文本数据越不匹配,当然,匹配结果还可以是其他取值,具体可以进行自定义设置,本示例实施例对此不做特殊限定),也可以是0.1,表征第一长文本数据与第二长文本数据是不匹配的(相比于匹配结果为0.9),当然,此处仅是示意性举例说明,并不应对本示例实施例造成任何特殊限定。
目标长文本数据可以是指根据匹配结果从第二长文本数据中选取的与第一长文本数据匹配的长文本数据,例如,目标长文本数据可以是与第一长文本数据对应的匹配结果大于预设的匹配结果阈值的长文本数据,也可以是对多个与第一长文本数据对应的匹配结果大于匹配结果阈值的长文本数据进行排序后,匹配结果最高的长文本数据,当然,目标长文本数据还可以是其他通过匹配结果从第二长文本数据中筛选的、与第一长文本数据匹配的任意数量的长文本数据,本示例实施例对此不做特殊限定。
在得到第一长文本数据与第二长文本数据对应的匹配结果之后,根据屁屁分数确定第一长文本数据与第二长文本数据是否匹配。例如,可以获取预先设置的匹配结果阈值(如可以是0.5,也可以是0.6,具体根据实际应用情况自定义设置,本示例实施例不以此为限),在第一长文本数据与第二长文本数据的匹配结果大于匹配结果阈值时,认为第一长文本数据与第二长文本数据匹配,将该第二长文本数据作为第一长文本数据对应的目标长文本数据。
下面,以实验中表现较优的实施例对上述步骤进行进一步的说明。
本公开的一个示例实施例中,在获取输入的第一长文本数据以及需要与第一长文本数据进行匹配的第二长文本数据之后,可以通过图4中的步骤得到第一长文本数据对应的第一词向量序列以及第二长文本数据对应的第二词向量序列:
参考图4所示,步骤S410,对所述第一长文本数据和所述第二长文本数据进行切词处理;
步骤S420,根据预训练的词向量模型将切词处理后的第一长文本数据和切词处理后的第二长文本数据进行转化处理,得到第一词向量序列以及第二词向量序列。
其中,切词处理可以是指将第一长文本数据或者第二长文本数据切分为词语集合的处理过程,例如,切词处理可以是基于字符串匹配的分词方法将第一长文本数据或者第二长文本数据切分为词语集合的处理过程,也可以是基于统计的分词方法将第一长文本数据或者第二长文本数据切分为词语集合的处理过程,当然,还可以是其他能够将第一长文本数据或者第二长文本数据切分为词语集合的处理过程,本示例实施例对此不做特殊限定。
需要说明的是,本示例实施例中的第一长文本数据或者第二长文本数据主要是以汉语为主的情况进行说明的,同样的,切词处理主要是针对以汉语、日语、韩语等无明显分隔符的语言,如果是英语等具有明显空格分隔符的语言,直接根据空格分隔符进行切词处理即可,本示例实施例对此不进行特殊说明。
预训练的词向量模型可以是指能够将切词处理后的第一长文本数据或者第二长文本数据映射到向量空间的模型,例如,词向量模型可以是Word2vec(Word to Vector,用来产生词向量的相关模型)模型,也可以是Glove模型,当然也可以是其他能够将切词处理后的第一长文本数据或者第二长文本数据映射到向量空间的模型,本示例实施例对此不做特殊限定。
第一词向量序列可以是指通过预训练的词向量模型对切词处理后的第一长文本数据进行词向量转化后得到的词向量序列,第二词向量序列可以是指通过预训练的词向量模型对切词处理后的第二长文本数据进行词向量转化后得到的词向量序列,当然,对切词处理后的第一长文本数据和第二长文本数据进行转换处理后,使用的是同一个预训练的词向量模型。
进一步的,在得到切词处理后的第一长文本数据对应的第一词向量序列和切词处理后的第二长文本数据对应的第二词向量序列之后,可以基于第一词向量序列构建第一长文本数据对应的第一共现矩阵,以及基于第二词向量序列构建第二长文本数据对应的第二共现矩阵。
具体的,可以通过图5中的步骤构建第一共现矩阵:
参考图5所示,步骤S510,根据预设尺寸的滑动窗口对所述第一词向量序列进行处理,以对所述第一词向量序列中在所述滑动窗口内的词向量建立第一连接关系;
步骤S520,通过所述第一词向量序列以及所述第一连接关系构建所述第一长文本数据对应的第一共现矩阵。
其中,预设尺寸的滑动窗口可以是指能够将第一词向量序列或者第二词向量序列构建为共现图的窗口函数,例如,预设尺寸的滑动窗口可以是长度为3的滑动窗口,也可以是长度为4的滑动窗口,当然,还可以是其他能够将第一词向量序列或者第二词向量序列构建为共现图的窗口函数,本示例实施例对此不作特殊限定。
第一连接关系可以是指将在第一词向量序列中出现在预设尺寸的滑动窗口内的两个词向量建立的连接关系,以通过建立的第一连接关系,得到第一长文本数据对应的第一共现矩阵(第一共现图)。
举例而言,对第一词向量序列进行共现图构建处理,节点就是第一词向量序列中的每一个词向量,然后通过一个长度为3的滑动窗口对第一词向量序列(第一长文本数据)进行处理,如果两个词向量出现在同一个滑动窗口内,则在两个词向量之间连边,即建立第一连接关系。最终,根据第一词向量序列以及建立的第一连接关系构建第一长文本数据对应的第一共现矩阵。这样,构建的第一共现矩阵能够有效表示第一长文本数据中词语与词语之间的交互信号。
具体的,可以通过图6中的步骤构建第一共现矩阵:
参考图6所示,步骤S610,根据预设尺寸的滑动窗口对所述第二词向量序列进行处理,以对所述第二词向量序列中在所述滑动窗口内的词向量建立第二连接关系;
步骤S620,通过所述第二词向量序列以及所述第二连接关系构建所述第二长文本数据对应的第二共现矩阵。
其中,第二连接关系可以是指将在第二词向量序列中出现在预设尺寸的滑动窗口内的两个词向量建立的连接关系,以通过建立的第二连接关系,得到第二长文本数据对应的第二共现矩阵(第二共现图)。
举例而言,对第二词向量序列进行共现图构建处理,节点就是第二词向量序列中的每一个词向量,然后通过一个长度为3的滑动窗口对第二词向量序列(第二长文本数据)进行处理,如果两个词向量出现在同一个滑动窗口内,则在两个词向量之间连边,即建立第二连接关系。最终,根据第二词向量序列以及建立的第二连接关系构建第二长文本数据对应的第二共现矩阵。这样,构建的第二共现矩阵能够有效表示第二长文本数据中词语与词语之间的交互信号。
本公开的一个示例实施例中,可以分别对第一共现矩阵和第二共现矩阵进行转化处理,得到第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量;并根据第一表征向量以及第二表征向量构建能够表征第一长文本数据与第二长文本数据之间交互关系的相似度交互矩阵。
其中,第一表征向量可以是指对第一共现矩阵进行转化处理后生成的、第一长文本数据对应的特征向量,第二表征向量可以是指对第二共现矩阵进行转化处理后生成的、第二长文本数据对应的特征向量。
通过第一共现矩阵和第二共现矩阵进行转化处理,得到第一长文本数据对应的第一表征向量以及第二长文本数据对应的第二表征向量,以使转化得到的第一表征向量和第二表征向量能够充分表达第一长文本数据和第二长文本数据中词语与词语之间的交互信号,有效提高第一长文本数据与第二长文本数据的匹配结果的匹配精度。
具体的,可以通过图7中的步骤生成第一表征向量和第二表征向量:
参考图7所示,步骤S710,通过预训练的门控图神经网络分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理;
步骤S720,基于注意力机制网络对转化处理后的所述第一共现矩阵和所述第二共现矩阵中的词向量添加权重数据,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量。
其中,门控图神经网络(Gated Graph Neural Network,GGNN)能够实现每一次参数更新时,每个节点既接受相邻节点的信息,又向相邻节点发送信息。门控图神经网络相比于其他神经网络处理排列相对不整齐,对于数据中的某个点很难找到他的邻居节点,并且邻居节点数量是不固定的数据,例如通过门控图神经网络处理第一长文本数据对应的第一共现矩阵或者处理第二长文本数据对应的第二共现矩阵。
举例而言,假设一个节点(词向量)从其相邻的节点接收到的信息为a,该节点接收到信息a之后会进行更新。假设门控图神经网络共有t层,从而能获得更高阶的交互信息,假设一个节点最远能从t层之外的节点接收到信息,则具体的交互过程的如关系式组(1)所示:
其中,A可以表示邻接矩阵,A∈R|V|×|V,σ可以表示激活函数(Sigmoid),W,U,b可以表示能够进行训练学习的参数,向量r,z的作用分别是更新门控和重置门控,h可以表示节点。
图8示意性示出了根据本公开的一个实施例的通过门控图神经网络对节点信息进行更新的流程示意图。
图9示意性示出了根据本公开的一个实施例的通过文本表征模块对长文本数据进行表征的示意图。
参考图9所示,可以通过文本表征模块900将第一长文本数据表征为第一表征向量,将第二长文本数据表征为第二表征向量。具体的,文本表征模块900可以包括词向量层(Word embedding)901,共现图构建层(Graph Construction)902,门控图神经网络层(Gated GNN)903以及注意力机制网络层(Soft attention)904。可以通过步骤S910至步骤S930将长文本数据转化为表征向量:
步骤S910,通过对长文本数据进行分词处理,并通过预训练的词向量模型将分词处理后的长文本数据转化为词向量序列,将得到的词向量序列输入到词向量层901中,进而通过词向量层901将词向量序列输入到共现图构建层902中;
步骤S920,基于共现图构建层902,通过预设尺寸的滑动窗口对词向量序列进行处理,将出现在同一个滑动窗口中的两个词向量建立连接关系(连边),以生成长文本数据对应的共现图(共现矩阵),然后将构建好的共现图输入到门控图神经网络层903中;
步骤S930,基于门控图神经网络层903对共现图进行转化处理,并转化处理后的共现图输入到注意力机制网络层904中,以通过注意力机制网络层904对共现图中的词向量添加权重数据,得到长文本数据对应的表征向量。
本公开的一个示例实施例中,可以通过图10中的步骤计算第一长文本数据和第二长文本数据的匹配结果:
参考图10所示,步骤S1010,计算所述第一表征向量中的词向量与所述第二表征向量中的词向量的相似度数据;
步骤S1020,根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
其中,相似度数据可以是指将第一表征向量与第二表征向量中的词向量两两计算相似度得到的数据,例如,相似度数据可以是将第一表征向量与第二表征向量中的词向量两两计算得到的余弦相似度数据,也可以是将第一表征向量与第二表征向量中的词向量两两计算得到的皮尔森相关系数,当然,相似度数据还可以是其他将第一表征向量与第二表征向量中的词向量两两计算得到的相似度数据,例如,还可以是将第一表征向量与第二表征向量中的词向量两两计算得到的欧几里得距离,本示例实施例对此不做特殊限定。
具体的,可以将第一表征向量和第二表征向量分别作为相似度交互矩阵的横轴和纵轴,并将相似度数据作为相似度交互矩阵的值,以构建相似度交互矩阵。
优选的,可以根据余弦相似度函数计算第一表征向量中的词向量与第二表征向量中的词向量的余弦相似度数据,将余弦相似度数据作为第一表征向量中的词向量与第二表征向量中的词向量的相似度数据。
例如,可以通过关系式(2)计算第一表征向量中的词向量与第二表征向量中的词向量的余弦相似度数据:
当然,可以通过关系式(3)计算第一表征向量中的词向量与第二表征向量中的词向量的相似度数据:
其中,Mij可以表示相似度数据(词向量之间的交互结果),向量可以表示第一表征向量中的第i个词向量,向量可以表示第二表征向量中的第j个词向量,即关系式(3)表示将第一表征向量中的词向量与第二表征向量中的词向量的点乘结果作为第一表征向量与第二表征向量的相似度数据。此处仅是以较简单的相似度数据表示第一长文本数据与第二长文本数据之间的交互关系,相似度数据也可以是其他能够表示第一表征向量与第二表征向量之间交互结果的数据,本示例实施例对此不做特殊限定。
需要说明的是,本公开的实施例中提到的“第一”、“第二”,仅适用于区分不同的长文本数据,以及不同长文本数据对应的词向量序列、表征向量等,并不应对本示例实施例造成任何特殊限定。
具体的,可以通过图11中的步骤基于相似度交互矩阵计算第一长文本数据和第二长文本数据的匹配结果:
参考图11所示,步骤S1110,根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行聚合处理;
步骤S1120,将聚合处理后的相似度交互矩阵输入到多层感知机层网络,得到所述第一长文本数据和所述第二长文本数据对应的匹配结果。
其中,卷积层网络(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到的。卷积运算的目的是提取输入的不同特征,第一层卷积层可能只能提取一些低级的特征如边缘、线条和角等层级,更多层的卷积层能从低级特征中迭代提取更复杂的特征,二维卷积层网络即具有高和宽的卷积层网络。
池化层网络(Pooling layer)一般接在卷积层网络后,对卷积层网络的输出进行池化(降维),以降低数据量,常见的有最大池化和平均池化,二维池化层网络即具有高和宽的池化层网络,接在二维卷积层网络的下一层。
多层感知机层网络(Multi-Layer Perceptron)是一种前馈人工神经网络模型,其可以将输入的多个数据集映射到单一的输出的数据集上。
在将相似度交互矩阵输入到二维卷积层网络之后,经过二维卷积层网络的处理提取特征数据,然后将提取的特征数据输入到二维池化层网络进行池化,然后将池化后的特征数据输入到多层感知机层网络,得到第一长文本数据与第二长文本数据的匹配结果。
进一步的,可以通过以下步骤实现对相似度交互矩阵的聚合处理:
根据预构建的二维卷积层网络对所述相似度交互矩阵进行卷积处理,得到所述相似度交互矩阵对应的特征矩阵;
根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,以完成对所述相似度交互矩阵的聚合处理。
其中,特征矩阵可以是将相似度交互矩阵输入到预构建的二维卷积层网络进行卷积后生成特征数据,然后将卷积处理得到的特征矩阵输入到二维池化层网络对特征矩阵进行池化处理,最终得到固定大小的特征矩阵。
举例而言,本示例实施例中的二维卷积操作和二维池化操作均可以进行叠加,因此,在此仅阐述第一层二维卷积操作和二维池化操作。具体的,对于第一层二维卷积,假设第k个卷积核扫描整个交互矩阵z(0)=M之后产生的特征图为z(1,k),生成z(1,k)生成的过程可以参考关系式(4)所示:
其中,这里的rk表示第k个卷积核的大小,w,z,b可以表示能够进行训练学习的参数,σ可以表示激活函数ReLU(Rectified Linear Unit,线性整流函数),本示例实施例利用了卡方核(Square Kernel)。
优选的,可以基于二维池化层网络对特征矩阵进行动态池化处理,以使二维池化层网络能够对长度不断变化的词向量序列进行池化处理。基于动态池化策略对特征矩阵进行动态池化处理,能够有效地应对长文本数据的词向量序列长度不断变化的问题,进一步保证匹配结果的准确度。
举例而言,可以通过关系式(5)对特征矩阵进行池化处理,得到固定大小的特征矩阵:
图12示意性示出了根据本公开的一个实施例的通过文本匹配模块对长文本数据进行匹配的示意图。
参考图12所示,可以根据文本匹配模块1200基于文本表征模块900输出的第一长文本数据对应的第一表征向量,以及第二长文本数据表征对应的第二表征向量,计算第一长文本数据与第二长文本数据对应的匹配结果。具体的,文本匹配模块1200可以包括词向量层(Word embedding)1201,二维卷积网络层(2D Convolution)1202,二维池化网络层(2DPooling)1203以及多层感知机网络层(MLP)1204,其中词向量层1201的输入为文本表征模块900的输出。可以通过步骤S1210至步骤S1240将长文本数据转化为表征向量:
步骤S1210,将图9中的文本表征模块900输出的第一长文本数据对应的第一表征向量以及第一长文本数据对应的第二表征向量输入到词向量层1201中,进而通过词向量层1201将第一表征向量和第二表征向量输入到二维卷积网络层1202中;
步骤S1220,由第一表征向量中的词向量和第二表征向量中的词向量两两计算得到相似度数据,并以第一表征向量和第二表征向量分别为矩阵的横轴和纵轴,以相似度数据为矩阵的值,构建第一表征向量与第二表征向量对应的相似度交互矩阵,并通过二维卷积网络层1202对该相似度交互矩阵进行卷积处理得到特征矩阵,并将特征矩阵输入到二维池化网络层1203中;
步骤S1230,通过二维池化网络层1203对特征矩阵进行动态池化处理,得到固定大小的特征矩阵,并将固定大小的特征矩阵输入到多层感知机网络层1204中;
步骤S1240,通过多层感知机网络层1204对固定大小的特征矩阵进行转换处理,输出第一长文本数据与第二长文本数据对应的匹配结果,进而根据该匹配结果从第二长文本数据中选择与第一长文本数据最匹配的目标长文本数据。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中,还提供了一种长文本匹配装置。该长文本匹配装置可以应用于一服务器或终端设备。参考图13所示,该长文本匹配装置1300可以包括长文本数据获取模块1310、共现矩阵构建模块1320、相似度交互矩阵构建模块1330以及长文本数据匹配模块1340。其中:
长文本数据获取模块1310用于获取输入的第一长文本数据以及待匹配的第二长文本数据;
共现矩阵构建模块1320用于对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
相似度交互矩阵构建模块1330用于基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
长文本数据匹配模块1340用于对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
在本公开的一种示例性实施例中,所述长文本匹配装置1300还包括文本切词单元,所述文本切词单元被配置为:
对所述第一长文本数据和所述第二长文本数据进行切词处理;
根据预训练的词向量模型将切词处理后的第一长文本数据和切词处理后的第二长文本数据进行转化处理,得到第一词向量序列以及第二词向量序列。
在本公开的一种示例性实施例中,所述共现矩阵构建模块1320还包括:
第一共现矩阵构建单元,用于基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵;以及
第二共现矩阵构建单元,用于基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,所述第一共现矩阵构建单元还被配置为:
根据预设尺寸的滑动窗口对所述第一词向量序列进行处理,以对所述第一词向量序列中在所述滑动窗口内的词向量建立第一连接关系;
通过所述第一词向量序列以及所述第一连接关系构建所述第一长文本数据对应的第一共现矩阵。
在本公开的一种示例性实施例中,所述第二共现矩阵构建单元还被配置为:
根据预设尺寸的滑动窗口对所述第二词向量序列进行处理,以对所述第二词向量序列中在所述滑动窗口内的词向量建立第二连接关系;
通过所述第二词向量序列以及所述第二连接关系构建所述第二长文本数据对应的第二共现矩阵。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建模块1330还包括:
表征向量生成单元,用于分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量;
相似度交互矩阵构建单元,用于根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,所述表征向量生成单元还用于:
通过预训练的门控图神经网络分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理;
基于注意力机制网络对转化处理后的所述第一共现矩阵和所述第二共现矩阵中的词向量添加权重数据,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建单元还包括:
相似度计算子单元,用于计算所述第一表征向量中的词向量与所述第二表征向量中的词向量的相似度数据;
相似度交互矩阵构建子单元,用于根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
在本公开的一种示例性实施例中,所述相似度交互矩阵构建模块1330还用于:
将所述第一表征向量和所述第二表征向量分别作为所述相似度交互矩阵的横轴和纵轴,并将所述相似度数据作为所述相似度交互矩阵的值,以构建所述相似度交互矩阵。
在本公开的一种示例性实施例中,所述长文本数据匹配模块1340还包括:
矩阵转化单元,用于根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行聚合处理;
匹配结果生成单元,用于将聚合处理后的相似度交互矩阵输入到多层感知机层网络,得到所述第一长文本数据和所述第二长文本数据对应的匹配结果。
在本公开的一种示例性实施例中,所述矩阵转化单元包括:
卷积子单元,用于根据预构建的二维卷积层网络对所述相似度交互矩阵进行卷积处理,得到所述相似度交互矩阵对应的特征矩阵;
池化子单元,用于根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,以完成对所述相似度交互矩阵的转化处理。
在本公开的一种示例性实施例中,所述池化子单元还用于:
基于所述二维池化层网络对所述特征矩阵进行动态池化处理,以使所述二维池化层网络能够对长度不断变化的词向量序列进行池化处理。
上述长文本匹配装置中各模块或单元的具体细节已经在对应的长文本匹配方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
图14示意性示出了根据本公开的一个实施例的长文本匹配方法的一种应用场景示意图。
参考图14所示,步骤S1410,用户1401通过终端输入第一长文本数据,例如,在终端是电脑1402时,用户可以通过运行在电脑1402上的搜索引擎以输入框的形式输入第一长文本数据,在终端是智能移动设备1403时,用户可以通过运行在智能移动设备1403(如智能手机、智能手环、智能眼镜等)上的语音交互模块(如语音助手)以语音输入的形式输入第一长文本数据,在终端是智能交互机器人1404时,用户可以通过智能交互机器人1404的语音交互模块以语音输入的形式输入第一长文本数据;
步骤S1420,终端1402、1403、1404在接收到用户1401的第一长文本数据输入指令时,提取第一长文本数据,并通过网络通信的方式将第一长文本数据发送给服务器1405;
步骤S1430,服务器1405获取输入的第一长文本数据,并在预设数据库中获取待匹配的第二长文本数据,并通过运行在服务器1405中的长文本匹配模块1406确定与第一长文本数据匹配的目标长文本数据;
步骤S1440,服务器1405将生成的目标长文本数据返回给请求的终端1402、1403、1404;
步骤S1450,终端1402、1403、1404接收目标长文本数据,并将目标长文本数据展示给用户1401,例如,在终端是电脑1402时,通过搜索引擎的结果展示页面显示目标长文本数据,在终端是智能移动设备1403时,通过语音交互模块将目标长文本数据转化为语音数据并进行播放,在终端是智能交互机器人1404时,通过智能交互机器人1404的语音交互模块将目标长文本数据转化为语音数据,并以对话的形式进行播放。
图15示意性示出了根据本公开的一个实施例的长文本匹配方法的另一种应用场景示意图。
参考图15所示,参考图15所示,步骤S1510,用户1501通过终端输入第一长文本数据,例如,在终端是电脑1502时,用户可以通过运行在电脑1502上的搜索引擎以输入框的形式输入第一长文本数据,在终端是智能移动设备1503时,用户可以通过运行在智能移动设备1503(如智能手机、智能手环、智能眼镜等)上的语音交互模块(如语音助手)以语音输入的形式输入第一长文本数据,在终端是智能交互机器人1504时,用户可以通过智能交互机器人1504的语音交互模块以语音输入的形式输入第一长文本数据;
步骤S1520,终端1502、1503、1504在接收到用户1501的第一长文本数据输入指令时,提取第一长文本数据,并通过网络通信的方式向服务器1505请求第二长文本数据,服务器1505在预设数据库获取第二长文本数据,并返回给请求的终端1502、1503、1504;
步骤S1530,终端1502、1503、1504获取输入的第一长文本数据,以及服务器1505返回的第二长文本数据,并通过运行在终端1502、1503、1504中的长文本匹配模块1506确定与第一长文本数据匹配的目标长文本数据;
步骤S1540,终端1502、1503、1504将生成的目标长文本数据展示给用户1501,例如,在终端是电脑1502时,通过搜索引擎的结果展示页面显示目标长文本数据,在终端是智能移动设备1503时,通过语音交互模块将目标长文本数据转化为语音数据并进行播放,在终端是智能交互机器人1504时,通过智能交互机器人1504的语音交互模块将目标长文本数据转化为语音数据,并以对话的形式进行播放。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (15)
1.一种长文本匹配方法,其特征在于,包括:
获取输入的第一长文本数据以及待匹配的第二长文本数据;
对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
2.根据权利要求1所述的长文本匹配方法,其特征在于,在获取输入的第一长文本数据以及待匹配的第二长文本数据之后,所述方法还包括:
对所述第一长文本数据和所述第二长文本数据进行切词处理;
根据预训练的词向量模型将切词处理后的第一长文本数据和切词处理后的第二长文本数据进行转化处理,得到第一词向量序列以及第二词向量序列。
3.根据权利要求2所述的长文本匹配方法,其特征在于,所述构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵,包括:
基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵;以及
基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵。
4.根据权利要求3所述的长文本匹配方法,其特征在于,基于所述第一词向量序列构建所述第一长文本数据对应的第一共现矩阵,包括:
根据预设尺寸的滑动窗口对所述第一词向量序列进行处理,以对所述第一词向量序列中在所述滑动窗口内的词向量建立第一连接关系;
通过所述第一词向量序列以及所述第一连接关系构建所述第一长文本数据对应的第一共现矩阵。
5.根据权利要求3所述的长文本匹配方法,其特征在于,基于所述第二词向量序列构建所述第二长文本数据对应的第二共现矩阵,包括:
根据预设尺寸的滑动窗口对所述第二词向量序列进行处理,以对所述第二词向量序列中在所述滑动窗口内的词向量建立第二连接关系;
通过所述第二词向量序列以及所述第二连接关系构建所述第二长文本数据对应的第二共现矩阵。
6.根据权利要求1所述的长文本匹配方法,其特征在于,基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量;
根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
7.根据权利要求6所述的长文本匹配方法,其特征在于,分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量,包括:
通过预训练的门控图神经网络分别对所述第一共现矩阵和所述第二共现矩阵进行转化处理;
基于注意力机制网络对转化处理后的所述第一共现矩阵和所述第二共现矩阵中的词向量添加权重数据,得到所述第一长文本数据对应的第一表征向量以及所述第二长文本数据对应的第二表征向量。
8.根据权利要求6所述的长文本匹配方法,其特征在于,所述根据所述第一表征向量以及所述第二表征向量构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
计算所述第一表征向量中的词向量与所述第二表征向量中的词向量的相似度数据;
根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵。
9.根据权利要求8所述的长文本匹配方法,其特征在于,所述根据所述第一表征向量、所述第二表征向量以及所述相似度数据构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵,包括:
将所述第一表征向量和所述第二表征向量分别作为所述相似度交互矩阵的横轴和纵轴,并将所述相似度数据作为所述相似度交互矩阵的值,以构建所述相似度交互矩阵。
10.根据权利要求1所述的长文本匹配方法,其特征在于,所述对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,包括:
根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行聚合处理;
将聚合处理后的相似度交互矩阵输入到多层感知机层网络,得到所述第一长文本数据和所述第二长文本数据对应的匹配结果。
11.根据权利要求10所述的长文本匹配方法,其特征在于,根据预构建的二维卷积层网络和二维池化层网络对所述相似度交互矩阵进行转化处理,包括:
根据预构建的二维卷积层网络对所述相似度交互矩阵进行卷积处理,得到所述相似度交互矩阵对应的特征矩阵;
根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,以完成对所述相似度交互矩阵的转化处理。
12.根据权利要求11所述的长文本匹配方法,其特征在于,所述根据预构建的二维池化层网络对所述特征矩阵进行池化处理,得到固定大小的特征矩阵,包括:
基于所述二维池化层网络对所述特征矩阵进行动态池化处理,得到固定大小的特征矩阵,以使所述二维池化层网络能够对长度不断变化的词向量序列进行池化处理。
13.一种长文本匹配装置,其特征在于,包括:
长文本数据获取模块,用于获取输入的第一长文本数据以及待匹配的第二长文本数据;
共现矩阵构建模块,用于对所述第一长文本数据与所述第二长文本数据分别进行长文本内部表征处理,以构建所述第一长文本数据对应的第一共现矩阵,以及构建所述第二长文本数据对应的第二共现矩阵;
相似度交互矩阵构建模块,用于基于所述第一共现矩阵以及所述第二共现矩阵,构建能够表征所述第一长文本数据与所述第二长文本数据之间交互关系的相似度交互矩阵;
长文本数据匹配模块,用于对所述相似度交互矩阵进行转化处理,得到所述第一长文本数据与所述第二长文本数据对应的匹配结果,以根据所述匹配结果在所述第二长文本数据中选择与所述第一长文本数据匹配的目标长文本数据。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-12任一项所述的方法。
15.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010811453.8A CN111930894B (zh) | 2020-08-13 | 2020-08-13 | 长文本匹配方法及装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010811453.8A CN111930894B (zh) | 2020-08-13 | 2020-08-13 | 长文本匹配方法及装置、存储介质、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111930894A true CN111930894A (zh) | 2020-11-13 |
CN111930894B CN111930894B (zh) | 2022-10-28 |
Family
ID=73311626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010811453.8A Active CN111930894B (zh) | 2020-08-13 | 2020-08-13 | 长文本匹配方法及装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111930894B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743121A (zh) * | 2021-09-08 | 2021-12-03 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN113806486A (zh) * | 2021-09-23 | 2021-12-17 | 深圳市北科瑞声科技股份有限公司 | 长文本相似度的计算方法及装置、存储介质、电子装置 |
CN114297338A (zh) * | 2021-12-02 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、存储介质和程序产品 |
CN115861663A (zh) * | 2023-03-01 | 2023-03-28 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于自监督学习模型的文档图像内容比对方法 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992480A (zh) * | 2017-12-25 | 2018-05-04 | 东软集团股份有限公司 | 一种实现实体消歧的方法、装置及存储介质、程序产品 |
US20180217980A1 (en) * | 2017-01-29 | 2018-08-02 | International Business Machines Corporation | Text mining for automatically determining semantic relatedness |
CN109918560A (zh) * | 2019-01-09 | 2019-06-21 | 平安科技(深圳)有限公司 | 一种基于搜索引擎的问答方法和装置 |
CN110033022A (zh) * | 2019-03-08 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 文本的处理方法、装置和存储介质 |
CN110597982A (zh) * | 2019-06-05 | 2019-12-20 | 福建奇点时空数字科技有限公司 | 一种基于词共现网络的短文本主题聚类算法 |
CN110765265A (zh) * | 2019-09-06 | 2020-02-07 | 平安科技(深圳)有限公司 | 信息分类抽取方法、装置、计算机设备和存储介质 |
CN110795937A (zh) * | 2019-09-25 | 2020-02-14 | 卓尔智联(武汉)研究院有限公司 | 信息处理方法、装置及存储介质 |
CN111125358A (zh) * | 2019-12-17 | 2020-05-08 | 北京工商大学 | 一种基于超图的文本分类方法 |
CN111401928A (zh) * | 2020-04-01 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 基于图数据确定文本的语义相似度的方法及装置 |
-
2020
- 2020-08-13 CN CN202010811453.8A patent/CN111930894B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180217980A1 (en) * | 2017-01-29 | 2018-08-02 | International Business Machines Corporation | Text mining for automatically determining semantic relatedness |
CN107992480A (zh) * | 2017-12-25 | 2018-05-04 | 东软集团股份有限公司 | 一种实现实体消歧的方法、装置及存储介质、程序产品 |
CN109918560A (zh) * | 2019-01-09 | 2019-06-21 | 平安科技(深圳)有限公司 | 一种基于搜索引擎的问答方法和装置 |
CN110033022A (zh) * | 2019-03-08 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 文本的处理方法、装置和存储介质 |
CN110597982A (zh) * | 2019-06-05 | 2019-12-20 | 福建奇点时空数字科技有限公司 | 一种基于词共现网络的短文本主题聚类算法 |
CN110765265A (zh) * | 2019-09-06 | 2020-02-07 | 平安科技(深圳)有限公司 | 信息分类抽取方法、装置、计算机设备和存储介质 |
CN110795937A (zh) * | 2019-09-25 | 2020-02-14 | 卓尔智联(武汉)研究院有限公司 | 信息处理方法、装置及存储介质 |
CN111125358A (zh) * | 2019-12-17 | 2020-05-08 | 北京工商大学 | 一种基于超图的文本分类方法 |
CN111401928A (zh) * | 2020-04-01 | 2020-07-10 | 支付宝(杭州)信息技术有限公司 | 基于图数据确定文本的语义相似度的方法及装置 |
Non-Patent Citations (2)
Title |
---|
YAO L: "Graph convolutional networks for text classification", 《PROCEEDINGS OF THE AAAI CONFERENCE ON ARTIFICIAL INTELLIGENCE》 * |
曹恬: "一种基于词共现的文本相似度计算", 《计算机工程与科学》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743121A (zh) * | 2021-09-08 | 2021-12-03 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN113743121B (zh) * | 2021-09-08 | 2023-11-21 | 平安科技(深圳)有限公司 | 长文本实体关系抽取方法、装置、计算机设备及存储介质 |
CN113806486A (zh) * | 2021-09-23 | 2021-12-17 | 深圳市北科瑞声科技股份有限公司 | 长文本相似度的计算方法及装置、存储介质、电子装置 |
CN114297338A (zh) * | 2021-12-02 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 文本匹配方法、装置、存储介质和程序产品 |
CN115861663A (zh) * | 2023-03-01 | 2023-03-28 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种基于自监督学习模型的文档图像内容比对方法 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
CN116304748B (zh) * | 2023-05-17 | 2023-07-28 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111930894B (zh) | 2022-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111930894B (zh) | 长文本匹配方法及装置、存储介质、电子设备 | |
CN111444340B (zh) | 文本分类方法、装置、设备及存储介质 | |
CN109783666B (zh) | 一种基于迭代精细化的图像场景图谱生成方法 | |
CN111753024B (zh) | 一种面向公共安全领域的多源异构数据实体对齐方法 | |
CN111932386B (zh) | 用户账号确定方法及装置、信息推送方法及装置、电子设备 | |
JP7417679B2 (ja) | 情報抽出方法、装置、電子機器及び記憶媒体 | |
CN113761153B (zh) | 基于图片的问答处理方法、装置、可读介质及电子设备 | |
CN111159409B (zh) | 基于人工智能的文本分类方法、装置、设备、介质 | |
CN111709493B (zh) | 对象分类方法、训练方法、装置、设备及存储介质 | |
WO2019154411A1 (zh) | 词向量更新方法和装置 | |
CN110795944A (zh) | 推荐内容处理方法及装置、情感属性确定方法及装置 | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN113705313A (zh) | 文本识别方法、装置、设备及介质 | |
CN112733043B (zh) | 评论推荐方法及装置 | |
US20230008897A1 (en) | Information search method and device, electronic device, and storage medium | |
JP2024512628A (ja) | キャプション生成器を生成するための方法および装置、並びにキャプションを出力するための方法および装置 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN114782722B (zh) | 图文相似度的确定方法、装置及电子设备 | |
CN114282059A (zh) | 视频检索的方法、装置、设备及存储介质 | |
CN113761868A (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
CN113919360A (zh) | 语义理解方法、语音交互方法、装置、设备及存储介质 | |
CN116975350A (zh) | 图文检索方法、装置、设备及存储介质 | |
CN115269828A (zh) | 用于生成评论回复的方法、设备和介质 | |
CN117290478A (zh) | 一种知识图谱问答方法、装置、设备和存储介质 | |
CN117114063A (zh) | 用于训练生成式大语言模型和用于处理图像任务的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |