CN110413988A - 文本信息匹配度量的方法、装置、服务器及存储介质 - Google Patents
文本信息匹配度量的方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN110413988A CN110413988A CN201910521519.7A CN201910521519A CN110413988A CN 110413988 A CN110413988 A CN 110413988A CN 201910521519 A CN201910521519 A CN 201910521519A CN 110413988 A CN110413988 A CN 110413988A
- Authority
- CN
- China
- Prior art keywords
- text
- similar
- preset
- characterization information
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能领域,公开了一种文本信息匹配度量的方法,所述文本信息匹配度量的方法包括:在接收到目标文本和相似文本时,读取目标文本和相似文本中的字词粒度;根据读取到的目标文本的字词粒度和相似文本的字词粒度,获取目标文本的向量表征信息和相似文本的向量表征信息;当将目标文本的向量表征信息和相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取预置孪生网络模型计算的目标文本与相似文本的相似度;在获取到目标文本与相似文本之间的相似度时,匹配与目标文本相似度最高的相似文本。本发明还公开了一种装置、服务器及存储介质。实现了基于词语和单字集成的文本相似度匹配算法,进一步提高句子语义分析效果。
Description
技术领域
本发明涉及智能推荐领域,尤其涉及一种文本信息匹配度量的方法、装置、服务器及计算机可读存储介质。
背景技术
最近几年随着word2vec和GloVe等词语分布表示工具的出现和完善,词语的表示信息越来越丰富,每个词向量不仅包含较为丰富的语义信息,同时每个词向量之间还存在一定的关系,可以通过简单的运算来得到预料中未包含词语的向量信息。自2012年来,卷积神经网络(convolutional neural networks,CNN)模型在图像识别中大放异彩,更多的研究者们开始将CNN模型移植到自然语言处理的任务上来,以获取不同文本之间的相似度。
目前业内的问题相似度算法主要包括:1、在平均词嵌入之间求余弦相似性的基准方法;2、词移距离:使用两文本间的词嵌入,测量其中一文本中的单词在语义空间中移动到另一文本单词所需要的最短距离;3、Smooth Inverse Frequency对每个词嵌入赋予不同的权重。但这些方法存在基于句子词语的相似度量仍存在无法比较准确,且语义的剥离往往有较大偏差。
发明内容
本发明的主要目的在于提供一种文本信息匹配度量的方法,旨在解决在相似度算法中获取文本的语义往往有较大偏差,导致相似度度量不准确的技术问题。
为实现上述目的,本发明提供一种文本信息匹配度量的方法,所述文本信息匹配度量的方法包括:
在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;
根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;
当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;
在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
可选的,所述在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,包括:
在接收到目标文本和相似文本时,获取预置知识库;
当获取到所述预置知识库时,分解所述目标文本和所述相似文本;
在分解所述目标文本和所述相似文本时,读取所述目标文本和所述相似文本中的字词粒度。
可选的,所述根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息,包括:
在读取到所述目标文本的字词粒度和所述相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型;
根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息;
根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息。
可选的,所述根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息,包括:
当调用所述预置第一神经网络模型时,将读取到的所述目标文本的字词粒度和所述相似文本的字词粒度分别作为所述预置第一神经网络模型的输入值;
在运行所述预置第一神经网络模型时,检测所述预置第一神经网络的权重矩阵以及隐藏层;
在检测到所述预置第一神经网络的权重矩阵以及隐藏层时,分别获取所述预置第一神经网络模型输出的所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息。
可选的,所述根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息之后,所述根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息之前,还包括:
当获取到所述目标文本的字词向量表征信息的数量和所述相似文本的字词向量表征信息的数量时,判断所述目标文本与所述相似文本的字词向量表征信息的数量是否一致;
当所述目标文本的字词向量表征信息的数量与所述相似文本的字词向量表征信息的数量不一致时,根据预置阈值修改所述目标文本或所述相似文本的字词向量表征信息的数量。
可选的,所述根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息,包括:
当调用所述预置第二神经网络模型时,分别将所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息作为所述预置第二神经网络模型的输入值;
在运行所述预置第二神经网络模型时,检测所述预置第二神经网络的权重矩阵以及隐藏层;
在检测到所述预置第二神经网络的权重矩阵以及隐藏层时,获取所述预置第二神经网络模型输出的所述目标文本的向量表征信息和所述相似文本的向量表征信息。
可选的,所述当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度,包括:
在获取到所述目标文本的向量表征信息以及所述相似文本的向量表征信息时,向所述预置孪生神经网络模型中输入所述目标文本的向量表征信息和所述相似文本的向量表征信息;
当输入所述目标文本的向量表征信息和所述相似文本的向量表征信息时,检测到所述预置孪生神经网络模型的注意力机制以及前向网络编码将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为隐藏层的初始值;
根据所述预置孪生神经网络模型的函数公式获取所述目标文本和所述相似文本之间的相似度。
此外,为实现上述目的,本发明还提供一种文本信息匹配度量的装置,所述文本信息匹配度量的装置包括:
读取模块,用于在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;
第一获取模块,用于根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;
第二获取模块,用于当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;
匹配模块,用于在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
可选的,所述读取模块具体用于:
在接收到目标文本和相似文本时,获取预置知识库;
当获取到所述预置知识库时,分解所述目标文本和所述相似文本;
在分解所述目标文本和所述相似文本时,读取所述目标文本和所述相似文本中的字词粒度。
可选的,所述第一获取模块包括:
第一调用单元,用于在读取到所述目标文本的字词粒度和所述相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型;
第一获取单元,用于根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息;
第二获取单元,用于根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息。
可选的,所述第一获取单元具体用于:
当调用所述预置第一神经网络模型时,将读取到的所述目标文本的字词粒度和所述相似文本的字词粒度分别作为所述预置第一神经网络模型的输入值;
在运行所述预置第一神经网络模型时,检测所述预置第一神经网络的权重矩阵以及隐藏层;
在检测到所述预置第一神经网络的权重矩阵以及隐藏层时,分别获取所述预置第一神经网络模型输出的所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息。
可选的,所述第一获取模块,还包括:
判断单元,用于当获取到所述目标文本的字词向量表征信息的数量和所述相似文本的字词向量表征信息的数量时,判断所述目标文本与所述相似文本的字词向量表征信息的数量是否一致;
修改单元,用于当所述目标文本的字词向量表征信息的数量与所述相似文本的字词向量表征信息的数量不一致时,根据预置阈值修改所述目标文本或所述相似文本的字词向量表征信息的数量。
可选的,所述第二获取单元具体用于:
当调用所述预置第二神经网络模型时,分别将所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息作为所述预置第二神经网络模型的输入值;
在运行所述预置第二神经网络模型时,检测所述预置第二神经网络的权重矩阵以及隐藏层;
在检测到所述预置第二神经网络的权重矩阵以及隐藏层时,获取所述预置第二神经网络模型输出的所述目标文本的向量表征信息和所述相似文本的向量表征信息。
可选的,所述第二获取模块具体用于:
在获取到所述目标文本的向量表征信息以及所述相似文本的向量表征信息时,向所述预置孪生神经网络模型中输入所述目标文本的向量表征信息和所述相似文本的向量表征信息;
当输入所述目标文本的向量表征信息和所述相似文本的向量表征信息时,检测到所述预置孪生神经网络模型的注意力机制以及前向网络编码将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为隐藏层的初始值;
根据所述预置孪生神经网络模型的函数公式获取所述目标文本和所述相似文本之间的相似度。
此外,为实现上述目的,本发明还提供一种服务器,所述服务器包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的文本信息匹配度量程序,所述文本信息匹配度量程序被所述处理器执行时实现如上发明所述的文本信息匹配度量的方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有文本信息匹配度量程序,所述文本信息匹配度量程序被处理器执行时实现如上发明所述的文本信息匹配度量方法的步骤。
本发明实施例提出的一种文本信息匹配度量的方法、装置、服务器及计算机可读存储介质,通过在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本,实现了基于词语和单字集成的文本相似度匹配算法,进一步提高句子语义分析效果。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的服务器结构示意图;
图2为本发明文本信息匹配度量的方法第一实施例的流程示意图;
图3为本发明文本信息匹配度量的方法第二实施例的流程示意图;
图4为本发明文本信息匹配度量的方法第三实施例的流程示意图;
图5为图4中S22的步骤的细化流程示意图;
图6为本发明文本信息匹配度量的方法第四实施例的流程示意图;
图7为图4中S23的步骤的细化流程示意图;
图8为本发明文本信息匹配度量的方法第五实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
由于现有技术在相似度算法中获取文本的语义往往有较大偏差,导致相似度度量不准确。
本发明提供一种解决方案,使基于词语和单字集成的文本相似度匹配算法,进一步提高句子语义分析效果。
如图1所示,图1为本发明实施例方案涉及的硬件运行环境的终端结构示意图。
本发明实施例终端是服务器。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及文本信息匹配度量程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的文本信息匹配度量程序,并执行以下操作:
在接收到目标文本和相似文本时,读取目标文本和相似文本中的字词粒度,其中所述相似文本至少为一个;
根据读取到的目标文本的字词粒度和相似文本的字词粒度,获取目标文本的向量表征信息和相似文本的向量表征信息;
当将目标文本的向量表征信息和相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取预置孪生网络模型计算的目标文本与相似文本之间的相似度;
在获取到目标文本与相似文本之间的相似度时,匹配与目标文本相似度最高的相似文本。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
在接收到目标文本和相似文本时,获取预置知识库;
当获取到预置知识库时,分解目标文本和相似文本;
在分解目标文本和相似文本时,读取所述目标文本和相似文本中的字词粒度。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
在读取到目标文本的字词粒度和相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型;
根据预置第一神经网络模型,获取目标文本的字词向量表征信息和相似文本的字词向量表征信息;
根据预置第二神经网络模型,获取目标文本的向量表征信息和相似文本的向量表征信息。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
当调用预置第一神经网络模型时,将读取到的目标文本的字词粒度和相似文本的字词粒度分别作为预置第一神经网络模型的输入值;
在运行预置第一神经网络模型时,检测预置第一神经网络的权重矩阵以及隐藏层;
在检测到预置第一神经网络的权重矩阵以及隐藏层时,分别获取预置第一神经网络模型输出的目标文本的字词向量表征信息和相似文本的字词向量表征信息。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
当获取到目标文本的字词向量表征信息的数量和相似文本的字词向量表征信息的数量时,判断目标文本与相似文本的字词向量表征信息的数量是否一致;
当目标文本的字词向量表征信息的数量与相似文本的字词向量表征信息的数量不一致时,根据预置阈值修改目标文本或相似文本的字词向量表征信息的数量。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
当调用预置第二神经网络模型时,分别将目标文本的字词向量表征信息和相似文本的字词向量表征信息作为预置第二神经网络模型的输入值;
在运行预置第二神经网络模型时,检测预置第二神经网络的权重矩阵以及隐藏层;
在检测到预置第二神经网络的权重矩阵以及隐藏层时,获取预置第二神经网络模型输出的目标文本的向量表征信息和相似文本的向量表征信息。
进一步地,处理器1001可以调用存储器1005中存储的文本信息匹配度量程序,还执行以下操作:
在获取到目标文本的向量表征信息以及相似文本的向量表征信息时,向预置孪生神经网络模型中输入目标文本的向量表征信息和相似文本的向量表征信息;
当输入目标文本的向量表征信息和相似文本的向量表征信息时,检测到预置孪生神经网络模型的注意力机制以及前向网络编码将目标文本的向量表征信息和相似文本的向量表征信息作为隐藏层的初始值;
根据预置孪生神经网络模型的函数公式获取目标文本和相似文本之间的相似度。
参照图2,图2为本发明文本信息匹配度量的方法第一实施例,文本信息匹配度量的方法包括:
步骤S10,在接收到目标文本和相似文本时,读取目标文本和相似文本中的字词粒度;
服务器在接收到终端发送的待处理文本时,读取待处理文本中的字词粒度。其中待处理文本包括目标文本与相似文本,且相似文本可以是一个也可以是多个。目标文本与相似文本都是由字词粒度组成的,例如,目标文本为琅琊榜1号年化率多少,相似文本为琅琊榜1号产品收益率。服务器在获取到目标文本和相似文本时,对目标文本和相似文本中的字词进行分解,读取目标文本和相似文本中的字词粒度。例如,将目标文本拆解为,琅琊榜、1号、年化、多少等,或者,将相似文本拆解为琅琊榜、1号、产品、收益、率等。
步骤S20,根据读取到的目标文本的字词粒度和相似文本的字词粒度,获取目标文本的向量表征信息和相似文本的向量表征信息;
当服务器获取到目标文本的字词粒度和相似文本的字词粒度时,将获取到的字词粒度进行翻译,获取每一个字词粒度对应的语义信息,再将获取到的语义信息进行综合得到目标文本的向量表征信息和相似文本的向量表征信息。例如,当服务器获取到目标文本的字词粒度和相似文本的字词粒度对应的向量表征信息时,根据字粒度和词粒度在文本中的位置,将获取到字粒度和词粒度对应的向量表征信息按照文本中的位置进行拼接,通过拼接来获取到目标文本的向量表征信息和相似文本的向量表征信息。
步骤S30,当将目标文本的向量表征信息和相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取预置孪生网络模型计算的目标文本与相似文本之间的相似度;
服务器在获取到目标文本与相似文本的向量表征信息时,调用预置孪生神经网络模型。在调用预置孪生神经网络模型时,将获取到的目标文本与相似文本分别作为预置孪生神经网络模型的输入值,孪生神经网络模型是一类包含两个或两个以上相同子网络的神经网络架构。这里相同是指它们具有相同的配置即具有相同的参数和权重,参数更新在两个子网上共同进行。孪生神经网络在涉及发现相似性或两个可比较的事物之间的关系的任务中流行,例如一些例子是复述评分,其中输入是两个句子,输出是它们是多么相似的得分;或签名验证,确定两个签名是否来自同一个人。通常,在这样的任务中,使用两个相同的子网络来处理两个输入,并且另一个模块将取得它们的输出并产生最终输出。在运行输入目标文本与相似文本后,获取孪生神经网络模型计算的相似度。
步骤S40,在获取到目标文本与相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
服务器在获取到目标文本与相似文本之间的相似度时,匹配相似度最高的相似文本。当相似文本不止一个时,分别获取每一个相似文本与目标文本之间的相似度,服务器在获取到每一个相似文本与目标文本之间的相似度时,匹配与目标文本相似度最高的相似文本。
在本实施例中,服务器在接收到目标文本和相似文本时,读取目标文本和相似文本中的字词粒度。服务器在读取到目标文本和相似文本中的字词粒度时,获取目标文本的向量表征信息和相似文本的向量表征信息。当服务器将获取到的目标文本的向量表征信息和相似文本的向量表征信息作为预置孪生神经网络模型的输入值时,获取孪生网络模型计算的相似度,匹配与目标文本相似度最高的相似文本,基于词语和单字集成的句子相似度匹配算法,进一步提高句子语义分析效果。
进一步的,参照图3,图3为本发明文本信息匹配度量的方法第二实施例,基于上述图2所示的实施例,步骤S10包括:
步骤S11,在接收到目标文本和相似文本时,获取预置知识库;
步骤S12,当获取到预置知识库时,分解目标文本和相似文本;
步骤S13,在分解目标文本和相似文本时,读取所述目标文本和相似文本中的字词粒度。
在服务器获取到用户向客服机器人发送的目标文本和相似文本时,获取预先设置的知识库。知识库可以为中文维基百科,而中文维基百科包括闽南语维基百科、粤语维基百科、文言文维基百科、吴语维基百科、闽东语维基百科、赣语维基百科及客家语维基百科等。不仅对闽南语、粤语、文言文、吴语、闽东语、赣语及客家语等字、或做出了相应的描述,还对闽南语、粤语、文言文、吴语、闽东语、赣语及客家语等文本做出了相应的描述。当获取到预先设置的知识库时,根据知识库中的字、词对目标文本和相似文本中的字、词粒度进行拆解,获取拆解到的字、词粒度。在进行拆解时,先将目标文本和相似文本中的信息拆解成词粒度,当不能将目标文本和相似文本中的信息拆解成词粒度时,再拆解成字粒度。
在本实施例中,服务器在接收到目标文本和相似文本时,获取预置知识库,根据获取到的预置知识库,将目标文本和相似文本中的信息分解成字词粒度,并读取目标文本和相似文本中的字词粒度,通过预置知识库,精确的对目标文本和相似文本进行分解,并读取目标文本和相似文本中字词粒度。
参照图4,图4为本发明文本信息匹配度量的方法第三实施例,基于上述图2所示的实施例,步骤S20包括:
步骤S21,在读取到目标文本的字词粒度和相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型;
步骤S22,根据预置第一神经网络模型,获取目标文本的字词向量表征信息和相似文本的字词向量表征信息;
步骤S23,根据预置第二神经网络模型,获取目标文本的向量表征信息和相似文本的向量表征信息。
服务器在获取到目标文本的字词粒度和相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型。预先设置的第一神经网络模型和第二神经网络模型可以是循环神经网络模型、卷积神经网络模型以及隐马尔科夫模型等。服务器根据预置第一神经网络模型和目标文本的字词粒度、相似文本的字词粒度,获取到目标文本的字词向量表征信息和相似文本的字词向量表征信息。服务器根据预置第二神经网络模型和目标文本的字词向量表征信息、相似文本的字词向量表征信息,获取到目标文本的向量表征信息和相似文本的向量表征信息。其中,预置第一神经网络模型和预置第二神经网络模型都是经过预训练的。神经网络模型实际上分为了两个部分,第一部分为建立模型,第二部分是通过模型获取嵌入词向量。即先基于训练数据构建一个神经网络,当这个模型训练好以后获取模型通过训练数据所学得的参数,例如隐层的权重矩阵——获取权重在神经网络模型中学习的知识库中的字和词。神经网络只能接受数值输入,不能把一个单词字符串作为输入。因此,基于训练文档来构建我们自己的知识库(vocabulary)再对单词进行one-hot编码。假设从知识库中抽取出10000个唯一不重复的单词组成词汇表。对这10000个单词进行one-hot编码,得到的每个单词都是一个10000维的向量,向量每个维度的值只有0或者1,假如单词ants在词汇表中的出现位置为第3个,那么ants的向量就是一个第三维度取值为1,其他维度都为0的10000维的向量(ants=[0,0,1,0,...,0])。
在本实施例中,服务器在获取到目标文本的字词粒度和相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型。根据预置第一神经网络模型和目标文本的字词粒度、相似文本的字词粒度,获取到目标文本的字词向量表征信息和相似文本的字词向量表征信息。根据预置第二神经网络模型和目标文本的字词向量表征信息、相似文本的字词向量表征信息,获取到目标文本的向量表征信息和相似文本的向量表征信息,采用神经网络模型获取到待处理文本的向量表征信息,避免待处理文本在语义上存在偏差。
参照图5,图5为图4中步骤S22的细化流程图,基于上述图4所示的实施例,步骤S22包括:
步骤S221,当调用预置第一神经网络模型时,将读取到的目标文本的字词粒度和相似文本的字词粒度分别作为预置第一神经网络模型的输入值;
步骤S222,在运行预置第一神经网络模型时,检测预置第一神经网络的权重矩阵以及隐藏层;
步骤S223,在检测到预置第一神经网络的权重矩阵以及隐藏层时,分别获取预置第一神经网络模型输出的目标文本的字词向量表征信息和相似文本的字词向量表征信息。
当服务器调用预先设置的第一神经网络模型时,将获取到的目标文本的字词粒度和相似文本的字词粒度分别作为预置第一神经网络模型的输入值,在运行预置第一神经网络模型时,服务器检测预置第一神经网络模型的权重矩阵以及隐藏层,在检测到预置第一神经网络模型的权重矩阵以及隐藏层时,分别获取到预置第一神经网络模型输出的目标文本的字词粒度和相似文本的字词粒度对应的字词向量表征信息。预先设置的第一神经网络模型可以是循环神经网络模型、卷积神经网络模型以及隐马尔科夫模型等。预先设置的第一神经网络模型需要经过知识库中字和词来进行预训练,其原理为就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个嵌入空间使得语义上相似的单词在该空间内距离很近。词向量其实就是一个映射,将单词从原先所属的空间映射到新的多维空间中,也就是把原先词所在空间嵌入到一个新的空间中去。通过对知识库中字和词进行这种数值表示方式的学习,能够让我们基于这样的数值进行向量化的操作从而得到一些相应标注的语义信息。
在本实施例中,服务器在调用预置第一神经网络模型时,将读取到的目标文本的字词粒度和相似文本的字词粒度作为预置第一神经网络模型的输入值,当运行预置第一神经网络模型时,获取预置第一神经网络模型输出的目标文本的字词粒度和相似文本的字词粒度对应的字词向量表征信息,通过预置的神经网络模型精确的获取到字词粒度对应的字词向量表征信息。
参照图6,图6为本发明文本信息匹配度量的方法第四实施例,基于上述图5所示的实施例,步骤S22之后,还包括:
步骤S50,当获取到目标文本的字词向量表征信息的数量和相似文本的字词向量表征信息的数量时,判断目标文本与相似文本的字词向量表征信息的数量是否一致;
步骤S60,当目标文本的字词向量表征信息的数量与相似文本的字词向量表征信息的数量不一致时,根据预置阈值修改目标文本或相似文本的字词向量表征信息的数量。
服务器在获取到目标文本的字词粒度向量表征的数量和相似文本的字词向量表征信息的数量时,判断目标文本中的字词粒度的向量表征数量与相似文本中字词粒度的向量表征数量是否相同;当数量相同时不做处理;当数量不相同时,获取预置的阈值,根据阈值修改目标文本或相似文本的字词粒度的向量表征数量。例如,目标文本中的字词粒度的向量表征数量为5时,相似文本中的字词粒度的向量表征数量为4时,目标文本中的向量表达式为ants=[0,0,0,0,0,1],而相似文本中的向量表达式为空格=[0,0,0,0,1,0]。
在本实施例中,当服务器在获取到目标文本的字词粒度向量表征的数量和相似文本的字词向量表征信息的数量时,判断目标文本中的字词粒度的向量表征数量与相似文本中字词粒度的向量表征数量是否相同,当确定数量不相同时,获取预置的阈值,根据阈值修改目标文本或相似文本的字词粒度的向量表征数量,采用神经网络对不同长度的句子进行处理成定长的半结构化数据。
参照图7,图7为图4中步骤S23的细化流程图,基于上述图4所示的实施例,步骤S23包括:
步骤S231,当调用预置第二神经网络模型时,分别将目标文本的字词向量表征信息和相似文本的字词向量表征信息作为预置第二神经网络模型的输入值;
步骤S232,在运行预置第二神经网络模型时,检测预置第二神经网络的权重矩阵以及隐藏层;
步骤S233,在检测到预置第二神经网络的权重矩阵以及隐藏层时,获取预置第二神经网络模型输出的目标文本的向量表征信息和相似文本的向量表征信息。
当服务器向预置的第二神经网络输入目标文本的字词向量表征信息和相似文本的字词向量表征信息时,获取目标文本的字词向量表征信息和相似文本的字词向量表征信息在预置的第二神经网络中的上下层信息;在综合字词粒度向量表征上下层信息,得到目标文本的向量表征信息和相似文本的向量表征信息,其中目标文本的向量表征信息和相似文本的向量表征信息是通过综合文本中的字粒度和词粒度对应向量表征信息得到的。当服务器获取到知识库中不同的字和词时,根据获取到的字和词构建一个神经网络框架,通过在该神经网络框架中预先训练获取到的字和词,该字和词都标注有对应的信息,通过各个字和词对应的信息优化神经网络中的参数以及权重。当知识库中所有的字和词都对经网络中的参数以及权重进行优化后,将生成的神经网络模型作为预置的第二神经网络模型。第二神经网络在获取到输入到权重矩阵中的字粒度和词粒度的向量表征信息时,通过计算获取到字粒度和词粒度的向量表征信息对应的标注信息(即上下层),将获取到字粒度和词粒度的向量表征信息对应的标注信息进行综合,得到该文本的语义向量表征信息。
在本实施例中,服务器在调用预置第二神经网络模型时,分别将目标文本的字词向量表征信息和相似文本的字词向量表征信息作为预置第二神经网络模型的输入值,在运行预置第二神经网络模型时,获取预置第二神经网络模型输出的目标文本向量表征信息和相似文本的向量表征信息,通过神经网络模型更加精确的获取到目标文本与相似文本的语义信息。
参照图8,图8为本发明文本信息匹配度量的方法的第五实施例,基于上述图2所示的实施例,步骤S30包括:
步骤S31,在获取到目标文本的向量表征信息以及相似文本的向量表征信息时,向预置孪生神经网络模型中输入目标文本的向量表征信息和相似文本的向量表征信息;
步骤S32,当输入目标文本的向量表征信息和相似文本的向量表征信息时,检测到所述预置孪生神经网络模型的注意力机制以及前向网络编码将目标文本的向量表征信息和相似文本的向量表征信息作为隐藏层的初始值;
步骤S33,根据预置孪生神经网络模型的函数公式获取目标文本和相似文本之间的相似度。
当服务器获取到目标文本的向量表征信息和相似文本的向量表征信息时,向预置孪生神经网络模型输入获取到的目标文本的向量表征信息和相似文本的向量表征信息。当相似文本有多个时,向预先设置的孪生神经网络中输入该目标文本向量表征信息以及对应文本中的任意一个相似文本向量表征信息。当预先设置孪生神经网络模型在获取到输入的文本向量表征信息时,预先设置的孪生神经网络模型中的注意力机制在获取到输入的文本向量表征信息时,发送至前向网络编码。前向网络编码在接收到文本向量表征信息时,将接收到文本向量表征信息编码为隐藏层的初始值。通过初始值以及预训练得到的函数公式计算出两个文本之间的相似度,其中,tanh、w、u为孪生神经网络模型预训练后优化的参数,q、k为文本向量表征的初始值。
在本实施例中,服务器在获取到目标文本的向量表征信息和相似文本的向量表征信息时,向预置孪生神经网络模型输入获取到的目标文本的向量表征信息和相似文本的向量表征信息,当检测到预置孪生神经网络模型的注意力机制以及前向网络编码将目标文本的向量表征信息和相似文本的向量表征信息作为隐藏层的初始值,服务器根据预置孪生神经网络模型中的函数公式,获取到预置孪生神经网络模型计算出的目标文本与相似文本之间的相似度,采取端到端的学习策略,利用孪生神经网络,从句子对输入到语义相似判断输出。
此外,本发明实施例还提出一种服务器,服务器包括:存储器、处理器及存储在存储器上并可在所述处理器上运行的文本信息匹配度量程序,文本信息匹配度量程序被处理器执行时实现如上实施例的文本信息匹配度量的方法的步骤。
此外,本发明实施例还提出一种计算机可读存储介质,计算机可读存储介质上存储有文本信息匹配度量程序,文本信息匹配度量程序被处理器执行时实现如上实施例的文本信息匹配度量方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种文本信息匹配度量的方法,其特征在于,所述文本信息匹配度量的方法包括:
在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;
根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;
当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;
在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
2.如权利要求1所述的文本信息匹配度量的方法,其特征在于,所述在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,包括:
在接收到目标文本和相似文本时,获取预置知识库;
当获取到所述预置知识库时,分解所述目标文本和所述相似文本;
在分解所述目标文本和所述相似文本时,读取所述目标文本和所述相似文本中的字词粒度。
3.如权利要求1所述的文本信息匹配度量的方法,其特征在于,所述根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息,包括:
在读取到所述目标文本的字词粒度和所述相似文本的字词粒度时,调用预置第一神经网络模型和预置第二神经网络模型;
根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息;
根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息。
4.如权利要求3所述的文本信息匹配度量的方法,其特征在于,所述根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息,包括:
当调用所述预置第一神经网络模型时,将读取到的所述目标文本的字词粒度和所述相似文本的字词粒度分别作为所述预置第一神经网络模型的输入值;
在运行所述预置第一神经网络模型时,检测所述预置第一神经网络的权重矩阵以及隐藏层;
在检测到所述预置第一神经网络的权重矩阵以及隐藏层时,分别获取所述预置第一神经网络模型输出的所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息。
5.如权利要求3所述的文本信息匹配度量的方法,其特征在于,所述根据所述预置第一神经网络模型,获取所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息之后,所述根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息之前,还包括:
当获取到所述目标文本的字词向量表征信息的数量和所述相似文本的字词向量表征信息的数量时,判断所述目标文本与所述相似文本的字词向量表征信息的数量是否一致;
当所述目标文本的字词向量表征信息的数量与所述相似文本的字词向量表征信息的数量不一致时,根据预置阈值修改所述目标文本或所述相似文本的字词向量表征信息的数量。
6.如权利要求3所述的文本信息匹配度量的方法,其特征在于,所述根据所述预置第二神经网络模型,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息,包括:
当调用所述预置第二神经网络模型时,分别将所述目标文本的字词向量表征信息和所述相似文本的字词向量表征信息作为所述预置第二神经网络模型的输入值;
在运行所述预置第二神经网络模型时,检测所述预置第二神经网络的权重矩阵以及隐藏层;
在检测到所述预置第二神经网络的权重矩阵以及隐藏层时,获取所述预置第二神经网络模型输出的所述目标文本的向量表征信息和所述相似文本的向量表征信息。
7.如权利要求1-6中任意一项所述的文本信息匹配度量的方法,其特征在于,所述当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度,包括:
在获取到所述目标文本的向量表征信息以及所述相似文本的向量表征信息时,向所述预置孪生神经网络模型中输入所述目标文本的向量表征信息和所述相似文本的向量表征信息;
当输入所述目标文本的向量表征信息和所述相似文本的向量表征信息时,检测到所述预置孪生神经网络模型的注意力机制以及前向网络编码将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为隐藏层的初始值;
根据所述预置孪生神经网络模型的函数公式获取所述目标文本和所述相似文本之间的相似度。
8.一种文本信息匹配度量的装置,其特征在于,所述文本信息匹配度量的装置包括:
读取模块,用于在接收到目标文本和相似文本时,读取所述目标文本和所述相似文本中的字词粒度,其中所述相似文本至少为一个;
第一获取模块,用于根据读取到的所述目标文本的字词粒度和所述相似文本的字词粒度,获取所述目标文本的向量表征信息和所述相似文本的向量表征信息;
第二获取模块,用于当将所述目标文本的向量表征信息和所述相似文本的向量表征信息作为预置孪生网络模型的输入值时,获取所述预置孪生网络模型计算的所述目标文本与所述相似文本之间的相似度;
匹配模块,用于在获取到所述目标文本与所述相似文本之间的相似度时,匹配与所述目标文本相似度最高的相似文本。
9.一种服务器,其特征在于,所述服务器包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的文本信息匹配度量程序,所述文本信息匹配度量程序被所述处理器执行时实现如权利要求1至7中任一项所述的文本信息匹配度量的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有文本信息匹配度量程序,所述文本信息匹配度量程序被处理器执行时实现如权利要求1至7中任一项所述的文本信息匹配度量方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910521519.7A CN110413988B (zh) | 2019-06-17 | 2019-06-17 | 文本信息匹配度量的方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910521519.7A CN110413988B (zh) | 2019-06-17 | 2019-06-17 | 文本信息匹配度量的方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110413988A true CN110413988A (zh) | 2019-11-05 |
CN110413988B CN110413988B (zh) | 2023-01-31 |
Family
ID=68359192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910521519.7A Active CN110413988B (zh) | 2019-06-17 | 2019-06-17 | 文本信息匹配度量的方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110413988B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144129A (zh) * | 2019-12-26 | 2020-05-12 | 成都航天科工大数据研究院有限公司 | 一种基于自回归与自编码的语义相似度获取方法 |
CN111178084A (zh) * | 2019-12-26 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种提高语义相似度训练方法及装置 |
CN111191903A (zh) * | 2019-12-24 | 2020-05-22 | 中科金审(北京)科技有限公司 | 监控投标文件的预警方法、装置、服务器及存储介质 |
CN111310411A (zh) * | 2020-03-09 | 2020-06-19 | 重庆邮电大学 | 一种基于多样性模型的文本相关性判定方法、装置和设备 |
CN111783419A (zh) * | 2020-06-12 | 2020-10-16 | 上海东普信息科技有限公司 | 地址相似度计算方法、装置、设备和存储介质 |
CN111859986A (zh) * | 2020-07-27 | 2020-10-30 | 中国平安人寿保险股份有限公司 | 基于多任务孪生网络的语义匹配方法、装置、设备和介质 |
CN112529390A (zh) * | 2020-12-02 | 2021-03-19 | 平安医疗健康管理股份有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN112632232A (zh) * | 2021-03-09 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 一种文本匹配方法、装置、设备及介质 |
CN112989784A (zh) * | 2021-03-04 | 2021-06-18 | 广州汇才创智科技有限公司 | 基于孪生神经网络的文本自动评分方法、装置及电子设备 |
CN113704386A (zh) * | 2021-10-27 | 2021-11-26 | 深圳前海环融联易信息科技服务有限公司 | 一种基于深度学习的文本推荐方法、装置及相关介质 |
CN114881028A (zh) * | 2022-06-08 | 2022-08-09 | 深圳市赛为智能股份有限公司 | 案件相似度匹配方法、装置、计算机设备及存储介质 |
CN115497633A (zh) * | 2022-10-19 | 2022-12-20 | 联仁健康医疗大数据科技股份有限公司 | 一种数据处理方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170098141A1 (en) * | 2015-10-06 | 2017-04-06 | Adobe Systems Incorporated | Determination of Font Similarity |
CN107656990A (zh) * | 2017-09-14 | 2018-02-02 | 中山大学 | 一种基于字和词两个层面特征信息的文本分类方法 |
CN107967255A (zh) * | 2017-11-08 | 2018-04-27 | 北京广利核系统工程有限公司 | 一种判定文本相似性的方法和系统 |
US20180196873A1 (en) * | 2017-01-11 | 2018-07-12 | Siemens Medical Solutions Usa, Inc. | Visualization framework based on document representation learning |
CN109213995A (zh) * | 2018-08-02 | 2019-01-15 | 哈尔滨工程大学 | 一种基于双语词嵌入的跨语言文本相似度评估技术 |
CN109460461A (zh) * | 2018-11-13 | 2019-03-12 | 苏州思必驰信息科技有限公司 | 基于文本相似度模型的文本匹配方法及系统 |
CN109543009A (zh) * | 2018-10-17 | 2019-03-29 | 龙马智芯(珠海横琴)科技有限公司 | 文本相似度评估系统及文本相似度评估方法 |
-
2019
- 2019-06-17 CN CN201910521519.7A patent/CN110413988B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170098141A1 (en) * | 2015-10-06 | 2017-04-06 | Adobe Systems Incorporated | Determination of Font Similarity |
US20180196873A1 (en) * | 2017-01-11 | 2018-07-12 | Siemens Medical Solutions Usa, Inc. | Visualization framework based on document representation learning |
CN107656990A (zh) * | 2017-09-14 | 2018-02-02 | 中山大学 | 一种基于字和词两个层面特征信息的文本分类方法 |
CN107967255A (zh) * | 2017-11-08 | 2018-04-27 | 北京广利核系统工程有限公司 | 一种判定文本相似性的方法和系统 |
CN109213995A (zh) * | 2018-08-02 | 2019-01-15 | 哈尔滨工程大学 | 一种基于双语词嵌入的跨语言文本相似度评估技术 |
CN109543009A (zh) * | 2018-10-17 | 2019-03-29 | 龙马智芯(珠海横琴)科技有限公司 | 文本相似度评估系统及文本相似度评估方法 |
CN109460461A (zh) * | 2018-11-13 | 2019-03-12 | 苏州思必驰信息科技有限公司 | 基于文本相似度模型的文本匹配方法及系统 |
Non-Patent Citations (3)
Title |
---|
LING SONG ET.AL: "Fuzzy Similarity from Conceptual Relations", 《2006 IEEE ASIA-PACIFIC CONFERENCE ON SERVICES COMPUTING (APSCC"06)》 * |
PAUL NECULOIU ET.AL: "Learning Text Similarity with Siamese Recurrent Networks", 《PROCEEDINGS OF THE 1ST WORKSHOP ON REPRESENTATION LEARNING FOR NLP》 * |
李兰君: "面向法律案例检索的文档相似度计算研究", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111191903A (zh) * | 2019-12-24 | 2020-05-22 | 中科金审(北京)科技有限公司 | 监控投标文件的预警方法、装置、服务器及存储介质 |
CN111178084A (zh) * | 2019-12-26 | 2020-05-19 | 厦门快商通科技股份有限公司 | 一种提高语义相似度训练方法及装置 |
CN111144129A (zh) * | 2019-12-26 | 2020-05-12 | 成都航天科工大数据研究院有限公司 | 一种基于自回归与自编码的语义相似度获取方法 |
CN111144129B (zh) * | 2019-12-26 | 2023-06-06 | 成都航天科工大数据研究院有限公司 | 一种基于自回归与自编码的语义相似度获取方法 |
CN111310411B (zh) * | 2020-03-09 | 2022-07-12 | 重庆邮电大学 | 一种基于多样性模型的文本相关性判定方法、装置和设备 |
CN111310411A (zh) * | 2020-03-09 | 2020-06-19 | 重庆邮电大学 | 一种基于多样性模型的文本相关性判定方法、装置和设备 |
CN111783419A (zh) * | 2020-06-12 | 2020-10-16 | 上海东普信息科技有限公司 | 地址相似度计算方法、装置、设备和存储介质 |
CN111783419B (zh) * | 2020-06-12 | 2024-02-27 | 上海东普信息科技有限公司 | 地址相似度计算方法、装置、设备和存储介质 |
CN111859986A (zh) * | 2020-07-27 | 2020-10-30 | 中国平安人寿保险股份有限公司 | 基于多任务孪生网络的语义匹配方法、装置、设备和介质 |
CN111859986B (zh) * | 2020-07-27 | 2023-06-20 | 中国平安人寿保险股份有限公司 | 基于多任务孪生网络的语义匹配方法、装置、设备和介质 |
CN112529390A (zh) * | 2020-12-02 | 2021-03-19 | 平安医疗健康管理股份有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN112989784A (zh) * | 2021-03-04 | 2021-06-18 | 广州汇才创智科技有限公司 | 基于孪生神经网络的文本自动评分方法、装置及电子设备 |
CN112632232B (zh) * | 2021-03-09 | 2022-03-15 | 北京世纪好未来教育科技有限公司 | 一种文本匹配方法、装置、设备及介质 |
CN112632232A (zh) * | 2021-03-09 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 一种文本匹配方法、装置、设备及介质 |
WO2023070732A1 (zh) * | 2021-10-27 | 2023-05-04 | 深圳前海环融联易信息科技服务有限公司 | 一种基于深度学习的文本推荐方法、装置及相关介质 |
CN113704386A (zh) * | 2021-10-27 | 2021-11-26 | 深圳前海环融联易信息科技服务有限公司 | 一种基于深度学习的文本推荐方法、装置及相关介质 |
CN114881028A (zh) * | 2022-06-08 | 2022-08-09 | 深圳市赛为智能股份有限公司 | 案件相似度匹配方法、装置、计算机设备及存储介质 |
CN115497633A (zh) * | 2022-10-19 | 2022-12-20 | 联仁健康医疗大数据科技股份有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN115497633B (zh) * | 2022-10-19 | 2024-01-30 | 联仁健康医疗大数据科技股份有限公司 | 一种数据处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110413988B (zh) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110413988A (zh) | 文本信息匹配度量的方法、装置、服务器及存储介质 | |
CN107391760B (zh) | 用户兴趣识别方法、装置及计算机可读存储介质 | |
CN108647205B (zh) | 细粒度情感分析模型构建方法、设备及可读存储介质 | |
CN111767741B (zh) | 一种基于深度学习和tfidf算法的文本情感分析方法 | |
CN111177326B (zh) | 基于精标注文本的关键信息抽取方法、装置及存储介质 | |
CN101645088B (zh) | 确定需要加载的辅助词库的方法、装置及输入法系统 | |
CN109271493A (zh) | 一种语言文本处理方法、装置和存储介质 | |
CN111310440B (zh) | 文本的纠错方法、装置和系统 | |
US20220292329A1 (en) | Neural architecture search with weight sharing | |
CN106547742A (zh) | 基于人工智能的语义解析结果处理方法和装置 | |
CN107437417A (zh) | 基于循环神经网络语音识别中语音数据增强方法及装置 | |
CN109271513B (zh) | 一种文本分类方法、计算机可读储存介质及系统 | |
CN110489747A (zh) | 一种图像处理方法、装置、存储介质及电子设备 | |
CN114021718A (zh) | 模型行为可解释性方法、系统、介质及设备 | |
CN114596497A (zh) | 目标检测模型的训练方法、目标检测方法、装置及设备 | |
CN113435182A (zh) | 自然语言处理中分类标注的冲突检测方法、装置和设备 | |
CN113392640A (zh) | 一种标题确定方法、装置、设备及存储介质 | |
CN111737961A (zh) | 一种故事生成的方法、装置、计算机设备和介质 | |
CN113705792A (zh) | 基于深度学习模型的个性化推荐方法、装置、设备及介质 | |
CN113836894A (zh) | 多维度英语作文评分方法、装置及可读存储介质 | |
CN108733672B (zh) | 实现网络信息质量评估的方法和系统 | |
CN112597310A (zh) | 领域和意图分层联合分类方法、装置、设备及存储介质 | |
CN114330285B (zh) | 语料处理方法、装置、电子设备及计算机可读存储介质 | |
CN112364649B (zh) | 命名实体的识别方法、装置、计算机设备及存储介质 | |
CN114116959A (zh) | 方面级情感分析方法、装置以及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |