CN111259113B - 文本匹配方法、装置、计算机可读存储介质和计算机设备 - Google Patents

文本匹配方法、装置、计算机可读存储介质和计算机设备 Download PDF

Info

Publication number
CN111259113B
CN111259113B CN202010039971.2A CN202010039971A CN111259113B CN 111259113 B CN111259113 B CN 111259113B CN 202010039971 A CN202010039971 A CN 202010039971A CN 111259113 B CN111259113 B CN 111259113B
Authority
CN
China
Prior art keywords
text
vector
matching
clause
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010039971.2A
Other languages
English (en)
Other versions
CN111259113A (zh
Inventor
李振阳
梁涛
李超
张晗
马连洋
衡阵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010039971.2A priority Critical patent/CN111259113B/zh
Publication of CN111259113A publication Critical patent/CN111259113A/zh
Application granted granted Critical
Publication of CN111259113B publication Critical patent/CN111259113B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Abstract

本申请涉及一种文本匹配方法、装置、计算机可读存储介质和计算机设备,所述方法包括:获取第一文本和第二文本,第一文本长度大于第二文本长度;确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量;将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。本申请提供的方案可以实现提高文本匹配的准确性。

Description

文本匹配方法、装置、计算机可读存储介质和计算机设备
技术领域
本申请涉及互联网技术领域,特别是涉及一种文本匹配方法、装置、计算机可读存储介质和计算机设备。
背景技术
随着自然语言处理技术的发展,文本匹配在很多实际应用场景中都被广泛应用。比如,根据用户搜索语查找对应的文章。现有的文本匹配方法主要是基于词汇重合度的匹配算法来确定两个文本之间是否匹配。然而这种方法只是对词汇进行重合度的匹配,并未对文本的语义进行深入理解并匹配,存在文本匹配准确性低的问题
发明内容
基于此,有必要针对文本匹配准确性低的技术问题,提供一种文本匹配方法、装置、计算机可读存储介质和计算机设备。
一种文本匹配方法,包括:
获取第一文本和第二文本,第一文本长度大于第二文本长度;
确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量;
将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,
其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。
一种文本匹配装置,包括:
文本获取模块,用于获取第一文本和第二文本,第一文本长度大于第二文本长度;
向量确定模块,用于确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量;
向量匹配模块,用于将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,
其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行程序时实现以下步骤:
获取第一文本和第二文本,第一文本长度大于第二文本长度;
确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量;
将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,
其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取第一文本和第二文本,第一文本长度大于第二文本长度;
确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量;
将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,
其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。
上述文本匹配方法、装置、计算机可读存储介质和计算机设备,通过计算第一文本中的各个分句的初始向量与第二文本向量之间的相似度,根据相似度确定各个分句的文本向量,从而得到第一文本向量,然后将第一文本向量和第二文本向量进行匹配,得到第一文本和第二文本的文本匹配结果。通过确定第一文本中各个分句与第二文本的相似度来确定各个分句的文本向量,使得到的各个分句的文本向量更加的精准,从而使得到的第一文本向量更加的精准。然后使用第一文本向量与第二文本向量进行匹配,提高了文本匹配结果的准确性。
附图说明
图1为一个实施例中文本匹配方法的应用环境图;
图2为一个实施例中文本匹配方法的流程示意图;
图3为一个实施例中得到第二文本向量的流程示意图;
图4为一个实施例中计算分句的文本向量的流程示意图;
图5为一个实施例中得到分句的文本向量的流程示意图;
图6为一个实施例中得到第一文本向量的流程示意图;
图7为一个实施例中得到文本匹配结果的流程示意图;
图8为一个实施例中得到文本匹配概率的流程示意图;
图9为一个实施例中训练文本匹配模型的流程示意图;
图10为一个实施例中得到文本匹配模型的流程示意图;
图11为一个实施例中得到目标损失函数的流程示意图;
图12为一个实施例中得到第一文本识别向量的流程示意图;
图13为一个实施例中文本匹配模型的模型结构的示意图;
图14为另一个实施例中文本匹配模型的模型结构的示意图;
图15为一个实施例中文本匹配装置的结构框图;
图16为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本申请实施例提供的方案涉及人工智能的自然语言处理、机器学习等技术,具体通过如下实施例进行说明:
图1为一个实施例中文本匹配方法的应用环境图。参照图1,该文本匹配方法应用于文本匹配系统。该文本匹配系统包括终端102和服务器104。终端102和服务器104通过网络连接。终端102具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现,也可以是提供云服务器、云数据库、云存储和CDN等基础云计算服务的云服务器。
具体地,服务器104接收终端102发送的文本匹配指令,根据该文本匹配指令获取第一文本和第二文本,第一文本长度大于第二文本长度。服务器104确定第一文本对应的文本向量,并确定第二文本对应的第二文本向量。服务器104将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。服务器104将得到的文本匹配结果发送到终端102进行展示。可以理解,文本匹配方法也可以是在终端102中执行的。
如图2所示,在一个实施例中,提供了一种文本匹配方法。本实施例主要以该方法应用于上述图1中的服务器102来举例说明。参照图2,该文本匹配方法具体包括如下步骤:
S202,获取第一文本和第二文本,第一文本长度大于第二文本长度。
其中,文本是指用于记载和储存文字信息的文档,文本中可以是一些词、一个句子、一个段落或者一个篇章。文本可以是任意一语言类型的文本,比如可以是中文文本,英文文本或者日文文本等。该文本也可以是任意一文档格式的文本,比如可以是“.txt”、“.doc”、“.docx”、或者“.wps”等文档格式的文本。该第一文本是指需要进行分句的文本,则第一文本中可以是一个段落或者一个篇章,第二文本为不需要进行分句的文本,则第二文本中可以是一些词、一个句子、一个段落或者一个篇章。
在一些实施例中,第一文本和第二文本可以是相同语言类型的文本,比如,第一文本和第二文本都是中文文本。第一文本和第二文本也可以是不同语言类型的文本。比如第一文本为中文文本,第二文本为英文文本。
在一些实施例中,第一文本和第二文本可以是相同文档格式的文本,比如,第一文本和第二文本都是“.txt”文档格式的文本。也可以是不同文本格式的文本,比如,第一文本是“.txt”文档格式的文本,第二文本是“.doc”文档格式的文本。
其中,文本长度可以是指文本具体的长度大小,比如,可以是文本中所含字符的长度,也可以是指文本中所含字符的大小,也可以是指文本中所含字符的数量等等。第一文本长度超过第二文本长度,比如,第一文本为短文本,第二文本为长文本。例如,该第一文本可以是一句查询语,第二文本可以是查询语对应的查询文章。
具体地,当服务器接收到终端发送的文本匹配指令时,可以解析该文本匹配指令得到需要匹配的文本标识,根据文本标识从存储文本的数据库中获取到第一文本和第二文本。第一文本长度超过第二文本长度。
在一个实施例中,服务器可以获取到终端上传的第一文本和第二文本。
在一个实施例中,服务器在接收到文本匹配指令时,也可以从第三方下载到需要进行匹配的第一文本和第二文本。其中,第三方可以是存储文本的服务方。比如,可以是存储文本的云服务器。
在一个实施例中,可以根据需要设定第二文本长度,比如,第二文本长度为不超过20个词。例如,第二文本可以为一篇文章的主题,如论文题目,第一文本可以是该主题对应的文章,如论文题目对应的论文
S204,确定第一文本对应的第一文本向量,并确定第二文本对应的第二文本向量。
其中,文本向量是将第一文本中各个分句分别进行文本向量化后得到的向量。第二文本向量是将第二文本进行文本向量化后得到的向量,可以使用相同的文本向量化算法对分句文本和第二文本进行识别,也可以使用不同的文本向量化算法对分句文本和第二文本进行识别。该文本向量化是指对文本进行语义理解得到文本向量。该分句文本初始向量和第二文本向量的向量维度是相同的。
具体地,服务器对第一文本中各个分句文本进行文本向量化,得到各个分句文本初始向量,并对将第二文本进行文本向量化得到对应的第二文本向量。
在一些实施例中,服务器可以调用并行线程同时对第一文本中各个分句文本和第二文本进行文本向量化,得到各个分句文本初始向量和第二文本向量。
在一些实施例中,服务器可以按照第一文本中各个分句文本的文本顺序对各个分句文本进行文本向量化,得到各个分句文本初始向量。
S206,将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,其中,基于第一文本中的各个分句的文本向量得到所述第一文本向量,根据第一文本中的各个分句的初始向量与第二文本向量之间的相似度来确定第一文本中的各个分句的文本向量。
具体地,文本匹配结果可以为文本匹配或者文本未匹配。例如,将第一文本向量和第二文本向量匹配,得到输出的文本匹配概率,当文本匹配概率大于预设概率时,比如,预设概率可以是0.9时,则文本匹配结果为文本匹配。当文本匹配概率未超过预设概率时,比如,预设概率可以是0.9时,文本匹配结果为文本未匹配。
在一些实施例中,服务器将第一文本向量和第二文本向量匹配,得到输出的文本匹配概率和文本未匹配概率。其中,文本匹配概率和文本未匹配概率的和为1。
其中,相似度是指第二文本与第一文本中的各个分句的相似度。第一文本中的各个分句的文本向量是根据相似度和各个分句的初始向量确定的向量。即使用相似度来调整各个分句的初始向量使得到的各个分句的文本向量更加精准。
具体地,使用相似度算法计算第一文本中各个分句的初始向量与第二文本向量之间的相似度。其中,相似度算法可以是欧几里得距离算法、皮尔逊相关系数算法或者余弦相似度等等。优选的,可以使用余弦相似度算法计算各个分句的初始向量与第二文本向量之间的相似度。
服务器根据计算得到的相似度重新修正各个分句的初始向量,得到各个分句的文本向量。即每个分句的初始向量都对应有重新修正后的文本向量。
服务器根据各个分句的文本向量得到第一文本向量。比如,服务器可以将各个分句的文本向量按照分句顺序直接拼接得到第一文本向量。也可以将各个分句文本向量相加得到第一文本向量。
上述文本匹配方法中,通过计算第一文本中的各个分句的初始向量与第二文本向量之间的相似度,根据相似度确定各个分句的文本向量,从而得到第一文本向量,然后将第一文本向量和第二文本向量进行匹配,得到第一文本和第二文本的文本匹配结果。通过确定第一文本中各个分句与第二文本的相似度来确定各个分句的文本向量,使得到的各个分句的文本向量更加的精准,从而使得到的第一文本向量更加的精准。然后使用第一文本向量与第二文本向量进行匹配,提高了文本匹配结果的准确性。
在一些实施例中,当服务器得到第一文本和第二文本的文本匹配结果后,可以将文本匹配结果存储到文本匹配结果数据库中,方便后续使用。或者可以将文本匹配结果发送到终端进行展示。比如,通过网页显示第一文本和第二文本的文本匹配结果。或者通过语音播放第一文本和第二文本的文本匹配结果语音。或者通过短视频显示第一文本和第二文本的文本匹配结果语音。
在一个实施例中,文本匹配结果是文本匹配模型得到的,文本匹配模型包括文本向量化网络、相似度计算网络和文本匹配输出层网络。
文本向量化网络用于确定第一文本中各个分句的初始向量和第二文本对应的第二文本向量,相似度计算网络用于计算各个分句的初始向量与第二文本向量之间的相似度,根据相似度确定各个分句的文本向量,基于各个分句的文本向量得到第一文本向量,文本匹配输出层网络用于将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果。
具体地,文本匹配模型用于将第一文本和第二文本进行匹配,得到文本匹配结果,该文本匹配模型是预先使用历史已有的文本训练得到的机器学习模型。在进行模型训练时,采用的是有监督的训练方法。比如,可以使用深度双向变压器模型进行模型训练,在训练时将训练样本中的文本输入到深度双向变压器模型中,将训练样本中的文本匹配结果作为标签,当达到训练完成条件时,得到文本匹配模型,该训练完成条件可以是训练达到最大迭代次数或者模型的损失值小于预设阈值中的至少一种。文本向量化网络是指文本匹配模型中用于将文本向量化的神经网络。相似度计算网络是指文本匹配模型中用于计算文本相似度的神经网络。文本匹配输出层网络是指文本匹配模型中用于进行文本匹配并输出匹配结果的神经网络。通过不同的神经网络来依次实现对应的功能,能够提高文本匹配准确性。
在一个实施例中,如图3所示,确定第一文本中的各个分句的初始向量和第二文本对应的第二文本向量,包括步骤:
S302,对第一文本进行分句,得到各个分句。
S304,分别对各个分句进行分词,得到各个分句对应的分句词。
具体地,服务器可以按照预先设置好的分句规则对第一文本进行分句。例如,按照文本中“。”和“!”“?”等标点符号进行分句。
然后再对各个分句进行分词,得到每个分句对应的各个分句词。其中,可以按照预设的分词算法进行分词,比如,可以使用基于字符串匹配的分词方法、基于理解的分词方法或者基于统计的分词方法中的至少一种。
S306,获取分句词对应的分句词向量,将分句词向量输入到已训练的文本向量化网络中,得到各个分句文本对应的分句文本初始向量。
其中,文本向量化网络是根据历史已有的文本预先训练得到的神经网络。该文本向量化网络可以是文本匹配模型的一部分,比如,文本匹配模型的整体模型结构中包括有文本向量化网络的网络结构。该文本向量化网络用于将文本进行语义识别得到识别后的向量。例如,该文本向量化网络可以是LTD-BERT(蒸馏后的语言理解的深层双向变压器网络)。分句词向量将分句词向量化得到的。比如,可以从预先设置好的词向量数据库中查找分句词对应的向量。该词向量数据库是将现有的词汇进行词向量转换之后建立的。比如,可以使用热编码的方式将词向量化或者通过分布表示将词向量化。
具体地,服务器对每个分句对应的各个分句词进行向量获取,得到每个分句词对应的分句词向量。即每个分句都有对应的各个分句词向量。此时通过文本向量化网络将分句对应的各个分句词向量进行向量化,得到每个分句对应的初始向量。比如,分句文本中有4个词,从预设词典中获取到每个词对应的词向量为有100个向量元素的行向量,得到4行100列的词向量矩阵。将该4行100列的词向量矩阵输入到文本向量化网络中得到1行100列的初始向量,即为4个词的分句对应的初始向量。
S308,对第二文本进行分词,得到各个第二文本分词。
S310,获取各个第二文本分词对应的第二文本分词向量,将各个第二文本分词向量输入到文本向量化模型中,得到第二文本对应的第二文本向量。
具体地,当服务器得到各个第二文本分词向量时,可以调用文本向量化网络进行文本向量化,得到第二文本对应的第二文本向量。
在一个实施例中,步骤S302到步骤S306与步骤S308到步骤S310可以同时执行。即可以同时确定各个分句文本对应的分句文本初始向量和第二文本对应的第二文本向量。也可以先执行步骤S308到步骤S310,再执行步骤S302到步骤S306。即先执行步骤S308到步骤S310,再执行步骤S302到步骤S306。
在一个实施例中,在可以使用相同的文本向量化网络进行文本向量化,也可以使用不同的本向量化网络进行文本向量化。比如,对各个第二文本分词向量输入到文本向量化第一网络中进行文本向量化,该文本向量化第一网络是使用深度神经网络建立的网络。将分句词向量输入到文本向量化第二网络中,该已训练的文本向量化第二网络是使用深度双向变压器建立的网络。
在上述实施例中,通过将第一文本中的分句进行向量化,将第二文本进行文本向量化,即能够得到向量化后的第一文本中各个分句的初始向量和第二文本的第二文本向量,进而提高了文本匹配的准确性。
在一个实施例中,如图4所示,计算各个分句的初始向量与第二文本向量之间的相似度,根据相似度确定各个分句的文本向量,包括步骤:
S402,通过相似度计算网络计算各个分句的初始向量与第二文本向量的相似度,根据相似度确定各个分句的初始向量对应的权重信息。
S404,根据各个分句的初始向量与对应的权重信息计算各个分句的文本向量。
具体地,相似度计算网络用于对文本向量使用相似度算法进行相似度计算。该相似度计算网络可以是文本匹配模型的一部分,该相似度计算网络可以连接在文本向量化网络之后,即使用文本向量网络的输出作为相似度计算网络的输入。权重信息用于表示第一文本中的分句文本在与第二文本匹配时对于第一文本的权重。例如,第一文本中的第一个分句的权重为0.1。服务器通过相似度计算网络使用相似度算法计算各个分句的初始向量与第二文本向量的相似度。然后可以计算每个相似度占所有相似度和的比值,得到的各个分句的初始向量对应的权重信息。各个分句的文本向量是指根据各个分句的初始向量与各个分句的初始向量对应的权重信息计算得到的向量。可以将各个分句的初始向量对应的权重信息与各个分句的初始向量拼接得到的分句文本向量。比如,分句文本初始向量为(1,1,0,1,…),对应的权重信息为0.8,计算得到的分句文本向量为(1,1,0,1,…,0.8)。
在一个实施例中,可以根据各个分句的初始向量与第二文本向量的相似度确定各个分句的初始向量的评分,根据各个分句的初始向量的评分进行加权平均,得到各个分句的文本向量。
在一个实施例中,可以根据各个分句的初始向量与第二文本向量的相似度确定各个分句的初始向量的权重,根据各个分句的初始向量的权重进行加权平均,得到各个分句的文本向量。
在上述实施例中,使用各个分句与第二文本的相似度来确定第一文本中各个分句的权重信息,然后根据各个分句的初始向量与对应的权重信息计算得到各个分句的文本向量,提高了得到各个分句的文本向量准确性。
在一个实施例中,如图5所示,步骤S404,即根据各个分句的初始向量与对应的权重信息计算各个分句文本向量,包括步骤:
S502,获取第一分句的初始向量中的各个向量元素,计算各个向量元素与第一分句文本向量对应权重信息的乘积,得到各个修正向量元素。
S506,根据各个修正向量元素得到第一分句文本初始向量对应的第一分句的文本向量。
其中,第一分句的初始向量可以是指各个分句中任意一个分句对应的初始向量。修正向量元素是指将初始向量中的向量元素通过权重信息修正后得到的向量元素。
具体地,通过将每个分句的初始向量中的各个向量元素与对应的权重信息的进行相乘,得到各个修正向量元素,然后根据各个修正向量元素得到每个分句的初始向量对应的每个分句的文本向量。比如,第一分句文本初始向量为(1,1,0,1,…),对应的权重信息为0.8,计算得到的第一分句的文本向量为(0.8,0.8,0,0.8,…)。
在上述实施例中,通过权重信息对分句的初始向量中的各个向量元素进行修正,使得到的修正向量元素的更加的准确,进而提高了得到的分句的文本向量的准确性。
在一个实施例中,可以计算各个向量元素与第一分句文本向量对应的权重信息的加和,得到各个修正向量元素,比如,分句文本初始向量为(1,1,0,1,…),对应的权重信息为0.8,计算得到的分句文本向量为(1.8,1.8,0.8,1.8,…)。
在一个实施例中,可以计算各个向量元素与第一分句文本向量对应的权重信息的比值,得到各个修正向量元素。比如,分句文本初始向量为(1,1,0,1,…),对应的权重信息为0.8,计算得到的分句文本向量为(1.25,1.25,0,1.25,…)。
在一个实施例中,可以计算各个向量元素与第一分句文本向量对应的权重信息的减值,得到各个修正向量元素。比如,分句文本初始向量为(1,1,0,1,…),对应的权重信息为0.8,计算得到的分句文本向量为(0.2,0.2,-0.8,0.2,…)。
在一个实施例中,基于第一文本中的各个分句文本向量得到第一文本向量,包括:计算各个分句的文本向量的和,得到第一文本向量。
具体地,第一文本向量是指经过权重信息修正的各个分句的文本向量得到的向量,该第一文本向量用于与第二文本向量进行文本匹配。当得到各个分句的文本向量时,直接计算各个分句的文本向量的向量和,得到第一文本向量。比如,有2个分句文本的第一文本,一个分句的文本向量为(1,1,0,1,…),另一个分句的文本向量为(0,1,0,1,…),得到的第一文本向量为(1,2,0,2,…)。
在一个实施例中,如图6所示,计算各个分句的文本向量的和,得到第一文本向量,包括步骤:
S602,获取各个分句的文本向量中的向量元素和向量元素位置,将相同向量元素位置对应的各个向量元素进行相加,得到各个向量元素位置对应的目标向量元素。
S604,根据各个目标向量元素得到第一文本向量。
其中,向量元素是指分句的文本向量中的元素。向量元素位置是指向量元素在分句的文本向量中所处的位置。比如,分句的文本向量为(1,0,0,1),向量元素包括1、0、0和1。向量元素位置分别为第一位、第二位、第三位和第四位。相同向量元素位置对应的各个向量元素是指各个分句文本向量中相同位置的向量元素,比如各个分句文本向量中的第一个向量元素。目标向量元素是指第一文本向量中的向量元素。该目标向量元素是各个分句文本向量中相同位置的向量元素的和。比如,比如各个分句文本向量中的第一个向量元素分别为1、0、0和1,则目标向量元素为1+0+0+1=2,则第一文本向量中第一的向量元素为2。通过根据向量元素位置计算向量元素的和,得到各个目标元素,从而得到第一文本向量,提高了得到第一文本向量的准确性。
在一个实施例中,如图7所示,将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,包括步骤:
S702,将第一文本向量和第二文本向量输入到文本匹配输出层网络中,得到输出的文本匹配概率。
S704,根据文本匹配概率得到第一文本和第二文本的文本匹配结果。
具体地,文本匹配输出层网络用于对第一文本向量和第二文本向量进行文本匹配,是预先训练好的。该文本匹配输出层网络可以是文本匹配模型中的输出部分的神经网络结构,是需要预先训练好的。该文本匹配输出层网络可以连接在相似度计算网络之后,即将相似度计算网络的输出作为文本匹配输出层的输入。文本匹配概率用于表示第一文本和第二文本相关的程度。当文本匹配概率超过预设的阈值时,表示第一文本和第二文本匹配,即相关程度高。当文本匹配概率未超过预设的阈值时,表示第一文本和第二文本未匹配,即相关程度低。通过使用已训练的文本匹配输出层进行文本匹配,方便快捷。
在一个实施例中,文本匹配输出层网络包括全连接层和对应的回归层;则如图8所示,步骤S702,将第一文本向量和第二文本向量输入到文本匹配输出层网络中,得到输出的文本匹配概率,包括步骤:
S802,将第一文本向量和第二文本向量拼接,得到拼接后的文本向量。
其中,向量拼接是指将两个向量进行首尾连接得到一个向量。可以将第一文本向量和第二文本向量进行首尾拼接,得到拼接后的文本向量。比如,第一文本向量为(0,1,1,0,…),第一文本向量为(1,0,1,1,…),进行首尾拼接后得到的文本向量可以是(0,1,1,0,…,1,0,1,1,…)。
在一个实施例,也可以将第一文本向量和第二文本向量加权后进行拼接,得到拼接后的文本向量。比如,第一文本向量的权重为0.4,第二文本向量的权重为0.6,则得到拼接后的文本向量可以是(0,0.4,0.4,0,…,0.6,0,0.6,0.6,…)。
S804,将拼接后的文本向量输入到全连接层进行线性变换,得到变换后的文本向量。
S806,将变换后的文本向量输入到回归层中归一化,得到文本匹配概率。
具体地,全连接层用于将拼接后的文本向量进行分类,该类别可以包括文本匹配和文本未匹配。例如,将拼接后多维的文本向量经过已训练的全连接层进行线性变换得到一个2维的向量。回归层用于将全连接层的输出向量进行归一化处理,得到每个类别的概率。比如该回归层可以是softmax层。将全连接层输出的2维向量在回归层进行归一化,得到一个2维度的向量(p0,p1)。其中,p0可以表示文本匹配的概率,p1可以表示文本未匹配的概率。
在一个实施例中,如图9所示,文本匹配模型的训练步骤,包括:
S902,获取历史第一文本、历史第二文本和对应的历史文本匹配结果,将历史第一文本和历史第二文本输入到初始文本匹配模型中训练,所述初始文本匹配模型包括初始文本向量化网络、相似度计算网络和初始文本匹配输出层网络。
具体地,历史第一文本和历史第二文本是用于训练文本匹配模型的文本数据。历史文本匹配结果是用于训练文本匹配模型的训练标签。其中,训练标签可以包括历史文本未匹配和历史文本匹配。该训练标签可以使用数值表示,如果历史文本未匹配,则训练标签可以用0表示,如果历史文本匹配,则训练标签可以用1表示。该训练标签也可以使用其他方式表示,比如字符等。初始文本匹配模型是初始的文本匹配模型,该文本匹配模型中的模型参数可以是人为设置的。该初始文本匹配模型需要经过训练后即进行模型参数调整后才能得到训练完成的模型,其中激活函数可以根据需要进行选择,比如,可以使用线性整流函数(Rectified Linear Unit,ReLU)。该初始文本匹配模型包括有初始文本向量化网络、相似度计算网络和初始文本匹配输出层网络。初始文本向量化网络是初始文本匹配模型中初始的文本向量化网络,是网络参数未进行训练的网络。初始文本匹配输出层网络是初始文本匹配模型中初始的文本匹配输出层网络,是网络参数未进行训练的网络。
在一个实施例中,可以获取到大量的训练样本数据该训练样本数据包括多个历史第一文本,历史第二文本和对应的文本匹配标签,每个训练样本数据在一般情况下都是不相同的。训练样本数据的数量可以根据需要来确定。比如,可以获取到论文数据库中的论文作为训练样本数据,训练样本数据可以是获取到5万篇论文进行训练。其中,将论文题目作为各个历史第一文本,论文内容作为各个历史第二文本,并根据论文题目和论文的关系确定标签,进行训练得到论文匹配模型。
S904,通过初始文本向量化网络确定历史第一文本中的各个历史分句的初始向量和历史第二文本对应的历史第二文本向量。
具体地,可以使用初始文本匹配模型中的初始文本向量化网络识别历史第一文本和历史第二文本,得到各个历史分句文本初始向量和历史第二文本向量。
S906,通过相似度计算网络计算各个历史分句的初始向量与历史第二文本向量之间的历史相似度,根据历史相似度确定各个历史分句的文本向量,基于各个历史分句的文本向量得到历史第一文本向量。
具体地,通过初始文本匹配模型中相似度计算网络的相似度算法计算得到的各个历史相似度,然后根据各个相似度确定各个历史分句文本向量,从而得到历史第一文本向量。
S908,通过初始文本匹配输出层网络将历史第一文本向量和历史第二文本向量匹配,得到历史第一文本和历史第二文本的历史文本匹配训练结果。
具体地,可以通过初始文本匹配模型中的初始文本匹配输出层网络匹配历史第一文本向量和历史第二文本向量得到历史文本匹配训练结果。该历史文本匹配训练结果是初始文本匹配模型输出的训练结果。该训练结果可以为文本匹配的概率。
S910,当历史文本匹配结果和历史文本匹配训练结果达到预设训练完成条件时,得到已训练的文本匹配模型。
具体地,可以将历史文本匹配结果与历史文本匹配训练结果进行对比,比如,可以将历史文本匹配结果与历史文本匹配训练结果进行相减,得到差异计算结果,然后根据差异计算结果对初始文本匹配模型中的模型参数进行调整。例如,历史文本匹配结果的标签数值为1,与历史文本匹配训练结果输出的文本匹配概率0.8进行相减,得到差异计算结果0.2。根据差异计算结果0.2对初始文本匹配模型中的模型参数进行调整。其中,训练完成条件用于判断模型是否训练完成。该训练完成条件是预先根据需要进行设置的,包括训练次数达到最大的迭代此时或者差异计算结果小于设定的值中的至少一种。在得到已训练的文本匹配模型时,可以将已训练的文本匹配模型进行部署,然后可以直接调用部署后的已训练的文本匹配模型,方便快捷。
在上述实施例中,通过历史文本和对应的匹配结果进行模型训练,当达到训练完成条件时,得到已训练的文本匹配模型。然后将已训练的文本匹配模型
在一个实施例中,如图10所示,步骤S910,即当历史文本匹配结果和历史文本匹配训练结果达到预设训练完成条件时,得到已训练的文本匹配模型,包括步骤:
S1002,将历史文本匹配训练结果和历史文本匹配结果输入到目标损失函数中计算,得到损失值。
S1004,当损失值未超过预设阈值时,达到预设训练完成条件,得到已训练的文本匹配模型。
具体地,目标损失函数用于衡量模型的历史文本匹配训练结果的好坏,通过损失值来体现。通常来说损失值越小,历史文本匹配训练结果就越好,训练得到的模型就越准确。预设阈值是预先设置好的损失值,是可以根据需要进行设置的。当损失值超过预设阈值时,可以使用损失值对初始文本匹配模型的模型参数进行调整,得到更新的文本匹配模型。然后重新获取到训练文本数据对更新的文本匹配模型进行训练。直到模型训练得到的损失值未超过预设阈值时,将最后一次训练时的文本匹配模型作为已训练的文本匹配模型。
在上述实施例中,通过目标损失函数的目标值来判读是否符合训练完成条件,当损失值未超过预设阈值时,达到预设训练完成条件,能够提高训练得到的文本匹配模型的准确性。
在一个实施例中,如图11所示,步骤S1004,即在将历史文本匹配训练结果和历史文本匹配结果输入到目标损失函数中计算,得到损失值之前,还包括:
S1102,获取历史第一文本,将历史第一文本输入到初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量。
S1104,获取历史第一文本向量,计算历史第一文本识别向量和历史第一文本向量的相似度,根据相似度确定目标损失项。
S1106,获取预设损失函数,根据预设损失函数和目标损失项得到目标损失函数。
其中,目标损失项用于保证历史第一文本的历史第一文本向量未偏离整个历史第一文本的语义信息。预设损失函数是预先根据需要设置的损失函数,比如,可以是交叉熵损失函数,该交叉熵函数可以如下所示:
其中,y(i)表示第i个历史第一文本和历史第二文本对应的历史文本匹配结果,可以取值为0或者1。/>为第i个历史第一文本和历史第二文本对应的历史文本匹配训练结果中的匹配概率。/>为第i个历史第一文本和历史第二文本对应的历史文本匹配训练结果中的未匹配概率。
具体地,由于是根据各个历史分句文本向量得到的历史第一文本向量,该历史第一文本向量表示的语义信息可能偏离历史第一文本所要表达的语义信息。此时,通过将历史第一文本整体输入到初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量,该历史第一文本识别向量反映了该历史第一文本整体的语义信息。此时使用相似度算法计算历史第一文本识别向量和历史第一文本向量的相似度,该相似度就表示了历史第一文本向量和历史第一文本识别向量之间的相关程度。然后根据该相似度确定目标损失项。比如,可以根据相似度确定相关性的得分,将该得分作为目标损失项。在本实施例中,得到的目标损失函数可以如下所示:LOSS=LOSS1+L2,其中,LOSS1为交叉熵损失函数。L2为目标损失项。
在一个实施例中,可以根据设置好的目标损失项的权重和对应的相似度得到目标损失项。此时得到的目标损失函数可以如下所示:LOSS=LOSS1+a*L2。其中,a为目标损失项的权重。该权重可以根据需要进行设置。
在一个实施例中,如图12所示,步骤S1102,即将历史第一文本输入到初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量,包括步骤:
S1202,将历史第一文本分词,得到对应的各个历史第一文本分词。
S1204,获取各个历史第一文本分词对应的历史第一文本分词向量,将各个历史第一文本分词向量输入到初始文本向量化网络中进行文本向量化,得到历史第一文本对应的历史第一文本识别向量。
具体地,初始文本向量化网络是未经过训练的文本向量化网络。在需要进行损失值计算时,需要将历史第一文本作为整体进行文本向量化,得到历史第一文本识别向量,通过历史第一文本识别向量得到目标损失项。此时,可以调用初始文本匹配模型中的初始文本向量化网络对历史第一文本向量化,得到历史第一文本识别向量。对于每一次的训练过程,都需要进行损失值的计算,则每次计算时,都需要调用训练过程中对应的文本向量化网络对历史第一文本整体进行向量化,进而确定每次训练的损失值,当损失值小于预设阈值时,训练完成,将最后一次训练过程中的文本匹配模型作为已训练的文本匹配模型。
本申请提供的文本匹配方法可以应用到任意一语句与文本匹配的业务场景中,在一个具体的实施例中,本申请提供的文本匹配方法可以应用在通过搜索语句来查找热点文章的应用场景中。如图13所示,通过已训练的文本匹配模型的模型结构示意图来具体说明,包括以下步骤:
1、获取搜索语句和热点文章。服务器可以获取到用户终端发送的搜索语句,并从热点文章数据库中获取到的热点文章。
2、将搜索语句和热点文章输入到文本匹配模型中。服务器中部署有文本匹配模型,用来对文本进行匹配。
3、通过文本匹配模型对热点文章进行分句,得到各个热点文章分句,比如,得到n个分句,包括分句1,分句2,…,分句n,其中,n为正整数。然后调用文本匹配模型中的文本向量化网络对各个热点文章分句分别进行向量化,得到各个热点文章分句的初始向量。比如,输入到LTD-BERT中得到n个热点文章分句的初始向量,包括分句初始向量1,分句初始向量2,…,分句初始向量n,其中,每个分句初始向量都是1*V的向量,V表示向量维度。同时将搜索语句调用已训练的文本匹配模型中的文本向量化模型进行向量化,得到搜索语句向量,该搜索语句向量也是1*V的向量。
4、服务器已训练的文本匹配模型中的相似度计算网络分别计算各个热点文章分句初始向量与短文本向量的分句相似度,比如,得到了n个分句相似度,包括分句相似度1,分句相似度2,…,分句相似度n。
5、服务器根据各个分句相似度确定各个分句的权重,比如,可以根据相似度确定每个分句的相关性得分。使用各个分句的权重与各个热点文章分句初始向量相乘得到各个分句向量,包括分句向量1,分句向量2,…,分句向量n,每个分句向量都是1*V的向量。然后将各个分句向量相加得到热点文章向量,该热点文章向量也是1*V的向量。
6、服务器将得到的热点文章向量和搜索语句向量,输入到已训练的文本匹配模型中的文本匹配输出层网络中进行计算。具体来说:将热点文章向量和搜索语句向量拼接得到拼接后的向量,比如,将1*V的热点文章向量和1*V的搜索语句向量拼接,得到1*2V的拼接后的向量,将1*2V的拼接后的向量通过文本匹配输出层网络中的全链接层进行线性变换,得到变换后的向量。该变换后的向量是1*2的向量。将变换后的向量输入到softmax层归一化,得到输出的文本匹配概率。即得到了搜索语句与热点文章数据库中的一篇热点文章的匹配概率。
7、服务器可以使用上述步骤1到步骤6对热点文章数据库中每篇热点文章与搜索语句进行匹配,得到每篇热点文章对应的匹配概率。然后对每篇热点文章对应的匹配概率依次从大到小进行排序。然后根据从大到小的排序选取预设数量的热点文章推荐给用户,即将选取的热点文章返回到用户终端进行展示。
在一个具体的实施例中,本申请提供的文本匹配方法还可以应用在标题党判别的应用场景中。该标题党文章是指文章标题与文章正文内容不符的文章。
服务器先通过如图14所示的训练时的文本匹配模型的模型结构示意图来训练得到文本匹配模型,得到已训练的文本匹配模型,包括以下步骤:
01、获取大量标题党文章和普通文章作为训练文本数据。同时设置好的标题党文章对应的未匹配标签和普通文章对应的匹配标签。服务器可以从各个数据源采集得到训练文本数据。
02、服务器可以从训练文本数据中任意选取要进行训练的文章和文章标题。可以选取标题党文章和标题党文章标题,将标题党文章和标题党文章标题输入到初始的文本匹配模型中进行训练。也可以选取普通文章和普通文章标题,将普通文章和普通文章标题输入到初始的文本匹配模型中进行训练。
03、通过初始的文本匹配模型对标题党文章进行分句,得到各个标题党文章分句,然后调用初始的文本匹配模型中的文本向量化网络对各个标题党文章分句分别进行向量化,得到各个标题党文章分句初始向量。比如,输入到LTD-BERT中得到n个标题党文章分句初始向量,包括分句初始向量1,分句初始向量2,…,分句初始向量n,其中,每个分句初始向量都是1*V的向量,V表示向量维度。同时将文章标题调用初始的文本匹配模型中的文本向量化网络进行识别,得到文章标题向量,该文章标题向量也是1*V的向量。
04、服务器通过相似度计算网络分别计算各个标题党文章分句初始向量与文章标题向量的分句相似度,比如,得到了n个分句相似度,包括分句相似度1,分句相似度2,…,分句相似度n。
05、服务器根据各个分句相似度确定各个分句的权重,比如,可以根据相似度确定每个分句的相关性得分。使用各个分句的权重与各个标题党文章分句初始向量相乘得到各个分句向量,包括分句向量1,分句向量2,…,分句向量n,每个分句向量都是1*V的向量。然后将各个分句向量相加得到标题党文章向量,该标题党文章向量也是1*V的向量。
06、服务器将得到的标题党文章向量和文章标题向量,输入到初始的文本匹配模型中的文本匹配输出层网络中进行计算。具体来说:将标题党文章向量和文章标题向量拼接得到拼接后的向量,比如,将1*V的标题党文章向量和1*V的文章标题向量拼接,得到1*2V的拼接后的向量,将1*2V的拼接后的向量通过文本匹配输出层中的全链接层进行线性变换,得到变换后的向量。该变换后的向量是1*2的向量。将变换后的向量输入到softmax层归一化,得到输出的文章和标题的训练匹配概率和训练未匹配概率。
07、获取目标损失函数。具体来说:获取到标题党文章,将标题党文章输入到初始文本匹配模型包括的文本向量化网络中进行整体识别,得到标题党文章识别向量,计算标题党文章识别向量与标题党文章向量的相似度,根据相似度和设定的权重得到目标函数损失项LOSS2。此时获取到预设损失函数LOSS1,根据该目标函数损失项LOSS2和预设损失函数LOSS1得到目标损失函数。
08、获取到标题党文章对应的标签。将该标签、对应的训练匹配概率和训练未匹配概率使用目标损失函数进行计算,得到损失值。判断损失值是否小于预设阈值。
09,当损失值未小于预设阈值时,调整初始文本匹配模型的模型参数,得到更新的文本匹配模型,将更新的文本匹配模型作为初始文本匹配模型并循环执行步骤02到步骤08。直到当损失值小于预设阈值时,将此时训练过程中的文本匹配模型作为已训练的文本匹配模型。并将已训练的文本匹配模型进行部署。
10,服务器可以获取到需要判断文章和文章标题,并使用已训练的文本匹配模型判断该文章是否是标题党文章。
应该理解的是,虽然图2-图12的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-图12中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图15所示,提供了一种文本匹配装置1500,包括:文本获取模块1502、向量确定模块1504和向量匹配模块1506,其中:
文本获取模块1502,用于获取第一文本和第二文本,将第一文本和第二文本输入到已训练的文本匹配模型中;
向量确定模块1504,用于确定第一文本中各个分句文本初始向量和第二文本对应的第二文本向量;
向量匹配模块1506,用于将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果,其中,基于所述第一文本中的各个分句的文本向量得到所述第一文本向量,根据所述第一文本中的各个分句的初始向量与所述第二文本向量之间的相似度来确定所述第一文本中的各个分句的文本向量。
在一个实施例中,文本匹配装置1500,还包括:
模型匹配模块,用于通过文本匹配模型得到文本匹配结果,文本匹配模型包括文本向量化网络、相似度计算网络和文本匹配输出层网络;文本向量化网络用于确定第一文本中的各个分句的初始向量和第二文本对应的第二文本向量,相似度计算网络用于计算各个分句的初始向量与第二文本向量之间的相似度,根据相似度确定各个分句的文本向量,基于各个分句的文本向量得到第一文本向量,文本匹配输出层网络用于将第一文本向量和第二文本向量匹配,得到第一文本和第二文本的文本匹配结果。
在一个实施例中,模型匹配模块,包括:
初始向量得到单元,用于对第一文本进行分句,得到各个分句;分别对将各个分句文本进行分词,得到各个分句对应的分句词;获取分句词对应的分句词向量,将分句词向量输入到文本向量化网络中,得到各个分句对应的初始向量;
第二文本向量得到单元,用于对第二文本进行分词,得到各个第二文本分词;获取各个第二文本分词对应的第二文本分词向量,将各个第二文本分词向量输入到文本向量化网络中,得到第二文本对应的第二文本向量。
在一个实施例中,模型匹配模块,包括:
权重信息确定单元,用于通过相似度计算网络计算各个分句的初始向量与第二文本向量的相似度,根据相似度确定各个分句的初始向量对应的权重信息;
分句文本向量计算单元,用于根据各个分句的初始向量与对应的权重信息通过文本匹配模型计算各个分句的文本向量。
在一个实施例中,分句文本向量计算单元还用于获取第一分句的初始向量中各个向量元素,计算各个向量元素与第一分句的初始向量对应的权重信息的乘积,得到各个修正向量元素;根据各个修正向量元素得到第一分句的文本向量。
在一个实施例中,向量匹配模块1506,包括:计算单元,用于计算各个分句的文本向量的和,得到第一文本向量。
在一个实施例中,计算单元还用于获取各个分句的文本向量中的向量元素和向量元素位置,将相同向量元素位置对应的各个向量元素进行相加,得到各个向量元素位置对应的目标向量元素;根据各个目标向量元素得到第一文本向量。
在一个实施例中,模型匹配模块,包括:
概率得到单元,用于将第一文本向量和第二文本向量输入到文本匹配输出层网络中,得到输出的文本匹配概率;
结果得到单元,用于根据文本匹配概率得到第一文本和第二文本的文本匹配结果。
在一个实施例中,概率得到单元还用于将第一文本向量和第二文本向量拼接,得到拼接后的文本向量;将拼接后的文本向量输入到全连接层进行线性变换,得到变换后的文本向量;将变换后的文本向量输入到回归层中归一化,得到文本匹配概率。
在一个实施例中,模型匹配模块,还包括:
训练模块,用于获取历史第一文本、历史第二文本和对应的历史文本匹配结果,将历史第一文本和历史第二文本输入到初始文本匹配模型中训练,所述初始文本匹配模型包括初始文本向量化网络、所述相似度计算网络和初始文本匹配输出层网络;通过初始文本向量化网络确定历史第一文本中的各个历史分句的初始向量和历史第二文本对应的历史第二文本向量,通过相似度计算网络计算各个历史分句的初始向量与历史第二文本向量之间的历史相似度,根据历史相似度确定各个历史分句的文本向量,基于各个历史分句的文本向量得到历史第一文本向量;通过初始文本匹配输出层网络将历史第一文本向量和历史第二文本向量匹配,得到历史第一文本和历史第二文本的历史文本匹配训练结果;
模型得到模块,用于当历史文本匹配结果和历史文本匹配训练结果达到预设训练完成条件时,得到文本匹配模型。
在一个实施例中,模型得到模块,包括:
损失值计算单元,用于将历史文本匹配训练结果和历史文本匹配结果输入到目标损失函数中计算,得到损失值;
损失值判断单元,用于当损失值未超过预设阈值时,达到预设训练完成条件,得到文本匹配模型。
在一个实施例中,损失值计算单元还用于获取历史第一文本,将历史第一文本输入到初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量;获取历史第一文本向量,计算历史第一文本识别向量和历史第一文本向量的相似度,根据相似度确定目标损失项;获取预设损失函数,根据预设损失函数和目标损失项得到目标损失函数。
在一个实施例中,损失值计算单元还用于将历史第一文本分词,得到对应的各个历史第一文本分词;获取各个历史第一文本分词对应的历史第一文本分词向量,将各个历史第一文本分词向量输入到初始文本向量化网络中进行文本向量化,得到历史第一文本对应的历史第一文本识别向量。
关于文本匹配装置的具体限定可以参见上文中对于文本匹配方法的限定,在此不再赘述。上述文本匹配装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图16示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器104。如图16所示,该计算机设备包括通过系统总线连接的处理器、存储器以及网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现文本匹配方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行文本匹配方法。
本领域技术人员可以理解,图16中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的文本匹配装置可以实现为一种计算机程序的形式,计算机程序可在如图16所示的计算机设备上运行。计算机设备的存储器中可存储组成该文本匹配装置的各个程序模块,比如,图15所示的文本获取模块1502、向量确定模块1504和向量匹配模块1506。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的文本匹配方法中的步骤。
例如,图16所示的计算机设备可以通过如图15所示的文本匹配装置中的文本获取模块1502执行步骤S202。向量确定模块1504执行步骤204。向量匹配模块1506执行步骤206。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述文本匹配方法的步骤。此处文本匹配方法的步骤可以是上述各个实施例的文本匹配方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述文本匹配方法的步骤。此处文本匹配方法的步骤可以是上述各个实施例的文本匹配方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指示相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (26)

1.一种文本匹配方法,包括:
获取第一文本和第二文本,所述第一文本长度大于所述第二文本长度;
确定所述第一文本对应的第一文本向量,并确定所述第二文本对应的第二文本向量;
将所述第一文本向量和所述第二文本向量匹配,得到所述第一文本和第二文本的文本匹配结果,
其中,基于所述第一文本中的各个分句的文本向量得到所述第一文本向量,根据所述第一文本中的各个分句的初始向量与所述第二文本向量之间的相似度来确定所述第一文本中的各个分句的文本向量,包括:计算每个相似度占所有相似度和的比值,得到所述各个分句的初始向量对应的权重信息,将所述各个分句的初始向量对应的权重信息与所述各个分句的初始向量拼接,得到所述各个分句的文本向量。
2.根据权利要求1所述的方法,其特征在于,所述文本匹配结果是通过文本匹配模型得到的,所述文本匹配模型包括文本向量化网络、相似度计算网络和文本匹配输出层网络;
所述文本向量化网络用于确定所述第一文本中的各个分句的初始向量和所述第二文本对应的第二文本向量,所述相似度计算网络用于计算所述各个分句的初始向量与所述第二文本向量之间的相似度,根据所述相似度确定所述各个分句的文本向量,基于所述各个分句的文本向量得到所述第一文本向量,所述文本匹配输出层网络用于将所述第一文本向量和所述第二文本向量匹配,得到所述第一文本和第二文本的文本匹配结果。
3.根据权利要求2所述的方法,其特征在于,所述确定所述第一文本中的各个分句的初始向量和所述第二文本对应的第二文本向量,包括:
对所述第一文本进行分句,得到各个分句;
分别对所述各个分句进行分词,得到所述各个分句对应的分句词;
获取所述分句词对应的分句词向量,将所述分句词向量输入到所述文本向量化网络中,得到所述各个分句的初始向量;
对所述第二文本进行分词,得到各个第二文本分词;
获取所述各个第二文本分词对应的第二文本分词向量,将所述各个第二文本分词向量输入到所述文本向量化网络中,得到所述第二文本对应的第二文本向量。
4.根据权利要求2所述的方法,其特征在于,所述计算所述各个分句的初始向量与所述第二文本向量之间的相似度,根据所述相似度确定所述各个分句的文本向量,包括:
通过相似度计算网络计算所述各个分句的初始向量与所述第二文本向量的相似度,根据所述相似度确定所述各个分句的初始向量对应的权重信息;
根据所述各个分句的初始向量与对应的权重信息计算所述各个分句的文本向量。
5.根据权利要求4所述的方法,其特征在于,所述根据所述各个分句的初始向量与对应的权重信息计算所述各个分句的文本向量,包括:
获取第一分句的初始向量中各个向量元素,计算所述各个向量元素与所述第一分句的初始向量对应权重信息的乘积,得到各个修正向量元素;
根据所述各个修正向量元素得到所述第一分句的文本向量。
6.根据权利要求1所述的方法,其特征在于,基于所述第一文本中的各个分句的文本向量得到所述第一文本向量,包括:
计算所述各个分句的文本向量的和,得到所述第一文本向量。
7.根据权利要求6所述的方法,其特征在于,计算所述各个分句的文本向量的和,得到所述第一文本向量,包括:
获取所述各个分句的文本向量中的向量元素和向量元素位置,将相同向量元素位置对应的各个向量元素进行相加,得到所述各个向量元素位置对应的目标向量元素;
根据所述各个目标向量元素得到第一文本向量。
8.根据权利要求2所述的方法,其特征在于,所述将所述第一文本向量和所述第二文本向量匹配,得到所述第一文本和所述第二文本的文本匹配结果,包括:
将所述第一文本向量和所述第二文本向量输入到所述文本匹配输出层网络中,得到输出的文本匹配概率;
根据所述文本匹配概率得到所述第一文本和所述第二文本的文本匹配结果。
9.根据权利要求8所述的方法,其特征在于,所述文本匹配输出层网络包括全连接层和对应的回归层;则所述将所述第一文本向量和所述第二文本向量输入到所述文本匹配输出层网络中,得到输出的文本匹配概率,包括:
将所述第一文本向量和所述第二文本向量拼接,得到拼接后的文本向量;
将所述拼接后的文本向量输入到所述全连接层进行线性变换,得到变换后的文本向量;
将所述变换后的文本向量输入到所述回归层中归一化,得到所述文本匹配概率。
10.根据权利要求2所述的方法,其特征在于,所述文本匹配模型的训练步骤,包括:
获取历史第一文本、历史第二文本和对应的历史文本匹配结果,将所述历史第一文本和所述历史第二文本输入到初始文本匹配模型中训练,所述初始文本匹配模型包括初始文本向量化网络、所述相似度计算网络和初始文本匹配输出层网络;
通过所述初始文本向量化网络确定所述历史第一文本中的各个历史分句的初始向量和所述历史第二文本对应的历史第二文本向量;
通过所述相似度计算网络计算所述各个历史分句的初始向量与所述历史第二文本向量之间的历史相似度,根据所述历史相似度确定所述各个历史分句的文本向量,基于所述各个历史分句的文本向量得到历史第一文本向量;
通过所述初始文本匹配输出层网络将所述历史第一文本向量和所述历史第二文本向量匹配,得到所述历史第一文本和所述历史第二文本的历史文本匹配训练结果;
当所述历史文本匹配结果和所述历史文本匹配训练结果达到预设训练完成条件时,得到已训练的文本匹配模型。
11.根据权利要求10所述的方法,其特征在于,所述当所述历史文本匹配结果和所述历史文本匹配训练结果达到预设训练完成条件时,得到所述已训练的文本匹配模型,包括:
将所述历史文本匹配训练结果和所述历史文本匹配结果输入到目标损失函数中计算,得到损失值;
当所述损失值未超过预设阈值时,达到预设训练完成条件,得到所述已训练的文本匹配模型。
12.根据权利要求11所述的方法,其特征在于,在所述将所述历史文本匹配训练结果和所述历史文本匹配结果输入到目标损失函数中计算,得到损失值之前,还包括:
获取历史第一文本,将所述历史第一文本输入到所述初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量;
获取历史第一文本向量,计算所述历史第一文本识别向量和所述历史第一文本向量的相似度,根据所述相似度确定目标损失项;
获取预设损失函数,根据所述预设损失函数和所述目标损失项得到目标损失函数。
13.一种文本匹配装置,其特征在于,所述装置包括:
文本获取模块,用于获取第一文本和第二文本,所述第一文本长度大于所述第二文本长度;
向量确定模块,用于确定所述第一文本对应的第一文本向量,并确定所述第二文本对应的第二文本向量;
向量匹配模块,用于将所述第一文本向量和所述第二文本向量匹配,得到所述第一文本和第二文本的文本匹配结果,
其中,基于所述第一文本中的各个分句的文本向量得到所述第一文本向量,根据所述第一文本中的各个分句的初始向量与所述第二文本向量之间的相似度来确定所述第一文本中的各个分句的文本向量,包括:计算每个相似度占所有相似度和的比值,得到所述各个分句的初始向量对应的权重信息,将所述各个分句的初始向量对应的权重信息与所述各个分句的初始向量拼接,得到所述各个分句的文本向量。
14.根据权利要求13所述的装置,其特征在于,所述装置,还包括:
模型匹配模块,用于通过文本匹配模型得到所述文本匹配结果,所述文本匹配模型包括文本向量化网络、相似度计算网络和文本匹配输出层网络;所述文本向量化网络用于确定所述第一文本中的各个分句的初始向量和所述第二文本对应的第二文本向量,所述相似度计算网络用于计算所述各个分句的初始向量与所述第二文本向量之间的相似度,根据所述相似度确定所述各个分句的文本向量,基于所述各个分句的文本向量得到所述第一文本向量,所述文本匹配输出层网络用于将所述第一文本向量和所述第二文本向量匹配,得到所述第一文本和第二文本的文本匹配结果。
15.根据权利要求14所述的装置,其特征在于,所述模型匹配模块,包括:
初始向量得到单元,用于对所述第一文本进行分句,得到各个分句;分别对所述各个分句进行分词,得到所述各个分句对应的分句词;获取所述分句词对应的分句词向量,将所述分句词向量输入到所述文本向量化网络中,得到所述各个分句的初始向量;
第二文本向量得到单元,用于对所述第二文本进行分词,得到各个第二文本分词;获取所述各个第二文本分词对应的第二文本分词向量,将所述各个第二文本分词向量输入到所述文本向量化网络中,得到所述第二文本对应的第二文本向量。
16.根据权利要求14所述的装置,其特征在于,所述模型匹配模块,包括:
权重信息确定单元,用于通过相似度计算网络计算所述各个分句的初始向量与所述第二文本向量的相似度,根据所述相似度确定所述各个分句的初始向量对应的权重信息;
分句文本向量计算单元,用于根据所述各个分句的初始向量与对应的权重信息计算所述各个分句的文本向量。
17.根据权利要求16所述的装置,其特征在于,所述分句文本向量计算单元还用于获取第一分句的初始向量中各个向量元素,计算所述各个向量元素与所述第一分句的初始向量对应权重信息的乘积,得到各个修正向量元素;根据所述各个修正向量元素得到所述第一分句的文本向量。
18.根据权利要求13所述的装置,其特征在于,所述向量匹配模块,包括:
计算单元,用于计算所述各个分句的文本向量的和,得到所述第一文本向量。
19.根据权利要求18所述的装置,其特征在于,所述计算单元还用于获取所述各个分句的文本向量中的向量元素和向量元素位置,将相同向量元素位置对应的各个向量元素进行相加,得到所述各个向量元素位置对应的目标向量元素;根据所述各个目标向量元素得到第一文本向量。
20.根据权利要求14所述的装置,其特征在于,所述模型匹配模块,包括:
概率得到单元,用于将所述第一文本向量和所述第二文本向量输入到所述文本匹配输出层网络中,得到输出的文本匹配概率;
结果得到单元,用于根据所述文本匹配概率得到所述第一文本和所述第二文本的文本匹配结果。
21.根据权利要求20所述的装置,其特征在于,所述概率得到单元还用于将所述第一文本向量和所述第二文本向量拼接,得到拼接后的文本向量;将所述拼接后的文本向量输入到全连接层进行线性变换,得到变换后的文本向量;将所述变换后的文本向量输入到回归层中归一化,得到所述文本匹配概率。
22.根据权利要求14所述的装置,其特征在于,所述模型匹配模块,还包括:
训练模块,用于获取历史第一文本、历史第二文本和对应的历史文本匹配结果,将所述历史第一文本和所述历史第二文本输入到初始文本匹配模型中训练,所述初始文本匹配模型包括初始文本向量化网络、所述相似度计算网络和初始文本匹配输出层网络;通过所述初始文本向量化网络确定所述历史第一文本中的各个历史分句的初始向量和所述历史第二文本对应的历史第二文本向量;通过所述相似度计算网络计算所述各个历史分句的初始向量与所述历史第二文本向量之间的历史相似度,根据所述历史相似度确定所述各个历史分句的文本向量,基于所述各个历史分句的文本向量得到历史第一文本向量;通过所述初始文本匹配输出层网络将所述历史第一文本向量和所述历史第二文本向量匹配,得到所述历史第一文本和所述历史第二文本的历史文本匹配训练结果;
模型得到模块,用于当所述历史文本匹配结果和所述历史文本匹配训练结果达到预设训练完成条件时,得到已训练的文本匹配模型。
23.根据权利要求22所述的装置,其特征在于,所述模型得到模块,包括:
损失值计算单元,用于将所述历史文本匹配训练结果和所述历史文本匹配结果输入到目标损失函数中计算,得到损失值;
损失值判断单元,用于当所述损失值未超过预设阈值时,达到预设训练完成条件,得到所述已训练的文本匹配模型。
24.根据权利要求23所述的装置,其特征在于,损失值计算单元还用于获取历史第一文本,将所述历史第一文本输入到所述初始文本匹配模型中进行文本向量化,得到历史第一文本识别向量;获取历史第一文本向量,计算所述历史第一文本识别向量和所述历史第一文本向量的相似度,根据所述相似度确定目标损失项;获取预设损失函数,根据所述预设损失函数和所述目标损失项得到目标损失函数。
25.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至12中任一项所述方法的步骤。
26.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至12中任一项所述方法的步骤。
CN202010039971.2A 2020-01-15 2020-01-15 文本匹配方法、装置、计算机可读存储介质和计算机设备 Active CN111259113B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010039971.2A CN111259113B (zh) 2020-01-15 2020-01-15 文本匹配方法、装置、计算机可读存储介质和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010039971.2A CN111259113B (zh) 2020-01-15 2020-01-15 文本匹配方法、装置、计算机可读存储介质和计算机设备

Publications (2)

Publication Number Publication Date
CN111259113A CN111259113A (zh) 2020-06-09
CN111259113B true CN111259113B (zh) 2023-09-19

Family

ID=70948811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010039971.2A Active CN111259113B (zh) 2020-01-15 2020-01-15 文本匹配方法、装置、计算机可读存储介质和计算机设备

Country Status (1)

Country Link
CN (1) CN111259113B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111538908B (zh) * 2020-06-22 2020-10-20 腾讯科技(深圳)有限公司 搜索排序方法、装置、计算机设备和存储介质
CN112182166B (zh) * 2020-10-29 2023-03-10 腾讯科技(深圳)有限公司 一种文本匹配方法、装置、电子设备及存储介质
CN113239150B (zh) * 2021-05-17 2024-02-27 平安科技(深圳)有限公司 文本匹配方法、系统及设备
CN113204629A (zh) * 2021-05-31 2021-08-03 平安科技(深圳)有限公司 文本匹配方法、装置、计算机设备及可读存储介质
CN114547087B (zh) * 2022-04-27 2022-07-26 湖南正宇软件技术开发有限公司 提案自动识别并生成报告的方法、装置、设备和介质
CN116150380B (zh) * 2023-04-18 2023-06-27 之江实验室 一种文本匹配方法、装置、存储介质及设备

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085568A (zh) * 2017-03-29 2017-08-22 腾讯科技(深圳)有限公司 一种文本相似度判别方法及装置
CN109190117A (zh) * 2018-08-10 2019-01-11 中国船舶重工集团公司第七〇九研究所 一种基于词向量的短文本语义相似度计算方法
CN109325229A (zh) * 2018-09-19 2019-02-12 中译语通科技股份有限公司 一种利用语义信息计算文本相似度的方法
CN109492213A (zh) * 2017-09-11 2019-03-19 阿里巴巴集团控股有限公司 句子相似度计算方法和装置
CN109635077A (zh) * 2018-12-18 2019-04-16 武汉斗鱼网络科技有限公司 文本相似度的计算方法、装置、电子设备及存储介质
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110008482A (zh) * 2019-04-17 2019-07-12 腾讯科技(深圳)有限公司 文本处理方法、装置、计算机可读存储介质和计算机设备
CN110033022A (zh) * 2019-03-08 2019-07-19 腾讯科技(深圳)有限公司 文本的处理方法、装置和存储介质
CN110134967A (zh) * 2019-05-22 2019-08-16 北京金山数字娱乐科技有限公司 文本处理方法、装置、计算设备及计算机可读存储介质
CN110209771A (zh) * 2019-06-14 2019-09-06 哈尔滨哈银消费金融有限责任公司 用户地理信息分析与文本挖掘方法和装置
CN110222154A (zh) * 2019-06-10 2019-09-10 武汉斗鱼鱼乐网络科技有限公司 基于文本及语义的相似度计算方法、服务器及存储介质
CN110263162A (zh) * 2019-06-05 2019-09-20 阿里巴巴集团控股有限公司 卷积神经网络及其进行文本分类的方法、文本分类装置
CN110287312A (zh) * 2019-05-10 2019-09-27 平安科技(深圳)有限公司 文本相似度的计算方法、装置、计算机设备及计算机存储介质
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491547B (zh) * 2017-08-28 2020-11-10 北京百度网讯科技有限公司 基于人工智能的搜索方法和装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107085568A (zh) * 2017-03-29 2017-08-22 腾讯科技(深圳)有限公司 一种文本相似度判别方法及装置
CN109492213A (zh) * 2017-09-11 2019-03-19 阿里巴巴集团控股有限公司 句子相似度计算方法和装置
CN109190117A (zh) * 2018-08-10 2019-01-11 中国船舶重工集团公司第七〇九研究所 一种基于词向量的短文本语义相似度计算方法
CN109325229A (zh) * 2018-09-19 2019-02-12 中译语通科技股份有限公司 一种利用语义信息计算文本相似度的方法
CN109635077A (zh) * 2018-12-18 2019-04-16 武汉斗鱼网络科技有限公司 文本相似度的计算方法、装置、电子设备及存储介质
CN110033022A (zh) * 2019-03-08 2019-07-19 腾讯科技(深圳)有限公司 文本的处理方法、装置和存储介质
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110008482A (zh) * 2019-04-17 2019-07-12 腾讯科技(深圳)有限公司 文本处理方法、装置、计算机可读存储介质和计算机设备
CN110287312A (zh) * 2019-05-10 2019-09-27 平安科技(深圳)有限公司 文本相似度的计算方法、装置、计算机设备及计算机存储介质
CN110134967A (zh) * 2019-05-22 2019-08-16 北京金山数字娱乐科技有限公司 文本处理方法、装置、计算设备及计算机可读存储介质
CN110263162A (zh) * 2019-06-05 2019-09-20 阿里巴巴集团控股有限公司 卷积神经网络及其进行文本分类的方法、文本分类装置
CN110222154A (zh) * 2019-06-10 2019-09-10 武汉斗鱼鱼乐网络科技有限公司 基于文本及语义的相似度计算方法、服务器及存储介质
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN110209771A (zh) * 2019-06-14 2019-09-06 哈尔滨哈银消费金融有限责任公司 用户地理信息分析与文本挖掘方法和装置

Also Published As

Publication number Publication date
CN111259113A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN111259113B (zh) 文本匹配方法、装置、计算机可读存储介质和计算机设备
CN110598206B (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
US11151177B2 (en) Search method and apparatus based on artificial intelligence
CN111062215B (zh) 基于半监督学习训练的命名实体识别方法和装置
US11113323B2 (en) Answer selection using a compare-aggregate model with language model and condensed similarity information from latent clustering
CN110866140A (zh) 图像特征提取模型训练方法、图像搜索方法及计算机设备
CN110826328A (zh) 关键词提取方法、装置、存储介质和计算机设备
CN110569500A (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN111475617A (zh) 事件主体抽取方法、装置及存储介质
CN111666399A (zh) 基于知识图谱的智能问答方法、装置和计算机设备
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
CN110427612B (zh) 基于多语言的实体消歧方法、装置、设备和存储介质
CN114722069A (zh) 语言转换方法和装置、电子设备及存储介质
CN112085091B (zh) 基于人工智能的短文本匹配方法、装置、设备及存储介质
CN111274829A (zh) 一种利用跨语言信息的序列标注方法
CN112632258A (zh) 文本数据处理方法、装置、计算机设备和存储介质
CN111178080B (zh) 一种基于结构化信息的命名实体识别方法及系统
CN114925702A (zh) 文本相似度识别方法、装置、电子设备及存储介质
CN113673225A (zh) 中文句子相似性判别方法、装置、计算机设备和存储介质
CN113761151A (zh) 同义词挖掘、问答方法、装置、计算机设备和存储介质
CN113536784A (zh) 文本处理方法、装置、计算机设备和存储介质
CN114707005B (zh) 一种舰船装备的知识图谱构建方法和系统
KR102439321B1 (ko) 문장 의미를 분석하여 찾아주는 시맨틱 분석 제공 시스템
CN114398903B (zh) 意图识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40024415

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant