CN107729300B - 文本相似度的处理方法、装置、设备和计算机存储介质 - Google Patents

文本相似度的处理方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN107729300B
CN107729300B CN201710841945.XA CN201710841945A CN107729300B CN 107729300 B CN107729300 B CN 107729300B CN 201710841945 A CN201710841945 A CN 201710841945A CN 107729300 B CN107729300 B CN 107729300B
Authority
CN
China
Prior art keywords
similarity
text
similarity determination
splicing
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710841945.XA
Other languages
English (en)
Other versions
CN107729300A (zh
Inventor
范淼
李传勇
孙明明
施鹏
冯悦
李平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Priority to CN201710841945.XA priority Critical patent/CN107729300B/zh
Publication of CN107729300A publication Critical patent/CN107729300A/zh
Application granted granted Critical
Publication of CN107729300B publication Critical patent/CN107729300B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files

Abstract

本发明提供一种文本相似度的处理方法、装置、设备和计算机存储介质,其中所述文本相似度的处理方法包括:获取由多种相似度确定方法得到的文本对的相似度确定结果;将所述文本对的相似度确定结果进行拼接,得到拼接特征;将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;其中,所述相似度确定模型是预先训练得到的。通过本发明所提供的技术方案,能够实现对多种相似度确定方法所得到的相似度确定结果进行集成处理,并提高确定文本对的文本相似度的准确性,使得集成处理后的相似度计算准确性高于任何一种单一的相似度计算方式。

Description

文本相似度的处理方法、装置、设备和计算机存储介质
【技术领域】
本发明涉及自然语言处理技术,尤其涉及一种文本相似度的处理方法、装置、设备和计算机存储介质。
【背景技术】
多种互联网应用(例如搜索引擎、问答平台等)都需要依赖准确的文本相似度的计算方法,从而向用户提供与所输入的查询或者与所提出的问题相匹配的内容,因此文本相似度计算一直以来都是亟待解决和提高的研发课题。现有技术中存在多种文本相似度的计算方法,仍然停留在传统自然语言学的词法、词性分析、句法模板提取的层面进行文本相似度的计算,需要使用例如切词工具、词性鉴别、文本匹配模板等方式对文本进行处理。然而,各种单一的相似度计算方法因其算法的限制往往在计算准确性上具有一定局限。
【发明内容】
有鉴于此,本发明提供了一种文本相似度的处理方法、装置、设备和计算机存储介质,用于实现对文本对的多种相似度确定结果进行集成处理,并提高文本对相似度的计算准确性。
本发明为解决技术问题所采用的技术方案是提供一种文本相似度的处理方法,所述方法包括:获取由多种相似度确定方法得到的文本对的相似度确定结果;将所述文本对的相似度确定结果进行拼接,得到拼接特征;将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;其中,所述相似度确定模型是预先训练得到的。
根据本发明一优选实施例,所述相似度确定模型是采用如下方式预先训练得到的:获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果;将所述各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征;将所述各文本对的拼接特征与所述各文本对的标注相似度作为训练样本,训练分类模型,以得到相似度确定模型。
根据本发明一优选实施例,所述分类模型的训练目标为最小化所述分类模型的损失值;在所述训练分类模型的过程中,利用所述损失值对所述分类模型进行参数调整。
根据本发明一优选实施例,所述损失值为所述分类模型输出的文本对的文本相似度与所述文本对的标注相似度之间的误差。
根据本发明一优选实施例,所述由多种相似度确定方式得到的文本对的相似度确定结果包括:文本对的相似度特征向量与相似度得分。
根据本发明一优选实施例,所述将所述文本对的相似度确定结果进行拼接之前,还包括:对所述相似度特征向量进行随机采样,得到采样特征向量;将所述采样特征向量与所述相似度得分进行拼接,得到所述拼接特征。
根据本发明一优选实施例,所述对所述相似度特征向量进行随机采样,得到采样特征向量包括:按照预设概率对所述相似度特征向量中的特征值进行随机采样,并将所述相似度特征向量中未被采样的特征值设置为0,得到采样特征向量。
根据本发明一优选实施例,所述相似度确定模型为基于神经网络的分类模型。
本发明为解决技术问题所采用的技术方案是提供一种文本相似度的处理装置,所述装置包括:获取单元,用于获取由多种相似度确定方法得到的文本对的相似度确定结果;拼接单元,用于将所述文本对的相似度确定结果进行拼接,得到拼接特征;处理单元,用于将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;其中,所述相似度确定模型是预先训练得到的。
根据本发明一优选实施例,所述装置还包括:训练单元,用于采用如下方式预先训练得到所述相似度确定模型:获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果;将所述各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征;将所述各文本对的拼接特征与所述各文本对的标注相似度作为训练样本,训练分类模型,以得到相似度确定模型。
根据本发明一优选实施例,所述分类模型的的训练目标为最小化所述分类模型的损失值;在所述训练分类模型的过程中,利用所述损失值对所述分类模型进行参数调整。
根据本发明一优选实施例,所述损失值为所述分类模型输出的文本对的文本相似度与所述文本对的标注相似度之间的误差。
根据本发明一优选实施例,所述由多种相似度确定方式得到的文本对的相似度确定结果包括:文本对的相似度特征向量与相似度得分。
根据本发明一优选实施例,所述拼接单元将所述文本对的相似度确定结果进行拼接之前,还执行:对所述相似度特征向量进行随机采样,得到采样特征向量;将所述采样特征向量与所述相似度得分进行拼接,得到所述拼接特征。
根据本发明一优选实施例,所述拼接单元对所述相似度特征向量进行随机采样,得到采样特征向量时具体执行:按照预设概率对所述相似度特征向量中的特征值进行随机采样,并将所述相似度特征向量中未被采样的特征值设置为0,得到采样特征向量。
根据本发明一优选实施例,所述相似度确定模型为基于神经网络的分类模型。
由以上技术方案可以看出,本发明通过对由多种相似度确定方法得到的文本对的相似度确定结果进行拼接,将拼接特征作为相似度确定模型的输入,从而实现对文本对的多种相似度确定结果进行集成处理,并提高文本对的文本相似度的计算准确性,使得集成处理后的相似度计算准确性高于任何一种单一的相似度计算方式。
【附图说明】
图1为本发明一实施例提供的文本相似度的处理方法的流程图。
图2为本发明一实施例提供的文本相似度的处理装置的结构图。
图3为本发明一实施例提供的计算机系统/服务器的框图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
本发明所提出的用于文本相似度的处理方法的核心思想在于:提供一种对文本相似度的多种相似度确定结果进行集成处理的方法,使得该集成处理方法能够对由多种单一的文本相似度确定方法所得到的相似度确定结果进行集成计算,并使得由该集成处理方法所得到的文本相似度能够比任一单一相似度确定方法所得到的文本相似度更加准确。在本发明中,以文本对的相似度特征向量与文本对的相似度得分这两种文本相似度确定结果为例进行说明。可以理解的是,无论是相似度特征向量还是相似度得分,都能够反映其所对应文本对的相似性情况。
图1为本发明一实施例提供的文本相似度的处理方法的流程图,如图1中所示,所述方法包括:
在101中,获取由多种相似度确定方法得到的文本对的相似度确定结果。
在本步骤中,获取由多种相似度确定方法得到的同一文本对的相似度确定结果。多种相似度确定方式可以为两种、三种或者更多种,因此所得到的文本对的相似度确定结果也相应地为两种、三种或者更多种。
在本实施例中,所获取的文本对的相似度确定结果为文本对的相似度特征向量与相似度得分。可选地,在本实施例的一个具体实现过程中,可以使用既有的文本相似度计算系统获取文本对的相似度得分,也可以使用余弦相似度计算方法、BM25相似度计算方法等获取文本对的相似度得分。可以使用基于神经网络或者深度学习模型的文本相似度计算方法获取文本对的相似度特征向量,例如将某文本对输入基于卷积神经网络的文本匹配算法后,该算法会输出对应该文本对的特征向量,则将该特征向量作为该文本对的相似度特征向量。本发明对神经网络或者学习模型的种类不进行限定,能够根据所输入的文本对输出特征向量的神经网络或者学习模型均可。
例如,对于一对文本P和Q,在获取文本对的相似度得分时,可以通过既有的文本相似度计算系统A获取,该既有系统A可以被封装为一个可调用接口,通过调用该接口便可以直接得到该文本对的相似度得分,由于该既有系统A被封装,因此其内部参数或者代码不可更改。在获取文本对的相似度特征向量时,可以通过新研制的基于神经网络的相似度计算方法B获取,由于该计算方法B是新研制的,因此可以对其内部参数或者进行更改。可以将本步骤中所获取的相似度得分记为XA,相似度特征向量记为XB
可以理解的是,本步骤中所获取的文本对的相似度确定结果也可以为由不同的相似度确定方法所获取的文本对的相似度特征向量,从而作为该文本对的多种相似度确定结果进行后续处理。
在102中,将所述文本对的相似度确定结果进行拼接,得到拼接特征。
在本步骤中,对步骤101中所获取的多种相似度确定结果进行拼接,从而得到多种相似度确定结果的拼接特征。
其中,若步骤101中所获取的多种相似度确定结果中有相似度特征向量时,还可以对相似度特征向量进行以下处理:对相似度特征向量进行随机采样后,将采样特征向量与其他的相似度确定结果进行拼接,从而得到文本对的拼接特征。
具体地,在对相似度特征向量进行随机采样时,可以采用以下方式:按照预设概率对相似度特征向量中的特征值进行随机采样,并将相似度特征向量中未被采样的特征值设置为0,从而得到采样特征向量。
例如,若由步骤101所获取的相似度特征向量的维度为5,预设概率为0.6时,则会随机保留相似度特征向量的5个维度中3个(5×0.6)维度的特征值,而其他两个维度的特征值设置为0。若所得到的相似度特征向量为XB=[8.0,6.0,3.0,4.0,5.0],预设概率为0.6,则对相似度特征向量中任意3个维度的特征值进行采样,另外两个维度的特征值置为0。若采样特征向量为XB'=[8.0,6.0,0.0,0.0,5.0],则表明该次采样是对索引号为0、1和4的特征值进行的采样,索引号为2和3的特征值设置为0;若XB'=[8.0,0.0,0.0,4.0,5.0],则表明该次采样是对索引号为0、3和4的特征值进行的采样,索引号为1和2的特征值设置为0。其中,预设概率可以根据实际情况进行设置。
在本步骤中,在对相似度特征向量进行随机采样得到采样特征向量之后,将所得到的采样特征向量与步骤101中所获取的文本相似度得分进行拼接。在对采样特征向量与文本相似度得分进行拼接时,可以通过以下公式进行:
Figure BDA0001410975870000061
在公式中:XC为拼接特征,XA为文本相似度得分,
Figure BDA0001410975870000062
为行向量拼接运算符,XB'为采样特征向量,T为向量转置运算符。
在进行拼接时,还可以使用预设函数对步骤101中所获取的多种相似度确定结果进行拼接。例如,若步骤101中所获取的多种相似度确定结果均为相似度特征向量时,在对各相似度特征向量进行随机采样得到采样特征向量后,可以采用matlab里的[]函数,对各采样相似度特征向量进行拼接,以得到多种相似度确定结果的拼接特征。
优选地,在本步骤中,在对文本对的相似度特征向量进行随机采样时,可以将预设概率设置为1,即可以不对所获取的相似度特征向量进行随机采样,将步骤101中所获取的相似度特征向量与相似度得分进行直接拼接,以得到拼接特征。
在103中,将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度。
在本步骤中,将在步骤102中所得到的拼接特征作为相似度确定模型的输入,将相似度计算模型的输出作为该文本对的文本相似度。
在本步骤中,所使用的相似度确定模型可以采用如下方式预先训练得到:
1)获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果。
在本步骤中,预先对各文本对的相似度进行标注,即通过标注的相似度能够得知该文本对是否相似。例如,若某文本对所标注的相似度为1,则表明该文本对相似;若为0,则表明不相似。
其中,所获取的文本对的相似度确定结果为文本对的相似度特征向量与文本对的相似度得分。同样地,在获取由不同相似度确定方法得到的已标注相似度的文本对的相似度特征向量与相似度得分时,与步骤101中的过程一致,在此不再进行赘述。
2)对所获取的各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征。
在本步骤中,将获取的已标注相似度的文本对的相似度特征向量与相似度得分进行拼接,得到对应各文本对的拼接特征。在拼接之前,还可以对文本对的相似度特征向量进行随机采样后,将采样特征向量与相似度得分进行拼接,以得到该文本对的拼接特征。本步骤的随机采样过程、拼接过程与步骤102中的一致,在此不进行赘述。优选地,在本步骤中,在进行对相似度特征向量的随机采样时,将进行采样的预设概率设置为小于1。
3)将各文本对的拼接特征与各文本对的标注相似度作为训练样本,训练分类模型,得到相似度确定模型。
在本步骤中,将各文本对的拼接特征作为分类模型的输入,各文本对的标注相似度作为分类模型的输出,对分类模型进行训练。其中,分类模型的训练目标是最小化该分类模型的损失值。具体地,该损失值可以为分类模型输出的文本对的计算相似度与该文本对的标注相似度之间的误差。
其中,分类模型输出的文本对的计算相似度与该文本对的标注相似度之间的误差,可以使用如下公式进行获取:
Figure BDA0001410975870000081
在公式中:L为文本对的计算相似度与标注相似度的误差,y为文本对的标注相似度,
Figure BDA0001410975870000082
为文本对的计算相似度。
具体地,最小化该分类模型的损失值,即为最小化文本对输出的计算相似度与文本对的标注相似度之间的误差L。可选地,在本实施例的一个具体实现过程中,若在预设次数内所得到的误差收敛,则认为该分类模型的损失值最小化;也可以为若所得到的误差收敛到预设值,则认为该分类模型的损失值最小化;还可以为若训练次数超过预设次数时,则认为该分类模型的损失值最小化。当分类模型的损失值最小化时,即认为分类模型的训练过程完成,得到相似度确定模型。其中,分类模型为基于神经网络的分类模型,可以为卷积神经网络,还可以为循环神经网络,本发明对此不进行限定。
在对分类模型的训练过程中,最小化损失值的过程实际上是利用损失值进行反馈对分类模型进行调参的过程。其中,调整的参数包括分类模型中采用的多种相似度确定方法得到的相似度确定结果的权重。经过循环迭代后,最终得到的分类模型所采用的参数使得损失值最小,从而实现自动地对不同相似度确定方法进行权重调配。
同时,在对分类模型进行训练时,还可以依据分类模型的损失值对各相似度确定方法的参数进行调整。例如,在上述描述中的基于神经网络的相似度计算方法B,由于其内部参数可以更改,因此可以根据分类模型的损失值对该基于神经网络的相似度计算方法中的参数进行更改,使得该计算方法的参数逐渐达到最优值。当在训练分类模型所得到的损失值最小化时,分类模型中的参数达到最优,方法B中的参数也达到最优。因此,方法B会根据所输入的文本对输出一个更加准确的表示该文本对相似性的特征向量,从而进一步提升相似度确定模型所输出的文本相似度的准确性。
在训练得到相似度确定模型之后,便可以由该模型得到文本对的文本相似度。即在步骤103中,将步骤102所得到的文本对的拼接特征输入相似度确定模型,相似度确定模型所得到的输出即为该文本对的文本相似度。
由于在相似度确定模型的训练过程中,已经将该模型内的参数、各相似度确定方法的权重参数以及各相似度确定方法内的参数优化到最优值,因此能够根据所输入的对应文本对的拼接特征,输出该文本对的更加准确的文本相似度的确定结果。
对上述描述进行举例说明:
若所使用的文本相似度确定方法为文本相似度计算系统A与基于神经网络的文本匹配算法B,所获取的文本相似度确定结果分别为相似度得分与相似度特征向量。在进行相似度确定模型的训练时,将分类模型所得到的计算相似度与标注相似度之间的误差作为损失值,来更新分类模型中的参数、以及方法B中的参数。当损失值最小化时,分类模型中的参数达到最优,从而得到相似度确定模型;同时,方法B中的参数也达到最优,能够得到更加准确的表示文本对相似性的相似度特征向量。对于待评估文本对,通过A获取该文本对的相似度得分,通过参数更新后的B得到相似度特征向量,进行拼接后将拼接特征输入相似度确定模型,从而得到待评估文本对的文本相似度。因此通过上述方法,能够进一步提升对文本对相似度的计算准确性。
图2为本发明一实施例提供的文本相似度的处理装置的结构图,如图2中所示,所述装置包括:获取单元21、拼接单元22、训练单元23以及处理单元24。
获取单元21,用于获取由多种相似度确定方法得到的文本对的相似度确定结果。
由获取单元21获取由多种相似度确定方法得到的同一文本对的相似度确定结果。多种相似度确定方式可以为两种、三种或者更多种,因此获取单元21所得到的文本对的相似度确定结果也相应地为两种、三种或者更多种。
在本实施例中,获取单元21所获取的文本对的相似度确定结果为文本对的相似度特征向量与相似度得分。可选地,在本实施例的一个具体实现过程中,获取单元21可以使用既有的文本相似度计算系统获取文本对的相似度得分,也可以使用余弦相似度计算方法、BM25相似度计算方法等获取文本对的相似度得分。可以使用基于神经网络或者深度学习模型的文本相似度计算方法获取文本对的相似度特征向量,例如将某文本对输入基于卷积神经网络的文本匹配算法后,该算法会输出对应该文本对的特征向量,则获取单元21将该特征向量作为该文本对的相似度特征向量。本发明对神经网络或者学习模型的种类不进行限定,能够根据所输入的文本对输出特征向量的神经网络或者学习模型均可。
例如,对于一对文本P和Q,在获取单元21获取文本对的相似度得分时,可以通过既有的文本相似度计算系统A获取,该既有系统A可以被封装为一个可调用接口,通过调用该接口便可以直接得到该文本对的相似度得分,由于该既有系统A被封装,因此其内部参数或者代码不可更改。在获取单元21获取文本对的相似度特征向量时,可以通过新研制的基于神经网络的相似度计算方法B获取,由于该计算方法B是新研制的,因此可以对其内部参数或者进行更改。可以将本步骤中所获取的相似度得分记为XA,相似度特征向量记为XB
可以理解的是,获取单元21所获取的文本对的相似度确定结果也可以为由不同的相似度确定方法所获取的文本对的相似度特征向量,从而作为该文本对的多种相似度确定结果进行后续处理。
拼接单元22,用于将所述文本对的相似度确定结果进行拼接,得到拼接特征。
拼接单元22对由获取单元21所获取的多种相似度确定结果进行拼接,从而得到多种相似度确定结果的拼接特征。
其中,若获取单元21所获取的多种相似度确定结果中有相似度特征向量时,拼接单元22还可以对相似度特征向量进行以下处理:对相似度特征向量进行随机采样后,将采样特征向量与其他的相似度确定结果进行拼接,从而得到文本对的拼接特征。
具体地,拼接单元22在对相似度特征向量进行随机采样时,可以采用以下方式:按照预设概率对相似度特征向量中的特征值进行随机采样,并将相似度特征向量中未被采样的特征值设置为0,从而得到采样特征向量。
例如,若由获取单元21所获取的相似度特征向量的维度为5,预设概率为0.6时,则拼接单元22会随机保留相似度特征向量的5个维度中3个(5×0.6)维度的特征值,而其他两个维度的特征值设置为0。若所得到的相似度特征向量为XB=[8.0,6.0,3.0,4.0,5.0],预设概率为0.6,则对相似度特征向量中任意3个维度的特征值进行采样,另外两个维度的特征值置为0。若采样特征向量为XB'=[8.0,6.0,0.0,0.0,5.0],则表明该次采样是对索引号为0、1和4的特征值进行的采样,索引号为2和3的特征值设置为0;若XB'=[8.0,0.0,0.0,4.0,5.0],则表明该次采样是对索引号为0、3和4的特征值进行的采样,索引号为1和2的特征值设置为0。其中,预设概率可以根据实际情况进行设置。
拼接单元22在对相似度特征向量进行随机采样得到采样特征向量之后,将所得到的采样特征向量与由获取单元21所获取的文本相似度得分进行拼接。在对采样特征向量与文本相似度得分进行拼接时,拼接单元22可以通过以下公式进行:
Figure BDA0001410975870000111
在公式中:XC为拼接特征,XA为文本相似度得分,
Figure BDA0001410975870000112
为行向量拼接运算符,XB'为采样特征向量,T为向量转置运算符。
在进行拼接时,拼接单元22还可以使用预设函数对由获取单元21所获取的多种相似度确定结果进行拼接。例如,若获取单元21所获取的多种相似度确定结果均为相似度特征向量时,拼接单元22在对各相似度特征向量进行随机采样得到采样特征向量后,可以采用matlab里的[]函数,对各采样相似度特征向量进行拼接,以得到多种相似度确定结果的拼接特征。
优选地,拼接单元22在对文本对的相似度特征向量进行随机采样时,可以将预设概率设置为1,即拼接单元22可以不对所获取的相似度特征向量进行随机采样,将获取单元21中所获取的相似度特征向量与相似度得分进行直接拼接,以得到拼接特征。
训练单元23,用于预先训练得到相似度确定模型。
训练单元23预先训练得到的相似度确定模型用于确定待评估文本对的文本相似度。具体地,训练单元23可以采用如下方式预先训练得到相似度确定模型:
1)获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果。
训练单元23所使用的文本对为预先标注相似度的各文本对,即通过标注的相似度能够得知该文本对是否相似。例如,若某文本对所标注的相似度为1,则表明该文本对相似;若为0,则表明不相似。
其中,所获取的文本对的相似度确定结果为文本对的相似度特征向量与文本对的相似度得分。同样地,在获取由不同相似度确定方法得到的已标注相似度的文本对的相似度特征向量与相似度得分时,与获取单元21获取的过程一致,在此不再进行赘述。
2)对所获取的各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征。
训练单元23将获取的已标注相似度的文本对的相似度特征向量与相似度得分进行拼接,得到对应各文本对的拼接特征。在拼接之前,训练单元23还可以对文本对的相似度特征向量进行随机采样后,将采样特征向量与相似度得分进行拼接,以得到该文本对的拼接特征。训练单元23进行的随机采样过程、拼接过程与拼接单元22所进行的过程一致,在此不进行赘述。优选地,在训练单元23进行对文本对的相似度特征向量的随机采样时,将采样的预设概率设置为小于1。
3)将各文本对的拼接特征与各文本对的标注相似度作为训练样本,训练分类模型,得到相似度确定模型。
训练单元23将各文本对的拼接特征作为分类模型的输入,各文本对的标注相似度作为分类模型的输出,对分类模型进行训练。其中,分类模型的训练目标是最小化该分类模型的损失值。具体地,该损失值可以为分类模型输出的文本对的计算相似度与该文本对的标注相似度之间的误差。
其中,分类模型输出的文本对的计算相似度与该文本对的标注相似度之间的误差,可以使用如下公式进行获取:
Figure BDA0001410975870000131
在公式中:L为文本对的计算相似度与标注相似度的误差,y为文本对的标注相似度,
Figure BDA0001410975870000132
为文本对的计算相似度。
具体地,训练单元23最小化该分类模型的损失值,即为最小化文本对输出的计算相似度与文本对的标注相似度之间的误差L。可选地,在本实施例的一个具体实现过程中,若训练单元23在预设次数内所得到的误差收敛,则认为该分类模型的损失值最小化;也可以为若训练单元23所得到的误差收敛到预设值,则认为该分类模型的损失值最小化;还可以为若训练单元23的训练次数超过预设次数时,则认为该分类模型的损失值最小化。当分类模型的损失值最小化时,即认为训练单元23对分类模型的训练过程完成,得到相似度确定模型。其中,分类模型为基于神经网络的分类模型,可以为卷积神经网络,还可以为循环神经网络,本发明对此不进行限定。
在训练单元23对分类模型的训练过程中,最小化损失值的过程实际上是利用损失值进行反馈,以对分类模型进行调参的过程。其中,调整的参数包括分类模型中采用的多种相似度确定方法得到的相似度确定结果的权重。经过循环迭代后,最终得到的分类模型所采用的参数使得损失值最小,从而实现自动地对不同相似度确定方法进行权重调配。
同时,在训练单元23对分类模型进行训练时,还可以依据分类模型的损失值对各相似度确定方法的参数进行调整。例如,在上述描述中的基于神经网络的相似度计算方法B,由于其内部参数可以更改,因此可以根据分类模型的损失值对该基于神经网络的相似度计算方法中的参数进行更改,使得该计算方法的参数逐渐达到最优值。当在训练分类模型所得到的损失值最小化时,分类模型中的参数达到最优,方法B中的参数也达到最优。因此,方法B会根据所输入的文本对输出一个更加准确的表示该文本对相似性的特征向量,从而进一步提升相似度确定模型所输出的文本相似度的准确性。
处理单元24,用于将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度。
处理单元24将在拼接单元22中所得到的拼接特征作为训练单元23所训练得到的相似度确定模型的输入,将相似度计算模型的输出作为该文本对的文本相似度。
在训练单元23训练得到相似度确定模型之后,处理单元24便可以由该模型得到文本对的文本相似度。即处理单元24将拼接单元22所得到的文本对的拼接特征输入相似度确定模型,相似度确定模型所得到的输出即为该文本对的文本相似度。
由于在相似度确定模型的训练过程中,已经将该模型内的参数以及各相似度确定方法内的参数优化到最优值,因此能够根据所输入的对应文本对的拼接特征,输出该文本对的更加准确的文本相似度的确定结果。
图3示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图3显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图3所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图3未显示,通常称为“硬盘驱动器”)。尽管图3中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行各种功能应用以及数据处理,例如实现一种文本相似度的处理方法,可以包括:
获取由多种相似度确定方法得到的文本对的相似度确定结果;
将所述文本对的相似度确定结果进行拼接,得到拼接特征;
将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;
其中,所述相似度确定模型是预先训练得到的。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。例如,被上述一个或多个处理器执行的方法流程,可以包括:
获取由多种相似度确定方法得到的文本对的相似度确定结果;
将所述文本对的相似度确定结果进行拼接,得到拼接特征;
将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;
其中,所述相似度确定模型是预先训练得到的。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
利用本发明所提供的技术方案,通过对所获取的多种相似度确定方法得到的文本对的相似度确定结果进行拼接,将拼接特征作为相似度确定模型的输入,从而实现对多种相似度确定结果的集成处理,并提高文本对相似度的准确性,使得集成处理后的相似度计算准确性高于任何一种单一的相似度计算方式。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (12)

1.一种文本相似度的处理方法,其特征在于,所述方法包括:
获取由多种相似度确定方法得到的文本对的相似度确定结果,所述文本对的相似度确定结果包括文本对的相似度特征向量与相似度得分;
将所述文本对的相似度确定结果进行拼接,得到拼接特征;
将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;
其中,所述相似度确定模型是预先训练得到的;
所述将所述文本对的相似度确定结果进行拼接,得到拼接特征包括:
对所述相似度特征向量进行随机采样,得到采样特征向量;
将所述采样特征向量与所述相似度得分进行拼接,得到所述拼接特征;
所述相似度确定模型是采用如下方式预先训练得到的:
获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果;
将所述各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征;
将所述各文本对的拼接特征与所述各文本对的标注相似度作为训练样本,训练分类模型,以得到相似度确定模型。
2.根据权利要求1所述的方法,其特征在于,所述分类模型的训练目标为最小化所述分类模型的损失值;
在所述训练分类模型的过程中,利用所述损失值对所述分类模型进行参数调整。
3.根据权利要求2所述的方法,其特征在于,所述损失值为所述分类模型输出的文本对的文本相似度与所述文本对的标注相似度之间的误差。
4.根据权利要求1所述的方法,其特征在于,所述对所述相似度特征向量进行随机采样,得到采样特征向量包括:
按照预设概率对所述相似度特征向量中的特征值进行随机采样,并将所述相似度特征向量中未被采样的特征值设置为0,得到采样特征向量。
5.根据权利要求1所述的方法,其特征在于,所述相似度确定模型为基于神经网络的分类模型。
6.一种文本相似度的处理装置,其特征在于,所述装置包括:
获取单元,用于获取由多种相似度确定方法得到的文本对的相似度确定结果,所述文本对的相似度确定结果包括文本对的相似度特征向量与相似度得分;
拼接单元,用于将所述文本对的相似度确定结果进行拼接,得到拼接特征;
处理单元,用于将所述拼接特征作为相似度确定模型的输入,根据所述相似度确定模型的输出得到所述文本对的文本相似度;
其中,所述相似度确定模型是预先训练得到的;
所述拼接单元在将所述文本对的相似度确定结果进行拼接,得到拼接特征时,具体执行:
对所述相似度特征向量进行随机采样,得到采样特征向量;
将所述采样特征向量与所述相似度得分进行拼接,得到所述拼接特征;
训练单元,用于采用如下方式预先训练得到所述相似度确定模型:
获取由多种相似度确定方法得到的已标注相似度的文本对的相似度确定结果;
将所述各文本对的相似度确定结果进行拼接,得到各文本对的拼接特征;
将所述各文本对的拼接特征与所述各文本对的标注相似度作为训练样本,训练分类模型,以得到相似度确定模型。
7.根据权利要求6所述的装置,其特征在于,所述分类模型的训练目标为最小化所述分类模型的损失值;
在所述训练分类模型的过程中,利用所述损失值对所述分类模型进行参数调整。
8.根据权利要求7所述的装置,其特征在于,所述损失值为所述分类模型输出的文本对的文本相似度与所述文本对的标注相似度之间的误差。
9.根据权利要求6所述的装置,其特征在于,所述拼接单元对所述相似度特征向量进行随机采样,得到采样特征向量时具体执行:
按照预设概率对所述相似度特征向量中的特征值进行随机采样,并将所述相似度特征向量中未被采样的特征值设置为0,得到采样特征向量。
10.根据权利要求6所述的装置,其特征在于,所述相似度确定模型为基于神经网络的分类模型。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-5中任一所述的方法。
CN201710841945.XA 2017-09-18 2017-09-18 文本相似度的处理方法、装置、设备和计算机存储介质 Active CN107729300B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710841945.XA CN107729300B (zh) 2017-09-18 2017-09-18 文本相似度的处理方法、装置、设备和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710841945.XA CN107729300B (zh) 2017-09-18 2017-09-18 文本相似度的处理方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN107729300A CN107729300A (zh) 2018-02-23
CN107729300B true CN107729300B (zh) 2021-12-24

Family

ID=61207603

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710841945.XA Active CN107729300B (zh) 2017-09-18 2017-09-18 文本相似度的处理方法、装置、设备和计算机存储介质

Country Status (1)

Country Link
CN (1) CN107729300B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109101489B (zh) * 2018-07-18 2022-05-20 武汉数博科技有限责任公司 一种文本自动摘要方法、装置及一种电子设备
CN110852056A (zh) * 2018-07-25 2020-02-28 中兴通讯股份有限公司 一种获取文本相似度的方法、装置、设备及可读存储介质
CN111027994B (zh) * 2018-10-09 2023-08-01 百度在线网络技术(北京)有限公司 相似对象确定方法、装置、设备和介质
CN110874526B (zh) * 2018-12-29 2024-03-01 北京安天网络安全技术有限公司 一种文件相似性检测方法、装置、电子设备及存储介质
CN111400462A (zh) * 2019-01-02 2020-07-10 珠海格力电器股份有限公司 问答机器人训练方法、系统及问答机器人
CN110059180B (zh) * 2019-03-13 2022-09-23 百度在线网络技术(北京)有限公司 文章作者身份识别及评估模型训练方法、装置及存储介质
CN109992772A (zh) * 2019-03-13 2019-07-09 众安信息技术服务有限公司 一种文本相似度计算方法及装置
CN110083834B (zh) * 2019-04-24 2023-05-09 北京百度网讯科技有限公司 语义匹配模型训练方法、装置、电子设备及存储介质
CN110532267A (zh) * 2019-08-28 2019-12-03 北京明略软件系统有限公司 字段的确定方法、装置、存储介质及电子装置
CN110851546B (zh) * 2019-09-23 2021-06-29 京东数字科技控股有限公司 一种验证、模型的训练、模型的共享方法、系统及介质
CN110929499B (zh) * 2019-10-15 2022-02-11 平安科技(深圳)有限公司 文本相似度获取方法、装置、介质及电子设备
CN111680136B (zh) * 2020-04-28 2023-08-25 平安科技(深圳)有限公司 一种口语语义匹配的方法及装置
CN112329430B (zh) * 2021-01-04 2021-03-16 恒生电子股份有限公司 一种模型训练方法、文本相似度确定方法及装置
CN112966708A (zh) * 2021-01-27 2021-06-15 中国人民解放军陆军工程大学 一种基于语义相似度的中文众包测试报告聚类方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2379055A1 (en) * 1999-07-14 2001-01-25 Transgenic Inc. Trap vectors and gene trapping using the same
CN102646091A (zh) * 2011-02-22 2012-08-22 日电(中国)有限公司 依存关系标注方法、装置和系统
CN104462060A (zh) * 2014-12-03 2015-03-25 百度在线网络技术(北京)有限公司 通过计算机实现的计算文本相似度和搜索处理方法及装置
CN104899188A (zh) * 2015-03-11 2015-09-09 浙江大学 一种基于问题主题和焦点的问题相似度计算方法
CN106484678A (zh) * 2016-10-13 2017-03-08 北京智能管家科技有限公司 一种短文本相似度计算方法及装置
CN106815311A (zh) * 2016-12-21 2017-06-09 杭州朗和科技有限公司 一种问题匹配方法和装置
CN106844346A (zh) * 2017-02-09 2017-06-13 北京红马传媒文化发展有限公司 基于深度学习模型Word2Vec的短文本语义相似性判别方法和系统
CN106874258A (zh) * 2017-02-16 2017-06-20 西南石油大学 一种基于汉字属性向量表示的文本相似性计算方法及系统
CN107133202A (zh) * 2017-06-01 2017-09-05 北京百度网讯科技有限公司 基于人工智能的文本校验方法和装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101887443B (zh) * 2009-05-13 2012-12-19 华为技术有限公司 一种文本的分类方法及装置
US8788577B2 (en) * 2010-06-22 2014-07-22 Akamai Technologies, Inc. Method and system for automated analysis and transformation of web pages
CN103268346B (zh) * 2013-05-27 2016-08-10 翁时锋 半监督分类方法及系统
CN103605694A (zh) * 2013-11-04 2014-02-26 北京奇虎科技有限公司 一种相似文本检测装置和方法
CN104699763B (zh) * 2015-02-11 2017-10-17 中国科学院新疆理化技术研究所 多特征融合的文本相似性度量系统
JP5810240B1 (ja) * 2015-04-10 2015-11-11 株式会社ソリトンシステムズ 電子メール誤送信判定装置、電子メール送信システム及びプログラム
CN105045781B (zh) * 2015-08-27 2020-06-23 广州神马移动信息科技有限公司 查询词相似度计算方法及装置、查询词搜索方法及装置
CN106815593B (zh) * 2015-11-27 2019-12-10 北京国双科技有限公司 中文文本相似度的确定方法和装置
CN106250858B (zh) * 2016-08-05 2021-08-13 重庆中科云从科技有限公司 一种融合多种人脸识别算法的识别方法及系统
CN106502989A (zh) * 2016-10-31 2017-03-15 东软集团股份有限公司 情感分析方法及装置
CN107066555B (zh) * 2017-03-26 2020-03-17 天津大学 面向专业领域的在线主题检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2379055A1 (en) * 1999-07-14 2001-01-25 Transgenic Inc. Trap vectors and gene trapping using the same
CN102646091A (zh) * 2011-02-22 2012-08-22 日电(中国)有限公司 依存关系标注方法、装置和系统
CN104462060A (zh) * 2014-12-03 2015-03-25 百度在线网络技术(北京)有限公司 通过计算机实现的计算文本相似度和搜索处理方法及装置
CN104899188A (zh) * 2015-03-11 2015-09-09 浙江大学 一种基于问题主题和焦点的问题相似度计算方法
CN106484678A (zh) * 2016-10-13 2017-03-08 北京智能管家科技有限公司 一种短文本相似度计算方法及装置
CN106815311A (zh) * 2016-12-21 2017-06-09 杭州朗和科技有限公司 一种问题匹配方法和装置
CN106844346A (zh) * 2017-02-09 2017-06-13 北京红马传媒文化发展有限公司 基于深度学习模型Word2Vec的短文本语义相似性判别方法和系统
CN106874258A (zh) * 2017-02-16 2017-06-20 西南石油大学 一种基于汉字属性向量表示的文本相似性计算方法及系统
CN107133202A (zh) * 2017-06-01 2017-09-05 北京百度网讯科技有限公司 基于人工智能的文本校验方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于深度学习的短文本语义相似度计算;陈晓阳;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160415(第04期);正文第37-39页第4.1节、第41-42页第4.3节、第44-46页第4.5节 *
基于词向量和条件随机场的领域术语识别方法;冯艳红 等;《计算机应用》;20161110;第36卷(第11期);3146-3151 *

Also Published As

Publication number Publication date
CN107729300A (zh) 2018-02-23

Similar Documents

Publication Publication Date Title
CN107729300B (zh) 文本相似度的处理方法、装置、设备和计算机存储介质
CN107797985B (zh) 建立同义鉴别模型以及鉴别同义文本的方法、装置
CN107273503B (zh) 用于生成同语言平行文本的方法和装置
US11004448B2 (en) Method and device for recognizing text segmentation position
CN109933662B (zh) 模型训练方法、信息生成方法、装置、电子设备和计算机可读介质
CN107291828B (zh) 基于人工智能的口语查询解析方法、装置及存储介质
CN107729313B (zh) 基于深度神经网络的多音字读音的判别方法和装置
CN109599095B (zh) 一种语音数据的标注方法、装置、设备和计算机存储介质
WO2016183110A1 (en) Discriminative data selection for language modeling
EP3614378A1 (en) Method and apparatus for identifying key phrase in audio, device and medium
CN111125317A (zh) 对话型文本分类的模型训练、分类、系统、设备和介质
CN111597800B (zh) 同义句的获取方法及装置、设备及存储介质
CN110377750B (zh) 评论生成及评论生成模型训练方法、装置及存储介质
CN110941951B (zh) 文本相似度计算方法、装置、介质及电子设备
CN110704597B (zh) 对话系统可靠性校验方法、模型生成方法及装置
CN112328761A (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
WO2019118257A1 (en) Assertion-based question answering
CN112860919A (zh) 基于生成模型的数据标注方法、装置、设备及存储介质
CN113656763B (zh) 确定小程序特征向量的方法、装置和电子设备
CN113407698B (zh) 意图识别模型的训练与意图识别的方法、装置
CN110929499B (zh) 文本相似度获取方法、装置、介质及电子设备
CN109597881B (zh) 匹配度确定方法、装置、设备和介质
CN116483979A (zh) 基于人工智能的对话模型训练方法、装置、设备及介质
CN111753062A (zh) 一种会话应答方案确定方法、装置、设备及介质
CN110472241A (zh) 生成去冗余信息句向量的方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant