CN109992788B - 基于未登录词处理的深度文本匹配方法及装置 - Google Patents

基于未登录词处理的深度文本匹配方法及装置 Download PDF

Info

Publication number
CN109992788B
CN109992788B CN201910285854.1A CN201910285854A CN109992788B CN 109992788 B CN109992788 B CN 109992788B CN 201910285854 A CN201910285854 A CN 201910285854A CN 109992788 B CN109992788 B CN 109992788B
Authority
CN
China
Prior art keywords
word
sentence
matrix
words
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910285854.1A
Other languages
English (en)
Other versions
CN109992788A (zh
Inventor
李健铨
刘小康
刘子博
晋耀红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dinfo Beijing Science Development Co ltd
Original Assignee
Dingfu Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dingfu Intelligent Technology Co ltd filed Critical Dingfu Intelligent Technology Co ltd
Priority to CN201910285854.1A priority Critical patent/CN109992788B/zh
Publication of CN109992788A publication Critical patent/CN109992788A/zh
Application granted granted Critical
Publication of CN109992788B publication Critical patent/CN109992788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本申请提供了一种基于未登录词处理的深度文本匹配方法及装置,在训练深度匹配模型时,使用字向量辅助词向量的方式,对输入的语句分词并用词向量表示后,还将各语句分词得到的词语继续进行分字处理并用字向量表示,然后,将字向量和词向量连接的结果,作为输入语句的语句量;或者,对输入的语句用初始词向量表示,将各初始词向量进行相似性加权处理,生成加权后的词向量,将各语句进行分字处理并用字向量表示,然后,将该字向量和词向量连接的结果,作为输入语句的语句向量表示。由于未出现在训练集中的新字的情况则很少发生,进而通过上述字与词向量结合的方式,可在一定程度上避免未登录词对模型匹配效果的干扰,有助于提高模型的文本匹配精度。

Description

基于未登录词处理的深度文本匹配方法及装置
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种基于未登录词处理的深度文本匹配方法及装置。
背景技术
文本匹配是自然语言处理中一个重要的基础问题,自然语言处理中的许多任务都可以抽象为文本匹配任务。例如,网页搜索可抽象为网页同用户搜索Query的一个相关性匹配问题,自动问答可抽象为候选答案与问题的满足度匹配问题,文本去重可以抽象为文本与文本的相似度匹配问题。
传统的文本匹配技术(例如信息检索中的向量空间模型算法),主要解决词汇层面的匹配问题。而实际上,基于词汇重合度的匹配算法有很大的局限性,无法解决很多问题,如语言的多义同义问题、语言的组合结构问题(例如「从北京到上海高铁」和「从上海到北京高铁」)以及匹配的非对称问题(例如网页搜索任务中query端的语言表述形式和网页端往往具有很大的差别)。
深度学习技术兴起后,基于神经网络训练出的Word Embedding(词嵌入向量)来进行文本匹配计算引起了广泛的兴趣。Word Embedding的训练方式更加简洁,而且所得的词语向量表示的语义可计算性进一步加强。但是,只利用无标注数据训练得到的WordEmbedding在匹配度计算的实用效果上和主题模型技术相差不大,它们本质上都是基于共现信息的训练。另外,Word Embedding本身没有解决短语、句子的语义表示问题,也没有解决匹配的非对称性问题。
基于上述问题,目前提出了有监督的神经网络深度匹配模型,以提升语义匹配计算的效果,例如DSSM(Deep Structured Semantic Models,深度语义匹配模型)、CDSSM(Convolutional Latent Semantic Model,卷积潜在语义模型)、ESIM(EnhancingSequential Inference Model、增强顺序推理模型)等。在上述模型训练时,由于神经网络只能进行数值计算,因此,需要根据训练好的词表将输入的文本中的每个单词及特殊符号都转化为词向量后,在进行后续的处理,其中,对于未在词表中出现的为未登录词(Out ofvocabulary,OOV),模型一般会将未登录词处理成空值或随机值。但是,这种方式并不能表示未登录词的真正含义,进行会影响模型的最终匹配效果。
发明内容
本申请提供了一种基于匹配序列的基于未登录词处理的深度文本匹配方法及装置,以解决未登录词对模型匹配效果的干扰问题。
根据本申请实施例的第一方面,提供了一种基于未登录词处理的深度文本匹配方法,应用于深度匹配模型,所述方法包括:
将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
将所述句子对中语句分词得到的词语进行分字,得到字矩阵;
根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵;
利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量;
根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
根据所述损失值,调整所述深度匹配模型的参数;
利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
可选地,根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
将所述登录词用词向量表示,得到所述登录词的词向量矩阵;
使用所述未登录词的近义词对应的词向量表示所述未登录词,得到所述未登录词的词向量矩阵;
根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
可选地,根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
将所述登录词用词向量表示,得到所述登录词的词向量矩阵;
判断所述未登录词是否为新词表中的词语;
如果不是,则使用一个随机生成的词向量表示所述未登录词,得到未登录词的词向量矩阵,并将所述随机生成的词向量添加至所述新词表中;
根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
可选地,所述句子对由假设语句、正推理语句以及至少一个负推理语句组成,其中,所述假设语句与所述正推理语句的语义相关、与所述负推理语句的语义不相关。
可选地,根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值,包括:
分别计算所述假设语句与正推理语句、以及各负推理语句所对应的语句向量之间的匹配程度值;
利用Pointwise损失函数和Listwise损失函数组成的联合损失函数,计算各所述语句向量匹配程度值与标准值之间的损失值。
可选地,所述联合损失函数loss的计算公式为:loss=Lp+Ll+L2Regularization,其中:
Lp为Pointwise损失函数,Lp=max(0,m-s(rh;rp+)+s(rh;rp-));Ll为Listwise损失函数,
rh为假设语句的语句向量表示,rp+和rp-是分别为正推理语句和负推理语句的语句向量表示,s(rh;rp+)为假设语句和正推理语所对应的语句向量的余弦相似度,s(rh;rp)为假设语句和推理语所对应的语句向量的余弦相似度,m为预设的判定正负推理语句的阈值,n为由正推理语句和负推理语句组成的样本个数。
根据本申请实施例的第二方面,提供了另一种基于未登录词处理的深度文本匹配方法,应用于深度匹配模型,该方法包括:
将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵;
将所述句子对中语句进行分字,得到字矩阵;
根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
将所述初始语句向量矩阵和所述字向量矩阵连接,得到所述句子对中语句对应的语句向量;
根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
根据所述损失值,调整所述深度匹配模型的参数;
利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
可选地,根据预训练好的词表,将所述词矩阵中的词用词向量表示,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
根据预训练好的词表,将所述登录词用词向量表示;
使用所述未登录词的近义词对应的词向量表示所述未登录词。
根据本申请实施例的第三方面,提供了一种基于未登录词处理的深度文本匹配装置,应用于深度匹配模型,该装置包括:
分词模块:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
分字模块:用于将所述句子对中语句分词得到的词语进行分字,得到字矩阵;
字表示模块:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块:用于将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵;
相似性加权模块:用于利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量;
损失值计算模块:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
根据本申请实施例的第四方面,提供了另一种基于未登录词处理的深度文本匹配装置,应用于深度匹配模型,该装置包括:
分词模块:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
相似性加权模块:用于利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵;
分字模块:用于将所述句子对中语句进行分字,得到字矩阵;
字表示模块:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块:用于将所述初始语句向量矩阵和所述字向量矩阵连接,得到所述句子对中语句对应的语句向量;
损失值计算模块:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
由上述技术方案可见,本实施例提供的基于未登录词处理的深度文本匹配方法及装置,在训练深度匹配模型时,使用字向量辅助词向量的方式,具体的,对输入的语句分词并用词向量表示后,还将各语句分词得到的词语继续进行分字处理并用字向量表示,然后,将该字向量和词向量连接后的结果,作为输入语句的语句量表示;或者,对输入的语句用初始词向量表示,将初始词向量进行相应的相似性加权处理,生成加权后的词向量后,还将各语句进行分字处理并用字向量表示,然后,将该字向量和最终的词向量连接后的结果,作为输入语句的语句向量表示。由于未出现在训练集中的词语多为新词,而新字的情况则很少发生,进而通过字向量与词向量结合的方式,可以在一定程度上避免未登录词对模型匹配效果的干扰。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于未登录词处理的深度文本匹配方法的基本流程示意图;
图2为本申请实施例提供的一种深度匹配模型的基本结构示意图;
图3a为本申请实施例提供的将增添的信息向量与词向量按位相加的示意图;
图3b为本申请实施例提供的将增添的信息向量连接至词向量的示意图;
图4为本申请实施例提供的使用双向LSTM进行特征抽取时,共享权值和不共享权值的区别示意图;
图5为本申请实施例提供的利用卷积神经网络进行特征选择的示意图;
图6为本申请实施例提供的双向LSTM进行特征抽取时,选用不同的输出方式示意图;
图7为本申请实施例提供的使用近义词替代未登录词的处理方法;
图8为本申请实施例提供的另一种基于未登录词处理的深度文本匹配方法的基本流程示意图;
图9为本申请实施例提供的另一种深度匹配模型的基本结构示意图;
图10为本申请实施例提供的一种基于未登录词处理的深度文本匹配装置的基本结构示意图;
图11为本申请实施例提供的另一种基于未登录词处理的深度文本匹配装置的基本结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
针对现有的深度匹配模型一般会将未登录词处理成空值或随机值,影响模型的最终匹配效果的问题,本实施例提供了一种基于未登录词处理的深度文本匹配方法,应用在深度匹配模型中,其中,该方法可适用于各种深度匹配模型。
图1为本申请实施例提供的一种基于未登录词处理的深度文本匹配方法的基本流程示意图。如图1所示,该方法具体包括如下步骤:
S101:将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵。
图2为本申请实施例提供的一种深度匹配模型的基本结构示意图。如图2所示,该深度匹配模型主要由输入层、表示层、交互层、特征选择层、编码层、匹配层以及输出层组成,需要说明的是本实施例提供的方法并不限于该结构的深度匹配模型,还可以为其它结构,但是,通常均是以输入层、表示层、交互层、匹配层以及输出层为基础结构。
将句子对在输入层输入至模型后,利用表示层将句子对中的语句分别进行分词,对应每个语句便得到一个n维行向量{w1,w2,....,wn},亦可以称之为一个1*n的词矩阵,其中,w为一个词、n为语句长度。
进一步的,在模型训练时,现有的方式通常输入的句子对中只包含两个语句,记为句子A、句子B,存在匹配结果正确率低的问题。因此,本实施例除了输入句子A、句子B外,还输入若干与句子A、句子B语义不相关的句子,其中,句子A、句子B在本实施中认用作为正例、即假设语句与正推理语句,若干语义不相关的句子用作负例、即各负推理语句。另外,本实施例中负例的数量不受限制,负例可以为在其他匹配句子对中随机生成的样例。
例如,输入句子样例如下所示:
假设语句:今天阳光;
正推理语句:今天天气很好;
负推理语句1:今天下大雨;
负推理语句2:……
进一步的,由于深度匹配模型对于各句子的编码是单独进行的,为增加数据输入量,本实施例将句子A和B的角色调换顺序进行两次输入,具体如下:
首先,选取被作为假设语句和正推理语句,且语义相关的两个正例语句,如句子A和句子B;然后,选取被作为负推理语句,且与所述正例语句的语义不相关的多个负例语句,如句子C、句子D……;最后,分别从两个正例语句中选取一个正例语句作为假设语句、另一个正例语句作为正推理语句,并与各负例语句组成句子对。这样,输入的句子对中便包括<句子A、句子B、句子C、句子D……>、<句子B、句子A、句子C、句子D……>。然后,对各句子对中的语句进行分词处理。
S102:根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵。
首先,根据预训练好的Word Embedding将词转化为索引,其中,Word Embedding可以使用word2vec、glove等,即根据词表找对应输出n维向量,{idxw1,idxw2,....,idxwn}。然后,根据索引查找对应的词向量,输出n*word_size维词向量矩阵,其中,word_size为词向量维度。
进一步的,为了增加输入信息量,本实施例在词向量的基础上,还增添了一些信息向量,其中,包括词性、共现信息和位置编码向量。具体的,每种向量的表示方法为:
词性向量:每种词性使用一个固定长度的随机向量来表示
共现信息向量:共现信息是指假设和推断语句共同出现的词语,如上述假设和正推理语句中的“今天”一词。在本实施例中,共现信息有0,1,2三种表示,其中,0:代表<PAD>增加的句子维度,即句子在此位置本无值,为了可以放入深度匹配模型填补的空值;1:代表该词语在句子和词中共同出现;2:代表该词语在假设和推断语句中未共同出现。本实施例中,共现信息向量为一维长的向量。
位置编码向量:位置编码可使用公式计算,也可使用可学习的随机初始化的向量来表示。
具体的,按照公式计算的位置编码向量可以采用如下公式:
在公式(1)和(2)中,pos表示分词在输入句子中的位置,d1表示词向量的维度,C为周期系数,PE(pos2i)表示第pos个位置的分词的第2i个维度的位置编码,PE(pos 2i+1)表示第pos个位置的分词的第2i+1个维度的位置编码。
另外,使用可学习的随机初始化的向量来表示位置编码向量的方式时,可以将一个随机初始化的向量输入到模型里,模型会自己学习调整该向量到一个比较合理的值,并将调整后的向量作为位置编码向量。
得到上述词性、共现信息和位置编码向量后,便可以将其添加至词向量,其中,本实施例命名由Word Embedding得到的为初始词向量,将添加上述向量后得到向量为最终词向量。具体的,在添加方式上可以选择将上述向量与初始词向量相加,图3a计为本申请实施例提供的将增添的信息向量与词向量按位相加的示意图,或者,还可以将上述向量连接到初始词向量之后组成一个更长的向量,图3b为本申请实施例提供的将增添的信息向量连接至词向量的示意图。
S103:将所述句子对中语句分词得到的词语进行分字,得到字矩阵。
将步骤S110中得到的词语分字,得到字矩阵如下:
其中,c为一个字、m为一个字中有几个字。
为了使用深度学习模型,每个词对应的字需要填充到某个固定数量,根据目前词很少有长度超过6个字的,本实施例将该长度值设置为6,这样便可以基本保证约99%的词能不丢失字信息。
S104:根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵。
根据预训练好的字表查找对应的字向量,输出n*m*char_size维字向量矩阵,其中,char_size为字向量维度。
S105:将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵。
因为字和词的维度不同,无法直接将两个矩阵连接,因此,本实施例中首先把字向量矩阵输入到卷积神经网络按字卷积,输出n*output_size维矩阵,使其宽度变成词矩阵的宽度。
具体的,本实施例将字向量矩阵在输入到卷积神经网络中,其中,使用的卷积核宽度分别为3、4、5,长度为字向量长度;卷积完生成的向量需要进行池化,其中,可以取矩阵最大值或均值。这样每一个卷积核得到一个1维向量,每种宽度的卷积核共使用64个,因此,每个词可以得到一个3*64维矩阵,代表这个词的字表示,其中,可以将这个矩阵连接成一个192维向量,也可以把这三个向量加和求平均得到64维向量。
然后,将卷积得到的字向量矩阵和词向量矩阵和连接,变为n*{word_size*output_size}维矩阵。
S106:利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量。
对应于图2中模型的交互层中,使用Attention机制,获取各句子对的相似度矩阵,本实施例使用两个句子的词向量表示矩阵进行矩阵乘法得到该矩阵。并根据该相似度矩阵重新生成句子对中的假设H和推断P的表示,该步骤也可以理解为在词向量表示之后,在当前的语境下重新编码,得到新的句子表示。如下公式(3)和(4)。
在公式(3)和(4)中,len(H)和len(P)分别指两个句子的长度,和/>为加权后的句子表示,/>和/>为原有的句子表示,e为权重、由相似度矩阵的对应值获取。
需要说明的是,多种句子交互Attention机制均可用于本实施例。本实例使用双向LSTM(Long-Short-Term Memory,长短期记忆)结构,其表示公式如下:
yt=g(VAt+V'A't) 公式(5)
At=f(Uxt+WAt-1) 公式(6)
A't=f(U'xt+W'At-1) 公式(7)
在公式(5)至(7)中,V、V'、U'、U、W、W'为权重矩阵,f、g为激活函数,x为输入,A为隐状态参数,y为输出,t为时刻。
利用上述双向LSTM结构,首先,将各句子对中的两句子进行词对齐,得到两个句子之间的相似度矩阵;然后,进行两句话的局部推理,用上述得到的相似度矩阵并结合句子对中的两句子,互相生成彼此相似性加权后的句子。
另外,如果可以做句子的语法分析,那么这里的双向LSTM也可以使用树形LSTM。另外还可以根据各词向量所在语句中的语境,重新对各词向量进行编码,得到各句子对中语句新的词向量表示。
具体的,该步骤可以采用多种特征抽取结构进行,如卷积神经网络(CNN,Convolutional Neural Network)、递归神经网络(RNN,Recurrent Neural Network)、Attention机制等。本实施例仍采用双向LSTM结构,图4为本申请实施例提供的使用双向LSTM进行特征抽取时,共享权值和不共享权值的区别示意图,如图4所示,在特征抽取时假设和推理语句可以共享权值,也可以不共享,在具体实施过程,可以根据训练速度要求以及训练数据量进行选择。
进一步的,如果输入的句子对中包含多个推理语句,将句子对中的语句分别用词向量表示之后,对应N个推理语句,假设语句可以得到N个词向量表示,为方便后续的操作,本实施例在特征选择层中,对假设语句可以得到N个词向量内容进行归一化处理。
本实施例采用最基本的求平均的方式:
在公式(8)中,N为所有假设句的数量,为表示层输出的假设语的词向量表示。
当然,在具体实施过程中,除了上述方式,还可以是使用可学习的权值对模型进行加权求和方式,或者,还可以利用卷积神经网络、递归神经网络等进行特征提取。图5为本申请实施例提供的利用卷积神经网络进行特征选择的示意图,如图5所示,将多个词向量横向拼接后使用卷积神经网络进行卷积表示、然后进行池化输出。
进一步的,使各所述句子对中的假设语句均用一个语句向量表示之后,所述方法还包括:
根据各所述词向量所在语句中的语境,重新对各所述词向量进行编码,得到各句子对中语句新的词向量表示。
具体的,本实施例还是采用双向LSTM结构进行特征提取和编码,图6为本申请实施例提供的双向LSTM进行特征抽取时,选用不同的输出方式示意图,如图6所示,本实施例可以采用向LSTM结构输出的隐状态结果作为新的词向量表示,或者,利用双向LSTM每一时刻的输出,分别按位求最大值、均值并连接作为新的词向量表示。
S107:根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值。
对应于图2中模型的匹配层和输出层中,分别计算上述得到的各所述句子对中假设语句H的语句向量和推理语句P的语句向量的匹配程度值,可以得到N个输出值,如图2中的Score1、Score2……ScoreN,其中,N为所有推理语句的数量、包括正例和负例。然后,可以根据N个输出值的排序结果计算损失函数,调整模型参数并继续训练,其中,为了减少计算量,可以只关注匹配程度最高的是否为假设语句和正推理语句。
为了更好的的评价上述相似度值,本实施例融合Pointwise和Listwise思想,具体的,利用Pointwise损失函数和Listwise损失函数组成的联合损失函数,计算各语句向量相似度值与标准值之间的差距值,并根据该差距值,调整深度匹配模型的参数。其中,Pointwise损失函数的计算公式如下:
Lp=max(0,m-s(rh;rp+)+s(rh;rp-)) 公式(9)
在公式(9)中,s(rh;rp+)为假设语句和正推理语所对应的语句向量的余弦相似度,s(rh;rp)为假设语句和推理语所对应的语句向量的余弦相似度,m为预设的判定正负推理语句的阈值,n为由正推理语句和负推理语句组成的样本个数。
根据上述公式可知,Pointwise损失函数在假设语句和正推理语句的匹配程度低时,对应的损失值大,并且假设语句和负推理语句匹配程度高时,对应的损失值也大。单用Pointwise损失函数会有较好的排序效果,但是相似度的值并不够准确。因此,本实施例还结合了Listwise损失函数,其计算公式如下:
为了防止对模型的过拟合,本实施例在损失函数中加入L2正则(L2Regularization),得到的最终的联合损失函数loss如下:
loss=Lp+Ll+L2Regularization 公式(11)
S108:根据所述损失值,调整所述深度匹配模型的参数。
具体的,在训练过程,可以最小化上述损失值为目标,对模型不断训练,得到最终的深度匹配模型
S109:利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
例如,可以利用不断参数调整所得到的深度匹配模型,将测试集中语句输入至该模型中进行文本匹配,并计算其匹配准确率。
本实施例提供的基于匹配序列的基于未登录词处理的深度文本匹配方法,在训练深度匹配模型时,使用字向量辅助词向量的方式,由于一般未出现在训练集中的词语多为新词,而新字的情况则很少发生,进而通过字向量与词向量结合的方式,可以在一定程度上避免未登录词对模型匹配效果的干扰。另外,模型输入的句子对不仅包含假设语句与正推理语句组成的句子对,还包含假设语句分别与各负推理语句组成的句子对,这样,将两个句子扩展为句子对序列、并且包含正例和负例两种类型的数据,扩展了模型的输入数量和类型,进而使得模型的拟合速度加快,有助于增强模型的泛化能力。最后,本实施例还融合Attention机制,生成各句子对中的语句彼此相似性加权后的语句向量,由于对个句子对中的语句之间的词语进行了关联,进而可以模型的性能水平得到提升。
进一步的,由于单个字通常不能表达其所构成词语的准确含义,在深度匹配模型中匹配效果不如词好,因此考虑词的处理也是十分重要的,基于此本实施例还在字的基础上对未登录词进行进一步的处理,其中,本实施例提供了使用近义词辅助词进行未登录词处理、构建新词表的两种方式。
对应的,步骤S102中根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,还可以包括:
S1021:根据预训练好的词表,区分所述词矩阵中的登录词和未登录词。
S1022:将所述登录词用词向量表示,得到所述登录词的词向量矩阵。
S1023:使用所述未登录词的近义词对应的词向量表示所述未登录词,得到未登录词的词向量矩阵。
图7为本申请实施例提供的使用近义词替代未登录词的处理方法。由于现有方法如word2vec中,对已训练好的词向量中添加新词的方法只能为重新训练所有词向量,因此考虑使用近义词作为未登录词的一个表示,这是考虑到更新未登录词的近义词词表的代价远小于重新训练词向量。若未登录词有1个近义词时,直接选用该词的词向量即可。若有多个近义词,可根据上下文,在近义词中选择一个最相似的,即图7中的左图所示的方法;另外,可以根据上下文计算所有近义词相似度后,对近义词进行加权求和组成未登录词的表示,即图7中的右图所示的方法,具体的,可使用如下方法计算近义词和上下文的相似度Attention:
consine similarity=1-consine distance 公式(13)
其中,在公式(12)至(14)中,a为近义词,bi为上下文词,n代表上下文窗口大小。
S1024:根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
另外,还可以采用构建新词表的两种方式,即步骤S102中根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,具体可以包括:
S1025:根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
S1026:将所述登录词用词向量表示,得到登录词的词向量矩阵;
S1027:判断所述未登录词是否为新词表中的词语;
若是,则用新词表中的词向量来表示未登录词,否则,执行步骤S1028。
S1028:使用一个随机生成的词向量表示所述未登录词,得到未登录词的词向量矩阵,同时,将所述随机生成的词向量添加至所述新词表中。
即对于未登录词,我们将其记录下来并赋予一个随机生成的词向量。
S1029:根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
利用上述方法训练得到深度匹配模型,在现有某金融语料测试集中能达到95%的正确率,在相同的训练集和测试集中,传统模型正确率仅为88%。因此,本实施例提供的方法在不破坏原有深度匹配模型结构的基础上,对模型训练过程进行了一系列改进,实验结果证明,本方法训练得到的模型效果要高于常规方法。
图8为本申请实施例提供的另一种基于未登录词处理的深度文本匹配方法的基本流程示意图。图9为本申请实施例提供的另一种深度匹配模型的基本结构示意图。如图9所示,对应于图8中的方法,本实例将添加的字向量在模型的匹配层,计算相似度前与生成的语句向量相加。具体的该方法包括如下步骤:
S201:将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵。
将句子对在输入层输入至模型后,利用表示层将句子对中的语句分别进行分词,得到一个n维行向量{w1,w2,....,wn},亦可以称之为一个1*n的词矩阵,其中,w为一个词、n为语句长度。
S202:根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵。
首先,根据预训练好的Word Embedding将词转化为索引,其中,Word Embedding可以使用word2vec、glove等,即根据词表找对应输出n维向量,{idxw1,idxw2,....,idxwn}。然后,根据索引查找对应的词向量,输出n*word_size维词向量矩阵,其中,word_size为词向量维度。
S203:利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵。
对应于图9中模型的交互层中,使用Attention机制,先获取各句子对的相似度矩阵,并根据该相似度矩阵重新生成句子对中的假设H和推断P的表示,该步骤也可以理解为在词向量表示之后,在当前的语境下重新编码,得到新的词向量。需要说明的是,多种句子交互Attention机制均可用于本实施例。
S204:将所述句子对中语句进行分字,得到字矩阵。
将语句进行分字,输出m维行向量{c1,c2,......,cm},亦可以称之为1*m维字矩阵,其中,c为一个字、m为一个语句中有几个字。
S205:根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵。
首先,根据预训练好的字表将字转化为索引,即根据字表找对应输出m维向量,{idxc1,idxc2,....,idxcm}。然后,根据索引查找对应的字向量,输出m*char_size维字向量矩阵,其中,char_size为字向量维度。
S206:将所述初始语句向量对应的矩阵和所述字向量矩阵连接,得到所述句子对中语句的语句向量。
由于字向量和词向量长度不一样,因此需要经过处理后才能与句子的词表示合并到一起。此处的字向量矩阵可同实施例一中类似,将整个语句的字向量矩阵输入到卷积神经网络中,使用的卷积核长度为字向量长度,卷积核宽度为1到8。卷积后进行池化输出,每个卷积核得到一个1维向量,若对应一个宽度使用64个卷积核,那么每个词可以得到一个64维数组。可将其拼接或合并。本实施例与实施例一的区别是:实施例一中卷积的矩阵是词的字向量矩阵,该处是句子的字向量矩阵。然后,卷积得到的字向量矩阵与词向量矩阵连接,得到各句子对中的语句的新的语句向量表示。
S207:根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值。
同样的,可以利用上述实施例提供的损失函数进行损失值计算。
S208:根据所述损失值,调整所述深度匹配模型的参数。
具体的,在训练过程,可以最小化上述损失值为目标,对模型不断训练,得到最终的深度匹配模型
S209:利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
例如,可以利用不断参数调整所得到的深度匹配模型,将测试集中语句输入至该模型中进行文本匹配,并计算其匹配准确率。
同样的,本实施例也可以在字的基础上对未登录词进行进一步的处理,例如,使用近义词辅助词进行未登录词处理、构建新词表的两种方式。其中,使用近义词辅助词进行未登录词处理方式如下:首先,根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;然后,根据预训练好的词表,将所述登录词用词向量表示;同时,使用所述未登录词的近义词对应的词向量表示所述未登录词。
基于上述方法,本实例还提供了基于未登录词处理的深度文本匹配装置。图10为本申请实施例提供的一种基于未登录词处理的深度文本匹配装置的基本结构示意图。如图10所示,该装置包括:
分词模块301:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块302:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
分字模块303:用于将所述句子对中语句分词得到的词语进行分字,得到字矩阵;
字表示模块304:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块305:用于将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵;
相似性加权模块306:用于利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量;
损失值计算模块307:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块308:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块309:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
图11为本申请实施例提供的另一种基于未登录词处理的深度文本匹配装置的基本结构示意图。如图11所示,该装置包括:
分词模块401:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块402:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
相似性加权模块403:用于利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵;
分字模块404:用于将所述句子对中语句进行分字,得到字矩阵;
字表示模块405:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块406:用于将所述初始语句向量矩阵和所述字向量矩阵连接,得到所述句子对中语句对应的语句向量;
损失值计算模块407:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块408:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块409:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种基于未登录词处理的深度文本匹配方法,应用于深度匹配模型,其特征在于,所述方法包括:
将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
将所述句子对中语句分词得到的词语进行分字,得到字矩阵;
根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵;
利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量;
根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
根据所述损失值,调整所述深度匹配模型的参数;
利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
2.根据权利要求1所述的方法,其特征在于,根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
将所述登录词用词向量表示,得到所述登录词的词向量矩阵;
使用所述未登录词的近义词对应的词向量表示所述未登录词,得到所述未登录词的词向量矩阵;
根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
3.根据权利要求1所述的方法,其特征在于,根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
将所述登录词用词向量表示,得到所述登录词的词向量矩阵;
判断所述未登录词是否为新词表中的词语;
如果不是,则使用一个随机生成的词向量表示所述未登录词,得到未登录词的词向量矩阵,并将所述随机生成的词向量添加至所述新词表中;
根据所述登录词的词向量矩阵和所述未登录词的词向量矩阵,得到所述词矩阵对应的词向量矩阵。
4.根据权利要求1所述的方法,其特征在于,所述句子对由假设语句、正推理语句以及至少一个负推理语句组成,其中,所述假设语句与所述正推理语句的语义相关、与所述负推理语句的语义不相关。
5.根据权利要求4所述的方法,其特征在于,根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值,包括:
分别计算所述假设语句与正推理语句、各负推理语句所对应的语句向量之间的匹配程度值;
利用Pointwise损失函数和Listwise损失函数组成的联合损失函数,计算各所述语句向量匹配程度值与标准值之间的损失值。
6.根据权利要求5所述的方法,其特征在于,所述联合损失函数loss的计算公式为:loss=Lp+Ll+L2Regularization,其中:
Lp为Pointwise损失函数,Lp=max(0,m-s(rh;rp+)+s(rh;rp-));Ll为Listwise损失函数,
rh为假设语句的语句向量表示,rp+和rp-是分别为正推理语句和负推理语句的语句向量表示,s(rh;rp+)为假设语句和正推理语所对应的语句向量的余弦相似度,s(rh;rp)为假设语句和推理语所对应的语句向量的余弦相似度,m为预设的判定正负推理语句的阈值,n为由正推理语句和负推理语句组成的样本个数。
7.一种基于未登录词处理的深度文本匹配方法,应用于深度匹配模型,其特征在于,所述方法包括:
将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵;
将所述句子对中语句进行分字,得到字矩阵;
根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
将所述初始语句向量矩阵和所述字向量矩阵连接,得到所述句子对中语句对应的语句向量;
根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
根据所述损失值,调整所述深度匹配模型的参数;
利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
8.根据权利要求7所述的方法,其特征在于,根据预训练好的词表,将所述词矩阵中的词用词向量表示,包括:
根据预训练好的词表,区分所述词矩阵中的登录词和未登录词;
根据预训练好的词表,将所述登录词用词向量表示;
使用所述未登录词的近义词对应的词向量表示所述未登录词。
9.一种基于未登录词处理的深度文本匹配装置,应用于深度匹配模型,其特征在于,所述装置包括:
分词模块:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
分字模块:用于将所述句子对中语句分词得到的词语进行分字,得到字矩阵;
字表示模块:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块:用于将所述词向量矩阵和所述字向量矩阵连接,得到所述句子对中语句的初始语句向量矩阵;
相似性加权模块:用于利用所述初始语句向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的语句向量;
损失值计算模块:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
10.一种基于未登录词处理的深度文本匹配装置,应用于深度匹配模型,其特征在于,所述装置包括:
分词模块:用于将输入的句子对中的语句进行分词,得到所述句子对中语句的词矩阵;
词表示模块:用于根据预训练好的词表,将所述词矩阵中的词用词向量表示,得到词向量矩阵;
相似性加权模块:用于利用所述词向量矩阵对应的相似度矩阵,生成所述句子对中的语句彼此相似性加权后的初始语句向量矩阵;
分字模块:用于将所述句子对中语句进行分字,得到字矩阵;
字表示模块:用于根据预训练好的字表,将所述字矩阵中的字用字向量表示,得到字向量矩阵;
语句表示模块:用于将所述初始语句向量矩阵和所述字向量矩阵连接,得到所述句子对中语句对应的语句向量;
损失值计算模块:用于根据所述语句向量之间的匹配程度值,计算预设损失函数的损失值;
模型参数调整模块:用于根据所述损失值,调整所述深度匹配模型的参数;
文本匹配模块:用于利用参数调整所最终得到的深度匹配模型,对输入的语句进行文本匹配。
CN201910285854.1A 2019-04-10 2019-04-10 基于未登录词处理的深度文本匹配方法及装置 Active CN109992788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910285854.1A CN109992788B (zh) 2019-04-10 2019-04-10 基于未登录词处理的深度文本匹配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910285854.1A CN109992788B (zh) 2019-04-10 2019-04-10 基于未登录词处理的深度文本匹配方法及装置

Publications (2)

Publication Number Publication Date
CN109992788A CN109992788A (zh) 2019-07-09
CN109992788B true CN109992788B (zh) 2023-08-29

Family

ID=67133049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910285854.1A Active CN109992788B (zh) 2019-04-10 2019-04-10 基于未登录词处理的深度文本匹配方法及装置

Country Status (1)

Country Link
CN (1) CN109992788B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110750993A (zh) * 2019-10-15 2020-02-04 成都数联铭品科技有限公司 分词方法及分词器、命名实体识别方法及系统
CN111368537B (zh) * 2020-02-24 2023-08-11 思必驰科技股份有限公司 句子相似度确定方法及系统
CN111427995B (zh) * 2020-02-26 2023-05-26 平安科技(深圳)有限公司 基于内部对抗机制的语义匹配方法、装置及存储介质
CN111581335B (zh) * 2020-05-14 2023-11-24 腾讯科技(深圳)有限公司 一种文本表示方法及装置
US11663402B2 (en) 2020-07-21 2023-05-30 International Business Machines Corporation Text-to-vectorized representation transformation
CN113761140A (zh) * 2020-08-13 2021-12-07 北京沃东天骏信息技术有限公司 一种答案排序方法和装置
CN112668307B (zh) * 2020-12-30 2022-06-21 清华大学 一种双语句子自动对齐方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017177901A1 (zh) * 2016-04-12 2017-10-19 芋头科技(杭州)有限公司 一种语义匹配方法及智能设备
CN107423284A (zh) * 2017-06-14 2017-12-01 中国科学院自动化研究所 融合中文单词内部结构信息的句子表示的构建方法及系统
CN107656990A (zh) * 2017-09-14 2018-02-02 中山大学 一种基于字和词两个层面特征信息的文本分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017177901A1 (zh) * 2016-04-12 2017-10-19 芋头科技(杭州)有限公司 一种语义匹配方法及智能设备
CN107423284A (zh) * 2017-06-14 2017-12-01 中国科学院自动化研究所 融合中文单词内部结构信息的句子表示的构建方法及系统
CN107656990A (zh) * 2017-09-14 2018-02-02 中山大学 一种基于字和词两个层面特征信息的文本分类方法

Also Published As

Publication number Publication date
CN109992788A (zh) 2019-07-09

Similar Documents

Publication Publication Date Title
CN109992788B (zh) 基于未登录词处理的深度文本匹配方法及装置
CN109992648B (zh) 基于词迁徙学习的深度文本匹配方法及装置
CN109635109B (zh) 基于lstm并结合词性及多注意力机制的句子分类方法
CN110019685B (zh) 基于排序学习的深度文本匹配方法及装置
CN107133213B (zh) 一种基于算法的文本摘要自动提取方法与系统
CN109783817B (zh) 一种基于深度强化学习的文本语义相似计算模型
CN108829719B (zh) 一种非事实类问答答案选择方法及系统
CN109086267B (zh) 一种基于深度学习的中文分词方法
CN108549658B (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN110222163B (zh) 一种融合cnn与双向lstm的智能问答方法及系统
CN111414461B (zh) 一种融合知识库与用户建模的智能问答方法及系统
CN111259127B (zh) 一种基于迁移学习句向量的长文本答案选择方法
CN113312452B (zh) 基于多任务学习的篇章级文本连贯性分类方法
CN110826338B (zh) 一种单选择门与类间度量的细粒度语义相似识别的方法
CN110263325B (zh) 中文分词系统
CN110929515A (zh) 基于协同注意力和自适应调整的阅读理解方法及系统
CN111177376A (zh) 一种基于bert与cnn层级连接的中文文本分类方法
CN113569001A (zh) 文本处理方法、装置、计算机设备及计算机可读存储介质
CN110765755A (zh) 一种基于双重选择门的语义相似度特征提取方法
CN110069611B (zh) 一种主题增强的聊天机器人回复生成方法及装置
CN114428850B (zh) 一种文本检索匹配方法和系统
CN113239666A (zh) 一种文本相似度计算方法及系统
CN112287106A (zh) 一种基于双通道混合神经网络的在线评论情感分类方法
CN113705196A (zh) 基于图神经网络的中文开放信息抽取方法和装置
CN114896377A (zh) 一种基于知识图谱的答案获取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190905

Address after: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant after: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

Address before: Room 601, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: ULTRAPOWER SOFTWARE Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 230000 zone B, 19th floor, building A1, 3333 Xiyou Road, hi tech Zone, Hefei City, Anhui Province

Applicant after: Dingfu Intelligent Technology Co.,Ltd.

Address before: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant