CN109947919A - 用于生成文本匹配模型的方法和装置 - Google Patents

用于生成文本匹配模型的方法和装置 Download PDF

Info

Publication number
CN109947919A
CN109947919A CN201910184893.2A CN201910184893A CN109947919A CN 109947919 A CN109947919 A CN 109947919A CN 201910184893 A CN201910184893 A CN 201910184893A CN 109947919 A CN109947919 A CN 109947919A
Authority
CN
China
Prior art keywords
text
sequence
terms
matched
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910184893.2A
Other languages
English (en)
Other versions
CN109947919B (zh
Inventor
万圣贤
陈诗妮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201910184893.2A priority Critical patent/CN109947919B/zh
Publication of CN109947919A publication Critical patent/CN109947919A/zh
Priority to PCT/CN2020/078584 priority patent/WO2020182122A1/zh
Application granted granted Critical
Publication of CN109947919B publication Critical patent/CN109947919B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开的实施例公开了用于生成文本匹配模型的方法和装置。该方法的一具体实施方式包括:获取训练样本集合;从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。该实施方式所得到的文本匹配模型可以更准确地确定两个文本之间的相似度,有助于提高文本匹配的准确性。

Description

用于生成文本匹配模型的方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成文本匹配模型的方法和装置。
背景技术
文本语义匹配问题是指,给定两段文本(比如一个查询文本和一个网页包括的文本),如何确定这两段文本的相似程度。典型的应用包括搜索引擎、问答系统以及智能客服系统等。比如在搜索引擎中,根据这个相似程度可以对候选文档进行排序,在智能客服系统中,可以根据用户的问题找到数据库里最接近的问题和答案。
现有的用于匹配文本的方法,主要包括以下几种:基于关键词精确命中的方法(例如BM25算法、TF-IDF(Term Frequency–Inverse Document Frequency,词频-逆文本频率)算法等),基于隐式语义表达的深度学习模型,基于深度交互的深度学习模型。
发明内容
本公开的实施例提出了用于生成文本匹配模型的方法和装置,以及用于输出文本的方法和装置。
第一方面,本公开的实施例提供了一种用于生成文本匹配模型的方法,该方法包括:获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。
在一些实施例中,获取训练样本集合,包括:获取样本文本,以及与所获取的样本文本匹配的匹配文本和与所获取的样本文本不匹配的非匹配文本;对所获取的样本文本、匹配文本和非匹配文本分别按照预设数量种分词粒度进行分词,得到样本文本对应的预设数量个样本词语序列,匹配文本对应的预设数量个匹配样本词语序列,非匹配文本对应的预设数量个非匹配样本词语序列;确定所得到的预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列分别对应的词语对齐信息,其中,词语对齐信息用于表征针对同一文本的不同的分词粒度对应的词语序列中的词语的对应关系。
在一些实施例中,初始模型包括向量对齐子模型、相似度矩阵生成层、卷积神经网络;以及得到第一相似度值以及得到第二相似度值,包括:将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的匹配样本词语序列对应的匹配样本对齐后词向量序列,其中,向量对齐子模型用于确定输入的词语序列包括的词语的词向量,以及基于词语序列对应的词语对齐信息,对输入的词语序列对应的词向量序列进行向量对齐,得到输入的词语序列对应的对齐后词向量序列;将所得到的样本对齐后词向量序列和匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第一相似度值;将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的非匹配样本词语序列对应的非匹配样本对齐后词向量序列;将所得到的样本对齐后词向量序列和非匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第二相似度值。
在一些实施例中,卷积神经网络包括至少一个卷积子网络和相似度值生成层,卷积子网络用于对输入的相似度矩阵进行卷积运算,生成子相似度值,相似度值生成层用于基于子相似度值生成相似度值。
在一些实施例中,至少一个卷积子网络包括邻近度卷积子网络,邻近度卷积子网络包括邻近度卷积核,邻近度卷积核包括权值,权值用于表征匹配用文本中的、与样本词语序列包括的词语匹配的词语在匹配用文本中所处的位置之间的距离对确定相似度值的影响程度。
在一些实施例中,相似度矩阵生成层包括词语权重生成层,词语权重生成层用于确定预先指定的分词粒度对应的样本词语序列中的样本词语在样本词语序列指示的文本中的权重,相似度矩阵生成层用于利用词语权重生成层生成的权重和已生成的相似度矩阵,生成加权后的相似度矩阵。
在一些实施例中,该方法还包括:响应于确定未达到优化目标,调整初始模型的参数,以及从训练样本集合中的、未被选择过的训练样本中,重新选取训练样本,利用重新选择的训练样本和最近一次调整参数的初始模型,继续执行训练步骤。
第二方面,本公开的实施例提供了一种用于输出文本的方法,该方法包括:获取目标文本和待匹配文本集合,其中,目标文本是用户输入的文本;对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;对于待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值,其中,文本匹配模型是根据上述第一方面中任一实施例描述的方法生成的;基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
在一些实施例中,分词处理包括:对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词,得到目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;确定预设数量个目标词语序列,和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列分别对应的词语对齐信息,以使文本匹配模型利用词语对齐信息生成相似度值。
在一些实施例中,基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出,包括:基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本;将所选择的待匹配文本显示在目标显示屏上。
第三方面,本公开的实施例提供了一种用于生成文本匹配模型的装置,该装置包括:训练样本获取单元,被配置成获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;训练单元,被配置成从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。
第四方面,本公开的实施例提供了一种用于输出文本的装置,该装置包括:文本获取单元,被配置成获取目标文本和待匹配文本集合,其中,目标文本是用户输入的文本;分词单元,被配置成对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;匹配单元,被配置成对于待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值,其中,文本匹配模型是根据上述第一方面中任一实施例描述的方法生成的;输出单元,被配置成基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
第五方面,本公开的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第六方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
本公开的实施例提供的用于生成文本匹配模型的方法和装置,通过获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列,然后从训练样本集合中选取至少一个训练样本,利用选择的训练样本和初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值和用于表征输入的样本词语序列指示的文本与非匹配样本词语序列指示的文本的相似程度的第二相似度值,根据第一相似度值和第二相似度值的比较结果对初始模型进行训练,得到文本匹配模型,从而实现了使用同一文本对应的预设数量个词语序列进行文本匹配模型的训练,使得所得到的文本匹配模型可以更全面地针对同一文本对应的预设数量个词语序列进行处理,从而更准确地确定两个文本之间的相似度,有助于提高文本匹配的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的实施例的用于生成文本匹配模型的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于生成文本匹配模型的方法的生成相似度矩阵的示例性示意图;
图4是根据本公开的实施例的用于生成文本匹配模型的方法的由邻近度卷积子网络子相似度值的示例性示意图;
图5是根据本公开的实施例的用于生成文本匹配模型的方法的一个应用场景的示意图;
图6是根据本公开的实施例的用于输出文本的方法的一个实施例的流程图;
图7是根据本公开的实施例的用于生成文本匹配模型的装置的一个实施例的结构示意图;
图8是根据本公开的实施例的用于输出文本的装置的一个实施例的结构示意图;
图9是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关公开,而非对该公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于生成文本匹配模型的方法或用于生成文本匹配模型的装置,以及用于输出文本的方法和装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如搜索类应用、网页浏览器应用、购物类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备。当终端设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的训练样本集合进行模型训练的后台服务器,或对终端设备101、102、103上传的文本进行处理的后台服务器。后台服务器可以利用获取的训练样本集合进行模型训练,得到文本匹配模型,或者使用文本匹配模型生成文本之间的相似度值,并根据相似度值输出文本。
需要说明的是,本公开的实施例所提供的用于生成文本匹配模型的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于生成文本匹配模型的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。此外,本公开的实施例所提供的用于输出文本的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于输出文本的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在训练模型所需的训练样本,或目标文本和待匹配文本集合不需要从远程获取的情况下,上述系统架构可以不包括网络,而只包括服务器或终端设备。
继续参考图2,示出了根据本公开的用于生成文本匹配模型的方法的一个实施例的流程200。该用于生成文本匹配模型的方法,包括以下步骤:
步骤201,获取训练样本集合。
在本实施例中,用于生成文本匹配模型的方法的执行主体(例如图1所示的服务器或终端设备)可以通过有线连接方式或者无线连接方式从远程,或从本地获取训练样本集合。其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。上述各个词语序列中的词语可以包括但不限于以下至少一种:单字词、多字词、短语。通常,上述预设数量大于等于二。
具体地,预设数量个样本词语序列可以对应于样本文本,预设数量个匹配样本词语序列可以对应于匹配样本文本,预设数量个非匹配样本词语序列可以对应于非匹配样本文本。其中,匹配样本文本可以是与样本文本的相关程度较高的文本,非匹配样本文本可以是与样本文本的相关程度较低的文本。例如,样本文本可以是用户输入的搜索语句,用于生成训练样本的执行主体可以将搜索结果中包括的、上述用户点击过的文本设置为匹配样本文本,将上述用户未点击过的文本设置为非匹配文本。
预设数量个样本词语序列中的样本词语序列可以是对样本文本进行分词得到的词语序列。作为示例,生成样本词语序列的执行主体可以使用预设数量种不同的分词粒度对样本文本进行分词,得到预设数量个样本词语序列。其中,分词粒度用于表征对文本进行分词时,词语包括的文字的数量。通常,分词粒度大,单个词语包括的文字多,分词粒度小,单个词语包括的文字少。例如,采用大粒度分词后得到的词语包括“男朋友”,采用小粒度分词后得到的词语包括“男”和“朋友”。需要说明的是,使用不同的分词粒度对文本进行分词的方法是本领域的公知技术,这里不再赘述。
此外,上述执行主体还可以采用预设数量种不同的分词算法,对样本文本进行分词,得到预设数量个样本词语序列。
应当理解,生成样本词语序列的执行主体可以采用与对样本文本进行分词时所采用的方法相同的方法分别对匹配文本和非匹配文本进行分词,得到预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。本实施例中的对文本进行分词的方法可以包括但不限于以下至少一种:基于词典的方法、基于统计的方法、基于语义的方法。
在本实施例的一些可选的实现方式中,上述执行主体可以执行如下步骤:
步骤一,获取样本文本,以及与所获取的样本文本匹配的匹配文本和与所获取的样本文本不匹配的非匹配文本。具体地,作为示例,样本文本可以是用户输入的搜索语句,匹配文本可以是搜索结果包括的、该用户点击(或点击率最高)的文本,非匹配文本可以是搜索结果包括的、该用户未点击(或点击率最低)的文本。
步骤二,对所获取的样本文本、匹配文本和非匹配文本分别按照预设数量种分词粒度进行分词,得到样本文本对应的预设数量个样本词语序列,匹配文本对应的预设数量个匹配样本词语序列,非匹配文本对应的预设数量个非匹配样本词语序列。具体地,关于对文本按照不同的分词粒度进行分词的方法可以参考上述步骤201中描述的内容,这里不再赘述。本步骤中,使用预设数量种分词粒度进行分词,可以减少使用单一分词粒度进行分词时带来的匹配失败的概率,从而有助于提高最终训练得到的文本匹配模型生成文本之间的相似度值的准确性。
步骤三,确定所得到的预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列分别对应的词语对齐信息。其中,词语对齐信息用于表征针对同一文本的不同的分词粒度对应的词语序列中的词语的对应关系。
具体地,上述执行主体可以从预设数量个词语序列(可以是预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列中的任意一项)中,确定按照预先指定的分词粒度进行分词得到的词语序列作为基准词语序列,根据基准词语序列包括的词语,得到词语对齐信息。作为示例,假设预设数量为三,三个样本词语序列(以下称为序列1、序列2、序列3)分别按照如下信息表征:“A、B、C、D”,“A、BC、D、”,“A,BCD”,其中的字母或字母组合用于表征词语。序列1-序列3对应的分词粒度逐渐增大,序列2为基准词语序列,生成的词语对齐信息可以包括:“B、C-BC”、“BCD-BC、D”,其中,“B、C-BC”对应于序列1,用于表征序列1中的词语B和C对应于序列2中的词语BC;“BCD-BC、D”对应于序列3,用于表征序列3中的词语BCD对应于序列2中的词语BC和D。应当理解,上述示例适用于预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。
本实现方式通过对文本按照不同分词粒度进行分词得到预设数量个词语序列,可以实现通过使用针对同一文本的多个词语序列对模型进行训练,由于针对同一文本的多个词语序列能够全面地表征文本,因此本实现方式有助于使得生成的模型更全面地对两个文本进行匹配,从而提高生成相似度值的准确性。
步骤202,从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。
在本实施例中,上述执行主体可以从训练样本集合中选取训练样本,以及执行以下训练步骤:(包括步骤2021-步骤2024):
步骤2021,将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值。
具体地,初始模型可以包括各种结构的神经网络,例如Siamese结构的神经网络、LSF-SCNN(Lexical Semantic Feature based Skip Convolution Neural Network,基于词汇语义特征的跳跃卷积神经网络)等。初始模型可以是未经训练的、初始化参数的模型,也可以是训练过的模型。通常,初始模型可以将输入的词语序列包括的词语转换为向量的形式,根据各个向量,可以确定相似度值。通常,相似度值越大,表征两个文本之间的相似程度越高。实践中,相似度值可以根据向量之间的距离(例如欧氏距离、余弦距离等)确定。例如将余弦距离确定为相似度值,或将欧式距离的倒数确定为相似度值。
在本步骤中,输入初始模型的通常为一个训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列。初始模型可以对输入的预设数量个样本词语序列和预设数量个匹配样本词语序列进行诸如向量转换、距离计算等处理,得到第一相似度值。
步骤2022,将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值。
具体地,在本步骤中,输入初始模型的通常为一个训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列。初始模型可以按照与上述步骤2021相同的方法得到第二相似度值。
在本实施例的一些可选的实现方式中,初始模型可以包括向量对齐子模型、相似度矩阵生成层、卷积神经网络。上述执行主体可以按照如下步骤确定第一相似度值:
首先,将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的匹配样本词语序列对应的匹配样本对齐后词向量序列。其中,向量对齐子模型用于确定输入的词语序列包括的词语的词向量,以及基于词语序列对应的词语对齐信息,对输入的词语序列对应的词向量序列进行向量对齐,得到输入的词语序列对应的对齐后词向量序列。其中,词语对齐信息是根据上述步骤201中的可选实现方式描述的方法得到的。
上述向量对齐子模型可以包括现有的用于确定词向量的模型(例如Word2Vec模型、n-gram模型等)。通常,每个词语的词向量包括的元素的数量相同。对于某个词语序列,该词语序列包括的词语分别对应的词向量即为该词语序列对应的词向量序列。然后,向量对齐子模型可以对输入的预设数量个样本词语序列分别对应的词向量序列进行向量对齐,以及对输入的预设数量个匹配样本词语序列分别对应的词向量序列进行向量对齐。
向量对齐子模型可以采用对词向量进行合并或扩展的方式进行向量对齐。继续上述步骤201中的可选实现方式中的示例,序列2为基准词语序列,向量对齐子模型可以根据序列1对应的词语对齐信息“B、C-BC”,将词语B和词语C分别对应的词向量进行合并,以使合并后的词向量包括的元素的数量与基准词语序列包括的词语BC对应的词向量相同。例如,可以采用平均池化(mean pooling)算法对词向量进行合并,即将两个词向量中处于相同的元素位置的元素取均值,得到新的词向量即为合并后的词向量。向量对齐子模型可以根据序列3对应的词语对齐信息“BCD-BC、D”,将词语BCD对应的词向量进行扩展,使扩展后得到的词向量包括的元素的数量等于基准词语序列包括的词语BC和词语D包括的元素的数量之和。例如,可以将词语BCD对应的词向量复制一份,即得到两个BCD对应的词向量作为扩展后的词向量。通过向量对齐,可以使得各个样本对齐后词向量序列分别包括的词向量的数量相同,以及使得各个匹配样本对齐后词向量序列分别包括的词向量的数量相同。
然后,将所得到的样本对齐后词向量序列和匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵。具体地,相似度矩阵生成层可以将所得到的各个样本对齐后词向量序列和所得到的各个匹配样本对齐后词向量序列进行两两组合。对于每个组合,相似度矩阵生成层对该组合包括的样本对齐后词向量序列中的词向量和匹配样本对齐后词向量序列中的词向量进行两两相似度计算,从而得到该组合对应的待定相似度矩阵。其中,待定相似度矩阵中的每个元素对应于一个样本对齐后词向量和一个匹配样本对齐后词向量,即每个元素为对应的样本对齐后词向量和匹配样本对齐后词向量之间的相似度值(例如余弦距离)。相似度矩阵生成层可以进一步根据所得到的各个待定相似度矩阵,得到相似度矩阵。例如可以对各个待定相似度矩阵中的、位于相同元素位置处的元素取最大值,从而得到相似度矩阵。
作为示例,如图3所示,假设预设数量为2,矩阵A1、A2分别对应于第一分词粒度和第二分词粒度,矩阵A1、A2的每一行为一个样本对齐后词向量。矩阵B1、B2分别对应于第一分词粒度和第二分词粒度,矩阵B1、B2的每一行为一个匹配样本对齐后词向量。矩阵A1、A2和矩阵B1、B2两两组合,得到四个组合(包括A1-B1,A1-B2,A2-B1,A2-B2)。以组合A1-B1为例,确定A1中的各个行和B1中的各个行两两之间的相似度,从而得到组合A1-B1对应的待定相似度矩阵X1。矩阵X1中的第一行第一列的元素为矩阵A1的第一行和矩阵B1的第一行的相似度,矩阵X1中的第一行第二列的元素为矩阵A1的第一行和矩阵B1的第二行的相似度,以此类推。同理,可以得到其他组合对应的相似度矩阵X2、X3、X4。最后,从相似度矩阵X1、X2、X3、X4中的处于相同元素位置处的元素取最大值,得到相似度矩阵Y。
在本实施例的一些可选的实现方式中,上述相似度矩阵生成层可以包括词语权重生成层。词语权重生成层用于确定预先指定的分词粒度对应的样本词语序列中的样本词语在样本词语序列指示的样本文本中的权重。相似度矩阵生成层用于利用词语权重生成层生成的权重和已生成的相似度矩阵,生成加权后的相似度矩阵。具体地,词语权重生成层可以利用现有的各种确定词语在文本中的权重的方法,确定样本词语在样本文本中的权重。例如,可以采用TF-IDF算法,确定每个样本词语的TF-IDF值,再将各个TF-IDF值分别占总TF-IDF值(即各个TF-IDF值之和)的比例确定为样本词语的权重。相似度矩阵生成层可以进一步利用词语权重生成层生成的权重和已生成的相似度矩阵,生成加权后的相似度矩阵。作为示例,可以将上述图3所示的相似度矩阵Y中的每一行包括的元素分别乘以该行指示的样本词语的权重,从而得到最终的加权后的相似度矩阵。本实现方式可以根据各个词语的权重生成加权后的相似度矩阵,使得最终的相似度矩阵中的元素更准确地表征两个词语之间的相似程度。从而有助于最终训练得到的文本匹配模型可以更准确地确定两个文本之间的相似程度。
最后,将所得到的相似度矩阵输入卷积神经网络,得到第一相似度值。
具体地,卷积神经网络可以用于对相似度矩阵进行卷积运算、全连接运算等,从而得到第一相似度值。卷积神经网络的结构可以是现有的各种结构,例如LSF-SCNN结构。
在本实施例的一些可选的实现方式中,卷积神经网络可以包括至少一个卷积子网络和相似度值生成层,卷积子网络用于对输入的相似度矩阵进行卷积运算,生成子相似度值,相似度值生成层用于基于子相似度值生成相似度值。具体地,至少一个卷积子网络可以包括使用现有的二维卷积核(例如卷积核的大小为5×5)进行卷积运算的卷积子网络。通常,至少一个卷积子网络中的每个卷积子网络可以生成一个子相似度值,子相似度值可以被输入到相似度值生成层,相似度值生成层可以对输入的各个子相似度值进行运算,得到相似度值。例如,相似度值生成层可以利用预设的、子相似度值对应的权重,对各个子相似度值进行加权求和,从而得到相似度值。
此外,可选的,上述初始模型还可以包括其他用于确定两个文本之间的相似度的子模型,子模型可以包括但不限于以下至少一种:词袋(Bag-of-words,BOW)模型、循环神经网络(RNN,Recurrent Neural Network)模型等。通常,可以从输入的预设数量个样本词语序列中选择(例如选择与预先指定的分词粒度对应的词语序列)样本词语序列,以及从输入的预设数量个匹配样本词语序列中选择匹配样本词语序列,将选择的样本词语序列和匹配样本词语序列输入上述子模型,得到子相似度值。上述执行主体可以将得到的子相似度值输入上述相似度值生成层,以使相似度值生成层对输入的子相似度值进行运算,得到相似度值。
在本实施例的一些可选的实现方式中,上述至少一个卷积子网络可以包括邻近度卷积子网络,邻近度卷积子网络包括邻近度卷积核,邻近度卷积核包括权值,权值用于表征匹配用文本中的、与样本词语序列包括的词语匹配的词语在匹配用文本中所处的位置之间的距离对确定相似度值的影响程度。其中,匹配用文本是与输入的样本词语序列指示的文本进行相似度运算的文本。在训练文本匹配模型时,匹配用文本可以是输入的匹配样本词语序列指示的匹配文本,或输入的非匹配样本词语序列指示的非匹配文本。
作为示例,如图4所示,假设相似度矩阵401为3行10列的矩阵,图中的A、B、C用于表征样本词语序列包括的词语,D、E、F、G、…、M、N用于表征从匹配用文本中确定的词语序列。相似度矩阵401的第一行第一列元素为词语A和D之间的相似度值,第一行第二列元素为词语A和E之间的相似度值,以此类推。402为邻近度卷积核,从图中可以看出,邻近度卷积核的中间一列的权值最大,向两边逐渐减小。当前的邻近度卷积核402滑动到如图所示的位置,即邻近度卷积核402的中间一列与相似度矩阵401的第三列对齐。两个矩阵的对应位置的元素相乘后,得到结果矩阵403,从结果矩阵403中的每一行取最大值(即0.8、0.8、0.9),并将各个最大值相加后,得到的结果为相似度矩阵401的第三列对应的相似度值(即2.5)。随着邻近度卷积核402的滑动,可以得到相似度矩阵401的每一列分别对应的相似度值,从所得到的各个相似度值中选择最大值,即为上述邻近度卷积子网络所确定的子相似度值。从图4可以看出,在计算相似度矩阵401的第三列对应的相似度值时,如果在匹配用文本中,与词语A、B、C分别匹配的词语的位置距离第三列对应的词语(即F对应的词语)的位置较近,由于其对应的权值较大,因此,计算得到的相似度值较大。反之,如果距离第三列对应的词语的位置较远,则计算得到的相似度值较小(例如图中A-J对应的相似度值虽然与AE对应的相似度值相同,均为1,但是由于J的位置距离第三列较远,其对应的权值0.4较小,因此将其与权值相乘后得到的数值0.4较小)。
由图4可知,邻近度卷积子网络由于包括邻近度卷积核,利用其进行相似度值计算所得到的子相似度值可以反映相匹配的词语在匹配用文本中的位置之间的距离。从而使得计算得到的相似度值可以更准确地表征两个文本之间的相似程度。
上述执行主体可以继续按照如下步骤确定第二相似度值:
首先,将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的非匹配样本词语序列对应的非匹配样本对齐后词向量序列。
然后,将所得到的样本对齐后词向量序列和非匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵。
最后,将所得到的相似度矩阵输入卷积神经网络,得到第二相似度值。
需要说明的是,上述执行主体可以按照与确定第一相似度值相同的方法,确定第二相似度值,这里不再赘述。
步骤2023,将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标。
具体地,上述执行主体可以利用预设的损失函数(例如hinge loss损失函数、square hinge loss损失函数等),对第一相似度值和第二相似度值进行比较,使用上述损失函数可以计算得到损失值,如果损失值满足预设条件(例如损失值小于等于预设的数值或者损失值不再减小),则确定初始模型达到优化目标。
作为示例,上述预设的损失函数可以为hinge loss损失函数。在本实施例中的具体形式为:L=max(0,s2-s1+sigma),其中,L用于表征损失值,max()用于表征取括号中的最大值,s2为第二相似度值,s1为第一相似度值,sigma为预设的数值。训练时,使得s2-s1+sigma最小,当s2-s1+sigma满足上述预设条件时,确定初始模型达到优化目标。
步骤2024,响应于确定达到优化目标,确定初始模型为文本匹配模型。
在本实施例的一些可选的实现方式中,在步骤202之后,上述执行主体还可以执行如下步骤:
响应于根据上述比较结果确定初始模型未达到优化目标,调整初始模型的参数,以及从训练样本集合中的、未被选择过的训练样本中,重新选取训练样本,利用重新选择的训练样本和最近一次调整参数的初始模型,继续执行上述训练步骤(即步骤2021-步骤2024)。
这里,上述执行主体可以采用各种方式,根据比较结果调整初始模型的参数。例如,可以采用BP(Back Propagation,反向传播)算法或者SGD(Stochastic GradientDescent,随机梯度下降)算法来调整初始模型的参数。
继续参见图5,图5是根据本实施例的用于生成文本匹配模型的方法的应用场景的一个示意图。在图5的应用场景中,电子设备501首先获取训练样本集合502。其中,训练样本包括预设数量(例如3)个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。例如,预设数量个样本词语序列可以是预先从样本文本提取的词语序列,每个样本词语序列对应于一种分词粒度。同理,预设数量个匹配样本词语序列可以是预先从匹配样本文本中提取的词语序列,预设数量个非匹配样本词语序列可以是预先从非匹配样本文本中提取的词语序列。
然后,电子设备501从训练样本集合502中选取训练样本5021,以及执行以下训练步骤:将所选取的训练样本5021包括的样本词语序列50211和匹配样本词语序列50212输入初始模型503,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值504;将所选取的训练样本5021包括的样本词语序列50211和非匹配样本词语序列50213输入初始模型503,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值505;将第一相似度值504和第二相似度值505进行比较(例如利用hinge loss损失函数计算损失值),根据比较结果(例如损失值)确定初始模型503是否达到预设的优化目标。响应于确定达到优化目标(例如当损失值小于等于预设的数值时,确定达到优化目标),确定初始模型503为文本匹配模型506。
本公开的上述实施例提供的方法,通过获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列,然后从训练样本集合中选取至少一个训练样本,利用选取的训练样本和初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值和用于表征输入的样本词语序列指示的文本与非匹配样本词语序列指示的文本的相似程度的第二相似度值,根据第一相似度值和第二相似度值的比较结果对初始模型进行训练,得到文本匹配模型,从而实现了使用同一文本对应的预设数量个词语序列进行模型训练,使得所得到的文本匹配模型可以更全面地针对同一文本对应的预设数量个词语序列进行处理,从而更准确地确定两个文本之间的相似度,有助于提高文本匹配的准确性。
进一步参考图6,其示出了用于输出文本的方法的一个实施例的流程600。该用于输出文本的方法的流程600,包括以下步骤:
步骤601,获取目标文本和待匹配文本集合。
在本实施例中,用于输出文本的方法的执行主体(例如图1所示的服务器或终端设备)可以通过有线连接方式或者无线连接方式从远程,或从本地获取目标文本和待匹配文本集合。其中,目标文本是用户输入的文本。通常,目标文本可以是用于搜索信息的文本,例如,目标文本可以是用户在上述执行主体的屏幕上显示的搜索栏中输入的文本。待匹配文本集合可以是预先存储在上述执行主体中的文本集合,或预先存储在与上述执行主体通信连接的电子设备上的文本集合。
步骤602,对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列。
在本实施例中,上述执行主体可以对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列。
其中,分词粒度用于表征对文本进行分词时,词语包括的文字的数量。通常,分词粒度大,单个词语包括的文字多,分词粒度小,单个词语包括的文字少。例如,采用大粒度分词后得到的词语包括“男朋友”,采用小粒度分词后得到的词语包括“男”和“朋友”。需要说明的是,使用不同的分词粒度对文本进行分词的方法是本领域的公知技术,这里不再赘述。
步骤603,对于待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值。
在本实施例中,对于待匹配文本集合中的待匹配文本,上述执行主体可以将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值。其中,文本匹配模型是根据上述图2对应实施例描述的方法生成的。
在本实施例的一些可选的实现方式中,步骤602中的分词处理包括:
首先,对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词,得到目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列。
然后,确定预设数量个目标词语序列,和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列分别对应的词语对齐信息,以使文本匹配模型利用词语对齐信息生成相似度值。其中,词语对齐信息用于表征不同的分词粒度对应的词语序列中的词语的对应关系。需要说明的是,关于词语对齐信息的描述,可以参考上述图2对应实施例中的可选的实现方式中关于词语对齐信息的内容,这里不再赘述。
在本可选的实现方式中,上述文本匹配模型可以利用词语对齐信息生成相似度值。具体地,文本匹配模型可以包括向量对齐子模型、相似度矩阵生成层、卷积神经网络。向量对齐子模型用于确定输入的词语序列包括的词语的词向量,以及基于词语序列对应的词语对齐信息,对输入的词语序列对应的词向量序列进行向量对齐,得到输入的词语序列对应的对齐后词向量序列。相似度矩阵生成层用于利用所得到的目标词语序列对应的对齐后词向量序列和待匹配词语序列对应的对齐后词向量序列,生成相似度矩阵。卷积神经网络用于利用所得到的相似度矩阵,生成用于表征待匹配文本与目标文本之间的相似程度的相似度值。需要说明的是,关于文本匹配模型包括的向量对齐子模型、相似度矩阵生成层、卷积神经网络,可以参考上述图2对应实施例中的可选的实现方式中描述的内容,这里不再赘述。
步骤604,基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
在本实施例中,上述执行主体可以基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
通常,上述执行主体可以按照相似度值由大到小的顺序,从待匹配文本集合中选择待匹配文本。然后,将选择的待匹配文本按照各种方式输出。例如,当上述执行主体为如图1所示的服务器时,服务器可以将选择的待匹配文本按照相似度值由大到小的顺序,发送到如图1所示的终端设备上,以使所选择的待匹配文本显示在终端设备的屏幕上。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤从待匹配文本集合中选择待匹配文本及输出:
首先,基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本。通常,上述执行主体可以按照对应的相似度值由大到小的顺序,从待匹配文本集合中选择待匹配文本。
然后,将所选择的待匹配文本显示在目标显示屏上。其中,目标显示屏可以是待在其上显示文本的显示屏。例如,目标显示屏可以是上述执行主体包括的显示屏,也可以是与上述执行主体通信连接的其他电子设备包括的显示屏。通过执行本可选的实现方式,可以在目标显示屏上更有针对性地显示与目标文本相似的待匹配文本,由于用于展示文本的电子设备包括的显示屏的尺寸有限,本实现方式可以充分地利用有限的显示屏尺寸,向用户有针对性地展示文本,节约了显示屏的显示资源,以及节约了用于存储展示的文本的存储资源。
本公开的上述实施例提供的方法,通过获取目标文本和待匹配文本集合,对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列,再将待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征待匹配文本与目标文本之间的相似程度的相似度值,最后基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出,从而有效地利用文本匹配模型,提高确定文本之间的相似度值的准确性,以及有针对性地输出与目标文本匹配的文本,有利于节约用于展示与目标文本匹配的文本的电子设备的硬件资源。
进一步参考图7,作为对上述图2所示方法的实现,本公开提供了一种用于生成文本匹配模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的用于生成文本匹配模型的装置700包括:训练样本获取单元701,被配置成获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;训练单元702,被配置成从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。
在本实施例中,训练样本获取单元701可以通过有线连接方式或者无线连接方式从远程,或从本地获取训练样本集合。其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。上述各个词语序列中的词语可以包括但不限于以下至少一种:单字词、多字词、短语。通常,上述预设数量大于等于二。
具体地,预设数量个样本词语序列可以对应于样本文本,预设数量个匹配样本词语序列可以对应于匹配样本文本,预设数量个非匹配样本词语序列可以对应于非匹配样本文本。其中,匹配样本文本可以是与样本文本的相关程度较高的文本,非匹配样本文本可以是与样本文本的相关程度较低的文本。例如,样本文本可以是用户输入的搜索语句,用于生成训练样本的执行主体可以将搜索结果中包括的、上述用户点击过的文本设置为匹配样本文本,将上述用户未点击过的文本设置为非匹配文本。
预设数量个样本词语序列中的样本词语序列可以是对样本文本进行分词得到的词语序列。
此外,上述训练样本获取单元701还可以采用预设数量种不同的分词算法,对样本文本进行分词,得到预设数量个样本词语序列。
应当理解,生成样本词语序列的执行主体可以采用与对样本文本进行分词时所采用的方法相同的方法分别对匹配文本和非匹配文本进行分词,得到预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列。本实施例中的对文本进行分词的方法可以包括但不限于以下至少一种:基于词典的方法、基于统计的方法、基于语义的方法等。
在本实施例中,训练单元702可以从训练样本集合中选取训练样本,以及执行以下训练步骤:(包括步骤7021-步骤7024):
步骤7021,将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值。
具体地,初始模型可以包括各种结构的神经网络,例如Siamese结构的神经网络、LSF-SCNN(Lexical Semantic Feature based Skip Convolution Neural Network,基于词汇语义特征的跳跃卷积神经网络)等。初始模型可以是未经训练的、初始化参数的模型,也可以是训练过的模型。通常,初始模型可以将输入的词语序列包括的词语转换为向量的形式,根据各个向量,可以确定相似度值。通常,相似度值越大,表征两个文本之间的相似程度越高。实践中,相似度值可以根据向量之间的距离(例如欧氏距离、余弦距离等)确定。例如将余弦距离确定为相似度值,或将欧式距离的倒数确定为相似度值。
在本步骤中,输入初始模型的通常为一个训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列。初始模型可以对输入的预设数量个样本词语序列和预设数量个匹配样本词语序列进行诸如向量转换、距离计算等处理,得到第一相似度值。
步骤7022,将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值。
具体地,在本步骤中,输入初始模型的通常为一个训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列。初始模型可以按照与上述步骤7021相同的方法得到第二相似度值。
步骤7023,将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标。
具体地,上述训练单元702可以利用预设的损失函数(例如hinge loss损失函数、square hinge loss损失函数等),对第一相似度值和第二相似度值进行比较,使用上述损失函数可以计算得到损失值,如果损失值满足预设条件(例如损失值小于等于预设的数值或者损失值不再减小),则确定初始模型达到优化目标。
步骤7024,响应于确定达到优化目标,确定初始模型为文本匹配模型。
在本实施例的一些可选的实现方式中,训练样本获取单元701可以包括:获取模块,被配置成获取样本文本,以及与所获取的样本文本匹配的匹配文本和与所获取的样本文本不匹配的非匹配文本;分词模块,被配置成对所获取的样本文本、匹配文本和非匹配文本分别按照预设数量种分词粒度进行分词,得到样本文本对应的预设数量个样本词语序列,匹配文本对应的预设数量个匹配样本词语序列,非匹配文本对应的预设数量个非匹配样本词语序列;确定模块,被配置成确定所得到的预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列分别对应的词语对齐信息,其中,词语对齐信息用于表征不同的分词粒度对应的词语序列中的词语的对应关系。
在本实施例的一些可选的实现方式中,初始模型可以包括向量对齐子模型、相似度矩阵生成层、卷积神经网络;以及训练单元702可以包括:第一生成模块(图中未示出),被配置成将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的匹配样本词语序列对应的匹配样本对齐后词向量序列,其中,向量对齐子模型用于确定输入的词语序列包括的词语的词向量,以及基于词语序列对应的词语对齐信息,对输入的词语序列对应的词向量序列进行向量对齐,得到输入的词语序列对应的对齐后词向量序列;将所得到的样本对齐后词向量序列和匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第一相似度值;第二生成模块(图中未示出),被配置成将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的非匹配样本词语序列对应的非匹配样本对齐后词向量序列;将所得到的样本对齐后词向量序列和非匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第二相似度值。
在本实施例的一些可选的实现方式中,卷积神经网络包括至少一个卷积子网络和相似度值生成层,卷积子网络用于对输入的相似度矩阵进行卷积运算,生成子相似度值,相似度值生成层用于基于子相似度值生成相似度值。
在本实施例的一些可选的实现方式中,至少一个卷积子网络包括邻近度卷积子网络,邻近度卷积子网络包括邻近度卷积核,邻近度卷积核包括权值,权值用于表征匹配用文本中的、与样本词语序列包括的词语匹配的词语在匹配用文本中所处的位置之间的距离对确定相似度值的影响程度。
在本实施例的一些可选的实现方式中,相似度矩阵生成层包括词语权重生成层,词语权重生成层用于确定预先指定的分词粒度对应的样本词语序列中的样本词语在样本词语序列指示的文本中的权重,相似度矩阵生成层用于利用词语权重生成层生成的权重和已生成的相似度矩阵,生成加权后的相似度矩阵。
在本实施例的一些可选的实现方式中,上述装置700还可以包括:选择单元(图中未示出),被配置成响应于确定未达到优化目标,调整初始模型的参数,以及从训练样本集合中的、未被选择过的训练样本中,重新选取训练样本,利用重新选择的训练样本和最近一次调整参数的初始模型,继续执行训练步骤。
本公开的上述实施例提供的装置700,通过获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列,然后从训练样本集合中选取至少一个训练样本,利用选取的训练样本和初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值和用于表征输入的样本词语序列指示的文本与非匹配样本词语序列指示的文本的相似程度的第二相似度值,根据第一相似度值和第二相似度值的比较结果对初始模型进行训练,得到文本匹配模型,从而实现了使用同一文本对应的预设数量个词语序列进行模型训练,使得所得到的文本匹配模型可以更全面地针对同一文本对应的预设数量个词语序列进行处理,从而更准确地确定两个文本之间的相似度,有助于提高文本匹配的准确性。
进一步参考图8,作为对上述图6所示方法的实现,本公开提供了一种用于输出文本的装置的一个实施例,该装置实施例与图6所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图8所示,本实施例的用于输出文本的装置800包括:文本获取单元801,被配置成获取目标文本和待匹配文本集合,其中,目标文本是用户输入的文本;分词单元802,被配置成对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;匹配单元803,被配置成对于待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值,其中,文本匹配模型是根据上述第一方面中任一实施例描述的方法生成的;输出单元804,被配置成基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
在本实施例中,文本获取单元801可以通过有线连接方式或者无线连接方式从远程,或从本地获取目标文本和待匹配文本集合。其中,目标文本是用户输入的文本。通常,目标文本可以是用于搜索信息的文本,例如,目标文本可以是用户在上述装置800的屏幕上显示的搜索栏中输入的文本。待匹配文本集合可以是预先存储在上述装置800中的文本集合,或预先存储在与上述装置800通信连接的电子设备上的文本集合。
在本实施例中,分词单元802可以对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列。
其中,分词粒度用于表征对文本进行分词时,词语包括的文字的数量。通常,分词粒度大,单个词语包括的文字多,分词粒度小,单个词语包括的文字少。例如,采用大粒度分词后得到的词语包括“男朋友”,采用小粒度分词后得到的词语包括“男”和“朋友”。需要说明的是,使用不同的分词粒度对文本进行分词的方法是本领域的公知技术,这里不再赘述。
在本实施例中,对于待匹配文本集合中的待匹配文本,上述匹配单元803可以将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值。其中,文本匹配模型是根据上述图2对应实施例描述的方法生成的。
在本实施例中,输出单元804可以基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
通常,上述输出单元804可以按照相似度值由大到小的顺序,从待匹配文本集合中选择待匹配文本。然后,将选择的待匹配文本按照各种方式输出。例如,当上述装置800设置在如图1所示的服务器中时,装置800可以将选择的待匹配文本按照相似度值由大到小的顺序,发送到如图1所示的终端设备上,以使所选择的待匹配文本显示在终端设备的屏幕上。
在本实施例的一些可选的实现方式中,分词单元802可以包括:分词模块(图中未示出),被配置成对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词,得到目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;确定模块(图中未示出),被配置成确定预设数量个目标词语序列,和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列分别对应的词语对齐信息,以使文本匹配模型利用词语对齐信息生成相似度值。
在本实施例的一些可选的实现方式中,输出单元804可以包括:选择模块(图中未示出),被配置成基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本;显示模块(图中未示出),被配置成将所选择的待匹配文本显示在目标显示屏上。
本公开的上述实施例提供的装置800,通过获取目标文本和待匹配文本集合,对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列,再将待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征待匹配文本与目标文本之间的相似程度的相似度值,最后基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出,从而有效地利用文本匹配模型,提高确定文本之间的相似度值的准确性,以及有针对性地输出与目标文本匹配的文本,有利于节约用于展示与目标文本匹配的文本的电子设备的硬件资源。
下面参考图9,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器或终端设备)900的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图9示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900可以包括处理装置(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储装置908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。处理装置901、ROM 902以及RAM903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置907;包括例如内存等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图9示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图9中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被处理装置901执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开的实施例中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;从训练样本集合中选取训练样本,以及执行以下训练步骤:将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;响应于确定达到优化目标,确定初始模型为文本匹配模型。
此外,当上述一个或者多个程序被该电子设备执行时,还可以使得该电子设备:获取目标文本和待匹配文本集合,其中,目标文本是用户输入的文本;对目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;对于待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与目标文本之间的相似程度的相似度值;基于所得到的相似度值的大小,从待匹配文本集合中选择待匹配文本及输出。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括训练样本获取单元和训练单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,训练样本获取单元还可以被描述为“获取训练样本集合的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (14)

1.一种用于生成文本匹配模型的方法,包括:
获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;
从所述训练样本集合中选取训练样本,以及执行以下训练步骤:
将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;
将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;
将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;
响应于确定达到优化目标,确定初始模型为文本匹配模型。
2.根据权利要求1所述的方法,其中,所述获取训练样本集合,包括:
获取样本文本,以及与所获取的样本文本匹配的匹配文本和与所获取的样本文本不匹配的非匹配文本;
对所获取的样本文本、匹配文本和非匹配文本分别按照预设数量种分词粒度进行分词,得到样本文本对应的预设数量个样本词语序列,匹配文本对应的预设数量个匹配样本词语序列,非匹配文本对应的预设数量个非匹配样本词语序列;
确定所得到的预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列分别对应的词语对齐信息,其中,词语对齐信息用于表征针对同一文本的不同的分词粒度对应的词语序列中的词语的对应关系。
3.根据权利要求2所述的方法,其中,初始模型包括向量对齐子模型、相似度矩阵生成层、卷积神经网络;以及
所述得到第一相似度值以及得到第二相似度值,包括:
将所选取的训练样本包括的样本词语序列和匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的匹配样本词语序列对应的匹配样本对齐后词向量序列,其中,向量对齐子模型用于确定输入的词语序列包括的词语的词向量,以及基于词语序列对应的词语对齐信息,对输入的词语序列对应的词向量序列进行向量对齐,得到输入的词语序列对应的对齐后词向量序列;将所得到的样本对齐后词向量序列和匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第一相似度值;
将所选取的训练样本包括的样本词语序列和非匹配样本词语序列输入向量对齐子模型,得到输入的样本词语序列对应的样本对齐后词向量序列和输入的非匹配样本词语序列对应的非匹配样本对齐后词向量序列;将所得到的样本对齐后词向量序列和非匹配样本对齐后词向量序列输入相似度矩阵生成层,得到相似度矩阵;将所得到的相似度矩阵输入卷积神经网络,得到第二相似度值。
4.根据权利要求3所述的方法,其中,卷积神经网络包括至少一个卷积子网络和相似度值生成层,卷积子网络用于对输入的相似度矩阵进行卷积运算,生成子相似度值,相似度值生成层用于基于子相似度值生成相似度值。
5.根据权利要求4所述的方法,其中,至少一个卷积子网络包括邻近度卷积子网络,邻近度卷积子网络包括邻近度卷积核,邻近度卷积核包括权值,权值用于表征匹配用文本中的、与样本词语序列包括的词语匹配的词语在匹配用文本中所处的位置之间的距离对确定相似度值的影响程度。
6.根据权利要求3所述的方法,其中,相似度矩阵生成层包括词语权重生成层,词语权重生成层用于确定预先指定的分词粒度对应的样本词语序列中的样本词语在样本词语序列指示的文本中的权重,相似度矩阵生成层用于利用词语权重生成层生成的权重和已生成的相似度矩阵,生成加权后的相似度矩阵。
7.根据权利要求1-6之一所述的方法,其中,所述方法还包括:
响应于确定未达到优化目标,调整初始模型的参数,以及从所述训练样本集合中的、未被选择过的训练样本中,重新选取训练样本,利用重新选择的训练样本和最近一次调整参数的初始模型,继续执行所述训练步骤。
8.一种用于输出文本的方法,包括:
获取目标文本和待匹配文本集合,其中,所述目标文本是用户输入的文本;
对所述目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成所述目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;
对于所述待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和所述预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与所述目标文本之间的相似程度的相似度值,其中,所述文本匹配模型是根据权利要求1-7之一所述的方法生成的;
基于所得到的相似度值的大小,从所述待匹配文本集合中选择待匹配文本及输出。
9.根据权利要求8所述的方法,其中,所述分词处理包括:
对所述目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词,得到所述目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;
确定所述预设数量个目标词语序列,和所述待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列分别对应的词语对齐信息,以使所述文本匹配模型利用词语对齐信息生成相似度值。
10.根据权利要求8或9所述的方法,其中,所述基于所得到的相似度值的大小,从所述待匹配文本集合中选择待匹配文本及输出,包括:
基于所得到的相似度值的大小,从所述待匹配文本集合中选择待匹配文本;
将所选择的待匹配文本显示在目标显示屏上。
11.一种用于生成文本匹配模型的装置,包括:
训练样本获取单元,被配置成获取训练样本集合,其中,训练样本包括预设数量个样本词语序列、预设数量个匹配样本词语序列、预设数量个非匹配样本词语序列;
训练单元,被配置成从所述训练样本集合中选取训练样本,以及执行以下训练步骤:
将所选取的训练样本包括的预设数量个样本词语序列和预设数量个匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个匹配样本词语序列指示的文本的相似程度的第一相似度值;
将所选取的训练样本包括的预设数量个样本词语序列和预设数量个非匹配样本词语序列输入初始模型,得到用于表征输入的预设数量个样本词语序列指示的文本与预设数量个非匹配样本词语序列指示的文本的相似程度的第二相似度值;
将第一相似度值和第二相似度值进行比较,根据比较结果确定初始模型是否达到预设的优化目标;
响应于确定达到优化目标,确定初始模型为文本匹配模型。
12.一种用于输出文本的装置,包括:
文本获取单元,被配置成获取目标文本和待匹配文本集合,其中,所述目标文本是用户输入的文本;
分词单元,被配置成对所述目标文本和待匹配文本集合中的待匹配文本分别按照预设数量种分词粒度进行分词处理,生成所述目标文本对应的预设数量个目标词语序列和待匹配文本集合中的待匹配文本对应的预设数量个待匹配词语序列;
匹配单元,被配置成对于所述待匹配文本集合中的待匹配文本,将该待匹配文本对应的预设数量个待匹配词语序列和所述预设数量个目标词语序列输入预先训练的文本匹配模型,得到用于表征该待匹配文本与所述目标文本之间的相似程度的相似度值,其中,所述文本匹配模型是根据权利要求1-7之一所述的方法生成的;
输出单元,被配置成基于所得到的相似度值的大小,从所述待匹配文本集合中选择待匹配文本及输出。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
CN201910184893.2A 2019-03-12 2019-03-12 用于生成文本匹配模型的方法和装置 Active CN109947919B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910184893.2A CN109947919B (zh) 2019-03-12 2019-03-12 用于生成文本匹配模型的方法和装置
PCT/CN2020/078584 WO2020182122A1 (zh) 2019-03-12 2020-03-10 用于生成文本匹配模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910184893.2A CN109947919B (zh) 2019-03-12 2019-03-12 用于生成文本匹配模型的方法和装置

Publications (2)

Publication Number Publication Date
CN109947919A true CN109947919A (zh) 2019-06-28
CN109947919B CN109947919B (zh) 2020-05-15

Family

ID=67009743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910184893.2A Active CN109947919B (zh) 2019-03-12 2019-03-12 用于生成文本匹配模型的方法和装置

Country Status (2)

Country Link
CN (1) CN109947919B (zh)
WO (1) WO2020182122A1 (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633360A (zh) * 2019-09-16 2019-12-31 腾讯科技(深圳)有限公司 一种语义匹配的方法以及相关装置
CN110795913A (zh) * 2019-09-30 2020-02-14 北京大米科技有限公司 一种文本编码方法、装置、存储介质及终端
CN111225227A (zh) * 2020-01-03 2020-06-02 网易(杭州)网络有限公司 弹幕的发布方法、模型生成方法及装置
CN111291563A (zh) * 2020-01-20 2020-06-16 腾讯科技(深圳)有限公司 词向量对齐方法和词向量对齐模型训练方法
CN111310478A (zh) * 2020-03-18 2020-06-19 电子科技大学 一种基于tf-idf和词向量的相似句子检测方法
WO2020182122A1 (zh) * 2019-03-12 2020-09-17 北京字节跳动网络技术有限公司 用于生成文本匹配模型的方法和装置
CN111783424A (zh) * 2020-06-17 2020-10-16 泰康保险集团股份有限公司 一种文本分句方法和装置
CN111897951A (zh) * 2020-07-29 2020-11-06 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111897950A (zh) * 2020-07-29 2020-11-06 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111950272A (zh) * 2020-06-23 2020-11-17 北京百度网讯科技有限公司 文本相似度的生成方法、装置及电子设备
CN111984814A (zh) * 2020-08-10 2020-11-24 广联达科技股份有限公司 一种建筑图纸中的箍筋匹配方法和装置
CN112446405A (zh) * 2019-09-04 2021-03-05 杭州九阳小家电有限公司 一种家电客服的用户意图引导方法及智能家电
CN112668664A (zh) * 2021-01-06 2021-04-16 安徽迪科数金科技有限公司 一种基于智能语音的话术训练方法
CN112765960A (zh) * 2021-02-07 2021-05-07 成都新潮传媒集团有限公司 一种文本匹配方法、装置及计算机设备
CN113221550A (zh) * 2020-02-06 2021-08-06 百度在线网络技术(北京)有限公司 文本过滤方法、装置、设备和介质
CN113283351A (zh) * 2021-05-31 2021-08-20 深圳神目信息技术有限公司 一种使用cnn优化相似度矩阵的视频抄袭检测方法
CN114282592A (zh) * 2021-11-15 2022-04-05 清华大学 一种基于深度学习的行业文本匹配模型方法及装置
CN115238049A (zh) * 2022-06-17 2022-10-25 北京优酷科技有限公司 剧本标注方法及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104424279A (zh) * 2013-08-30 2015-03-18 腾讯科技(深圳)有限公司 一种文本的相关性计算方法和装置
CN104715063A (zh) * 2015-03-31 2015-06-17 百度在线网络技术(北京)有限公司 搜索排序方法和装置
CN106897403A (zh) * 2017-02-14 2017-06-27 中国科学院电子学研究所 面向知识图谱构建的细粒度中文属性对齐方法
CN107239574A (zh) * 2017-06-29 2017-10-10 北京神州泰岳软件股份有限公司 一种智能问答系统知识‑问题匹配的方法及装置
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
US9852648B2 (en) * 2015-07-10 2017-12-26 Fujitsu Limited Extraction of knowledge points and relations from learning materials
CN108509407A (zh) * 2017-02-27 2018-09-07 广东神马搜索科技有限公司 文本语义相似度计算方法、装置及用户终端
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109947919B (zh) * 2019-03-12 2020-05-15 北京字节跳动网络技术有限公司 用于生成文本匹配模型的方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104424279A (zh) * 2013-08-30 2015-03-18 腾讯科技(深圳)有限公司 一种文本的相关性计算方法和装置
CN104715063A (zh) * 2015-03-31 2015-06-17 百度在线网络技术(北京)有限公司 搜索排序方法和装置
US9852648B2 (en) * 2015-07-10 2017-12-26 Fujitsu Limited Extraction of knowledge points and relations from learning materials
CN106897403A (zh) * 2017-02-14 2017-06-27 中国科学院电子学研究所 面向知识图谱构建的细粒度中文属性对齐方法
CN108509407A (zh) * 2017-02-27 2018-09-07 广东神马搜索科技有限公司 文本语义相似度计算方法、装置及用户终端
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
CN107239574A (zh) * 2017-06-29 2017-10-10 北京神州泰岳软件股份有限公司 一种智能问答系统知识‑问题匹配的方法及装置
CN109299262A (zh) * 2018-10-09 2019-02-01 中山大学 一种融合多粒度信息的文本蕴含关系识别方法

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020182122A1 (zh) * 2019-03-12 2020-09-17 北京字节跳动网络技术有限公司 用于生成文本匹配模型的方法和装置
CN112446405A (zh) * 2019-09-04 2021-03-05 杭州九阳小家电有限公司 一种家电客服的用户意图引导方法及智能家电
CN110633360B (zh) * 2019-09-16 2023-06-20 腾讯科技(上海)有限公司 一种语义匹配的方法以及相关装置
CN110633360A (zh) * 2019-09-16 2019-12-31 腾讯科技(深圳)有限公司 一种语义匹配的方法以及相关装置
CN110795913A (zh) * 2019-09-30 2020-02-14 北京大米科技有限公司 一种文本编码方法、装置、存储介质及终端
CN110795913B (zh) * 2019-09-30 2024-04-12 北京大米科技有限公司 一种文本编码方法、装置、存储介质及终端
CN111225227A (zh) * 2020-01-03 2020-06-02 网易(杭州)网络有限公司 弹幕的发布方法、模型生成方法及装置
CN111291563A (zh) * 2020-01-20 2020-06-16 腾讯科技(深圳)有限公司 词向量对齐方法和词向量对齐模型训练方法
CN111291563B (zh) * 2020-01-20 2023-09-01 腾讯科技(深圳)有限公司 词向量对齐方法和词向量对齐模型训练方法
CN113221550B (zh) * 2020-02-06 2023-09-29 百度在线网络技术(北京)有限公司 文本过滤方法、装置、设备和介质
CN113221550A (zh) * 2020-02-06 2021-08-06 百度在线网络技术(北京)有限公司 文本过滤方法、装置、设备和介质
CN111310478B (zh) * 2020-03-18 2023-09-19 电子科技大学 一种基于tf-idf和词向量的相似句子检测方法
CN111310478A (zh) * 2020-03-18 2020-06-19 电子科技大学 一种基于tf-idf和词向量的相似句子检测方法
CN111783424B (zh) * 2020-06-17 2024-02-13 泰康保险集团股份有限公司 一种文本分句方法和装置
CN111783424A (zh) * 2020-06-17 2020-10-16 泰康保险集团股份有限公司 一种文本分句方法和装置
CN111950272A (zh) * 2020-06-23 2020-11-17 北京百度网讯科技有限公司 文本相似度的生成方法、装置及电子设备
CN111950272B (zh) * 2020-06-23 2023-06-27 北京百度网讯科技有限公司 文本相似度的生成方法、装置及电子设备
CN111897951A (zh) * 2020-07-29 2020-11-06 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111897950A (zh) * 2020-07-29 2020-11-06 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111984814A (zh) * 2020-08-10 2020-11-24 广联达科技股份有限公司 一种建筑图纸中的箍筋匹配方法和装置
CN111984814B (zh) * 2020-08-10 2024-04-12 广联达科技股份有限公司 一种建筑图纸中的箍筋匹配方法和装置
CN112668664B (zh) * 2021-01-06 2022-11-15 安徽迪科数金科技有限公司 一种基于智能语音的话术训练方法
CN112668664A (zh) * 2021-01-06 2021-04-16 安徽迪科数金科技有限公司 一种基于智能语音的话术训练方法
CN112765960A (zh) * 2021-02-07 2021-05-07 成都新潮传媒集团有限公司 一种文本匹配方法、装置及计算机设备
CN113283351A (zh) * 2021-05-31 2021-08-20 深圳神目信息技术有限公司 一种使用cnn优化相似度矩阵的视频抄袭检测方法
CN113283351B (zh) * 2021-05-31 2024-02-06 深圳神目信息技术有限公司 一种使用cnn优化相似度矩阵的视频抄袭检测方法
CN114282592A (zh) * 2021-11-15 2022-04-05 清华大学 一种基于深度学习的行业文本匹配模型方法及装置
CN115238049A (zh) * 2022-06-17 2022-10-25 北京优酷科技有限公司 剧本标注方法及电子设备
CN115238049B (zh) * 2022-06-17 2023-08-04 北京优酷科技有限公司 剧本标注方法及电子设备

Also Published As

Publication number Publication date
CN109947919B (zh) 2020-05-15
WO2020182122A1 (zh) 2020-09-17

Similar Documents

Publication Publication Date Title
CN109947919A (zh) 用于生成文本匹配模型的方法和装置
CN109086303A (zh) 基于机器阅读理解的智能对话方法、装置、终端
CN109902186A (zh) 用于生成神经网络的方法和装置
CN110941698B (zh) 一种基于bert下卷积神经网络的服务发现方法
CN110096655A (zh) 搜索结果的排序方法、装置、设备及存储介质
CN108733703A (zh) 问答系统的答案预测方法及装置、电子设备、存储介质
JP2023520483A (ja) 検索コンテンツ表示方法、装置、電子機器及び記憶媒体
CN106354856B (zh) 基于人工智能的深度神经网络强化搜索方法和装置
CN111813910A (zh) 客服问题的更新方法、系统、终端设备及计算机存储介质
CN110059172A (zh) 基于自然语言理解的推荐答案的方法和装置
CN109829164A (zh) 用于生成文本的方法和装置
CN109858045A (zh) 机器翻译方法和装置
CN110162675A (zh) 应答语句的生成方法、装置、计算机可读介质及电子设备
JP7504192B2 (ja) 画像を検索するための方法及び装置
US20220391425A1 (en) Method and apparatus for processing information
JP2019500704A (ja) 人工知能ベースの関連度計算を用いたノート提供方法及び装置
CN109190123A (zh) 用于输出信息的方法和装置
CN109819002A (zh) 数据推送方法和装置、存储介质及电子装置
CN111444321B (zh) 问答方法、装置、电子设备和存储介质
CN109829117A (zh) 用于推送信息的方法和装置
CN106651410A (zh) 一种应用管理方法及装置
CN115203378B (zh) 基于预训练语言模型的检索增强方法、系统及存储介质
CN116975221A (zh) 文本阅读理解方法、装置、设备及存储介质
CN107222383B (zh) 一种对话管理方法和系统
US11947912B1 (en) Natural language processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

CP01 Change in the name or title of a patent holder