CN110969024A - 一种查询语句的改写方法及装置 - Google Patents

一种查询语句的改写方法及装置 Download PDF

Info

Publication number
CN110969024A
CN110969024A CN201811163273.2A CN201811163273A CN110969024A CN 110969024 A CN110969024 A CN 110969024A CN 201811163273 A CN201811163273 A CN 201811163273A CN 110969024 A CN110969024 A CN 110969024A
Authority
CN
China
Prior art keywords
keyword
model
query statement
rewriting
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811163273.2A
Other languages
English (en)
Inventor
王浩
庞旭林
张晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qihoo Technology Co Ltd
Original Assignee
Beijing Qihoo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qihoo Technology Co Ltd filed Critical Beijing Qihoo Technology Co Ltd
Priority to CN201811163273.2A priority Critical patent/CN110969024A/zh
Publication of CN110969024A publication Critical patent/CN110969024A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供了一种查询语句的改写方法及装置,所述方法包括:获取用户基于搜索引擎输入的初始查询语句,并将所述初始查询语句进行分词以获取所述初始查询语句包括的词语;将所述初始查询语句中的各词语分别表示为与各词语对应的词向量;调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词;其中,所述改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。基于本发明提供的方法可结合生成式和抽取式的优点,将用户在搜索引擎中输入的初始查询语句改写为更加准确且简洁的关键词查询,可以在节省用户搜索时间的同时进一步提升用户体验。

Description

一种查询语句的改写方法及装置
技术领域
本发明涉及自然语言处理技术领域,特别是涉及一种查询语句的改写方法及装置。
背景技术
随着搜索引擎的不断发展和智能手机的普及,用户通常会通过安装于智能手机中的搜索软件实现各种信息的搜索。但是,用户提交至搜索引擎的查询可能是口语化描述的自然语言查询,这会给搜索引擎带来不小的挑战。因为通常的搜索引擎更适用于输入由精准关键词组成的查询,由自然语言描述的查询会导致较差的返回结果,降低查询准确性。
发明内容
本发明提供了一种查询语句的改写方法及装置以克服上述问题或者至少部分地解决上述问题。
根据本发明的一个方面,提供了一种查询语句的改写方法,包括:
获取用户基于搜索引擎输入的初始查询语句,并将所述初始查询语句进行分词以获取所述初始查询语句包括的词语;
将所述初始查询语句中的各词语分别表示为与各词语对应的词向量;
调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词;其中,所述改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
可选地,所述改写模型为编码器-解码器结构的网络模型;
所述调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词,包括:
调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型,基于所述改写模型中的编码器对接收到的各词向量进行编码,并将所述各词向量分别表示为输入隐向量;
将所述输入隐向量输入所述改写模型中的解码器进行解码,生成并输出与所述初始查询语句的语义相似的至少一个查询关键词。
可选地,将所述输入隐向量输入所述改写模型中的解码器进行解码,生成并输出与所述初始查询语句的语义相似的至少一个查询关键词,包括:
将所述输入隐向量输入所述改写模型中的解码器进行解码;
分别在预设的词汇表和所述初始查询语句中选取至少一个生成式关键词和抽取式关键词;其中,所述预设的词汇表由所述训练数据集构建而成;
对所述生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与所述初始查询语句的语义相似的查询关键词后输出。
可选地,所述分别基于预设词汇和所述初始查询语句中选取至少一个生成式关键词和抽取式关键词,包括:
通过注意力机制计算所述词汇表中各词语的分布概率,并依据所述各词语分布概率选取至少一个生成式关键词;
通过注意力矩阵计算所述初始查询语句中各词语的权重,并依据所述各词语的权重选取至少一个抽取式关键词。
可选地,所述通过注意力机制计算所述词汇表中各词语的分布概率,并依据所述各词语分布概率选取至少一个生成式关键词,包括:
通过score方法衡量所述初始查询语句中各词语的权重并计算其加权和计算得到上下文向量;
将所述上下文向量与当前时刻目标隐向量结合通过两层全连接层得到所述词汇表中各词语的分布概率;其中,所述目标隐向量为解码器在t时刻的隐含层变量;
在所述词汇表中预测并输出至少一个生成式关键词;
利用coverage机制辅助所述解码器输出不重复的生成式关键词。
可选地,所述通过score方法衡量所述初始查询语句中各词语的权重并计算其加权和计算得到上下文向量,包括:
增加coverage向量covt,并设定cov0为全零矩阵;其中,t表示t时刻;
通过函数score计算目标隐向量和输入隐向量的相似度
Figure BDA0001820467500000021
其中,
Figure BDA0001820467500000022
计算公式如下:
Figure BDA0001820467500000023
v、W1、W2、Wc和batten为所述查询改写模型的训练参数,
Figure BDA0001820467500000024
表示t时刻的coverage向量,ht表示目标隐向量,
Figure BDA0001820467500000031
表示输入隐向量;
Figure BDA0001820467500000032
进行归一化处理,得到注意力权重at,at=softmax(et);
在时刻t,维护coverage矩阵covt记录所述初始查询语句中各词语的覆盖程度,
Figure BDA0001820467500000033
通过注意力权重at对所述输入隐向量加权求和得到t时刻的上下文向量,
Figure BDA0001820467500000034
可选地,所述在所述词汇表中预测并输出至少一个生成式关键词,包括:
利用以下公式在所述词汇表中预测并输出至少一个生成式关键词:
Figure BDA0001820467500000035
其中,yt表示当前输出的生成式关键词,C表示上下文向量;
p(yt|{y1,...,yt-1},C)表示在先的生成式关键词{y1,...,yt-1}和上下文向量C的前提下yt的条件概率。
可选地,所述将所述上下文向量与当前时刻目标隐向量结合通过两层全连接层得到所述词汇表中各词语的分布概率,包括:
利用以下公式计算所述词汇表中各词语的分布概率:
Pvocab=f(ct,ht)=softmax(V'(V[ht,Ct]+b)+b')
其中,V、V'、b、b'为所述查询改写模型的训练参数,Pvocab表示所述词汇表中词语的分布概率,ht表示目标隐向量,Ct表示t时刻的上下文向量。
可选地,所述通过注意力矩阵计算所述初始查询语句中各词语的权重,并依据所述各词语的权重选取至少一个抽取式关键词,包括:
基于TF-IDF词频-逆文件频率和注意力权重计算所述初始查询语句中各词语的权重;其中,所述TF-IDF和注意力权重at的比例通过第一调节因子pw调节;
依据所述初始查询语句中各词语的权重在所述各词语中选择至少一个词语作为抽取式关键词后输出。
可选地,所述基于TF-IDF词频-逆文件频率和注意力权重计算所述初始查询语句中各词语的权重,包括:
通过以下公式计算所述初始查询语句中各词语的权重:
Figure BDA0001820467500000036
Figure BDA0001820467500000041
其中,fw表示词语w在所述初始查询语句中出现的次数,N表示由用于的查询记录构建而成的语料库中所有查询语句出现的次数,|w|表示所述语料库中包含词语w的查询语句的个数,at表示注意力权重,通过对目标隐向量和输入隐向量的相似度进行归一化获得。
可选地,所述对所述生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与所述初始查询语句的语义相似的查询关键词后输出,包括:
获取生成式关键词和抽取式关键词中的各关键词;
结合所述初始查询语句中各词语的权重和所述词汇表中各词语的分布概率,计算所述各关键词的综合权重;
基于所述各词语综合权重在所述各关键词中选取多个关键词作为查询关键词。
可选地,所述结合所述初始查询语句中各词语的权重和所述词汇表中各词语的分布概率,计算所述各关键词的综合权重,包括:
利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算所述各关键词的综合权重。
可选地,所述第二调节因子的计算公式如下:
Figure BDA0001820467500000042
其中,wh、ws、wx和d表示训练参数,Ct表示上下文向量,ht表示目标隐向量,hs表示输入隐向量,xt表示所述初始查询语句中的词语,σ表示sigmoid函数,pgen表示第二调节因子。
可选地,所述利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算所述各关键词的综合权重,包括:
利用以下公式计算各关键词的综合权重:
P(w)=pgenPvocab(w)+(1-pgen)Pextract(w)
其中,P(w)表示关键词的综合权重,Pvocab(w)表示关键词在所述词汇表中的分布概率,Pextract(w)表示关键词在所述初始查询语句中的权重。
可选地,所述基于所述各词语综合权重在所述各关键词中选取多个关键词作为查询关键词,包括:
基于所述各关键词的综合权重依次排序生成关键词列表,在所述关键词列表中选取多个关键词作为查询关键词。
根据本发明的另一个方面,还提供了一种查询语句的改写装置,包括:
获取模块,配置为获取用户基于搜索引擎输入的初始查询语句,并将所述初始查询语句进行分词以获取所述初始查询语句包括的词语;
向量表示模块,配置为将所述初始查询语句中的各词语分别表示为与各词语对应的词向量;
改写模块,配置为调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词;其中,所述改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
可选地,所述改写模型为编码器-解码器结构的网络模型;所述改写模块包括:
编码单元,配置为调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型,基于所述改写模型中的编码器对接收到的各词向量进行编码,并将所述各词向量分别表示为输入隐向量;
解码单元,配置为将所述输入隐向量输入所述改写模型中的解码器进行解码,生成并输出与所述初始查询语句的语义相似的至少一个查询关键词。
可选地,所述解码单元还配置为:
将所述输入隐向量输入所述改写模型中的解码器进行解码;
分别在预设的词汇表和所述初始查询语句中选取至少一个生成式关键词和抽取式关键词;其中,所述预设的词汇表由所述训练数据集构建而成;
对所述生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与所述初始查询语句的语义相似的查询关键词后输出。
可选地,所述解码单元还配置为:
通过注意力机制计算所述词汇表中各词语的分布概率,并依据所述各词语分布概率选取至少一个生成式关键词;
通过注意力矩阵计算所述初始查询语句中各词语的权重,并依据所述各词语的权重选取至少一个抽取式关键词。
可选地,所述解码单元还配置为:
通过score方法衡量所述初始查询语句中各词语的权重并计算其加权和计算得到上下文向量;
将所述上下文向量与当前时刻目标隐向量结合通过两层全连接层得到所述词汇表中各词语的分布概率;其中,所述目标隐向量为解码器在t时刻的隐含层变量;
在所述词汇表中预测并输出至少一个生成式关键词;
利用coverage机制辅助所述解码器输出不重复的生生成式关键词。
可选地,所述解码单元还配置为:
增加coverage向量covt,并设定cov0为全零矩阵;其中,t表示t时刻;
通过函数score计算目标隐向量和输入隐向量的相似度
Figure BDA0001820467500000061
其中,
Figure BDA0001820467500000062
计算公式如下:
Figure BDA0001820467500000063
v、W1、W2、Wc和batten为所述查询改写模型的训练参数,
Figure BDA0001820467500000064
表示t时刻的coverage向量,ht表示目标隐向量,
Figure BDA0001820467500000065
表示输入隐向量;
Figure BDA0001820467500000066
进行归一化处理,得到注意力权重at,at=softmax(et);
在时刻t,维护coverage矩阵covt记录所述初始查询语句中各词语的覆盖程度,
Figure BDA0001820467500000067
通过注意力权重at对所述输入隐向量加权求和得到t时刻的上下文向量,
Figure BDA0001820467500000068
可选地,所述解码单元还配置为:
利用以下公式在所述词汇表中预测并输出至少一个生成式关键词:
Figure BDA0001820467500000069
其中,yt表示当前输出的生成式关键词,C表示上下文向量;
p(yt|{y1,...,yt-1},C)表示在先的生成式关键词{y1,...,yt-1}和上下文向量C的前提下yt的条件概率。
可选地,所述解码单元还配置为:
利用以下公式计算所述词汇表中各词语的分布概率:
Pvocab=f(ct,ht)=softmax(V'(V[ht,Ct]+b)+b')
其中,V、V'、b、b'为所述查询改写模型的训练参数,Pvocab表示所述词汇表中词语的分布概率,ht表示目标隐向量,Ct表示t时刻的上下文向量。
可选地,所述解码单元还配置为:
基于TF-IDF词频-逆文件频率和注意力权重计算所述初始查询语句中各词语的权重;其中,所述TF-IDF和注意力权重at的比例通过第一调节因子pw调节;
依据所述初始查询语句中各词语的权重在所述各词语中选择至少一个词语作为抽取式关键词后输出。
可选地,所述解码单元还配置为:
通过以下公式计算所述初始查询语句中各词语的权重:
Figure BDA0001820467500000071
Figure BDA0001820467500000072
其中,fw表示词语w在所述初始查询语句中出现的次数,N表示由用于的查询记录构建而成的语料库中所有查询语句出现的次数,|w|表示所述语料库中包含词语w的查询语句的个数,at表示注意力权重,通过对目标隐向量和输入隐向量的相似度进行归一化获得。
可选地,所述解码单元还配置为:
获取生成式关键词和抽取式关键词中的各关键词;
结合所述初始查询语句中各词语的权重和所述词汇表中各词语的分布概率,计算所述各关键词的综合权重;
基于所述各词语综合权重在所述各关键词中选取多个关键词作为查询关键词。
可选地,所述解码单元还配置为:
利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算所述各关键词的综合权重。
可选地,所述解码单元还配置为还配置为通过公式计算所述第二调节因子:
Figure BDA0001820467500000073
其中,wh、ws、wx和b表示训练参数,Ct表示上下文向量,ht表示目标隐向量,hs表示输入隐向量,xt表示所述初始查询语句中的词语,σ表示sigmoid函数,pgen表示第二调节因子。
可选地,所述解码单元还配置为利用以下公式计算各关键词的综合权重:
P(w)=pgenPvocab(w)+(1-pgen)Pextract(w)
其中,P(w)表示关键词的综合权重,Pvocab(w)表示关键词在所述词汇表中的分布概率,Pextract(w)表示关键词在所述初始查询语句中的权重。
可选地,所述解码单元还配置为:
基于所述各关键词的综合权重依次排序生成关键词列表,在所述关键词列表中选取多个关键词作为查询关键词。
根据本发明的另一个方面,还提供了一种计算机存储介质,所述计算机存储介质存储有计算机程序代码,当所述计算机程序代码在计算设备上运行时,导致所述计算设备执行上述任一项所述的查询语句的改写方法。
根据本发明的另一个方面,还提供了一种计算设备,包括:
处理器;
存储有计算机程序代码的存储器;
当所述计算机程序代码被所述处理器运行时,导致所述计算设备执行上述任一项所述的查询语句的改写方法。
本发明提供了一种对更加高效的查询语句的改写方法及方法,在本发明提供的方法中,当接收到用户基于搜索引擎输入的初始查询语句后,先将查询语句中包括的词语表示为词向量,进而将各词向量输入预先创建的改写模型中,由改写模型输出与出事查询语句语义相似的查询关键词。本发明中的改写模型是基于用户查询记录进行汇总处理后的训练数据集训练获得,因此,可以在不改变其真实意图的前提下返回更适用于搜索引擎的查询,从而使得查询结果更加满足用户期望。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
根据下文结合附图对本发明具体实施例的详细描述,本领域技术人员将会更加明了本发明的上述以及其他目的、优点和特征。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是根据本发明实施例的查询语句的改写方法流程示意图;
图2是根据本发明实施例的改写模型的构建方法;
图3是根据本发明实施例的改写模型结构示意图;
图4是根据本发明实施例的对查询改写前的查询结果示意图;
图5是根据本发明实施例的对查询改写后的查询结果示意图;
图6是根据本发明实施例的改写模型的训练方法流程示意图;
图7是根据本发明实施例的查询语句的改写装置结构示意图;
图8是根据本发明优选实施例的查询语句的改写装置结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
查询语句的改写,即将用户输入的口语化的查询语句通过一系列自然语言处理技术,改写为适用于搜索引擎的关键词,在保留用户原有语义的基础上能使搜索返回更精准的结果。
本发明实施例提供了一种查询语句的改写方法,如图1所示,根据本发明实施例提供的查询语句的改写方法可以包括:
步骤S102,获取用户基于搜索引擎输入的初始查询语句,并将上述初始查询语句进行分词以获取该初始查询语句包括的词语;
步骤S104,将初始查询语句中的各词语分别表示为与各词语对应的词向量;
步骤S106,调用改写模型,将与各词语对应的词向量分别输入改写模型后,基于改写模型生成并输出与上述初始查询语句的语义相似的至少一个查询关键词;其中,改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
本发明实施例提供了一种对更加高效的查询语句的改写方法,当接收到用户基于搜索引擎输入的初始查询语句后,先将查询语句中包括的词语表示为词向量,进而将各词向量输入预先创建的改写模型中,由改写模型输出与出事查询语句语义相似的查询关键词。本发明实施例中的改写模型是基于用户查询记录进行汇总处理后的训练数据集训练获得,因此,可以在不改变其真实意图的前提下返回更适用于搜索引擎的查询,从而使得查询结果更加满足用户期望。
词向量表示是一种既能表示词本身又可以考虑语义距离的表示方法。在本发明优选实施例中,采用Embedding词嵌入方式将各词语表示为词向量。基于神经网络的分布表示又称为词向量、词嵌入,神经网络词向量模型与其它分布表示方法一样,均基于分布假说,核心依然是上下文的表示以及上下文与目标词之间的关系的建模。通过词嵌入将词语表示为词向量,既能够降低维度,又能够捕捉到当前词在文本中上下文的信息(可表现为前后距离的关系),进而提升后续改写的准确性。
可选地,本发明实施例中给查询改写模型是编码器-解码器结构的网络模型,其主要基于sequence-to-sequence模型构建而成。上述步骤S106调用上述改写模型对初始查询语句进行改写时,具体可以包括:
步骤S106-1,调用改写模型,将与各词语对应的词向量分别输入改写模型,基于改写模型中的编码器对接收到的各词向量进行编码,并将各词向量分别表示为输入隐向量;
步骤S106-2,将输入隐向量输入改写模型中的解码器进行解码,生成并输出与初始查询语句的语义相似的至少一个查询关键词。
sequence-to-sequence模型(简写:seq2seq),是一个“编码器-解码器”(Encoder–Decoder)结构的网络,它的输入是一个序列,输出也是一个序列,Encoder编码器中将一个可变长度的信号序列变为固定长度的向量表达,Decoder解码器将这个固定长度的向量变成可变长度的目标的信号序列。
本发明一优选实施例还提供了一种改写模型的构建方法,如图2所示,基于本发明优选实施例提供的改写模型的构建方法可以包括:
步骤S202,构建编码器,在接收到初始查询语句中各词语对应的词向量后,由编码器对各词语对应的词向量进行编码并将各词向量分别表示为输入隐向量;
步骤S204,构建对输入隐向量进行解码的解码器,通过解码器分别基于生成式改写模式和抽取式改写模式获得多个关键词;
步骤S206,计算调节各关键词在生成式改写模式和抽取式改写模式下的权重比例的调节因子,以基于调节因子计算各关键词的综合权重;
步骤S208,结合编码器和解码器,并在解码器中设置调节因子,完成基于编码器-解码器结构的改写模型的构建,由改写模型依据各关键词的综合权重在多个关键词中选取至少一个关键词作为与初始语句的语义相似的查询关键词后输出。
本发明实施例提供的改写模型为主要基于Encoder–Decoder结构,由一个编码器和一个解码器组成。编码器将输入的句子编码成一个向量,然后解码器对此进行解码输出一段序列。基于本发明实施例提供的改写模型可结合抽取式和生成式两种模式生成关键词,并由一个调节因子来调节两者的比例,最终输出与用户输入的初始查询语句语义相似度最高的至少一个关键词,相较于传统的改写模型可以在不改变其真实意图的前提下返回更适用于搜索引擎的查询,从而使得查询结果更加满足用户期望。
在本发明一优选实施例中,在上述步骤S202构建编码器时,可以依据双向LSTM长短期记忆网络构建编码器;在接收到初始查询语句中各词语对应的词向量后,由编码器对各词语对应的词向量进行编码并将各词向量分别表示为输入隐向量。也就是说,用户基于搜索引擎输输入的初始查询语句经过embedding之后会被逐个词语的送入编码器中,并产生一个隐向量。隐向量作为输入句子的一个高级表示,在解码阶段用于新的序列的生成。其中,LSTM(Long Short-Term Memory)是长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
在上述步骤S204中构建解码器时,可依据单向LSTM长短期记忆网络构建解码器,并通过解码器对输入隐向量进行解码;基于预设的词汇表采用生成式改写模式生成至少一个生成式关键词;基于初始查询语句采用抽取式改写模式抽取至少一个抽取式关键词。
在本发明一优选实施例中,解码器通过以下两种方式解码出新的查询语句,分别对应生成模式和抽取模式:
(1)解码器接收输入的词向量表示和解码器的隐向量,计算词汇表中各词语的分布概率,并依据各词语分布概率选取至少一个生成式关键词。
(2)通过注意力矩阵计算初始查询语句中各词语的权重,并依据各词语的权重选取至少一个抽取式关键词。
也就是说,在上述步骤S106-2中,解码器对接收到的输入隐向量及逆行解码并输出查询关键词时可以包括以下步骤:
S1、将输入隐向量输入改写模型中的解码器进行解码;
S2、分别在预设的词汇表和初始查询语句中选取至少一个生成式关键词和抽取式关键词;其中,预设的词汇表由训练数据集构建而成;
S3、对生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与初始查询语句的语义相似的查询关键词后输出。
通常的改写技术分为两大类:抽取式和生成式。抽取式通常使用特定的计算规则计算用户的输入查询语句中每个词的权重,选取权重大的词作为关键词。这种方法简单便捷,但是所有的关键词限制在输入的词集合中,而且倾向于抽取词频高的词,在某些场合下效果较差。生成式的方法通常可以“理解”用户的输入,然后基于用户的意图生成一些关键词。这种方法能生成新的词语,但是生成过程往往不可控,也会生成一些完全错误的词语。以上述的查询语句为例,用户输入“我想知道一个手机X要多少钱”,抽取式的方法会抽取出“手机X”和“多少”。这两个词全部来自于用户的输入查询,不足以概括其意图。生成式的方法会依据训练语料产生不同的结果。例如会生成“手机8”和“价钱”。虽然能生成新的词语,但是模型在生成词语时会根据训练语料制作的词表来计算概率,如果“手机X”不在训练语料中则只能用一个错误的近义词替代。这样的结果会导致搜索页面错误。
基于本发明实施例提供的方法,结合抽取式和生成式对用户输入的初始查询语句进行改写,可以融合抽取式和生成式这两种方法的优点,将用户在搜索引擎中输入的初始查询语句改写为更加准确且简洁的关键词查询,进而得出更满足用户搜索意图的搜索结果,可以在节省用户搜索时间的同时进一步提升用户体验。
在本发明一优选实施例中,上述步骤S2中选取生成式关键词和抽取式关键词时,可以通过注意力机制计算词汇表中各词语的分布概率,并依据各词语分布概率选取至少一个生成式关键词;通过注意力矩阵计算初始查询语句中各词语的权重,并依据各词语的权重选取至少一个抽取式关键词。
在seq2seq的模型结构中,输出每一个词的时候对于输入中词语的关注程度不一致,其权重根据特定规则计算得到。这样可以使得生成的序列更加合理,且能保留输入中的大部分信息。一般在自然语言处理应用里把注意力模型看作是输出句子中某个单词和输入句子每个单词的对齐模型。
本发明一优选实施例中,通过注意力机制计算词汇表中各词语的分布概率,并依据各词语分布概率选取至少一个生成式关键词时,可以包括以下步骤:
S2-1-1,通过score方法衡量初始查询语句中各词语的权重并计算其加权和计算得到上下文向量;
S2-1-2,将上下文向量与当前时刻目标隐向量结合通过两层全连接层得到词汇表中各词语的分布概率;其中,目标隐向量为解码器在t时刻的隐含层变量;全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来;
S2-1-3,在词汇表中预测并输出至少一个生成式关键词;
S2-1-4,利用coverage机制辅助解码器输出不重复的生成式关键词。
本发明优选实施例选取生成式关键词时,参考经典的seq2seq模型,是一个基于注意力机制的“编码器-解码器”结构。当用户输入一个查询x={x1,...,xn}(xi表示输入句子的第i个词语)后,其目标是将此查询转换为语义相似的关键词查询y={y1,...,ym}(yi表示输出的第i个词语)。查询的每一个词依次被送入“编码器”中,然后“解码器”接收先前生成的词语和一个上下文向量预测下一词yt
上述步骤S2-1-1中通过score方法衡量初始查询语句中各词语的权重并计算其加权和计算得到上下文向量中,具体方法可以如下:
(1)增加coverage向量covt,并设定cov0为全零矩阵;其中,t表示t时刻;
在基于注意力机制的seq2seq模型中,由解码器生成的词语有时会由于一些特殊的词语触发循环,使得生成的句子中包含重复的词语。这时需要coverage机制来防止这一现象的发生。coverage机制会更加关注那些之前没有被关注的词语,而忽略之前关注过的词。利用之前时刻的注意力矩阵的累加和来衡量一个词被关注的程度,忽略那些之前被关注过的词来防止重复;
(2)通过函数score计算目标隐向量和输入隐向量的相似度
Figure BDA0001820467500000131
其中,
Figure BDA0001820467500000132
计算公式如下:
Figure BDA0001820467500000133
v、W1、W2、Wc和batten为查询改写模型的训练参数,
Figure BDA0001820467500000134
表示t时刻的coverage向量,ht表示目标隐向量,
Figure BDA0001820467500000135
表示输入隐向量;
(3)将
Figure BDA0001820467500000136
进行归一化处理,得到注意力权重at,at=softmax(et);
(4)在时刻t,维护coverage矩阵covt记录初始查询语句中各词语的覆盖程度,
Figure BDA0001820467500000137
是之前所有时刻的注意力分布的和;
(5)通过注意力权重at对输入隐向量加权求和得到t时刻的上下文向量,
Figure BDA0001820467500000138
当计算获得上下文向量后,即可结合上下文向量预测并输出至少一个生成式关键词。可选地,利用以下公式在词汇表中预测并输出至少一个生成式关键词:
Figure BDA0001820467500000139
其中,yt表示当前输出的生成式关键词,C表示上下文向量;
p(yt|{y1,...,yt-1},C)表示在先的生成式关键词{y1,...,yt-1}和上下文向量C的前提下yt的条件概率。
与此同时,上述步骤S2-1-2中将上下文向量与当前时刻目标隐向量结合通过两层全连接层得到词汇表中各词语的分布概率时,可以利用以下公式计算词汇表中各词语的分布概率:
Pvocab=f(ct,ht)=softmax(V'(V[ht,Ct]+b)+b')
其中,V、V'、b、b'为查询改写模型的训练参数,Pvocab表示词汇表中词语的分布概率,ht表示目标隐向量,Ct表示t时刻的上下文向量。Softmax,是将K维实数向量z映射到一个新的K维实数向量,使得向量的每一个元素值都在0-1之间,且所有元素和为1。
前文介绍,选取抽取式关键词时,可通过注意力矩阵计算初始查询语句中各词语的权重,并依据各词语的权重进行选取。本发明一优选实施例中,可以包括以下步骤:
S2-2-1,基于TF-IDF词频-逆文件频率和注意力权重计算初始查询语句中各词语的权重;其中,TF-IDF和注意力权重at的比例通过第一调节因子pw调节;
S2-2-2,依据初始查询语句中各词语的权重在各词语中选择至少一个词语作为抽取式关键词后输出。
TF-IDF,是两个统计量的乘积,词频率tf(w)和逆文件频率idf(w)。TF-IDF高是由词频高且该词在整个语料中出现频率低共同决定的,因此该方法可以用于排除常用术语。对于自然语言查询,这种方法可以有效地去除一些常见的口语描述,如“如何”、“什么”,并保留重要信息。
上述步骤S2-2-1计算初始查询语句中各词语的权重时,可以通过以下公式:
Figure BDA0001820467500000141
Figure BDA0001820467500000142
其中,fw表示词语w在初始查询语句中出现的次数,N表示由用于的查询记录构建而成的语料库中所有查询语句出现的次数,|w|表示语料库中包含词语w的查询语句的个数,at表示注意力权重,通过对目标隐向量和输入隐向量的相似度进行归一化获得。
TF-IDF值和注意力权重在衡量单词重要性时有不同的侧重点。注意力权重关注输入和输出的语义匹配,使用隐藏状态来计算其相似度值。通过这种方式,它关注的是单词的“含义”。TF-IDF关注单词的统计特征,它统计了整个语料库中该单词的重要性,这两种值从不同的角度描述了输入词的重要性。通过将它们与权重因子相结合,可以从输入中提取更佳的关键词。
上文提及,在选取出生成式关键词和抽取式关键词后,可对生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与初始查询语句的语义相似的查询关键词后输出,实际应用中可以包括:
S3-1,获取生成式关键词和抽取式关键词中的各关键词;
S3-2,结合初始查询语句中各词语的权重和词汇表中各词语的分布概率,计算各关键词的综合权重;
S3-3,基于各词语综合权重在各关键词中选取多个关键词作为查询关键词。
上述实施例中已介绍对初始查询语句中各词语的权重和词汇表中各词语的分布概率的计算过程,由于本发明实施例是对二者进行综合以进一步选择最终的查询关键词,因此,可利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算各关键词的综合权重。
上述步骤S206中提及,选取出生成式关键词和抽取式关键词后,可计算调节各关键词在生成式改写模式和抽取式改写模式下的权重比例的调节因子,以基于调节因子计算所述各关键词的综合权重。在本发明以优选实施例中,上述步骤S206可以包括:计算调节各关键词在生成式改写模式和抽取式改写模式下权重的比例的调节因子;获取生成式关键词和抽取式关键词中的各关键词;通过调节因子调节同一关键词的分布概率和权重的比例,计算所述各关键词的综合权重,此处的调节因子即为预设的第二调节因子。
在本发明优选实施例中,第二调节因子的计算公式可以如下:
Figure BDA0001820467500000151
其中,wh、ws、wx和d表示训练参数,Ct表示上下文向量,ht表示目标隐向量,hs表示输入隐向量,xt表示初始查询语句中的词语,σ表示sigmoid函数,pgen表示第二调节因子。
利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算各关键词的综合权重时,可以利用以下公式计算各关键词的综合权重:
P(w)=pgenPvocab(w)+(1-pgen)Pextract(w)
其中,P(w)表示关键词的综合权重,Pvocab(w)表示关键词在词汇表中的分布概率,Pextract(w)表示关键词在初始查询语句中的权重。
最后,基于各关键词的综合权重依次排序生成关键词列表,在关键词列表中选取多个关键词作为查询关键词。在关键词列表中选取多个关键词时,可依据综合权重大小选取综合权重较大的多个关键词作为查询关键词,并输出所选取的查询关键词输出,以便搜索引擎基于所选取的查询关键词进行查询,使得查询结果更加满足用户期望。
图3示出了根据本发明实施例提供的改写模型结构示意图。本发明实施例提供的改写模型是一个经典的基于注意力机制的seq2seq的结构,由一个“编码器”和一个“解码器”组成。“编码器”可以理解用户输入的查询,将输入语句进行编码,送入“解码器”中进行“解读”。在解码阶段,“解码器”依次生成每一个词语。
举例来说,在真实的搜索场景下,用户基于搜索引擎输入的初始查询语句可能为“我想知道一个手机X要多少钱”。如果直接在搜索引擎中输入这样的查询,返回的结果页面往往不是用户想要的结果,如图4所示。
基于本发明实施例提供的方法,改写过程可以如下:
1、接收到用户输入的初始查询语句“我想知道一个手机X要多少钱”,先对其进行分词;将初始查询语句进行分词后得到“我”“想”“知道”“一个”“手机X”“多少钱”;
2、将各词语进行embedding,词嵌入,将词用向量表示;
3、将各词向量如图3中将各向量输入改写模型中的编码器,将各词向量分别表示为输入隐向量,如图3中的h1、h2...hs...hn-1、hn
4、将各词语的输入隐向量输入解码器,由解码器依次生成与初始查询语句的语义相似的每一个查询关键词;在生成下一个词语时,考虑以下两个因素:
(1)利用训练数据集构建词汇表,考虑词表中词的分布概率;
(2)根据抽取式的方法考虑初始查询语句中每个词语的权重,并通过调节因子pgen来调节两者的比例,最终可以将初始查询语句改写为包括有“手机X,价格”两个查询关键词的目标查询语句,基于改写后的目标查询语句进行搜索时,搜索引擎返回的结果会更准确,如图5所示。
机器学习中大概有如下步骤:确定模型----训练模型----使用模型。因此,在改写模型构建完成之后,需要对其训练以确保改写模型对查询语句改写的准确性和高效性。如图6所示,本发明一优选实施例还提供了一种改写模型的训练方法,可以包括:
步骤S602,收集网络用户基于搜索引擎的查询记录,基于查询记录构建训练数据集;
步骤S604,获取训练数据集中的训练数据,将训练数据随机打乱;
步骤S606,将随机打乱后的训练数据划分为多份训练样本数据;
步骤S608,在多份训练样本数据中任意选取一份训练样本数据,将选取的训练样本数据输入预先构建的对用户基于搜索引擎输入的查询语句进行改写的改写模型,对改写模型进行训练。
本发明实施例提供的改写模型的训练方法,通过收集网络用户基于搜索引擎的查询记录,进而构建训练数据集,以基于所构建的训练数据集对改写模型进行训练。本发明实施例中的改写模型是基于网络用户基于搜索引擎的搜索查询记录进行汇总处理后的训练数据集训练获得,因此,其可以更加真实并准确地反应网络用户的查询需求,进而提升改写模型的训练效率,使得改写模型对查询语句的改写更加准确高效。
在上述步骤S602构建训练数据集时,可先收集各网络用户基于搜索引擎的查询记录,并将查询记录作为初始训练语料构建语料库;再清洗语料库中的噪声数据,得到数据集;进而分别对数据集中的查询语句和搜索结果进行分词,并将数据集的第一指定比例的数据作为训练数据以构建改写模型的训练数据集。网络用户基于搜索引擎的查询记录为网络用户真实的搜索点击数据,在收集网络用户的查询记录时,可以收集各网络用户基于搜索引擎输入的查询语句,以及各网络用户在搜索引擎基于查询语句返回的结果页面中所点击的搜索结果;将查询语句和网络用户基于查询语句对应点击的搜索结果组成句对(query-title),将上述句对作为初始训练语料构建语料库,进而利用高质量用户的搜索查询记录作为初始训练语料。
初始训练语料中存在很多噪声,通过分析数据发现这些噪声主要是因为用户的误操作或者恰巧对某个页面感兴趣造成的,表现为训练句对在语义上不相符,这些噪声会严重影响训练过程。因此,需要对语料库中的句对进行清洗,得到可信的数据。上述清洗语料库中的噪声数据,得到数据集时,可以获取语料库中的句对;将查询语句作为数据集的输入,与查询语句对应的用户点击的搜索结果作为数据集的输出;基于主题相似度和/或词向量相似度计算并过滤与初始训练语料的句对中查询语句和搜索结果的语义不相符的句对。本发明实施例主要从“主题相似度”和“语义相似度”两个方面来衡量句对的质量。主题相似度从句子的主题分布入手,计算分布之间的相似度。首先对句子进行语义表示,训练LDA模型并计算一个句子的主题分布。然后利用JS散度(Jensen-Shannon)计算两个分布之间相似性。主题相似度从句子中词语的词向量入手,将一个句子表示成句子中词语的词向量的均值,然后利用余弦相似度计算两个句子的相似度。通过设定合理的阈值,达到去除噪声的目的。
LDA(Latent Dirichlet Allocation)是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。所谓生成模型,就是说,我们认为一篇文章的每个词都是通过“以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语”这样一个过程得到。文档到主题服从多项式分布,主题到词服从多项式分布。
语料库中的数据清洗完成得到数据集之后,可以对数据集进行分词。在本发明实施例中可使用开源的jieba工具,将句子按词分隔,然后将数据集的第一指定比例的数据作为训练数据以构建改写模型的训练数据集,获取数据集的第二指定比例的数据作为验证数据,基于上述验证数据构建预设验证集。实际应用中,可以划分数据集中20%的数据作为验证集,剩余80%数据作为训练数据集,并用训练数据集制作词汇表。
上文提及,训练改写模型时,可以先将随机打乱后的训练数据划分为多份训练样本数据,并基于多份训练样本数据对模型进行训练。在本发明优选实施例中,对改写模型进行训练可包括以下步骤:
S6-1,将训练数据集中的训练数据随机打乱;
S6-2,将随机打乱后的训练数据集中的训练数据平均划分为S份训练样本数据,并设定S的初始值为0;
S6-3,选取第S份训练样本数据;
S6-4,将第S份训练样本数据输入预先构建的对用户基于搜索引擎输入的查询语句进行改写的改写模型,对改写模型进行训练。
可选地,在上述步骤S6-4将第S分训练样本数据输入改写模型之前,还可以按照预设的词汇表对第S份训练样本数据的查询语句中的词语进行编号;其中,预设的词汇表基于训练数据集构建而成;进而将编号后的各词语输入改写模型,以基于编号后的各词语对改写模型进行训练。本发明实施例中,由于词汇表可基于训练数据集构建而成,因此,按照预设的词汇表对查询语句中的词语进行编号可以在改写模型的训练过程更加有序,进而提升改写模型的训练效率。
在改写模型的训练过程中,可计算各时刻的损失函数。即,上述步骤S6-4之后,还可以包括:
S6-5,利用以下公式计算改写模型训练过程中的损失函数:
Figure BDA0001820467500000181
其中,loss表示损失函数,
Figure BDA0001820467500000182
表示目标词语,
Figure BDA0001820467500000183
表示注意力权重,
Figure BDA0001820467500000184
表示coverage向量,t表示t时刻;
整个查询语句的损失函数则定义为:
Figure BDA0001820467500000191
对改写模型进行训练完成之后,可通过预设验证集对改写模型进行验证。对改写模型进行验证时,可以计算验证集中的损失函数。在机器学习中,损失函数(Lossfunction)是用来估量模型的预测值与真实值的不一致程度,它是一个非负实值函数,损失函数越小,模型的鲁棒性就越好。因此,在上述步骤S1-4之后,还可以包括:
S6-6,利用训练好的改写模型计算预设验证集的损失函数;若损失函数增大,则训练结束;若损失函数减小,则设定S=S+1,重复步骤S6-1至S6-5,选取第S份训练样本数据,将所训练样本数据输入改写模型,继续对改写模型进行训练。基于本发明提供的实施例,通过利用训练好的模型计算验证集中的损失函数判断是否对改写模型进行再次训练,可以进一步提升改写模型的改写准确率,使得改写模型输出的查询关键词更加符合用户的搜索意图,从而使得查询结果更加满足用户期望。
基于同一发明构思,本发明实施例还提供了一种查询语句的改写装置,如图7所示,本发明实施例提供的查询语句的改写装置可以包括:
获取模块710,配置为获取用户基于搜索引擎输入的初始查询语句,并将初始查询语句进行分词以获取初始查询语句包括的词语;
向量表示模块720,配置为将初始查询语句中的各词语分别表示为与各词语对应的词向量;
改写模块730,配置为调用改写模型,将与各词语对应的词向量分别输入改写模型后,基于改写模型生成并输出与初始查询语句的语义相似的至少一个查询关键词;其中,改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
在本发明一优选实施例中,改写模型为编码器-解码器结构的网络模型;如图8所示,改写模块730可以包括:
编码单元731,配置为调用改写模型,将与各词语对应的词向量分别输入改写模型,基于改写模型中的编码器对接收到的各词向量进行编码,并将各词向量分别表示为输入隐向量;
解码单元732,配置为将输入隐向量输入改写模型中的解码器进行解码,生成并输出与初始查询语句的语义相似的至少一个查询关键词。
在本发明一优选实施例中,解码单元732还可以配置为:将输入隐向量输入改写模型中的解码器进行解码;分别在预设的词汇表和初始查询语句中选取至少一个生成式关键词和抽取式关键词;其中,预设的词汇表由训练数据集构建而成;对生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与初始查询语句的语义相似的查询关键词后输出。
在本发明一优选实施例中,解码单元732还可以配置为:通过注意力机制计算词汇表中各词语的分布概率,并依据各词语分布概率选取至少一个生成式关键词;通过注意力矩阵计算初始查询语句中各词语的权重,并依据各词语的权重选取至少一个抽取式关键词。
在本发明一优选实施例中,解码单元732还可以配置为:通过score方法衡量初始查询语句中各词语的权重并计算其加权和计算得到上下文向量;将上下文向量与当前时刻目标隐向量结合通过两层全连接层得到词汇表中各词语的分布概率;其中,目标隐向量为解码器在t时刻的隐含层变量;在词汇表中预测并输出至少一个生成式关键词;利用coverage机制辅助解码器输出不重复的生生成式关键词。
在本发明一优选实施例中,解码单元732还可以配置为:增加coverage向量covt,并设定cov0为全零矩阵;其中,t表示t时刻;通过函数score计算目标隐向量和输入隐向量的相似度
Figure BDA0001820467500000201
其中,
Figure BDA0001820467500000202
计算公式如下:
Figure BDA0001820467500000203
v、W1、W2、Wc和batten为查询改写模型的训练参数,
Figure BDA0001820467500000204
表示t时刻的coverage向量,ht表示目标隐向量,
Figure BDA0001820467500000205
表示输入隐向量;
Figure BDA0001820467500000206
进行归一化处理,得到注意力权重at,at=softmax(et);
在时刻t,维护coverage矩阵covt记录初始查询语句中各词语的覆盖程度,
Figure BDA0001820467500000207
通过注意力权重at对输入隐向量加权求和得到t时刻的上下文向量,
Figure BDA0001820467500000208
在本发明一优选实施例中,解码单元732还可以配置为:利用以下公式在词汇表中预测并输出至少一个生成式关键词:
Figure BDA0001820467500000209
其中,yt表示当前输出的生成式关键词,C表示上下文向量;
p(yt|{y1,...,yt-1},C)表示在先的生成式关键词{y1,...,yt-1}和上下文向量C的前提下yt的条件概率。
在本发明一优选实施例中,解码单元732还可以配置为:利用以下公式计算词汇表中各词语的分布概率:
Pvocab=f(ct,ht)=softmax(V'(V[ht,Ct]+b)+b')
其中,V、V'、b、b'为查询改写模型的训练参数,Pvocab表示词汇表中词语的分布概率,ht表示目标隐向量,Ct表示t时刻的上下文向量。
在本发明一优选实施例中,解码单元732还可以配置为:基于TF-IDF词频-逆文件频率和注意力权重计算初始查询语句中各词语的权重;其中,TF-IDF和注意力权重at的比例通过第一调节因子pw调节;依据初始查询语句中各词语的权重在各词语中选择至少一个词语作为抽取式关键词后输出。
在本发明一优选实施例中,解码单元732还可以配置为:通过以下公式计算初始查询语句中各词语的权重:
Figure BDA0001820467500000211
Figure BDA0001820467500000212
其中,fw表示词语w在初始查询语句中出现的次数,N表示由用于的查询记录构建而成的语料库中所有查询语句出现的次数,|w|表示语料库中包含词语w的查询语句的个数,at表示注意力权重,通过对目标隐向量和输入隐向量的相似度进行归一化获得。
在本发明一优选实施例中,解码单元732还可以配置为:获取生成式关键词和抽取式关键词中的各关键词;结合初始查询语句中各词语的权重和词汇表中各词语的分布概率,计算各关键词的综合权重;基于各词语综合权重在各关键词中选取多个关键词作为查询关键词。
在本发明一优选实施例中,解码单元732还可以配置为:
利用预设的第二调节因子调节同一关键词的分布概率和权重的比例计算各关键词的综合权重。
在本发明一优选实施例中,解码单元732还可以配置为还配置为通过公式计算第二调节因子:
Figure BDA0001820467500000213
其中,wh、ws、wx和b表示训练参数,Ct表示上下文向量,ht表示目标隐向量,hs表示输入隐向量,xt表示初始查询语句中的词语,σ表示sigmoid函数,pgen表示第二调节因子。
在本发明一优选实施例中,解码单元732还可以配置为利用以下公式计算各关键词的综合权重:
P(w)=pgenPvocab(w)+(1-pgen)Pextract(w)
其中,P(w)表示关键词的综合权重,Pvocab(w)表示关键词在词汇表中的分布概率,Pextract(w)表示关键词在初始查询语句中的权重。
在本发明一优选实施例中,解码单元732还可以配置为:基于各关键词的综合权重依次排序生成关键词列表,在关键词列表中选取多个关键词作为查询关键词。
基于同一发明构思,本发明实施例还提供了一种计算机存储介质,计算机存储介质存储有计算机程序代码,当计算机程序代码在计算设备上运行时,导致计算设备执行上述任一项所述的查询语句的改写方法。
基于同一发明构思,本发明实施例还提供了一种计算设备,包括:
处理器;
存储有计算机程序代码的存储器;
当计算机程序代码被处理器运行时,导致计算设备执行上述任一项所述的查询语句的改写方法。
本发明实施例提供了一种融合抽取式和生成式的查询改写方法及装置,在用户基于搜索引擎输入初始查询语句时,对初始查询语句进行分词并表示为词向量,进而输入预先构建的查询改写模型中,由查询改写模型结合抽取式和生成式两种模式生成关键词,并由一个调节因子来调节两者的比例,最终输出与用户输入的初始查询语句语义相似度最高的至少一个关键词,相较于传统的改写模型可以在不改变其真实意图的前提下返回更适用于搜索引擎的查询。从而使得查询结果更加满足用户期望。另外,本发明实施例中通过对用户真实的查询记录进行清洗作为训练改写模型的数据,利用高质量用户的搜索查询记录作为初始训练语料,从而使得查询结果更加满足用户期望。
所属领域的技术人员可以清楚地了解到,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,为简洁起见,在此不另赘述。
另外,在本发明各个实施例中的各功能单元可以物理上相互独立,也可以两个或两个以上功能单元集成在一起,还可以全部功能单元都集成在一个处理单元中。上述集成的功能单元既可以采用硬件的形式实现,也可以采用软件或者固件的形式实现。
本领域普通技术人员可以理解:所述集成的功能单元如果以软件的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,其包括若干指令,用以使得一台计算设备(例如个人计算机,服务器,或者网络设备等)在运行所述指令时执行本发明各实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM),磁碟或者光盘等各种可以存储程序代码的介质。
或者,实现前述方法实施例的全部或部分步骤可以通过程序指令相关的硬件(诸如个人计算机,服务器,或者网络设备等的计算设备)来完成,所述程序指令可以存储于一计算机可读取存储介质中,当所述程序指令被计算设备的处理器执行时,所述计算设备执行本发明各实施例所述方法的全部或部分步骤。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:在本发明的精神和原则之内,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案脱离本发明的保护范围。

Claims (10)

1.一种查询语句的改写方法,包括:
获取用户基于搜索引擎输入的初始查询语句,并将所述初始查询语句进行分词以获取所述初始查询语句包括的词语;
将所述初始查询语句中的各词语分别表示为与各词语对应的词向量;
调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词;其中,所述改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
2.根据权利要求1所述的方法,其中,所述改写模型为编码器-解码器结构的网络模型;
所述调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词,包括:
调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型,基于所述改写模型中的编码器对接收到的各词向量进行编码,并将所述各词向量分别表示为输入隐向量;
将所述输入隐向量输入所述改写模型中的解码器进行解码,生成并输出与所述初始查询语句的语义相似的至少一个查询关键词。
3.根据权利要求1或2所述的方法,其中,将所述输入隐向量输入所述改写模型中的解码器进行解码,生成并输出与所述初始查询语句的语义相似的至少一个查询关键词,包括:
将所述输入隐向量输入所述改写模型中的解码器进行解码;
分别在预设的词汇表和所述初始查询语句中选取至少一个生成式关键词和抽取式关键词;其中,所述预设的词汇表由所述训练数据集构建而成;
对所述生成式关键词和抽取式关键词进行分析,进而选取多个关键词作为与所述初始查询语句的语义相似的查询关键词后输出。
4.根据权利要求1-3任一项所述的方法,其中,所述分别基于预设词汇和所述初始查询语句中选取至少一个生成式关键词和抽取式关键词,包括:
通过注意力机制计算所述词汇表中各词语的分布概率,并依据所述各词语分布概率选取至少一个生成式关键词;
通过注意力矩阵计算所述初始查询语句中各词语的权重,并依据所述各词语的权重选取至少一个抽取式关键词。
5.根据权利要求1-4任一项所述的方法,其中,所述通过注意力机制计算所述词汇表中各词语的分布概率,并依据所述各词语分布概率选取至少一个生成式关键词,包括:
通过score方法衡量所述初始查询语句中各词语的权重并计算其加权和计算得到上下文向量;
将所述上下文向量与当前时刻目标隐向量结合通过两层全连接层得到所述词汇表中各词语的分布概率;其中,所述目标隐向量为解码器在t时刻的隐含层变量;
在所述词汇表中预测并输出至少一个生成式关键词;
利用coverage机制辅助所述解码器输出不重复的生成式关键词。
6.根据权利要求1-5任一项所述的方法,其中,所述通过score方法衡量所述初始查询语句中各词语的权重并计算其加权和计算得到上下文向量,包括:
增加coverage向量covt,并设定cov0为全零矩阵;其中,t表示t时刻;
通过函数score计算目标隐向量和输入隐向量的相似度
Figure FDA0001820467490000021
其中,
Figure FDA0001820467490000022
计算公式如下:
Figure FDA0001820467490000023
v、W1、W2、Wc和batten为所述查询改写模型的训练参数,
Figure FDA0001820467490000024
表示t时刻的coverage向量,ht表示目标隐向量,
Figure FDA0001820467490000025
表示输入隐向量;
Figure FDA0001820467490000026
进行归一化处理,得到注意力权重at,at=softmax(et);
在时刻t,维护coverage矩阵covt记录所述初始查询语句中各词语的覆盖程度,
Figure FDA0001820467490000027
通过注意力权重at对所述输入隐向量加权求和得到t时刻的上下文向量,
Figure FDA0001820467490000028
7.根据权利要求1-6任一项所述的方法,其中,所述在所述词汇表中预测并输出至少一个生成式关键词,包括:
利用以下公式在所述词汇表中预测并输出至少一个生成式关键词:
Figure FDA0001820467490000029
其中,yt表示当前输出的生成式关键词,C表示上下文向量;
p(yt|{y1,...,yt-1},C)表示在先的生成式关键词{y1,...,yt-1}和上下文向量C的前提下yt的条件概率。
8.一种查询语句的改写装置,包括:
获取模块,配置为获取用户基于搜索引擎输入的初始查询语句,并将所述初始查询语句进行分词以获取所述初始查询语句包括的词语;
向量表示模块,配置为将所述初始查询语句中的各词语分别表示为与各词语对应的词向量;
改写模块,配置为调用改写模型,将所述与各词语对应的词向量分别输入所述改写模型后,基于所述改写模型生成并输出与所述初始查询语句的语义相似的至少一个查询关键词;其中,所述改写模型是由用户查询记录进行汇总处理后的训练数据集训练获得。
9.一种计算机存储介质,所述计算机存储介质存储有计算机程序代码,当所述计算机程序代码在计算设备上运行时,导致所述计算设备执行权利要求1-7任一项所述的查询语句的改写方法。
10.一种计算设备,包括:
处理器;
存储有计算机程序代码的存储器;
当所述计算机程序代码被所述处理器运行时,导致所述计算设备执行权利要求1-7任一项所述的查询语句的改写方法。
CN201811163273.2A 2018-09-30 2018-09-30 一种查询语句的改写方法及装置 Pending CN110969024A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811163273.2A CN110969024A (zh) 2018-09-30 2018-09-30 一种查询语句的改写方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811163273.2A CN110969024A (zh) 2018-09-30 2018-09-30 一种查询语句的改写方法及装置

Publications (1)

Publication Number Publication Date
CN110969024A true CN110969024A (zh) 2020-04-07

Family

ID=70028242

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811163273.2A Pending CN110969024A (zh) 2018-09-30 2018-09-30 一种查询语句的改写方法及装置

Country Status (1)

Country Link
CN (1) CN110969024A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797216A (zh) * 2020-06-28 2020-10-20 北京百度网讯科技有限公司 检索项改写方法、装置、设备以及存储介质
CN112035598A (zh) * 2020-11-03 2020-12-04 北京淇瑀信息科技有限公司 一种智能语义检索方法、系统和电子设备
CN112749553A (zh) * 2020-06-05 2021-05-04 腾讯科技(深圳)有限公司 视频文件的文本信息处理方法、装置和服务器
CN113505194A (zh) * 2021-06-15 2021-10-15 北京三快在线科技有限公司 改写词生成模型的训练方法及装置
CN114329225A (zh) * 2022-01-24 2022-04-12 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质
JP2022544428A (ja) * 2020-06-28 2022-10-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 検索項目書き換え方法、装置、機器および記憶媒体

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617266A (zh) * 2013-12-03 2014-03-05 北京奇虎科技有限公司 个性化扩展搜索方法及装置、系统
CN104484377A (zh) * 2014-12-09 2015-04-01 百度在线网络技术(北京)有限公司 替换词典生成方法及装置
CN104765769A (zh) * 2015-03-06 2015-07-08 大连理工大学 一种基于词矢量的短文本查询扩展及检索方法
CN105159879A (zh) * 2015-08-26 2015-12-16 北京理工大学 一种网络个体或群体价值观自动判别方法
CN106557476A (zh) * 2015-09-24 2017-04-05 北京奇虎科技有限公司 相关信息的获取方法及装置
CN106610972A (zh) * 2015-10-21 2017-05-03 阿里巴巴集团控股有限公司 查询改写方法及装置
CN107291914A (zh) * 2017-06-27 2017-10-24 达而观信息科技(上海)有限公司 一种生成搜索引擎查询扩展词的方法及系统
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
CN107967257A (zh) * 2017-11-20 2018-04-27 哈尔滨工业大学 一种级联式作文生成方法
US20180137101A1 (en) * 2016-11-17 2018-05-17 Goldman Sachs & Co. LLC System and method for coupled detection of syntax and semantics for natural language understanding and generation
CN108280063A (zh) * 2018-01-19 2018-07-13 中国科学院软件研究所 基于半监督学习的语义分析方法及系统
CN108399265A (zh) * 2018-03-23 2018-08-14 北京奇虎科技有限公司 基于搜索的实时热点新闻提供方法及装置
CN108509474A (zh) * 2017-09-15 2018-09-07 腾讯科技(深圳)有限公司 搜索信息的同义词扩展方法及装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103617266A (zh) * 2013-12-03 2014-03-05 北京奇虎科技有限公司 个性化扩展搜索方法及装置、系统
CN104484377A (zh) * 2014-12-09 2015-04-01 百度在线网络技术(北京)有限公司 替换词典生成方法及装置
CN104765769A (zh) * 2015-03-06 2015-07-08 大连理工大学 一种基于词矢量的短文本查询扩展及检索方法
CN105159879A (zh) * 2015-08-26 2015-12-16 北京理工大学 一种网络个体或群体价值观自动判别方法
CN106557476A (zh) * 2015-09-24 2017-04-05 北京奇虎科技有限公司 相关信息的获取方法及装置
CN106610972A (zh) * 2015-10-21 2017-05-03 阿里巴巴集团控股有限公司 查询改写方法及装置
US20180137101A1 (en) * 2016-11-17 2018-05-17 Goldman Sachs & Co. LLC System and method for coupled detection of syntax and semantics for natural language understanding and generation
CN107291914A (zh) * 2017-06-27 2017-10-24 达而观信息科技(上海)有限公司 一种生成搜索引擎查询扩展词的方法及系统
CN108509474A (zh) * 2017-09-15 2018-09-07 腾讯科技(深圳)有限公司 搜索信息的同义词扩展方法及装置
CN107844469A (zh) * 2017-10-26 2018-03-27 北京大学 基于词向量查询模型的文本简化方法
CN107967257A (zh) * 2017-11-20 2018-04-27 哈尔滨工业大学 一种级联式作文生成方法
CN108280063A (zh) * 2018-01-19 2018-07-13 中国科学院软件研究所 基于半监督学习的语义分析方法及系统
CN108399265A (zh) * 2018-03-23 2018-08-14 北京奇虎科技有限公司 基于搜索的实时热点新闻提供方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ABIGAIL SEE: "Get To The Point:Summarization with Pointer-Generator Networks", 《HTTPS://ARXIV.ORG/ABS/1704.04368V2》, pages 1 - 20 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112749553A (zh) * 2020-06-05 2021-05-04 腾讯科技(深圳)有限公司 视频文件的文本信息处理方法、装置和服务器
CN112749553B (zh) * 2020-06-05 2023-07-25 腾讯科技(深圳)有限公司 视频文件的文本信息处理方法、装置和服务器
CN111797216A (zh) * 2020-06-28 2020-10-20 北京百度网讯科技有限公司 检索项改写方法、装置、设备以及存储介质
WO2022000934A1 (zh) * 2020-06-28 2022-01-06 北京百度网讯科技有限公司 检索项改写方法、装置、设备以及存储介质
JP2022544428A (ja) * 2020-06-28 2022-10-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 検索項目書き換え方法、装置、機器および記憶媒体
JP7352640B2 (ja) 2020-06-28 2023-09-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 検索項目書き換え方法、装置、機器および記憶媒体
CN111797216B (zh) * 2020-06-28 2024-04-05 北京百度网讯科技有限公司 检索项改写方法、装置、设备以及存储介质
CN112035598A (zh) * 2020-11-03 2020-12-04 北京淇瑀信息科技有限公司 一种智能语义检索方法、系统和电子设备
CN113505194A (zh) * 2021-06-15 2021-10-15 北京三快在线科技有限公司 改写词生成模型的训练方法及装置
CN113505194B (zh) * 2021-06-15 2022-09-13 北京三快在线科技有限公司 改写词生成模型的训练方法及装置
CN114329225A (zh) * 2022-01-24 2022-04-12 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质
CN114329225B (zh) * 2022-01-24 2024-04-23 平安国际智慧城市科技股份有限公司 基于搜索语句的搜索方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110969024A (zh) 一种查询语句的改写方法及装置
CN110119765B (zh) 一种基于Seq2seq框架的关键词提取方法
CN108986186B (zh) 文字转化视频的方法和系统
CN110580292B (zh) 一种文本标签生成方法、装置和计算机可读存储介质
CN108959312A (zh) 一种多文档摘要生成的方法、装置和终端
CN111144127B (zh) 文本语义识别方法及其模型的获取方法及相关装置
CN112464656B (zh) 关键词抽取方法、装置、电子设备和存储介质
CN111914062B (zh) 一种基于关键词的长文本问答对生成系统
CN113590970B (zh) 一种基于读者偏好的个性化数字图书推荐系统、方法、计算机及存储介质
CN111414513B (zh) 音乐流派的分类方法、装置及存储介质
CN110990578A (zh) 一种改写模型的构建方法及装置
CN113886571A (zh) 实体识别方法、装置、电子设备及计算机可读存储介质
CN110162624A (zh) 一种文本处理方法、装置以及相关设备
CN111767697A (zh) 文本处理方法、装置、计算机设备以及存储介质
CN116975615A (zh) 基于视频多模态信息的任务预测方法和装置
CN110909021A (zh) 查询改写模型的构建方法、装置及其应用
Cui et al. A chinese text classification method based on bert and convolutional neural network
CN110968759A (zh) 一种改写模型的训练方法及装置
CN117235250A (zh) 一种对话摘要生成方法、装置和设备
CN111859955A (zh) 一种基于深度学习的舆情数据分析模型
CN116932736A (zh) 一种基于用户需求结合倒排表的专利推荐方法
CN116108181A (zh) 客户信息的处理方法、装置及电子设备
Shobana et al. Abstractive Review Summarization based on Improved Attention Mechanism with Pointer Generator Network Model.
CN115391522A (zh) 一种基于社交平台元数据的文本主题建模方法及系统
CN115017260A (zh) 一种基于子主题建模的关键词生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination