CN106250464A - 排序模型的训练方法及装置 - Google Patents
排序模型的训练方法及装置 Download PDFInfo
- Publication number
- CN106250464A CN106250464A CN201610608054.5A CN201610608054A CN106250464A CN 106250464 A CN106250464 A CN 106250464A CN 201610608054 A CN201610608054 A CN 201610608054A CN 106250464 A CN106250464 A CN 106250464A
- Authority
- CN
- China
- Prior art keywords
- page
- sample page
- data
- neural network
- loss function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims description 70
- 238000012163 sequencing technique Methods 0.000 claims description 11
- 238000010276 construction Methods 0.000 claims description 3
- 108090000623 proteins and genes Proteins 0.000 abstract 1
- 230000006870 function Effects 0.000 description 43
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011835 investigation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种排序模型的训练方法及装置。本发明实施例由于采用调整所述正例样本页面的排序分数趋向于大于指定阈值,且调整所述负例样本页面的排序分数趋向于小于指定阈值的调整因子,使得基于Pairwise的排序算法中不同搜索关键词所对应的页面的排序分数具有可比性,从而提高了页面的排序分数的可应用性。
Description
【技术领域】
本发明涉及互联网技术,尤其涉及一种排序模型的训练方法及装置。
【背景技术】
搜索引擎是指根据一定的策略、运用特定的计算机程序从互联网上搜集信息,在对信息进行组织和处理后,为用户提供搜索服务,将用户搜索相关的信息展示给用户的系统。据国家统计局的报道,中国网民人数已经超过了4亿,这个数据意味着中国已经超过美国成为世界上第一大网民国,且中国的网站总数量已经超过了200万。因此,如何利用搜索服务最大限度满足用户需求,对于互联网企业而言,始终是一个重要的课题。
现有的基于配对(Pairwise)的排序算法中,不同搜索关键词所对应的页面的排序分数不具有可比性,这样,页面的排序分数无法得到进一步的应用,例如,将页面的排序分数作为特征输入其他更高层的模型中,导致了页面的排序分数的可应用性较差。
【发明内容】
本发明的多个方面提供一种排序模型的训练方法及装置,用以提高页面的排序分数的可应用性。
本发明的一方面,提供一种排序模型的训练方法,包括:
获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据;
获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值;
根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一调整因子,包括:
第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第二调整因子,包括:
第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述损失函数中还包含约束项;所述约束项用于对加入新特征数据之前的所述神经网络与其在加入新特征数据之后的所述神经网络中所对应的权重参数之间的差值进行二范数约束。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,包括:
根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据;
根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建所述页面排序模型。
本发明的另一方面,提供一种排序模型的训练装置,包括:
数据获取单元,用于获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据;
函数获取单元,用于获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值;
模型构建单元,用于根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一调整因子,包括:
第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第二调整因子,包括:
第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述损失函数中还包含约束项;所述约束项用于对加入新特征数据之前的所述神经网络与其在加入新特征数据之后的所述神经网络中所对应的权重参数之间的差值进行二范数约束。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述模型构建单元,具体用于
根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据;以及
根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建所述页面排序模型。
由上述技术方案可知,本发明实施例通过获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据,以及获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值,使得能够根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,由于采用调整所述正例样本页面的排序分数趋向于大于指定阈值,且调整所述负例样本页面的排序分数趋向于小于指定阈值的调整因子,使得基于Pairwise的排序算法中不同搜索关键词所对应的页面的排序分数具有可比性,从而提高了页面的排序分数的可应用性。
另外,采用本发明所提供的技术方案,通过采用对旧神经网络与其在新神经网络中所对应的权重参数之间的差值进行二范数约束的约束项,使得这个差值会比较小,这样,旧神经网络与其在新神经网络中所对应的权重参数趋于一致,能够避免现有技术中由于模型重训而导致的性能差异较大的技术问题,从而提高了特征调研的可靠性。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的排序模型的训练方法的流程示意图;
图2为本发明另一实施例提供的排序模型的训练装置的结构示意图。
【具体实施方式】
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例中所涉及的终端可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(Tablet Computer)、个人电脑(Personal Computer,PC)、MP3播放器、MP4播放器、可穿戴设备(例如,智能眼镜、智能手表、智能手环等)等。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本发明一实施例提供的排序模型的训练方法的流程示意图,如图1所示。
101、获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据。
102、获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值。
103、根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
可以理解的是,101与102没有固定的执行顺序,可以先执行101,再执行102,或者还可以先执行102,再执行101,或者还可以同时执行101和102,本实施例对此不进行特别限定。
需要说明的是,101~103的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
这样,通过获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据,以及获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值,使得能够根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,由于采用调整所述正例样本页面的排序分数趋向于大于指定阈值,且调整所述负例样本页面的排序分数趋向于小于指定阈值的调整因子,使得基于Pairwise的排序算法中不同搜索关键词所对应的页面的排序分数具有可比性,从而提高了页面的排序分数的可应用性。
通常,搜索引擎在获取到用户所提供的输入关键词之后,可以采用现有的搜索方法,获得与所述搜索关键词,对应的若干个页面,进而根据这些页面生成包含页面摘要等内容的搜索结果,并将搜索结果提供给用户。详细描述可以参见现有技术中的相关内容,此处不在赘述。
可以理解的是,本发明所涉及的页面,也可以称为Web页面或网页,可以是基于超文本标记语言(HyperText Markup Language,HTML)编写的网页(Web Page),即HTML页面,或者还可以是基于HTML和Java语言编写的网页,即Java服务器页面(Java Server Page,JSP),或者还可以为其他语言编写的网页,本实施例对此不进行特别限定。页面可以包括由一个或者多个页面标签例如,超文本标记语言(HyperText Markup Language,HTML)标签、JSP标签等,定义的一个显示区块,称为页面元素,例如,文字、图片、超链接、按钮、编辑框、下拉框等。
在完成一次搜索之后,可以将该搜索相关的数据记录下来,形成用户历史行为数据。基于所记录的用户历史行为数据,则可以获得同一个搜索关键词(query)所对应的正例样本页面和负例样本页面,并将同一个搜索关键词所对应的正例样本页面与负例样本页面两两组合,组成配对样本<<Q,T,1><Q,T,0>>(Q表示query,T表示样本数据,0表示负例,1表示正例),以作为训练样本数据。进而,则可以利用所述训练样本数据,执行101~103,构建神经网络即页面排序模型。其中,所述神经网络可以包括但不限于循环神经网络(Recurrent Neural Network,RNN)、卷积神经网络(Convolutional Neural Network,CNN)或深度神经网络(Deep Neural Network,DNN),本实施例对此不进行特别限定。
所谓的正例样本页面,是指点击过的页面;所谓的负例样本页面,是指未点击过的页面。对于同一个query,一个正例样本和一个负例样本就组成了一个训练用的数据样本即训练样本数据。这里的点击过的页面与未点击过的页面,具体可以是指在搜索引擎的点击日志当中所记录的,当某个用户搜索了一个query之后,选择了其中的某个搜索结果进行进一步浏览,则可以称该搜索结果所对应的页面为点击过的页面,称未选择的其他搜索结果所对应的页面为未点击的页面。
通常而言,损失函数可以由损失项(loss term)和正则项(regularization term)组成。本发明中,所采用的损失项可以交叉熵损失函数,或者还可以为Hinge loss损失函数,本实施例对此不进行特别限定。本发明中所采用的损失函数还进一步包含第一调整因子和第二调整因子,对损失函数中的损失项进行调整优化。其中,所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值。
具体来说,所述第一调整因子,可以为第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数,即:
其中,α表示预先设置的第一常数;θ表示所述指定阈值;表示第i组正例样本页面的特征数据,i为大于或等于1且小于或等于n的整数,n为神经网络的层数;表示第i组正例样本页面的排序分数。这样,则可以调整所述正例样本页面的排序分数趋向于大于指定阈值。
所述第二调整因子,可以为第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数,即:其中,β表示预先设置的第二常数;θ表示所述指定阈值;表示第i组负例样本页面的特征数据,i为大于或等于1且小于或等于n的整数,n为神经网络的层数;表示第i组负例样本页面的排序分数。这样,则可以调整所述负例样本页面的排序分数趋向于小于指定阈值。
可选地,在本实施例的一个可能的实现方式中,在102中,所获取的神经网络的损失函数还可以进一步包含一个约束项,对旧神经网络与其在新神经网络中所对应的权重参数之间的差值进行二范数约束的约束项。
具体来说,所获取的神经网络的损失函数中所包含的约束项r(W)可以为其中,表示加入新特征数据之后的所述神经网络即新神经网络第j层的权重参数,j为大于或等于1且小于或等于n的整数;Wj old表示加入新特征数据之前的所述神经网络即旧神经网络的权重参数;c表示预先设置的一个常数。由于采用对旧神经网络与其在新神经网络中所对应的权重参数之间的差值进行二范数约束的约束项,使得这个差值会比较小,这样,旧神经网络与其在新神经网络中所对应的权重参数趋于一致,能够避免现有技术中由于模型重训而导致的性能差异较大的技术问题,从而提高了特征调研的可靠性。在保证旧神经网络与其在新神经网络中所对应的权重参数趋于一致的情况之下,能够最大限度地发挥新特征数据地效用。可选地,在本实施例的一个可能的实现方式中,在103中,具体可以根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,进而,则可以根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建一个神经网络,以作为页面排序模型。
一般来说,多个特征输入的用于页面排序的神经网络(即RankNet网络)的网络结构为即输入特征逐层经过矩阵向量乘积和非线性变换的作用后输出。但是,由于全部输入特征都直接接入神经网络,并不能显示地控制特征效果,从而会限制某些特征的效果。例如,涉及输入特征所依赖的数据与页面排序模型训练所用的数据不匹配的情况下,输入特征往往只有较小的权重占比,其贡献的效果也会被削弱。为了特征权重调整的便捷性,可以让输入特征输入神经网络之前乘以一个正对角阵,即每个特征数据乘以一个大于0的权重参数即特征调整权重。这样,通过设置正对角阵对应元素的值,就能够为每一个输入特征增加一个权重先验,在保持其他输入特征的权重先验取值不变的情况下,提升某一个输入特征的权重先验取值将会提升该输入特征最终的权重占比。
本实施例中,通过获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据,以及获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值,使得能够根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,由于采用调整所述正例样本页面的排序分数趋向于大于指定阈值,且调整所述负例样本页面的排序分数趋向于小于指定阈值的调整因子,使得基于Pairwise的排序算法中不同搜索关键词所对应的页面的排序分数具有可比性,从而提高了页面的排序分数的可应用性。
另外,采用本发明所提供的技术方案,通过采用对旧神经网络与其在新神经网络中所对应的权重参数之间的差值进行二范数约束的约束项,使得这个差值会比较小,这样,旧神经网络与其在新神经网络中所对应的权重参数趋于一致,能够避免现有技术中由于模型重训而导致的性能差异较大的技术问题,从而提高了特征调研的可靠性。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图2为本发明另一实施例提供的排序模型的训练装置的结构示意图,如图2所示。本实施例的排序模型的训练装置可以包括数据获取单元21、函数获取单元22和模型构建单元23。其中,数据获取单元21,用于获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据;函数获取单元22,用于获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值;模型构建单元23,用于根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
需要说明的是,本实施例所提供的排序模型的训练装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(Software Development Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的搜索引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
可选地,在本实施例的一个可能的实现方式中,所述第一调整因子,具体可以包括:
第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
可选地,在本实施例的一个可能的实现方式中,所述第二调整因子,具体可以包括:
第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
可选地,在本实施例的一个可能的实现方式中,所述损失函数中还可以进一步包含约束项;所述约束项用于对加入新特征数据之前的所述神经网络与其在加入新特征数据之后的所述神经网络中所对应的权重参数之间的差值进行二范数约束。
可选地,在本实施例的一个可能的实现方式中,所述模型构建单元23,具体可以用于根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据;以及根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建所述页面排序模型。
需要说明的是,图1对应的实施例中方法,可以由本实施例提供的排序模型的训练装置实现。详细描述可以参见图1对应的实施例中的相关内容,此处不再赘述。
本实施例中,通过数据获取单元获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据,以及函数获取单元获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值,使得模型构建单元能够根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,由于采用调整所述正例样本页面的排序分数趋向于大于指定阈值,且调整所述负例样本页面的排序分数趋向于小于指定阈值的调整因子,使得基于Pairwise的排序算法中不同搜索关键词所对应的页面的排序分数具有可比性,从而提高了页面的排序分数的可应用性。
另外,采用本发明所提供的技术方案,通过采用对旧神经网络与其在新神经网络中所对应的权重参数之间的差值进行二范数约束的约束项,使得这个差值会比较小,这样,旧神经网络与其在新神经网络中所对应的权重参数趋于一致,能够避免现有技术中由于模型重训而导致的性能差异较大的技术问题,从而提高了特征调研的可靠性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种排序模型的训练方法,其特征在于,包括:
获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据;
获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值;
根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
2.根据权利要求1所述的方法,其特征在于,所述第一调整因子,包括:
第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
3.根据权利要求1所述的方法,其特征在于,所述第二调整因子,包括:
第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
4.根据权利要求1所述的方法,其特征在于,所述损失函数中还包含约束项;所述约束项用于对加入新特征数据之前的所述神经网络与其在加入新特征数据之后的所述神经网络中所对应的权重参数之间的差值进行二范数约束。
5.根据权利要求1~4任一权利要求所述的方法,其特征在于,所述根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型,包括:
根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据;
根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建所述页面排序模型。
6.一种排序模型的训练装置,其特征在于,包括:
数据获取单元,用于获取训练样本数据,所述训练样本数据包括至少一个搜索关键词所对应的正例样本页面的特征数据和负例样本页面的特征数据;
函数获取单元,用于获取神经网络的损失函数,所述损失函数中包含第一调整因子和第二调整因子;所述第一调整因子用于调整所述正例样本页面的排序分数趋向于大于指定阈值;所述第二调整因子用于调整所述负例样本页面的排序分数趋向于小于指定阈值;
模型构建单元,用于根据所述损失函数、所述正例样本页面的特征数据和所述负例样本页面的特征数据,构建页面排序模型。
7.根据权利要求6所述的装置,其特征在于,所述第一调整因子,包括:
第一最大值与预先设置的第一常数的乘积;其中,所述第一最大值为所述指定阈值与第i组正例样本页面的排序分数的相反数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
8.根据权利要求6所述的装置,其特征在于,所述第二调整因子,包括:
第二最大值与预先设置的第二常数的乘积;其中,所述第二最大值为所述指定阈值与第i组负例样本页面的排序分数中的最大值;i为大于或等于1且小于或等于n的整数,n为神经网络的层数。
9.根据权利要求6所述的装置,其特征在于,所述损失函数中还包含约束项;所述约束项用于对加入新特征数据之前的所述神经网络与其在加入新特征数据之后的所述神经网络中所对应的权重参数之间的差值进行二范数约束。
10.根据权利要求6~9任一权利要求所述的装置,其特征在于,所述模型构建单元,具体用于
根据所述正例样本页面的特征数据和所述正例样本页面的特征调整权重,以及所述负例样本页面的特征数据和所述负例样本页面的特征调整权重,获得所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据;以及
根据所述损失函数、所述正例样本页面的调整特征数据和所述负例样本页面的调整特征数据,构建所述页面排序模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610608054.5A CN106250464B (zh) | 2016-07-28 | 2016-07-28 | 排序模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610608054.5A CN106250464B (zh) | 2016-07-28 | 2016-07-28 | 排序模型的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106250464A true CN106250464A (zh) | 2016-12-21 |
CN106250464B CN106250464B (zh) | 2020-04-28 |
Family
ID=57604264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610608054.5A Active CN106250464B (zh) | 2016-07-28 | 2016-07-28 | 排序模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106250464B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294584A (zh) * | 2016-07-28 | 2017-01-04 | 北京百度网讯科技有限公司 | 排序模型的训练方法及装置 |
CN107451894A (zh) * | 2017-08-03 | 2017-12-08 | 北京京东尚科信息技术有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN107506402A (zh) * | 2017-08-03 | 2017-12-22 | 北京百度网讯科技有限公司 | 搜索结果的排序方法、装置、设备及计算机可读存储介质 |
CN107526846A (zh) * | 2017-09-27 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 频道排序模型的生成、排序方法、装置、服务器和介质 |
CN108444486A (zh) * | 2017-02-16 | 2018-08-24 | 高德信息技术有限公司 | 一种导航路线排序方法和装置 |
CN110069524A (zh) * | 2018-07-27 | 2019-07-30 | 北京奇虎科技有限公司 | 数据检索方法及装置 |
CN110188360A (zh) * | 2019-06-06 | 2019-08-30 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN110969006A (zh) * | 2019-12-02 | 2020-04-07 | 支付宝(杭州)信息技术有限公司 | 一种文本排序模型的训练方法和系统 |
WO2020228514A1 (zh) * | 2019-05-13 | 2020-11-19 | 腾讯科技(深圳)有限公司 | 内容推荐方法、装置、设备及存储介质 |
CN113470805A (zh) * | 2020-03-15 | 2021-10-01 | 英业达科技有限公司 | 建立血压模型的方法 |
CN114741048A (zh) * | 2022-05-20 | 2022-07-12 | 中译语通科技股份有限公司 | 一种样本排序方法、装置、计算机设备及可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391883A (zh) * | 2014-11-05 | 2015-03-04 | 北京航空航天大学 | 一种基于迁移学习的在线广告受众排序方法 |
CN104615767A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 搜索排序模型的训练方法、搜索处理方法及装置 |
CN105808732A (zh) * | 2016-03-10 | 2016-07-27 | 北京大学 | 一种基于深度度量学习的一体化目标属性识别与精确检索方法 |
CN106294584A (zh) * | 2016-07-28 | 2017-01-04 | 北京百度网讯科技有限公司 | 排序模型的训练方法及装置 |
-
2016
- 2016-07-28 CN CN201610608054.5A patent/CN106250464B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104391883A (zh) * | 2014-11-05 | 2015-03-04 | 北京航空航天大学 | 一种基于迁移学习的在线广告受众排序方法 |
CN104615767A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 搜索排序模型的训练方法、搜索处理方法及装置 |
CN105808732A (zh) * | 2016-03-10 | 2016-07-27 | 北京大学 | 一种基于深度度量学习的一体化目标属性识别与精确检索方法 |
CN106294584A (zh) * | 2016-07-28 | 2017-01-04 | 北京百度网讯科技有限公司 | 排序模型的训练方法及装置 |
Non-Patent Citations (3)
Title |
---|
LIU T Y: ""Learning to rank for information retrieval"", 《INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH & DEVELOPMENT IN INFORMATION RETRIEVAL》 * |
吴佳金等: ""基于改进PairWise损失函数的排序学习方法"", 《第六届全国信息检索学术会议论文集》 * |
张艳凤: ""基于稀疏表示的排序学习算法"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294584A (zh) * | 2016-07-28 | 2017-01-04 | 北京百度网讯科技有限公司 | 排序模型的训练方法及装置 |
CN108444486B (zh) * | 2017-02-16 | 2020-12-25 | 阿里巴巴(中国)有限公司 | 一种导航路线排序方法和装置 |
CN108444486A (zh) * | 2017-02-16 | 2018-08-24 | 高德信息技术有限公司 | 一种导航路线排序方法和装置 |
CN107451894A (zh) * | 2017-08-03 | 2017-12-08 | 北京京东尚科信息技术有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN107506402A (zh) * | 2017-08-03 | 2017-12-22 | 北京百度网讯科技有限公司 | 搜索结果的排序方法、装置、设备及计算机可读存储介质 |
CN107526846A (zh) * | 2017-09-27 | 2017-12-29 | 百度在线网络技术(北京)有限公司 | 频道排序模型的生成、排序方法、装置、服务器和介质 |
CN110069524A (zh) * | 2018-07-27 | 2019-07-30 | 北京奇虎科技有限公司 | 数据检索方法及装置 |
WO2020228514A1 (zh) * | 2019-05-13 | 2020-11-19 | 腾讯科技(深圳)有限公司 | 内容推荐方法、装置、设备及存储介质 |
CN110188360A (zh) * | 2019-06-06 | 2019-08-30 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN110188360B (zh) * | 2019-06-06 | 2023-04-25 | 北京百度网讯科技有限公司 | 模型训练方法和装置 |
CN110969006A (zh) * | 2019-12-02 | 2020-04-07 | 支付宝(杭州)信息技术有限公司 | 一种文本排序模型的训练方法和系统 |
CN110969006B (zh) * | 2019-12-02 | 2023-03-21 | 支付宝(杭州)信息技术有限公司 | 一种文本排序模型的训练方法和系统 |
CN113470805A (zh) * | 2020-03-15 | 2021-10-01 | 英业达科技有限公司 | 建立血压模型的方法 |
CN114741048A (zh) * | 2022-05-20 | 2022-07-12 | 中译语通科技股份有限公司 | 一种样本排序方法、装置、计算机设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106250464B (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106250464B (zh) | 排序模型的训练方法及装置 | |
WO2020211566A1 (zh) | 一种用户推荐方法和装置以及计算设备和存储介质 | |
CN107506402B (zh) | 搜索结果的排序方法、装置、设备及计算机可读存储介质 | |
US10496653B1 (en) | Data workflow analysis service | |
JP6161679B2 (ja) | 検索エンジン及びその実現方法 | |
WO2021143267A1 (zh) | 基于图像检测的细粒度分类模型处理方法、及其相关设备 | |
US20180174037A1 (en) | Suggesting resources using context hashing | |
US20190392258A1 (en) | Method and apparatus for generating information | |
CN112119388A (zh) | 训练图像嵌入模型和文本嵌入模型 | |
US9104780B2 (en) | System and method for natural language processing | |
CN110825956A (zh) | 一种信息流推荐方法、装置、计算机设备及存储介质 | |
US10606910B2 (en) | Ranking search results using machine learning based models | |
CN103678647A (zh) | 一种实现信息推荐的方法及系统 | |
CN105956011B (zh) | 搜索方法及装置 | |
US9767204B1 (en) | Category predictions identifying a search frequency | |
CN112074828A (zh) | 训练图像嵌入模型和文本嵌入模型 | |
CN112995414B (zh) | 基于语音通话的行为质检方法、装置、设备及存储介质 | |
CN106776707A (zh) | 信息推送的方法和装置 | |
CN114065750A (zh) | 商品信息匹配、发布方法及其装置、设备、介质、产品 | |
CN112307352B (zh) | 内容推荐方法、系统、装置和存储介质 | |
US9785712B1 (en) | Multi-index search engines | |
CN106294584B (zh) | 排序模型的训练方法及装置 | |
CN112579729A (zh) | 文档质量评价模型的训练方法、装置、电子设备和介质 | |
CN111324725B (zh) | 一种话题获取方法、终端、计算机可读存储介质 | |
JP2022530725A (ja) | 情報プッシュ方法、装置、機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |