CN113590796B - 排序模型的训练方法、装置和电子设备 - Google Patents

排序模型的训练方法、装置和电子设备 Download PDF

Info

Publication number
CN113590796B
CN113590796B CN202110893524.8A CN202110893524A CN113590796B CN 113590796 B CN113590796 B CN 113590796B CN 202110893524 A CN202110893524 A CN 202110893524A CN 113590796 B CN113590796 B CN 113590796B
Authority
CN
China
Prior art keywords
text
candidate
target
search
sample pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110893524.8A
Other languages
English (en)
Other versions
CN113590796A (zh
Inventor
邹立新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110893524.8A priority Critical patent/CN113590796B/zh
Publication of CN113590796A publication Critical patent/CN113590796A/zh
Priority to JP2022559445A priority patent/JP7430820B2/ja
Priority to PCT/CN2022/080007 priority patent/WO2023010847A1/zh
Priority to EP22773577.6A priority patent/EP4155973A4/en
Application granted granted Critical
Publication of CN113590796B publication Critical patent/CN113590796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本公开公开了一种排序模型的训练方法、装置和电子设备,涉及自然语言处理和智能搜索等技术领域。具体实现方案为:在训练排序模型时,先获取多个第一样本对及其标签信息;针对各第一样本对,将第一搜索文本、第一候选文本的第一标题文本、以及第一候选文本对应的第一目标摘要输入至初始语言模型中,得到第一样本对对应的第二相关性得分;这样通过第一目标摘要替代第一候选文本参与排序模型的训练,并根据各第一样本对的标签信息和第二相关性得分,更新初始语言模型的网络参数,与现有技术相比,极大程度地降低了计算资源的消耗,解决了因占用较大的计算资源使得排序模型性能较差的问题,从而有效地提高了候选文本的排序效率。

Description

排序模型的训练方法、装置和电子设备
技术领域
本公开涉及计算机技术领域,尤其涉及一种排序模型的训练方法、装置和电子设备,具体可用于自然语言处理和智能搜索等技术领域。
背景技术
搜索引擎作为当今世界获取信息必不可少的工具,在大型工业搜索引擎场景中,对基于搜索内容召回的候选文本进行准确排序,对满足用户的搜索需求和提高用户搜索体验起着至关重要的作用。
相关技术中,通常是基于预训练语言模型(pertrained language model,PLM)的排序模型,实现对基于搜索内容召回的候选文本的排序。然而,基于PLM的排序模型的排序性能提升是以效率为代价的,尤其是当候选文本内容较长时,会严重影响现有的排序模型的性能,导致候选文本的排序效率较低。
发明内容
本公开提供了一种排序模型的训练方法、装置和电子设备,在进行排序时,提高了候选文本的排序效率。
根据本公开的第一方面,提供了一种排序模型的训练方法,该排序模型的训练方法可以包括:
获取多个第一样本对,以及各第一样本对的标签信息;其中,所述各第一样本对中包括第一搜索文本和所述第一搜索文本对应的第一候选文本,所述标签信息用于描述所述第一搜索文本和所述第一候选文本之间的第一相关性得分。
针对所述各第一样本对,确定所述第一样本对中第一候选文本对应的第一目标摘要;并将所述第一搜索文本、所述第一候选文本的第一标题文本、以及所述第一目标摘要输入至初始语言模型中,得到所述第一样本对对应的第二相关性得分。
根据所述各第一样本对对应的第一相关性得分和第二相关性得分,更新所述初始语言模型的网络参数。
根据本公开的第二方面,提供了一种排序模型的训练装置,该排序模型的训练装置可以包括:
第一获取单元,用于获取多个第一样本对,以及各第一样本对的标签信息;其中,所述各第一样本对中包括第一搜索文本和所述第一搜索文本对应的第一候选文本,所述标签信息用于描述所述第一搜索文本和所述第一候选文本之间的第一相关性得分。
第一处理单元,用于针对所述各第一样本对,确定所述第一样本对中第一候选文本对应的第一目标摘要;并将所述第一搜索文本、所述第一候选文本的第一标题文本、以及所述第一目标摘要输入至初始语言模型中,得到所述第一样本对对应的第二相关性得分。
更新单元,用于根据所述各第一样本对对应的第一相关性得分和第二相关性得分,更新所述初始语言模型的网络参数。
根据本公开的第三方面,提供了一种电子设备,该电子设备可以包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面所述的排序模型的训练方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述第一方面所述的排序模型的训练方法。
根据本公开的第五方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行上述第一方面所述的排序模型的训练方法。
根据本公开的技术方案,极大程度地降低了计算资源的消耗,解决了因占用较大的计算资源使得排序模型性能较差的问题,从而有效地提高了候选文本的排序效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例提供的排序模型的训练方法的流程示意图;
图2是本公开实施例提供的一种树模型的示意图;
图3是根据本公开第二实施例提供的确定第一候选文本对应的第一目标摘要的方法的流程示意图;
图4是根据本公开第三实施例提供的确定第一样本对对应的第二相关性得分的方法的流程示意图;
图5是本公开实施例提供的一种初始语言模型的结构示意图;
图6是根据本公开第四实施例提供的对排序模型的网络参数进行优化的方法的流程示意图;
图7是本公开实施例提供的一种排序模型的训练装置的结构示意图;
图8是本公开实施例提供的一种电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
在本公开的实施例中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。在本公开的文字描述中,字符“/”一般表示前后关联对象是一种“或”的关系。此外,在本公开实施例中,“第一”、“第二”、“第三”、“第四”、“第五”以及“第六”只是为了区分不同对象的内容而已,并无其它特殊含义。
本公开实施例提供的技术方案可以应用于搜索引擎的场景中。尤其是在大型工业搜索引擎场景中,基于搜索内容会对应的召回很多个候选文本,通常情况下,为了满足用户的搜索需求和提高用户体验方面,会根据候选文本与搜索内容之间的相关性,优先在展示页面展示与搜索内容相关性较高的候选文本,这样可以满足用户的搜索需求,并提高用户的搜索体验。
因此,如何对基于搜索内容召回的候选文本进行准确排序,优先在展示页面展示与搜索内容相关性较高的候选文本是至关重要的。相关技术中,通常是基于PLM的排序模型,对基于搜索内容召回的候选文本进行准确排序。但是,基于PLM的排序模型在对召回的候选文本进行排序时,其计算资源的消耗与搜索内容和候选文本长度的总长度的平方成正比,尤其是当候选文本内容较长时,会占用较大的计算资源,严重影响现有的排序模型的性能,从而导致候选文本的排序效率较低。
为了解决了因占用较大的计算资源使得排序模型性能较差的问题,从而提高候选文本的排序效率,考虑到一个候选文本通常包括很多内容,且不同部分的内容可能适应于不同的搜索需求,因此,为了平衡排序模型的性能和排序效率,可以先确定候选文本对应的摘要,使得在获取基于预训练语言模型的排序模型时,可以通过摘要替代整个候选文本参与排序模型的训练,并基于搜索文本、候选文本的标题文本以及候选文本对应的摘要训练得到排序模型,与现有技术中相比,极大程度地降低了计算资源的消耗,从而解决了因占用较大的计算资源使得排序模型性能较差的问题,提高了候选文本的排序效率。
基于上述技术构思,本公开实施例提供一种排序模型的训练方法,下面,将通过具体的实施例对本公开提供的排序模型的训练方法进行详细地说明。可以理解的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
实施例一
图1是根据本公开第一实施例提供的排序模型的训练方法的流程示意图,该排序模型的训练方法可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图1所示,该排序模型的训练方法可以包括:
S101、获取多个第一样本对,以及各第一样本对的标签信息。其中,各第一样本对中包括第一搜索文本和第一搜索文本对应的第一候选文本,标签信息用于描述第一搜索文本和第一候选文本之间的第一相关性得分。
通常情况下,相关性得分越高,说明搜索文本和候选文本之间的相关性越强;相反的,相关性得分越低,说明搜索文本和候选文本之间的相关性越弱。
示例的,第一搜索文本可以为“排序模型的发展史”,也可以为“预训练语言模型的网络架构以及概述”等,具体可以根据实际需要进行设置,在此,对于第一搜索文本的内容,本公开实施例不做进一步地限制。
基于输入的第一搜索文本,对应的会召回该第一搜索文本对应的多个候选文本。其中,不同候选文本与第一搜索文本之间的相关性得分不同。在本公开实施例中,各第一样本对中包括的与第一搜索文本对应的第一候选文本,可以为第一搜索文本对应的多个候选文本中的任一个,不局限于与第一搜索文本之间的相关性得分较高的候选文本,只要通过第一样本对的标签信息,标记出第一搜索文本与第一候选文本之间的第一相关性得分即可。
示例的,在获取多个第一样本对时,可以从数据库中直接获取预存的多个第一样本对;也可以从第三方训练系统中获取多个第一样本对;也可以通过其他方式获取多个第一样本对,具体可以根据实际需要进行设置,在此,对于多个第一样本对的获取方式,本公开实施例不做具体地限制。
除了获取多个第一样本对之外,还需要获取该多个第一样本对中各第一样本对对应的标签信息,用于作为第一样本对的监督信息进行排序模型的训练。示例的,在获取各第一样本对对应的标签信息时,可以通过预先训练具有相关性得分标注能力的树模型,并将直接将各第一样本对输入至树模型中,通过树模型的输出获取各第一样本对对应的标签信息;也可以通过预先训练具有相关性得分标注能力的分类模型,并将直接将各第一样本对输入至分类模型中,通过分类模型的输出获取各第一样本对对应的标签信息,也可以通过其它方式,例如人工标注的方式获取各第一样本对对应的标签信息,具体可以根据实际需要进行设置,在此,对于各第一样本对对应的标签信息的获取方式,本公开实施例不做具体限制。
示例的,在预先训练具有相关性得分标注能力的树模型时,示例的,图2是本公开实施例提供的一种树模型的示意图,鉴于用户的行为信息可以一定程度上展现候选文本的点击质量,该点击质量可以基于长点击比和点跳比确定,例如,长点击比可以通过平均换查询次数和平均滑动速度体现,点跳可以通过是否翻页和平均停留时间体现,这些用户行为可以校准原始点击数据中的噪音和展现偏差,其中,差、一般、相关、不错以及完美用于描述样本对中搜索文本和候选文本之间的相关性程度。因此,可以先人工标注少量的具有丰富用户行为特征的搜索文本和候选文本的样本对,通过该具有丰富用户行为特征的搜索文本和候选文本的样本对进行人类偏好学习,鉴于具有丰富用户行为特征的搜索文本和候选文本的样本对的数量较少,因此,可以利用海量的无监督数据来解决样本对数量较少、用户行为不准确的问题,这样可以构建一个具有相关性得分标注能力的树模型。其中,平均停留时长可以有效的过滤通过标题吸引用户注意的候选文本或者误触导致对候选文本的点击;点跳比可以过滤曝光导致的偏差。
在获取多个第一样本对后,就可以通过初始语言模型确定各第一样本对对应的第二相关性得分,以便后续通过各第一样本对对应的标签信息和第二相关性得分,更新初始语言模型的网络参数。
S102、针对各第一样本对,确定第一样本对中第一候选文本对应的第一目标摘要;并将第一搜索文本、第一候选文本的第一标题文本、以及第一目标摘要输入至初始语言模型中,得到第一样本对对应的第二相关性得分。
其中,第一候选文本对应的第一目标摘要,可以理解为从第一候选文本中,筛选出的用于替代第一候选文本参与排序模型的训练的一个语句或者多个语句,且该第一目标摘要的文本长度小于第一候选文本的文本长度。
在获取多个第一样本对中各第一样本对对应的第二相关性得分时,鉴于每一个第一样本对应的第二相关性得分的获取方式类似,因此,为了避免赘述,将以多个第一个样本对中的任意一个第一样本对为例,对如何获取各第一样本对对应的第二相关性得分进行描述。
在获取任一个第一样本对对应的第二相关性得分时,可以将该第一样本对中包括的第一搜索文本、第一候选文本的第一标题文本、以及第一目标摘要输入至初始语言模型中,该初始语言模型可以作为用于训练排序模型的一个初始的语言模型,该初始语言模型的输出即为该第一样本对中包括的第一搜索文本和第一候选文本之间的第二相关性得分,该第二相关性得分可以记为该第一样本对对应的第二相关性得分。基于此方法,就可以获取到多个第一样本对中各第一样本对对应的第二相关性得分。
在通过初始语言模型确定各第一样本对对应的第二相关性得分后,就可以结合上述S101中获取的各第一样本对对应的标签信息,更新初始语言模型的网络参数,即执行下述S103:
S103、根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数。
可以理解的是,上述S101-S103只是排序模型的一次训练操作。在根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数后,若更新后的语言模型收敛,则直接将更新后的初始语言模型确定为需要训练的排序模型;若更新后的语言模型不收敛,则继续执行S101-S103,直至更新后的语言模型收敛,并将收敛时的语言模型确定为需要训练的排序模型,从而获取到排序模型。
可以看出,本公开实施例中,在基于初始语言模型训练排序模型时,可以先获取多个第一样本对,以及各第一样本对的标签信息;针对各第一样本对,确定第一样本对中第一候选文本对应的第一目标摘要;并将第一搜索文本、第一候选文本的第一标题文本、以及第一目标摘要输入至初始语言模型中,得到第一样本对对应的第二相关性得分;这样通过第一目标摘要替代整个第一候选文本参与排序模型的训练,并基于第一搜索文本、第一标题文本以及第一目标摘要确定各第一样本对对应的第二相关性得分,再根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数,与现有技术相比,极大程度地降低了计算资源的消耗,解决了因占用较大的计算资源使得排序模型性能较差的问题,从而有效地提高了候选文本的排序效率。
基于上述图1所示的实施例,为了便于理解在本公开实施例中,如何确定第一样本对中第一候选文本对应的第一目标摘要,下面,将通过下述图3所示的实施例,对如何确定第一样本对中第一候选文本对应的第一目标摘要进行详细描述。
实施例二
图3是根据本公开第二实施例提供的确定第一候选文本对应的第一目标摘要的方法的流程示意图,该确定方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图3所示,该确定第一候选文本对应的第一目标摘要的方法可以包括:
S301、对第一候选文本进行切分处理,得到第一候选文本对应的多个候选语句。
示例的,在对第一候选文本进行切分处理时,可以根据预设符号,对第一候选文本进行切分处理,以得到该第一候选文本对应的多个候选语句;例如,预设符号可以为句号、分号或者其它标点符号等,只要可以准确地实现对文本的切分处理即可;也可以采用现有的文本切分模型,对第一候选文本进行切分处理,以得到该第一候选文本对应的多个候选语句具体可以根据实际需要进行设置,在此,对于如何对第一候选文本进行切分处理,本公开实施例不做具体限制。
S302、针对各候选语句,对候选语句进行分词处理,得到候选语句对应的多个分词;从多个分词中,确定与第一搜索文本包括的分词相同的多个目标分词;以及根据各目标分词对应的重要程度值,和各目标分词在语句中所占的权重,确定候选语句对应的初始得分。
在获取多个候选语句中各候选语句对应的初始得分时,鉴于每一个候选语句对应的初始得分的获取方式类似,因此,为了避免赘述,将以多个候选语句中的任意一个候选语句为例,对如何获取各候选语句对应的初始得分进行描述。
在获取任一个候选语句对应的初始得分时,可以先对该候选语句进行分词处理,该分词处理的方法可以采用现有的分词方法,此处不再进行赘述。通过分词处理,可以得到该候选语句对应的多个分词;再从多个分词中,筛选出与第一搜索文本包括的分词相同的多个目标分词;可以理解的是,在本公开实施例中,除了对候选语句进行分词处理之外,也需要对第一搜索文本进行分词处理,得到该第一搜索文本对应的多个分词,并基于重要程度字典,确定该第一搜索文本对应的多个分词中每一个分词对应的重要程度值;这样在确定出候选语句对应的多个目标分词后,就可以基于第一搜索文本对应的每一个分词对应的重要程度值,确定多个目标分词中每一个目标分词对应的重要程度值,并计算各目标分词对应的重要程度值和权重之间的乘积,并将计算记得到的各目标分词的乘积之和,确定为候选语句对应的初始得分,从而确定出候选语句对应的初始得分。
S303、根据各候选语句对应的初始得分,确定第一候选文本对应的第一目标摘要。
示例的,根据各候选语句对应的初始得分,确定第一候选文本对应的第一目标摘要时,可以包括两种可能的实现方式:
在一种可能的实现方式中,可以根据各候选语句对应的初始得分,将初始得分最高的候选语句,确定为第一候选文本对应的第一目标摘要。这样将一个初始得分最高的候选语句,作为第一目标摘要用于替代第一候选文本参与排序模型的训练,极大程度地减少了排序模型的计算量,降低了计算资源的消耗。
在另一种可能的实现方式中,可以根据各候选语句对应的初始得分,将初始得分最高的候选语句确定为第一候选语句;减小各目标分词在语句中所占的权重,并根据各目标分词对应的重要程度值,和各目标分词减小后的权重,确定候选语句对应的目标得分,将目标得分最高的候选语句确定为第二候选语句;将第一候选语句和第二候选语句确定为第一候选文本对应的第一目标摘要。
需要说明的是,在该种可能的实现方式中,在减小各目标分词在语句中所占的权重后,根据目标分词对应的重要程度值和减小后的权重,确定候选语句对应的目标得分的方法,与上述确定候选语句对应的初始得分的方法类似,此处不再赘述。
在该种可能的实现方式中,通过减小各目标分词在语句中所占的权重,以确定出第二候选语句,并将第一候选语句和第二候选语句确定为第一候选文本对应的第一目标摘要,这样可以使得确定出的第一目标摘要覆盖第一搜索文本中更多的单词,使得第一目标摘要更能充分地描述所替代的第一候选文本,并通过第一目标摘要替代第一候选文本参与排序模型的训练,极大程度地减少了排序模型的计算量,降低了计算资源的消耗。
结合上述S301-S303,在确定第一候选文本对应的第一目标摘要时,可参见下述一段伪代码:
其中,第1行至第4行描述的是对第一候选文本进行切分处理,以及对第一候选文本的多个候选语句进行分词处理;第7行至第9行描述的是对根据各目标分词对应的重要程度值,和各目标分词在语句中所占的权重,确定候选语句对应的初始得分;第10行描述的是将初始得分最高的候选语句,确定为第一候选文本对应的第一目标摘要;第13行描述的是减小各目标分词在语句中所占的权重。
可以看出,本公开实施例中,在确定第一目标摘要时,可以先对第一候选文本进行切分处理,得到第一候选文本对应的多个候选语句;并根据各候选语句对应的初始得分,确定第一候选文本对应的第一目标摘要。这样通过第一目标摘要替代第一候选文本参与排序模型的训练,极大程度地减少了排序模型的计算量,降低了计算资源的消耗,使得后续再基于第一目标摘要训练排序模型时,可以解决因占用较大的计算资源使得排序模型性能较差的问题,从而有效地提高了候选文本的排序效率。
基于上述图1或图3所示的实施例,为了便于理解在上述实施例中,如何得到第一搜索文本、第一标题文本以及第一目标摘要之间的第二相关性得分,并根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数,以得到排序模型。下面,将通过图4所示的实施例三,对如何得到排序模型进行描述。
实施例三
图4是根据本公开第三实施例提供的确定第一样本对对应的第二相关性得分的方法的流程示意图,该确定方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图4所示,该确定第一样本对对应的第二相关性得分的方法可以包括:
S401、将第一搜索文本、第一标题文本、以及第一目标摘要输入至初始语言模型中,分别得到第一标题文本和第一搜索文本对应的向量表示、以及第一目标摘要对应的向量表示。
示例的,在本公开实施例中,初始语言模型中包括摘要编码模型、以及标题和搜索文本编码模型,示例的,可参见图5所示,图5是本公开实施例提供的一种初始语言模型的结构示意图,可以先将第一标题文本和第一搜索文本输入至标题和搜索文本编码模型中,标题和搜索文本编码模型的输出即为第一标题文本和第一搜索文本对应的向量表示,可记为E{q,t},其中,q表示第一标题文本,t表示第一搜索文本,以获取到第一标题文本和第一搜索文本对应的向量表示;以及将第一目标摘要输入至摘要编码模型中,摘要编码模型的输出即为第一目标摘要对应的向量表示,可记为Es,其中,s表示第一目标摘要,以获取到第一目标摘要对应的向量表示。可以理解的是,通常情况下,将第一标题文本和第一搜索文本输入至标题和搜索文本编码模型中之前,需要先确定第一标题文本和第一搜索文本的词向量,并将第一标题文本和第一搜索文本的词向量输入至标题和搜索文本编码模型中;同理,将第一目标摘要输入至摘要编码模型之前,通常需要先确定第一目标摘要的词向量,并将第一目标摘要的词向量输入至标题和搜索文本编码模型中。
在分别获取到第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示后,就可以执行下述S402:
S402、根据第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示,确定第一样本对对应的第二相关性得分。
示例的,初始语言模型中还包括总结编码模型,可参见图5所示,可以将第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示输入至总结编码模型中,该总结编码模型的输出即为第一样本对中包括的第一搜索文本和第一候选文本之间的相关性,即该第一样本对对应的第二相关性得分,该第一样本对对应的第二相关性得分为初始语言模型预测的第一样本对对应的相关性得分。
可以理解的是,上述步骤S401和S402是针对多个第一样本对中的任意一个第一样本对为例,对如何获取该第一样本对对应的第二相关性得分进行了描述,其它第一样本对的第二相关性得分的获取方式类似,在此,本公开实施例不再进行赘述。
S403、根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数。
示例的,可以先根据各第一样本对对应的第一相关性得分和第二相关性得分,构造各第一样本对对应的第一损失函数;鉴于该多个第一样本对为同一批用于训练排序模型的样本对,因此,可以根据各第一样本对对应的第一损失函数,确定该多个第一样本对对应的平均损失函数,可记为第一平均损失函数,再根据第一平均损失函数更新初始语言模型的网络参数,直至第一平均损失函数收敛,将收敛时的语言模型确定为排序模型,从而得到基于语言模型的排序模型。
可以看出,本公开实施例中,在获取基于语言模型的排序模型时,针对各第一样本对,可以先将任一第一样本对对应的第一搜索文本、第一标题文本、以及第一目标摘要输入至初始语言模型中,分别得到第一标题文本和第一搜索文本对应的向量表示、以及第一目标摘要对应的向量表示;根据第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示,确定该第一样本对对应的第二相关性得分;再根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数,从而获取到排序模型,与现有技术相比,平衡了排序模型的性能和排序效率,极大程度地降低了计算资源的消耗,解决了因占用较大的计算资源使得排序模型性能较差的问题,从而有效地提高了候选文本的排序效率。
基于上述图1或图4所示的实施例,进一步地,为了使得训练得到的排序模型输出的相关性得分与其他组件,例如时鲜性,质量,权威性等模块兼容,可以再结合基于点的思想和基于对的思想,对上述实施例得到的排序模型的网络参数进行进一步地优化。
示例的,在结合基于点的思想和基于对的思想,对上述图1或图4所示的实施例得到的排序模型的网络参数进行进一步地优化时,可以再额外获取一批手动标注的搜索样本对,在本公开实施例中,为了区分上述实施例所示的第一样本对,此处可记为第二样本对,与上述实施例所示的第一样本对不同的是,此处的第二样本对中包括一个搜索文本和其对应的两个候选文本,该搜索文本可记为第二搜索文本,对应的两个候选文本可记为第二候选文本和第三候选文本,并基于该批手动标注的多个第二样本对,对上述图1或图4所示的实施例得到的排序模型的网络参数进行进一步地优化,具体可参见下述图6所示的实施例四。
实施例四
图6是根据本公开第四实施例提供的对排序模型的网络参数进行优化的方法的流程示意图,该确定方法同样可以由软件和/或硬件装置执行,例如,该硬件装置可以为终端或者服务器。示例的,请参见图6所示,该对排序模型的网络参数进行优化的方法可以包括:
S601、获取多个第二样本对,以及各第二样本对的第一标签信息和第二标签信息;其中,各第二样本对中包括第二搜索文本和第二搜索文本对应的第二候选文本和第三候选文本,第一标签信息用于描述第二搜索文本和第二候选文本之间的第三相关性得分,第二标签信息用于描述第二搜索文本和第三候选文本之间的第四相关性得分。
基于输入的第二搜索文本,对应的会召回该第二搜索文本对应的多个候选文本。其中,不同候选文本与第二搜索文本之间的相关性得分不同。在本公开实施例中,各第二样本对中包括的与第二搜索文本对应的第二搜索文本和第二候选文本,可以为第二搜索文本对应的多个候选文本中的任意两个,不局限于与第二搜索文本之间的相关性得分较高的两个候选文本,只要通过对应的第一标签信息标记出第二搜索文本和第二候选文本之间的第三相关性得分,对应的第二标签信息标记出第二搜索文本和第三候选文本之间的第四相关性得分即可。
示例的,在获取多个第二样本对时,可以从数据库中直接获取预存的多个第二样本对;也可以从第三方训练系统中获取多个第二样本对;也可以通过其他方式获取多个第二样本对,具体可以根据实际需要进行设置,在此,对于多个第二样本对的获取方式,本公开实施例不做具体地限制。
S602、针对各第二样本对,分别确定第二候选文本对应的第二目标摘要以及第三候选文本对应的第三目标摘要;将第二搜索文本、第二候选文本的第二标题文本、以及第二目标摘要输入至初始语言模型中,得到第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分;以及将第二搜索文本、第三候选文本的第三标题文本、以及第三目标摘要输入至初始语言模型中,得到第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分。
在获取多个第二样本对中各第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分时,鉴于每一个第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分的获取方式类似,因此,为了避免赘述,将以多个第一个样本对中的任意一个第二样本对为例,对如何获取各第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分进行描述。
在获取任一个第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分时,可以先分别确定第二候选文本对应的第二目标摘要以及第三候选文本对应的第三目标摘要,可以理解的是,在本公开实施例中,确定第二候选文本对应的第二目标摘要以及第三候选文本对应的第三目标摘要的方式,与上述实施例中确定第一候选文本对应的第一目标摘要的方式相同,可参见上述实施例的相关描述,在此,本公开实施例不再进行赘述。
在分别确定出第二候选文本对应的第二目标摘要以及第三候选文本对应的第三目标摘要后,可以将第二搜索文本、第二候选文本的第二标题文本、以及第二目标摘要输入至初始语言模型中,得到第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及将第二搜索文本、第三候选文本的第三标题文本、以及第三目标摘要输入至初始语言模型中,得到第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分,其具体实现方式与上述实施例中将第一搜索文本、第一候选文本的第一标题文本、以及第一目标摘要输入至初始语言模型中,得到第一样本对对应的第二相关性得分的实现方式类似,可参见上述实施例的相关描述,在此,本公开实施例不再进行赘述。
通过S602,可以得到多个第二样本对中各第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分,为了便于描述,可以将各第二样本对中第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,以及第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分,记为各第二样本对对应的第五相关性得分和第六相关性得分,这样就可以结合各第二样本对的第一标签信息和第二标签信息共同优化排序模型的网络参数,即执行下述S603;其中,第一标签信息用于描述第二搜索文本和第二候选文本之间的第三相关性得分,第二标签信息用于描述第二搜索文本和第三候选文本之间的第四相关性得分。
S603、根据各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化排序模型的网络参数。
示例的,针对各第二样本对,可以根据第二样本对对应的第三相关性得分和第五相关性得分确定基于点的第二损失函数,以及根据第二样本对对应的第四相关性得分和第六相关性得分确定基于点的第三损失函数;根据第二样本对对应的第五相关性得分和第六相关性得分确定基于对的第四损失函数;再根据第二样本对对应的第二损失函数、第三损失函数以及第四损失函数,确定第二样本对对应的损失函数,具体可参见下述公式:
其中,L表示第二样本对对应的损失函数,假设第二样本对的第一标签信息指示的第三相关性得分值小于第二标签信息指示的第四相关性得分值,则Yi表示第二样本对的第一标签信息,Yj表示第二样本对的第二标签信息,f(q,di)表示排序模型预测的第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分,f(q,dj)表示排序模型预测的第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分,τ表示一个超参数,α表示系数, ∈表示一个参数。
可以理解的是,在上述公式中,max(0,f(q,di)-F(q,dj)+τ)可以理解为根据第二样本对对应的第五相关性得分和第六相关性得分确定基于对的第四损失函数,σ(f(q,di),Yi)可以理解为根据第二样本对对应的第三相关性得分和第五相关性得分确定基于点的第二损失函数,以及σ(f(q,dj),Yj)可以理解为根据第二样本对对应的第四相关性得分和第六相关性得分确定基于点的第三损失函数。
结合上述公式,可以分别确定出各第二样本对对应的损失函数,鉴于该多个第二样本对为同一批用于优化排序模型的网络参数的样本对,因此,可以根据各第二样本对对应的损失函数,确定该多个第二样本对对应的平均损失函数,可记为第二平均损失函数,再根据第二平均损失函数更新初始语言模型的网络参数,直至第二平均损失函数收敛,将收敛时的语言模型确定为优化后的目标排序模型,从而得到基于语言模型的目标排序模型。
可以看出,本公开实施例中,可以先获取多个第二样本对,并根据各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化排序模型的网络参数,以得到优化后的目标排序模型,这样可以基于人工锚定的微调将目标排序模型的预测结果锚定在一个有意义的范围内,使得微调目标与人工偏好的相关性尽可能保持一致,从而有效地提高了目标排序模型的可解释性和稳定性,使得能够更好的与其他组件,例如时鲜性,质量,权威性等模块兼容。
实施例五
图7是本公开实施例提供的一种排序模型的训练装置70的结构示意图,示例的,请参见图7所示,该排序模型的训练装置70可以包括:
第一获取单元701,用于获取多个第一样本对,以及各第一样本对的标签信息;其中,各第一样本对中包括第一搜索文本和第一搜索文本对应的第一候选文本,标签信息用于描述第一搜索文本和第一候选文本之间的第一相关性得分。
第一处理单元702,用于针对各第一样本对,确定第一样本对中第一候选文本对应的第一目标摘要;并将第一搜索文本、第一候选文本的第一标题文本、以及第一目标摘要输入至初始语言模型中,得到第一样本对对应的第二相关性得分。
更新单元703,用于根据各第一样本对对应的第一相关性得分和第二相关性得分,更新初始语言模型的网络参数。
可选的,第一处理单元702包括第一处理模块和第二处理模块。
第一处理模块,用于将第一搜索文本、第一标题文本、以及第一目标摘要输入至初始语言模型中,分别得到第一标题文本和第一搜索文本对应的向量表示、以及第一目标摘要对应的向量表示。
第二处理模块,用于根据第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示,确定第一样本对对应的第二相关性得分。
可选的,初始语言模型中包括摘要编码模型、以及标题和搜索文本编码模型;第一处理模块包括第一处理子模块和第二处理子模块。
第一处理子模块,用于将第一标题文本和第一搜索文本输入至标题和搜索文本编码模型中,得到第一标题文本和第一搜索文本对应的向量表示。
第二处理子模块,用于将第一目标摘要输入至摘要编码模型中,得到第一目标摘要对应的向量表示。
可选的,初始语言模型中还包括总结编码模型;第二处理模块包括第三处理子模块。
第三处理子模块,用于将第一标题文本和第一搜索文本对应的向量表示,和第一目标摘要对应的向量表示输入至总结编码模型中,得到第一样本对对应的第二相关性得分。
可选的,第一处理模块还包括第三处理模块、第四处理模块以及第五处理模块。
第三处理模块,用于对第一候选文本进行切分处理,得到第一候选文本对应的多个候选语句。
第四处理模块,用于针对各候选语句,对候选语句进行分词处理,得到候选语句对应的多个分词;从多个分词中,确定与第一搜索文本包括的分词相同的多个目标分词;以及根据各目标分词对应的重要程度值,和各目标分词在语句中所占的权重,确定候选语句对应的初始得分。
第五处理模块,用于根据各候选语句对应的初始得分,确定第一候选文本对应的第一目标摘要。
可选的,第五处理模块包括第四处理子模块和第五处理子模块。
第四处理子模块,用于根据各候选语句对应的初始得分,将初始得分最高的候选语句,确定为第一候选文本对应的第一目标摘要;
或者,
第五处理子模块,用于根据各候选语句对应的初始得分,将初始得分最高的候选语句确定为第一候选语句;减小各目标分词在语句中所占的权重,并根据各目标分词对应的重要程度值,和各目标分词减小后的权重,确定候选语句对应的目标得分,将目标得分最高的候选语句确定为第二候选语句;将第一候选语句和第二候选语句确定为第一候选文本对应的第一目标摘要。
可选的,更新单元703包括第一更新模块和第二更新模块。
第一更新模块,用于根据各第一样本对对应的第一相关性得分和第二相关性得分,构造各第一样本对对应的第一损失函数。
第二更新模块,用于根据各第一样本对对应的第一损失函数的第一平均损失函数,更新初始语言模型的网络参数,直至第一平均损失函数收敛,将收敛时的语言模型确定为排序模型。
可选的,该排序模型的训练装置70还包括第二获取单元、第二处理单元和优化单元。
第二获取单元,用于获取多个第二样本对,以及各第二样本对的第一标签信息和第二标签信息;其中,各第二样本对中包括第二搜索文本和第二搜索文本对应的第二候选文本和第三候选文本,第一标签信息用于描述第二搜索文本和第二候选文本之间的第三相关性得分,第二标签信息用于描述第二搜索文本和第三候选文本之间的第四相关性得分。
第二处理单元,用于针对各第二样本对,分别确定第二候选文本对应的第二目标摘要以及第三候选文本对应的第三目标摘要;将第二搜索文本、第二候选文本的第二标题文本、以及第二目标摘要输入至初始语言模型中,得到第二搜索文本、第二标题文本以及第二目标摘要之间的第五相关性得分;以及将第二搜索文本、第三候选文本的第三标题文本、以及第三目标摘要输入至初始语言模型中,得到第二搜索文本、第三标题文本以及第三目标摘要之间的第六相关性得分。
优化单元,用于根据各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化排序模型的网络参数。
可选的,优化单元包括第一优化模块、第二优化模块以及第三优化模块。
第一优化模块,用于针对各第二样本对,根据第二样本对对应的第三相关性得分和第五相关性得分确定基于点的第二损失函数,以及根据第二样本对对应的第四相关性得分和第六相关性得分确定基于点的第三损失函数;根据第二样本对对应的第五相关性得分和第六相关性得分确定基于对的第四损失函数。
第二优化模块,用于根据各第二样本对对应的第二损失函数、第三损失函数以及第四损失函数,确定各第二样本对对应的损失函数。
第三优化模块,用于根据各第二样本对对应的损失函数的第二平均损失函数,更新排序的网络参数,直至第二平均损失函数收敛,将收敛时的排序模型确定为目标排序模型。
本公开实施例提供的排序模型的训练装置70,可以执行上述任一实施例所示的排序模型的训练方法的技术方案,其实现原理以及有益效果与排序模型的训练方法的实现原理及有益效果类似,可参见排序模型的训练方法的实现原理及有益效果,此处不再进行赘述。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质。
根据本公开的实施例,本公开还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
图8是本公开实施例提供的一种电子设备80的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,电子设备80包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备80操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备80中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备80通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如排序模型的训练方法。例如,在一些实施例中,排序模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备80上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的排序模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行排序模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (16)

1.一种排序模型的训练方法,包括:
获取多个第一样本对,以及各第一样本对的标签信息;其中,所述各第一样本对中包括第一搜索文本和所述第一搜索文本对应的第一候选文本,所述标签信息用于描述所述第一搜索文本和所述第一候选文本之间的第一相关性得分;
针对所述各第一样本对,确定所述第一样本对中第一候选文本对应的第一目标摘要;并将所述第一搜索文本、所述第一候选文本的第一标题文本、以及所述第一目标摘要输入至初始语言模型中,得到所述第一样本对对应的第二相关性得分;
根据所述各第一样本对对应的第一相关性得分和第二相关性得分,更新所述初始语言模型的网络参数;
所述根据所述各第一样本对对应的第一相关性得分和第二相关性得分,更新所述初始语言模型的网络参数,包括:
根据所述各第一样本对对应的第一相关性得分和第二相关性得分,构造所述各第一样本对对应的第一损失函数;
根据所述各第一样本对对应的第一损失函数的第一平均损失函数,更新所述初始语言模型的网络参数,直至所述第一平均损失函数收敛,将收敛时的语言模型确定为排序模型;
获取多个第二样本对,以及各第二样本对的第一标签信息和第二标签信息;其中,所述各第二样本对中包括第二搜索文本和所述第二搜索文本对应的第二候选文本和第三候选文本,所述第一标签信息用于描述所述第二搜索文本和所述第二候选文本之间的第三相关性得分,所述第二标签信息用于描述所述第二搜索文本和所述第三候选文本之间的第四相关性得分;
针对所述各第二样本对,分别确定所述第二候选文本对应的第二目标摘要以及所述第三候选文本对应的第三目标摘要;将所述第二搜索文本、所述第二候选文本的第二标题文本、以及所述第二目标摘要输入至初始语言模型中,得到所述第二搜索文本、所述第二标题文本以及所述第二目标摘要之间的第五相关性得分;以及将所述第二搜索文本、所述第三候选文本的第三标题文本、以及所述第三目标摘要输入至初始语言模型中,得到所述第二搜索文本、所述第三标题文本以及所述第三目标摘要之间的第六相关性得分;
根据所述各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化所述排序模型的网络参数。
2.根据权利要求1所述的方法,其中,所述将所述第一搜索文本、所述第一候选文本的第一标题文本、以及所述第一目标摘要输入至初始语言模型中,得到所述第一样本对对应的第二相关性得分,包括:
将所述第一搜索文本、所述第一标题文本、以及所述第一目标摘要输入至初始语言模型中,分别得到所述第一标题文本和所述第一搜索文本对应的向量表示、以及所述第一目标摘要对应的向量表示;
根据所述第一标题文本和所述第一搜索文本对应的向量表示,和所述第一目标摘要对应的向量表示,确定所述第一样本对对应的第二相关性得分。
3.根据权利要求2所述的方法,其中,所述初始语言模型中包括摘要编码模型、以及标题和搜索文本编码模型;
所述将所述第一搜索文本、所述第一标题文本、以及所述第一目标摘要输入至初始语言模型中,分别得到所述第一标题文本和所述第一搜索文本对应的向量表示、以及所述第一目标摘要对应的向量表示,包括:
将所述第一标题文本和所述第一搜索文本输入至所述标题和搜索文本编码模型中,得到所述第一标题文本和所述第一搜索文本对应的向量表示;
将所述第一目标摘要输入至所述摘要编码模型中,得到所述第一目标摘要对应的向量表示。
4.根据权利要求2或3所述的方法,其中,所述初始语言模型中还包括总结编码模型;
所述根据所述第一标题文本和所述第一搜索文本对应的向量表示,和所述第一目标摘要对应的向量表示,确定所述第一样本对对应的第二相关性得分,包括:
将所述第一标题文本和所述第一搜索文本对应的向量表示,和所述第一目标摘要对应的向量表示输入至所述总结编码模型中,得到所述第一样本对对应的第二相关性得分。
5.根据权利要求1-3任一项所述的方法,其中,所述确定所述第一样本对中第一候选文本对应的第一目标摘要,包括:
对所述第一候选文本进行切分处理,得到所述第一候选文本对应的多个候选语句;
针对各候选语句,对所述候选语句进行分词处理,得到所述候选语句对应的多个分词;从所述多个分词中,确定与所述第一搜索文本包括的分词相同的多个目标分词;以及根据各目标分词对应的重要程度值,和所述各目标分词在所述语句中所占的权重,确定所述候选语句对应的初始得分;
根据所述各候选语句对应的初始得分,确定所述第一候选文本对应的所述第一目标摘要。
6.根据权利要求5所述的方法,其中,所述根据所述各候选语句对应的初始得分,确定所述第一候选文本对应的所述第一目标摘要,包括:
根据所述各候选语句对应的初始得分,将初始得分最高的候选语句,确定为所述第一候选文本对应的所述第一目标摘要;
或者,
根据所述各候选语句对应的初始得分,将初始得分最高的候选语句确定为第一候选语句;减小所述各目标分词在所述语句中所占的权重,并根据所述各目标分词对应的重要程度值,和所述各目标分词减小后的权重,确定所述候选语句对应的目标得分,将目标得分最高的候选语句确定为第二候选语句;将所述第一候选语句和所述第二候选语句确定为所述第一候选文本对应的所述第一目标摘要。
7.根据权利要求1所述的方法,其中,所述根据所述各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化所述排序模型的网络参数,包括:
针对所述各第二样本对,根据所述第二样本对对应的第三相关性得分和所述第五相关性得分确定基于点的第二损失函数,以及根据所述第二样本对对应的第四相关性得分和所述第六相关性得分确定基于点的第三损失函数;根据所述第二样本对对应的第五相关性得分和所述第六相关性得分确定基于对的第四损失函数;
根据所述各第二样本对对应的第二损失函数、第三损失函数以及第四损失函数,确定所述各第二样本对对应的损失函数;
根据所述各第二样本对对应的损失函数的第二平均损失函数,更新所述排序模型的网络参数,直至所述第二平均损失函数收敛,将收敛时的排序模型确定为目标排序模型。
8.一种排序模型的训练装置,包括:
第一获取单元,用于获取多个第一样本对,以及各第一样本对的标签信息;其中,所述各第一样本对中包括第一搜索文本和所述第一搜索文本对应的第一候选文本,所述标签信息用于描述所述第一搜索文本和所述第一候选文本之间的第一相关性得分;
第一处理单元,用于针对所述各第一样本对,确定所述第一样本对中第一候选文本对应的第一目标摘要;并将所述第一搜索文本、所述第一候选文本的第一标题文本、以及所述第一目标摘要输入至初始语言模型中,得到所述第一样本对对应的第二相关性得分;
更新单元,用于根据所述各第一样本对对应的第一相关性得分和第二相关性得分,更新所述初始语言模型的网络参数;
所述更新单元包括第一更新模块和第二更新模块;
所述第一更新模块,用于根据所述各第一样本对对应的第一相关性得分和第二相关性得分,构造所述各第一样本对对应的第一损失函数;
所述第二更新模块,用于根据所述各第一样本对对应的第一损失函数的第一平均损失函数,更新所述初始语言模型的网络参数,直至所述第一平均损失函数收敛,将收敛时的语言模型确定为排序模型;
所述装置还包括第二获取单元、第二处理单元和优化单元;
所述第二获取单元,用于获取多个第二样本对,以及各第二样本对的第一标签信息和第二标签信息;其中,所述各第二样本对中包括第二搜索文本和所述第二搜索文本对应的第二候选文本和第三候选文本,所述第一标签信息用于描述所述第二搜索文本和所述第二候选文本之间的第三相关性得分,所述第二标签信息用于描述所述第二搜索文本和所述第三候选文本之间的第四相关性得分;
所述第二处理单元,用于针对所述各第二样本对,分别确定所述第二候选文本对应的第二目标摘要以及所述第三候选文本对应的第三目标摘要;将所述第二搜索文本、所述第二候选文本的第二标题文本、以及所述第二目标摘要输入至初始语言模型中,得到所述第二搜索文本、所述第二标题文本以及所述第二目标摘要之间的第五相关性得分;以及将所述第二搜索文本、所述第三候选文本的第三标题文本、以及所述第三目标摘要输入至初始语言模型中,得到所述第二搜索文本、所述第三标题文本以及所述第三目标摘要之间的第六相关性得分;
所述优化单元,用于根据所述各第二样本对对应的第三相关性得分、第四相关性得分、第五相关性得分以及第六相关性得分,优化所述排序模型的网络参数。
9.根据权利要求8所述的装置,其中,所述第一处理单元包括第一处理模块和第二处理模块;
所述第一处理模块,用于将所述第一搜索文本、所述第一标题文本、以及所述第一目标摘要输入至初始语言模型中,分别得到所述第一标题文本和所述第一搜索文本对应的向量表示、以及所述第一目标摘要对应的向量表示;
所述第二处理模块,用于根据所述第一标题文本和所述第一搜索文本对应的向量表示,和所述第一目标摘要对应的向量表示,确定所述第一样本对对应的第二相关性得分。
10.根据权利要求9所述的装置,其中,所述初始语言模型中包括摘要编码模型、以及标题和搜索文本编码模型;所述第一处理模块包括第一处理子模块和第二处理子模块;
所述第一处理子模块,用于将所述第一标题文本和所述第一搜索文本输入至所述标题和搜索文本编码模型中,得到所述第一标题文本和所述第一搜索文本对应的向量表示;
所述第二处理子模块,用于将所述第一目标摘要输入至所述摘要编码模型中,得到所述第一目标摘要对应的向量表示。
11.根据权利要求9或10所述的装置,其中,所述初始语言模型中还包括总结编码模型;所述第二处理模块包括第三处理子模块;
所述第三处理子模块,用于将所述第一标题文本和所述第一搜索文本对应的向量表示,和所述第一目标摘要对应的向量表示输入至所述总结编码模型中,得到所述第一样本对对应的第二相关性得分。
12.根据权利要求9-10任一项所述的装置,其中,所述第一处理模块还包括第三处理模块、第四处理模块以及第五处理模块;
所述第三处理模块,用于对所述第一候选文本进行切分处理,得到所述第一候选文本对应的多个候选语句;
所述第四处理模块,用于针对各候选语句,对所述候选语句进行分词处理,得到所述候选语句对应的多个分词;从所述多个分词中,确定与所述第一搜索文本包括的分词相同的多个目标分词;以及根据各目标分词对应的重要程度值,和所述各目标分词在所述语句中所占的权重,确定所述候选语句对应的初始得分;
所述第五处理模块,用于根据所述各候选语句对应的初始得分,确定所述第一候选文本对应的所述第一目标摘要。
13.根据权利要求12所述的装置,其中,所述第五处理模块包括第四处理子模块和第五处理子模块;
所述第四处理子模块,用于根据所述各候选语句对应的初始得分,将初始得分最高的候选语句,确定为所述第一候选文本对应的所述第一目标摘要;
或者,
所述第五处理子模块,用于根据所述各候选语句对应的初始得分,将初始得分最高的候选语句确定为第一候选语句;减小所述各目标分词在所述语句中所占的权重,并根据所述各目标分词对应的重要程度值,和所述各目标分词减小后的权重,确定所述候选语句对应的目标得分,将目标得分最高的候选语句确定为第二候选语句;将所述第一候选语句和所述第二候选语句确定为所述第一候选文本对应的所述第一目标摘要。
14.根据权利要求8所述的装置,其中,所述优化单元包括第一优化模块、第二优化模块以及第三优化模块;
所述第一优化模块,用于针对所述各第二样本对,根据所述第二样本对对应的第三相关性得分和所述第五相关性得分确定基于点的第二损失函数,以及根据所述第二样本对对应的第四相关性得分和所述第六相关性得分确定基于点的第三损失函数;根据所述第二样本对对应的第五相关性得分和所述第六相关性得分确定基于对的第四损失函数;
所述第二优化模块,用于根据所述各第二样本对对应的第二损失函数、第三损失函数以及第四损失函数,确定所述各第二样本对对应的损失函数;
所述第三优化模块,用于根据所述各第二样本对对应的损失函数的第二平均损失函数,更新所述排序模型的网络参数,直至所述第二平均损失函数收敛,将收敛时的排序模型确定为目标排序模型。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的排序模型的训练方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的排序模型的训练方法。
CN202110893524.8A 2021-08-04 2021-08-04 排序模型的训练方法、装置和电子设备 Active CN113590796B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110893524.8A CN113590796B (zh) 2021-08-04 2021-08-04 排序模型的训练方法、装置和电子设备
JP2022559445A JP7430820B2 (ja) 2021-08-04 2022-03-09 ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム
PCT/CN2022/080007 WO2023010847A1 (zh) 2021-08-04 2022-03-09 排序模型的训练方法、装置和电子设备
EP22773577.6A EP4155973A4 (en) 2021-08-04 2022-03-09 METHOD AND DEVICE FOR TRAINING A SORTING MODEL AND ELECTRONIC DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110893524.8A CN113590796B (zh) 2021-08-04 2021-08-04 排序模型的训练方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN113590796A CN113590796A (zh) 2021-11-02
CN113590796B true CN113590796B (zh) 2023-09-05

Family

ID=78255127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110893524.8A Active CN113590796B (zh) 2021-08-04 2021-08-04 排序模型的训练方法、装置和电子设备

Country Status (4)

Country Link
EP (1) EP4155973A4 (zh)
JP (1) JP7430820B2 (zh)
CN (1) CN113590796B (zh)
WO (1) WO2023010847A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590796B (zh) * 2021-08-04 2023-09-05 百度在线网络技术(北京)有限公司 排序模型的训练方法、装置和电子设备
CN114547417A (zh) * 2022-02-25 2022-05-27 北京百度网讯科技有限公司 一种媒体资源排序方法及电子设备
CN115439219A (zh) * 2022-09-13 2022-12-06 中债金科信息技术有限公司 违约风险检测模型的训练方法及装置
CN115879421B (zh) * 2023-02-16 2024-01-09 之江实验室 一种增强bart预训练任务的句子排序方法及装置
CN116664335B (zh) * 2023-07-24 2023-10-03 创域智能(常熟)网联科技有限公司 基于智能监控的半导体生产系统运行分析方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN111026849A (zh) * 2019-12-17 2020-04-17 北京百度网讯科技有限公司 数据处理方法和装置
CN111597800A (zh) * 2019-02-19 2020-08-28 百度在线网络技术(北京)有限公司 同义句的获取方法及装置、设备及存储介质
CN112052308A (zh) * 2020-08-21 2020-12-08 腾讯科技(深圳)有限公司 一种摘要文本提取方法、装置、存储介质和电子设备
CN112100529A (zh) * 2020-11-17 2020-12-18 北京三快在线科技有限公司 搜索内容排序方法、装置、存储介质和电子设备
CN112988969A (zh) * 2021-03-09 2021-06-18 北京百度网讯科技有限公司 用于文本检索的方法、装置、设备以及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8984398B2 (en) * 2008-08-28 2015-03-17 Yahoo! Inc. Generation of search result abstracts
CN105930314B (zh) * 2016-04-14 2019-02-05 清华大学 基于编码-解码深度神经网络的文本摘要生成系统及方法
US10606847B2 (en) * 2016-05-31 2020-03-31 Microsoft Technology Licensing, Llc Generation of training data for ideal candidate search ranking model
JP6789860B2 (ja) 2017-03-14 2020-11-25 ヤフー株式会社 情報提供装置、情報提供方法、および情報提供プログラム
CN112328783A (zh) 2020-11-24 2021-02-05 腾讯科技(深圳)有限公司 一种摘要确定方法和相关装置
CN112560496B (zh) * 2020-12-09 2024-02-02 北京百度网讯科技有限公司 语义分析模型的训练方法、装置、电子设备及存储介质
CN113590796B (zh) * 2021-08-04 2023-09-05 百度在线网络技术(北京)有限公司 排序模型的训练方法、装置和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104615767A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 搜索排序模型的训练方法、搜索处理方法及装置
CN111597800A (zh) * 2019-02-19 2020-08-28 百度在线网络技术(北京)有限公司 同义句的获取方法及装置、设备及存储介质
CN111026849A (zh) * 2019-12-17 2020-04-17 北京百度网讯科技有限公司 数据处理方法和装置
CN112052308A (zh) * 2020-08-21 2020-12-08 腾讯科技(深圳)有限公司 一种摘要文本提取方法、装置、存储介质和电子设备
CN112100529A (zh) * 2020-11-17 2020-12-18 北京三快在线科技有限公司 搜索内容排序方法、装置、存储介质和电子设备
CN112988969A (zh) * 2021-03-09 2021-06-18 北京百度网讯科技有限公司 用于文本检索的方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
JP2023541742A (ja) 2023-10-04
CN113590796A (zh) 2021-11-02
EP4155973A4 (en) 2023-09-20
EP4155973A1 (en) 2023-03-29
JP7430820B2 (ja) 2024-02-13
WO2023010847A1 (zh) 2023-02-09

Similar Documents

Publication Publication Date Title
CN113590796B (zh) 排序模型的训练方法、装置和电子设备
KR20210038449A (ko) 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체
CN113326420B (zh) 问题检索方法、装置、电子设备和介质
CN112541125B (zh) 序列标注模型训练方法、装置及电子设备
CN114861889B (zh) 深度学习模型的训练方法、目标对象检测方法和装置
CN116028618B (zh) 文本处理、文本检索方法、装置、电子设备及存储介质
CN114861637B (zh) 拼写纠错模型生成方法和装置、拼写纠错方法和装置
CN113988157A (zh) 语义检索网络训练方法、装置、电子设备及存储介质
CN115062718A (zh) 语言模型训练方法、装置、电子设备及存储介质
CN113010752B (zh) 召回内容的确定方法、装置、设备以及存储介质
CN112506864B (zh) 文件检索的方法、装置、电子设备及可读存储介质
CN113919424A (zh) 文本处理模型的训练、文本处理方法、装置、设备和介质
CN115248890A (zh) 用户兴趣画像的生成方法、装置、电子设备以及存储介质
CN113792230B (zh) 服务链接方法、装置、电子设备和存储介质
CN113408280B (zh) 负例构造方法、装置、设备和存储介质
CN114417862A (zh) 文本匹配方法、文本匹配模型的训练方法和装置
CN114647739A (zh) 实体链指方法、装置、电子设备及存储介质
CN112784600A (zh) 信息排序方法、装置、电子设备和存储介质
CN116127948B (zh) 待标注文本数据的推荐方法、装置及电子设备
CN116244432B (zh) 语言模型的预训练方法、装置及电子设备
CN114201607B (zh) 一种信息处理的方法和装置
CN115186163B (zh) 搜索结果排序模型的训练与搜索结果排序方法、装置
CN115168537B (zh) 语义检索模型的训练方法、装置、电子设备及存储介质
CN113377921B (zh) 用于匹配信息的方法、装置、电子设备以及介质
CN115952852B (zh) 模型训练方法、文本检索方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant