CN116628346A - 搜索词推荐模型的训练方法及装置 - Google Patents

搜索词推荐模型的训练方法及装置 Download PDF

Info

Publication number
CN116628346A
CN116628346A CN202310884701.5A CN202310884701A CN116628346A CN 116628346 A CN116628346 A CN 116628346A CN 202310884701 A CN202310884701 A CN 202310884701A CN 116628346 A CN116628346 A CN 116628346A
Authority
CN
China
Prior art keywords
search word
user
recommendation model
training
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310884701.5A
Other languages
English (en)
Other versions
CN116628346B (zh
Inventor
王芳
董辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Xumi Yuntu Space Technology Co Ltd
Original Assignee
Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Xumi Yuntu Space Technology Co Ltd filed Critical Shenzhen Xumi Yuntu Space Technology Co Ltd
Priority to CN202310884701.5A priority Critical patent/CN116628346B/zh
Publication of CN116628346A publication Critical patent/CN116628346A/zh
Application granted granted Critical
Publication of CN116628346B publication Critical patent/CN116628346B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及搜索技术领域,提供了一种搜索词推荐模型的训练方法及装置。该方法包括:构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。

Description

搜索词推荐模型的训练方法及装置
技术领域
本申请涉及搜索技术领域,尤其涉及一种搜索词推荐模型的训练方法及装置。
背景技术
目前推荐搜索词的常用方法是,先形成词的离线候选集,比如,抽取用户搜索历史的特征、抽取搜索目标的特征、业务配置需要曝光的热词等;然后基于离线候选集进行规则过滤,比如违规敏感词、长度过滤、搜索目标过滤等;最后结合搜索的功能模块,按照运营业务人员的强规则配置,确定推荐搜索词的展示顺序。如上,在各个阶段,主要是以规则为主,但是,规则往往不足以覆盖所有可能的情况或场景,且需要持续的维护和更新;并且对用户的特征信息考虑的很少,不能反映用户的复杂性和多样性。
发明内容
有鉴于此,本申请实施例提供了一种搜索词推荐模型的训练方法、装置、电子设备及计算机可读存储介质,以解决现有技术中,以规则为主的搜索词推荐方法不足以覆盖所有可能的情况或场景,也不能反映用户的多样性的问题。
本申请实施例的第一方面,提供了一种搜索词推荐模型的训练方法,包括:构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
本申请实施例的第二方面,提供了一种搜索词推荐模型的训练装置,包括:构建模块,被配置为构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;第一训练模块,被配置为获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;第二训练模块,被配置为在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:因为本申请实施例通过构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练,因此,采用上述技术手段,可以解决现有技术中,以规则为主的搜索词推荐方法不足以覆盖所有可能的情况或场景,也不能反映用户的多样性的问题,进而覆盖所有可能的情况或场景,为不同的用户提供搜索词推荐。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的一种搜索词推荐模型的训练方法的流程示意图;
图2是本申请实施例提供的另一种搜索词推荐模型的训练方法的流程示意图;
图3是本申请实施例提供的一种搜索词推荐模型的训练装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
图1是本申请实施例提供的一种搜索词推荐模型的训练方法的流程示意图。图1的搜索词推荐模型的训练方法可以由计算机或服务器,或者计算机或服务器上的软件执行。如图1所示,该搜索词推荐模型的训练方法包括:
S101,构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;
S102,获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;
S103,在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
大语言模型是LLM模型,英文全称是Large Language Model,依次连接信息表征网络、大语言模型和在线学习模块,得到搜索词推荐模型。信息表征网络是用于表征用户信息的网络层,在线学习模块用于收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈。在线学习模块上设置有对应的接口,可以收集各个用户对搜索词推荐模型提供的推荐结果的反馈;在线学习模块中还包括文本分类网络,用于对各个用户对搜索词推荐模型提供的推荐结果的反馈进行处理。无论是对搜索词推荐模型进行监督学习训练,还是对搜索词推荐模型进行强化学习训练中,搜索词推荐模型内部的三个网络部分均是参与更新的,对于在线学习模块是更新其内部的文本分类网络,其内部的接口是不用更新的。训练数据中的用户信息就是训练数据中的训练样本,训练数据中包含大量的训练样本。
根据本申请实施例提供的技术方案,构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练,因此,采用上述技术手段,可以解决现有技术中,以规则为主的搜索词推荐方法不足以覆盖所有可能的情况或场景,也不能反映用户的多样性的问题,进而覆盖所有可能的情况或场景,为不同的用户提供搜索词推荐。
进一步地,利用信息表征网络处理用户信息,得到用户信息表征,包括:将用户信息划分为用户离散信息、用户连续信息和搜索历史信息;对用户连续信息进行离散化处理,并分别对用户离散信息和离散化处理后的用户连续信息进行独热编码,得到离散信息表征和连续信息表征;利用双向编码器对搜索历史信息进行处理,得到历史信息表征;对离散信息表征、连续信息表征和历史信息表征进行特征拼接处理,得到用户信息表征。
本申请实施例是从算法侧介绍的信息表征网络内部处理用户信息的过程,相对应上述算法的四个步骤,信息表征网络内部结构依次包括:信息划分层、独热编码层、双向编码层和特征拼接层。
比如用户A,其用户离散信息为:男,上海人,喜欢电子设备;其用户连续信息为:23岁,购买了5词商品,共下单10000元;其搜索历史信息为:“iphone14”,“macbook最新”等(搜索历史信息是用户搜索历史中使用到的搜索词)。
独热编码即 One-Hot 编码,双向编码器是Bert模型中的双向编码器,BERT英文全称是Bidirectional EncoderRepresentations from Transformers。
进一步地,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练,包括:利用损失函数计算用户信息对应的推荐结果和标签之间的损失值;依据损失值更新搜索词推荐模型的参数,以完成对搜索词推荐模型进行的监督学习训练。
损失函数可以是交叉熵损失函数,监督学习训练的方法为常用方法,不再赘述。
进一步地,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练,包括:将在线学习模块处理各个用户的反馈的结果作为将该用户的用户信息输入搜索词推荐模型并且输出该用户对应的推荐结果时的外部奖励;依据每个用户对应的外部奖励更新搜索词推荐模型的参数,以完成对搜索词推荐模型进行的强化学习训练。
也就是将一个用户的用户信息输入搜索词推荐模型,输出该用户对应的推荐结果,此时的外部奖励是在线学习模块处理该用户的反馈的结果。强化学习训练的方法为常用方法,不再赘述。
进一步地,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练之后,方法还包括:在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,当在线学习模块没有收集到各个用户对搜索词推荐模型提供的推荐结果的反馈,但收集到除推荐结果之外的新的搜索词时:将各个用户的用户信息输入搜索词推荐模型,输出各个用户对应的推荐结果;依据各个用户对应的推荐结果和各个用户提供的新的搜索词对搜索词推荐模型进行监督学习训练。
在用户对搜索词推荐模型提供的推荐结果不满意时,可能并不会对搜索词推荐模型提供的推荐结果进行任何操作,所以此时在线学习模块不会收集到用户对搜索词推荐模型提供的推荐结果的反馈,用户会发出除推荐结果之外的新的搜索词进行搜索。将新的搜索词作为标签,依据用户对应的推荐结果和用户提供的新的搜索词对搜索词推荐模型进行监督学习训练。
进一步地,利用在线学习模块处理各个用户对搜索词推荐模型提供的推荐结果的反馈,包括:判断各个用户对搜索词推荐模型提供的推荐结果的反馈是否为正反馈和负反馈;当反馈为正反馈时,确定正反馈的级别,并基于正反馈的级别确定强化学习训练中外部奖励的级别;当反馈为负反馈时,确定负反馈的级别,并基于负反馈的级别确定强化学习训练中外部奖励的级别。
正反馈是用户满意推荐结果,负反馈是用户不满意推荐结果。
正反馈包括一级正反馈、二级正反馈和三级正反馈,比如用户反馈中存在点赞行为,则判定该反馈为一级正反馈,此时外部奖励的级别是最低的正奖励;用户反馈中存在浏览推荐结果对应的目标的时长大于预设时长(比如文本推荐场景中,推荐结果对应的目标就是推荐文本),则判定该反馈为二级正反馈,此时外部奖励的级别是中等的正奖励;用户反馈中存在用户基于推荐结果进行多次搜索的行为,则判定该反馈为三级正反馈,此时外部奖励的级别是最高的正奖励。
负反馈包括一级负反馈、二级负反馈和三级负反馈,比如用户反馈中存在点踩行为,则判定该反馈为一级负反馈,此时外部奖励的级别是最低的负奖励;用户反馈中删除推荐结果的行为,则判定该反馈为二级负反馈,此时外部奖励的级别是中等的负奖励;用户反馈中存在用户表示推荐结果完全不合适的行为,则判定该反馈为三级负反馈,此时外部奖励的级别是最高的负奖励。
图2是本申请实施例提供的一种确定数据组中最后一条数据对应的相似句的方法的流程示意图。如图2所示,包括:
S201,建立普通搜索词推荐任务、内容资讯搜索词推荐子任务、电子商务搜索词推荐子任务和企业行业搜索词推荐子任务;
S202,基于普通搜索词推荐任务对搜索词推荐模型进行第一阶段训练,其中,第一阶段训练用于确定搜索词推荐模型的超参数的值以及优化搜索词推荐模型的参数;
S203,分别基于内容资讯搜索词推荐子任务、电子商务搜索词推荐子任务和企业行业搜索词推荐子任务对搜索词推荐模型进行第二阶段训练,其中,第二阶段训练用于在各种子任务下优化搜索词推荐模型的参数,第一阶段训练和第二阶段训练均属于监督学习训练;
S204,在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
普通搜索词推荐任务的训练数据是获取的搜索领域训练中的公共数据集,或者从新闻上获取的;内容资讯搜索词推荐子任务的训练数据是搜狐、腾讯、新浪网、网易等资讯网站获取的数据;电子商务搜索词推荐子任务的训练数据是淘宝、聚美、京东、苏宁等购物网站获取的数据;企业行业搜索词推荐子任务的训练数据是汽车之家、智联招聘、携程等行业网站获取的数据。超参数是提前设置的,参数是训练中需要优化的。
第一阶段训练是基于普通搜索词推荐任务对搜索词推荐模型进行训练,用于确定搜索词推荐模型的超参数的值以及初步优化搜索词推荐模型的参数;第二阶段训练是在各种子任务下进一步优化搜索词推荐模型的参数。需要说明的是,一个子任务对应一个场景,通过本申请实施例,可以提高搜索词推荐模型对于不同场景下搜索词推荐的准确率,以及搜索词推荐模型的泛化能力。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图3是本申请实施例提供的一种搜索词推荐模型的训练装置的示意图。如图3所示,该搜索词推荐模型的训练装置包括:
构建模块301,被配置为构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;
第一训练模块302,被配置为获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;
第二训练模块303,被配置为在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
大语言模型是LLM模型,英文全称是Large Language Model,依次连接信息表征网络、大语言模型和在线学习模块,得到搜索词推荐模型。信息表征网络是用于表征用户信息的网络层,在线学习模块用于收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈。在线学习模块上设置有对应的接口,可以收集各个用户对搜索词推荐模型提供的推荐结果的反馈;在线学习模块中还包括文本分类网络,用于对各个用户对搜索词推荐模型提供的推荐结果的反馈进行处理。无论是对搜索词推荐模型进行监督学习训练,还是对搜索词推荐模型进行强化学习训练中,搜索词推荐模型内部的三个网络部分均是参与更新的,对于在线学习模块是更新其内部的文本分类网络,其内部的接口是不用更新的。
根据本申请实施例提供的技术方案,构建信息表征网络和在线学习模块,利用信息表征网络、大语言模型和在线学习模块构建搜索词推荐模型;获取训练数据,将训练数据中的用户信息输入搜索词推荐模型:利用信息表征网络处理用户信息,得到用户信息表征,利用大语言模型处理用户信息表征,得到用户信息对应的推荐结果,依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练,因此,采用上述技术手段,可以解决现有技术中,以规则为主的搜索词推荐方法不足以覆盖所有可能的情况或场景,也不能反映用户的多样性的问题,进而覆盖所有可能的情况或场景,为不同的用户提供搜索词推荐。
可选地,第一训练模块302还被配置为将用户信息划分为用户离散信息、用户连续信息和搜索历史信息;对用户连续信息进行离散化处理,并分别对用户离散信息和离散化处理后的用户连续信息进行独热编码,得到离散信息表征和连续信息表征;利用双向编码器对搜索历史信息进行处理,得到历史信息表征;对离散信息表征、连续信息表征和历史信息表征进行特征拼接处理,得到用户信息表征。
可选地,第一训练模块302还被配置为依据用户信息对应的推荐结果和标签对搜索词推荐模型进行监督学习训练,包括:利用损失函数计算用户信息对应的推荐结果和标签之间的损失值;依据损失值更新搜索词推荐模型的参数,以完成对搜索词推荐模型进行的监督学习训练。
可选地,第二训练模块303还被配置为将在线学习模块处理各个用户的反馈的结果作为将该用户的用户信息输入搜索词推荐模型并且输出该用户对应的推荐结果时的外部奖励;依据每个用户对应的外部奖励更新搜索词推荐模型的参数,以完成对搜索词推荐模型进行的强化学习训练。
可选地,第一训练模块302还被配置为在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,当在线学习模块没有收集到各个用户对搜索词推荐模型提供的推荐结果的反馈,但收集到除推荐结果之外的新的搜索词时:将各个用户的用户信息输入搜索词推荐模型,输出各个用户对应的推荐结果;依据各个用户对应的推荐结果和各个用户提供的新的搜索词对搜索词推荐模型进行监督学习训练。
可选地,第二训练模块303还被配置为判断各个用户对搜索词推荐模型提供的推荐结果的反馈是否为正反馈和负反馈;当反馈为正反馈时,确定正反馈的级别,并基于正反馈的级别确定强化学习训练中外部奖励的级别;当反馈为负反馈时,确定负反馈的级别,并基于负反馈的级别确定强化学习训练中外部奖励的级别。
可选地,第一训练模块302还被配置为建立普通搜索词推荐任务、内容资讯搜索词推荐子任务、电子商务搜索词推荐子任务和企业行业搜索词推荐子任务;基于普通搜索词推荐任务对搜索词推荐模型进行第一阶段训练,其中,第一阶段训练用于确定搜索词推荐模型的超参数的值以及优化搜索词推荐模型的参数;分别基于内容资讯搜索词推荐子任务、电子商务搜索词推荐子任务和企业行业搜索词推荐子任务对搜索词推荐模型进行第二阶段训练,其中,第二阶段训练用于在各种子任务下优化搜索词推荐模型的参数,第一阶段训练和第二阶段训练均属于监督学习训练;在利用监督学习训练后的搜索词推荐模型为不同用户推荐搜索词的过程中,利用在线学习模块收集并处理各个用户对搜索词推荐模型提供的推荐结果的反馈,依据在线学习模块处理各个用户的反馈的结果对搜索词推荐模型进行强化学习训练。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图4是本申请实施例提供的电子设备4的示意图。如图4所示,该实施例的电子设备4包括:处理器401、存储器402以及存储在该存储器402中并且可在处理器401上运行的计算机程序403。处理器401执行计算机程序403时实现上述各个方法实施例中的步骤。或者,处理器401执行计算机程序403时实现上述各装置实施例中各模块/单元的功能。
电子设备4可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备4可以包括但不仅限于处理器401和存储器402。本领域技术人员可以理解,图4仅仅是电子设备4的示例,并不构成对电子设备4的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器401可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器402可以是电子设备4的内部存储单元,例如,电子设备4的硬盘或内存。存储器402也可以是电子设备4的外部存储设备,例如,电子设备4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器402还可以既包括电子设备4的内部存储单元也包括外部存储设备。存储器402用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种搜索词推荐模型的训练方法,其特征在于,包括:
构建信息表征网络和在线学习模块,利用所述信息表征网络、大语言模型和所述在线学习模块构建搜索词推荐模型;
获取训练数据,将所述训练数据中的用户信息输入所述搜索词推荐模型:利用所述信息表征网络处理所述用户信息,得到用户信息表征,利用所述大语言模型处理所述用户信息表征,得到所述用户信息对应的推荐结果,依据所述用户信息对应的推荐结果和标签对所述搜索词推荐模型进行监督学习训练;
在利用所述监督学习训练后的所述搜索词推荐模型为不同用户推荐搜索词的过程中,利用所述在线学习模块收集并处理各个用户对所述搜索词推荐模型提供的推荐结果的反馈,依据所述在线学习模块处理各个用户的反馈的结果对所述搜索词推荐模型进行强化学习训练。
2.根据权利要求1所述的方法,其特征在于,利用所述信息表征网络处理所述用户信息,得到用户信息表征,包括:
将所述用户信息划分为用户离散信息、用户连续信息和搜索历史信息;
对所述用户连续信息进行离散化处理,并分别对所述用户离散信息和所述离散化处理后的用户连续信息进行独热编码,得到离散信息表征和连续信息表征;
利用双向编码器对所述搜索历史信息进行处理,得到历史信息表征;
对所述离散信息表征、所述连续信息表征和所述历史信息表征进行特征拼接处理,得到所述用户信息表征。
3.根据权利要求1所述的方法,其特征在于,依据所述用户信息对应的推荐结果和标签对所述搜索词推荐模型进行监督学习训练,包括:
利用损失函数计算所述用户信息对应的推荐结果和标签之间的损失值;
依据所述损失值更新所述搜索词推荐模型的参数,以完成对所述搜索词推荐模型进行的所述监督学习训练。
4.根据权利要求1所述的方法,其特征在于,依据所述在线学习模块处理各个用户的反馈的结果对所述搜索词推荐模型进行强化学习训练,包括:
将所述在线学习模块处理各个用户的反馈的结果作为将该用户的用户信息输入所述搜索词推荐模型并且输出该用户对应的推荐结果时的外部奖励;
依据每个用户对应的外部奖励更新所述搜索词推荐模型的参数,以完成对所述搜索词推荐模型进行的强化学习训练。
5.根据权利要求1所述的方法,其特征在于,依据所述用户信息对应的推荐结果和标签对所述搜索词推荐模型进行监督学习训练之后,所述方法还包括:
在利用所述监督学习训练后的所述搜索词推荐模型为不同用户推荐搜索词的过程中,当所述在线学习模块没有收集到各个用户对所述搜索词推荐模型提供的推荐结果的反馈,但收集到除推荐结果之外的新的搜索词时:
将各个用户的用户信息输入所述搜索词推荐模型,输出各个用户对应的推荐结果;
依据各个用户对应的推荐结果和各个用户提供的新的搜索词对所述搜索词推荐模型进行监督学习训练。
6.根据权利要求1所述的方法,其特征在于,利用所述在线学习模块处理各个用户对所述搜索词推荐模型提供的推荐结果的反馈,包括:
判断各个用户对所述搜索词推荐模型提供的推荐结果的反馈是否为正反馈和负反馈;
当所述反馈为所述正反馈时,确定所述正反馈的级别,并基于所述正反馈的级别确定所述强化学习训练中外部奖励的级别;
当所述反馈为所述负反馈时,确定所述负反馈的级别,并基于所述负反馈的级别确定所述强化学习训练中外部奖励的级别。
7.根据权利要求1所述的方法,其特征在于,利用所述信息表征网络、大语言模型和所述在线学习模块构建搜索词推荐模型之后,所述方法还包括:
建立普通搜索词推荐任务、内容资讯搜索词推荐子任务、电子商务搜索词推荐子任务和企业行业搜索词推荐子任务;
基于所述普通搜索词推荐任务对所述搜索词推荐模型进行第一阶段训练,其中,所述第一阶段训练用于确定所述搜索词推荐模型的超参数的值以及优化所述搜索词推荐模型的参数;
分别基于所述内容资讯搜索词推荐子任务、所述电子商务搜索词推荐子任务和所述企业行业搜索词推荐子任务对所述搜索词推荐模型进行第二阶段训练,其中,所述第二阶段训练用于在各种子任务下优化所述搜索词推荐模型的参数,所述第一阶段训练和所述第二阶段训练均属于所述监督学习训练;
在利用所述监督学习训练后的所述搜索词推荐模型为不同用户推荐搜索词的过程中,利用所述在线学习模块收集并处理各个用户对所述搜索词推荐模型提供的推荐结果的反馈,依据所述在线学习模块处理各个用户的反馈的结果对所述搜索词推荐模型进行强化学习训练。
8.一种搜索词推荐模型的训练装置,其特征在于,包括:
构建模块,被配置为构建信息表征网络和在线学习模块,利用所述信息表征网络、大语言模型和所述在线学习模块构建搜索词推荐模型;
第一训练模块,被配置为获取训练数据,将所述训练数据中的用户信息输入所述搜索词推荐模型:利用所述信息表征网络处理所述用户信息,得到用户信息表征,利用所述大语言模型处理所述用户信息表征,得到所述用户信息对应的推荐结果,依据所述用户信息对应的推荐结果和标签对所述搜索词推荐模型进行监督学习训练;
第二训练模块,被配置为在利用所述监督学习训练后的所述搜索词推荐模型为不同用户推荐搜索词的过程中,利用所述在线学习模块收集并处理各个用户对所述搜索词推荐模型提供的推荐结果的反馈,依据所述在线学习模块处理各个用户的反馈的结果对所述搜索词推荐模型进行强化学习训练。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202310884701.5A 2023-07-19 2023-07-19 搜索词推荐模型的训练方法及装置 Active CN116628346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310884701.5A CN116628346B (zh) 2023-07-19 2023-07-19 搜索词推荐模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310884701.5A CN116628346B (zh) 2023-07-19 2023-07-19 搜索词推荐模型的训练方法及装置

Publications (2)

Publication Number Publication Date
CN116628346A true CN116628346A (zh) 2023-08-22
CN116628346B CN116628346B (zh) 2024-01-05

Family

ID=87613730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310884701.5A Active CN116628346B (zh) 2023-07-19 2023-07-19 搜索词推荐模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN116628346B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117391824A (zh) * 2023-12-11 2024-01-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027764A1 (en) * 2020-07-27 2022-01-27 Thales Canada Inc. Method of and system for online machine learning with dynamic model evaluation and selection
CN114254151A (zh) * 2021-12-21 2022-03-29 北京达佳互联信息技术有限公司 搜索词推荐模型的训练方法、搜索词推荐方法和装置
CN114329167A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 超参数学习、智能推荐、关键词和多媒体推荐方法及装置
CN116452169A (zh) * 2023-06-14 2023-07-18 北京华品博睿网络技术有限公司 一种在线招聘生成式推荐系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027764A1 (en) * 2020-07-27 2022-01-27 Thales Canada Inc. Method of and system for online machine learning with dynamic model evaluation and selection
CN114329167A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 超参数学习、智能推荐、关键词和多媒体推荐方法及装置
CN114254151A (zh) * 2021-12-21 2022-03-29 北京达佳互联信息技术有限公司 搜索词推荐模型的训练方法、搜索词推荐方法和装置
CN116452169A (zh) * 2023-06-14 2023-07-18 北京华品博睿网络技术有限公司 一种在线招聘生成式推荐系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡旷达;代飞;: "一种基于神经网络模型的多检索词用户兴趣模型", 九江职业技术学院学报, no. 01, pages 24 - 26 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117391824A (zh) * 2023-12-11 2024-01-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置
CN117391824B (zh) * 2023-12-11 2024-04-12 深圳须弥云图空间科技有限公司 基于大语言模型和搜索引擎推荐物品的方法及装置

Also Published As

Publication number Publication date
CN116628346B (zh) 2024-01-05

Similar Documents

Publication Publication Date Title
CN111581983B (zh) 基于群体分析的网络舆论事件中社会关注热点的预测方法
CN111753092B (zh) 一种数据处理方法、模型训练方法、装置及电子设备
CN110390408B (zh) 交易对象预测方法和装置
JP5454357B2 (ja) 情報処理装置および方法、並びに、プログラム
EP4242955A1 (en) User profile-based object recommendation method and device
CN111104599B (zh) 用于输出信息的方法和装置
CN116628346B (zh) 搜索词推荐模型的训练方法及装置
CN110377733A (zh) 一种基于文本的情绪识别方法、终端设备及介质
CN110909258B (zh) 一种信息推荐方法、装置、设备及存储介质
CN114117060B (zh) 评论数据的质量分析方法、装置、电子设备及存储介质
CN116610872B (zh) 新闻推荐模型的训练方法及装置
CN111738807A (zh) 用于推荐目标对象的方法、计算设备和计算机存储介质
CN116127376A (zh) 模型训练方法、数据分类分级方法、装置、设备及介质
CN114428910A (zh) 资源推荐方法、装置、电子设备、产品及介质
CN114169418A (zh) 标签推荐模型训练方法及装置、标签获取方法及装置
CN112231299B (zh) 一种特征库动态调整的方法和装置
CN116562357B (zh) 点击预测模型训练方法及装置
CN117573973A (zh) 资源推荐方法、装置、电子设备以及存储介质
CN117216393A (zh) 信息推荐方法、信息推荐模型的训练方法及装置、设备
Joung et al. Importance-performance analysis of product attributes using explainable deep neural network from online reviews
CN116401455A (zh) 链接关系预测方法、实体知识图谱生成方法及装置
CN116304352A (zh) 消息推送方法、装置、设备及存储介质
CN116401372A (zh) 知识图谱表示学习方法、装置、电子设备及可读存储介质
CN113052509B (zh) 模型评估方法、模型评估装置、电子设备和存储介质
CN115712732A (zh) 一种电力设备知识图谱本体构建方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant