CN110825966B - 一种信息推荐的方法、装置、推荐服务器和存储介质 - Google Patents

一种信息推荐的方法、装置、推荐服务器和存储介质 Download PDF

Info

Publication number
CN110825966B
CN110825966B CN201911053819.3A CN201911053819A CN110825966B CN 110825966 B CN110825966 B CN 110825966B CN 201911053819 A CN201911053819 A CN 201911053819A CN 110825966 B CN110825966 B CN 110825966B
Authority
CN
China
Prior art keywords
model
recommendation
machine learning
features
model parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911053819.3A
Other languages
English (en)
Other versions
CN110825966A (zh
Inventor
张永池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bigo Technology Pte Ltd
Original Assignee
Guangzhou Baiguoyuan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Baiguoyuan Information Technology Co Ltd filed Critical Guangzhou Baiguoyuan Information Technology Co Ltd
Priority to CN201911053819.3A priority Critical patent/CN110825966B/zh
Publication of CN110825966A publication Critical patent/CN110825966A/zh
Priority to EP20882554.7A priority patent/EP4053716A4/en
Priority to PCT/CN2020/099662 priority patent/WO2021082500A1/zh
Priority to US17/772,925 priority patent/US20220405641A1/en
Application granted granted Critical
Publication of CN110825966B publication Critical patent/CN110825966B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种信息推荐的方法、装置、推荐服务器和存储介质。其中,该方法包括:通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;根据所述点击通过率,下发所述推荐信息。本发明实施例提供的技术方案,在推荐模型的训练过程中,仅保留频次大于第一阈值的特征对应的模型参数,减小了推荐模型的大小,降低了推荐模型中的参数占用空间,无需查询特征向量中的每一特征对应的模型参数,降低了查询过程中的耗费时长,仅对与推荐模型中保留的模型参数对应的特征进行分析,在保证推荐准确性的同时,提高了信息推荐效率。

Description

一种信息推荐的方法、装置、推荐服务器和存储介质
技术领域
本发明实施例涉及机器学习技术领域,尤其涉及一种信息推荐的方法、装置、推荐服务器和存储介质。
背景技术
随着人工智能交互技术的快速发展,预先训练的机器学习模型越来越广泛的应用在推荐、搜索、广告等各类业务的大数据场景下,针对用户的搜索需求后台会获取大量相关的推荐信息,此时需要预测多条推荐信息的点击通过率(Click Through Rate,CTR),以便根据各推荐信息的点击通过率为用户推送最优的信息。
目前通常采用逻辑回归算法训练出的尽量拟合用户对推荐信息的点击行为的业务预测模型中包含推荐信息中每一特征维度下的模型权重系数,在预测每一推荐信息的点击通过率时,需要去查询推荐信息中每一特征维度下的特征值以及对应的模型权重系数,此时由于推荐信息中存在大量高维稀疏特征,如推荐信息中身份维度下的用户身份标识(identity,ID)、主播ID或者设备ID等,最高能够达到上亿维,使得业务预测模型在存储推荐信息中的大量高维稀疏特征时会占用大量的内存空间,面临内存不足的问题;而且对于包含大量特征的推荐信息,需要耗费较长时间去查询推荐信息中每一特征维度下的模型参数模型权重系数,使得业务预测模型过大,导致推荐信息的预测效率较低。
发明内容
本发明实施例提供了一种信息推荐的方法、装置、推荐服务器和存储介质,减小推荐模型的大小,在保证推荐准确性的同时,提高信息推荐效率。
第一方面,本发明实施例提供了一种信息推荐的方法,该方法包括:
通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
根据所述点击通过率,下发所述推荐信息。
第二方面,本发明实施例提供了一种信息推荐的装置,该装置包括:
点击预测模块,用于通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
信息推荐模块,用于根据所述点击通过率,下发所述推荐信息。
第三方面,本发明实施例提供了一种推荐服务器,该推荐服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本发明任意实施例所述的信息推荐的方法。
第四方面,本发明实施例提供了一种模型训练系统,该系统包括:训练服务器集群和参数服务器集群,所述参数服务器集群中存储预设的机器学习模型中不同特征对应的模型参数;
所述训练服务器集群依次从所述参数服务器集群获取所述机器学习模型中不同特征对应的最新模型参数,根据该模型参数对历史推荐信息的历史特征向量进行处理,得到对应的点击通过率,并计算所述机器学习模型中频次大于第一阈值的特征对应的模型参数的损失系数,将该损失系数返回给所述参数服务器集群;
所述参数服务器集群根据该损失系数更新对应的模型参数并反馈给所述训练服务器集群,直至所述机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成对应的推荐模型。
第五方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任意实施例所述的信息推荐的方法。
本发明实施例提供了一种信息推荐的方法、装置、推荐服务器和存储介质,在推荐模型的训练过程中,去掉与推荐信息的特征向量中的特征相同且频次小于等于第一阈值的特征对应的模型参数,仅保留频次大于第一阈值的特征对应的模型参数,从而减小了推荐模型的大小,降低了推荐模型中的参数占用空间,同时在通过该推荐模型中的模型参数对推荐信息的特征向量进行预测时,无需查询特征向量中的每一特征对应的模型参数,降低了查询过程中的耗费时长,仅对推荐信息的特征向量中与推荐模型中保留的模型参数对应的特征进行分析,在保证推荐准确性的同时,提高了信息推荐效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1A为本发明实施例一提供的一种信息推荐的方法的流程图;
图1B为本发明实施例一提供的信息推荐过程的原理示意图;
图2A为本发明实施例二提供的方法中训练推荐模型的流程图;
图2B为本发明实施例二提供的推荐模型训练过程的原理示意图;
图3A为本发明实施例三提供的方法中训练推荐模型的流程图;
图3B为本发明实施例三提供的方法中推荐模型的训练过程的原理示意图;
图4为本发明实施例四提供的一种信息推荐的方法的流程图;
图5为本发明实施例五提供的一种信息推荐的装置的结构示意图;
图6为本发明实施例六提供的一种模型训练系统的原理架构图;
图7为本发明实施例七提供的一种推荐服务器的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1A为本发明实施例一提供的一种信息推荐的方法的流程图,本实施例可应用于任一种可以为用户提供针对相关推荐信息的下发请求服务的后台推荐服务器中。本发明实施例的技术方案适用于为用户推荐相关信息的情况中。本实施例提供的一种信息推荐的方法可以由本发明实施例提供的信息推荐的装置来执行,该装置可以通过软件和/或硬件的方式来实现,并集成在执行本方法的推荐服务器中。
具体的,参考图1A,该方法可以包括如下步骤:
S110,通过推荐模型对推荐信息的特征向量进行预测,得到推荐信息的点击通过率。
其中,推送信息是推送服务器根据接收到的用户在客户端作用的下发请求,根据用户的历史行为数据通过现有的物品推荐itemCF算法、用户推荐userCF算法、内容推荐content-based算法或服务推荐vector-based算法等查找出的大量与本次下发请求对应的推荐信息。
具体的,该下发请求为用户需要推荐服务端在当前推荐对应的相关信息时,通过在客户端执行对应的内容刷新操作或者对具体某一信息的搜索查找操作,而对应生成本次请求中的指令信息。在下发请求中不包含具体的请求内容时,可以通过对该用户的历史行为数据进行分析,判断该用户较为感兴趣的新闻、资讯、音乐或短视频等内容,从而查找出对应的数据内容,作为本次请求对应的推荐信息,该种请求方法一般针对的是用户在客户端安装的对应软件产品中执行内容刷新操作,不确定所需要的具体信息,此时根据历史行为数据分析对应的推荐信息,从而为用户推荐优质的信息;同时,在下发请求中包含具体的请求内容时,可以直接对该具体的请求内容进行分析,从而查找与本次请求的具体内容相关联的新闻、资讯、音乐或短视频等内容,将查找到的关联信息作为本次请求对应的推荐信息,该种请求方法一般针对的是用户在客户端安装的对应软件产品中执行相关内容信息的搜索查找操作,此时可以根据本次请求中的具体搜索内容确定对应的推送信息,从而为用户推荐匹配的信息。
同时,推荐信息的特征向量是指对推荐信息的各类特征分析出的在不同维度上的特征数据,例如,如果从点赞、转发和评论三方面对某一视频进行特征分析,则从这三方面分别对应分析出的点赞结果、转发结果和评论结果可以组成该视频的一个三维特征向量。
此外,推荐模型为预先训练好的一种用于快速为用户筛选出最匹配的推荐信息的网络模型,该离线训练为针对各个历史推荐信息对应的特征向量,对用户对每一历史推荐信息的点击行为进行的训练,现有的训练会不断更新网络模型中预设的与特征向量中每一特征相同的特征所对应的模型参数,因此所训练出的网络模型中存在与特征向量中每一特征对应的模型参数,以便对特征向量中的各个特征进行分析,此时由于在搜索、个性化推送或者广告通知等推荐场景下,每一推荐信息中包含大量不同类型下的特征,使得训练后的网络模型中也存在大量不同类型特征对应的模型参数,导致内存占用过大,而且在预测用户对各个推荐信息的点击行为时,需要耗费较长时间在大量模型参数中查询每一特征对应的模型参数,降低模型运算的效率。
针对上述原因,本实施例中考虑到推荐信息的特征向量中可能包含大量高维稀疏特征,如用户ID、主播ID或者设备ID等,此时如果该类高维稀疏特征极少参与到用户对推荐信息的点击行为的训练过程中,从而对用户对不同推荐信息的点击行为不造成影响,因此在模型训练过程中,如图1B所示,本实施例可以排除对历史推荐信息的特征向量中包含的该类特征的训练,仅保留对用户的点击行为存在较大影响的特征的训练,使得训练后的推荐模型中仅保留对用户的点击行为存在较大影响的特征对应的模型参数。本实施例中可以在模型训练过程中根据历史推荐信息的特征向量判断网络模型中预设的每一特征出现的次数(本实施例中特征的频次)表示该特征对用户的点击行为的影响程度,因此本实施例训练好的推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数,仅保留频次大于第一阈值的特征对应的模型参数,从而减少了推荐模型的大小,降低了推荐模型中的参数占用空间。示例性的,本实施例中推荐模型中的模型参数可以为该推荐模型中不同特征对应的权重系数,用于表示各个特征对于用户的点击行为的影响程度。
同时,推荐信息的点击通过率是指将该推荐信息从全部的推荐信息中筛选出来并推荐给用户所在客户端,并被用户点击查看的点击达到率,也就是该推荐信息的实际点击次数除以全部推荐信息的信息总量,以此确定下发给用户的各个推荐信息的优劣性。
可选的,用户通过在客户端执行对应的内容刷新操作或者对具体某一信息的搜索查找操作,生成对应的下发请求,并发送给推荐服务器,该推荐服务器根据用户的历史行为数据通过现有的相似度算法查找出的大量与本次下发请求对应的推荐信息,并根据各个推荐信息的标识信息从存储有各个上传信息的不同类型特征的特征服务端中获取对应的特征向量,进而将各推荐信息的特征向量输入到本实施例预先训练好的推荐模型中,通过该推荐模型中保留的频次大于第一阈值的特征对应的模型参数对各推荐信息的特征向量中对应的特征进行分析,从而预测得到各个推荐信息的点击通过率。
S120,根据点击通过率,下发推荐信息。
具体的,在得到各个推荐信息的点击通过率后,可以明确用户对各个推荐信息的喜好程度,进而根据用户的下发需求和点击通过率在全部的推荐信息中筛选出对应的推荐信息,并下发给用户。示例性的,如果用户当前需要获取最优的一条信息,则将点击通过率最高的推荐信息下发给用户,如果用户需要一次性获取多条相关信息,则将点击通过率靠前的多条推荐信息下发给用户。
本实施例提供的技术方案,在推荐模型的训练过程中,去掉与推荐信息的特征向量中的特征相同且频次小于等于第一阈值的特征对应的模型参数,仅保留频次大于第一阈值的特征对应的模型参数,从而减小了推荐模型的大小,降低了推荐模型中的参数占用空间,同时在通过该推荐模型中的模型参数对推荐信息的特征向量进行预测时,无需查询特征向量中的每一特征对应的模型参数,降低了查询过程中的耗费时长,仅对推荐信息的特征向量中与推荐模型中保留的模型参数对应的特征进行分析,在保证推荐准确性的同时,提高了信息推荐效率。
实施例二
图2A为本发明实施例二提供的方法中训练推荐模型的流程图,图2B为本发明实施例二提供的推荐模型训练过程的原理示意图。本实施例是在上述实施例的基础上进行优化。可选的,本实施例中推荐模型的训练可以在线下执行,与线上采用该训练好的推荐模型预测各个推荐信息的点击通过率的步骤可以在不同的设备上实现,因此本实施例中可以通过预先架构的模型训练系统来训练该推荐模型,在训练完成后,将该推荐模型发布到推荐服务器中,用于线上执行本发明任意实施例提及的信息推荐的方法。具体的,本实施例中主要对于推荐模型的线下训练过程进行详细的解释说明。
可选的,如图2A所示,本实施例中可以包括如下步骤:
S210,根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新机器学习模型中频次大于第一阈值的特征对应的模型参数。
其中,在训练推荐模型前,会预先构建一个机器学习模型,该机器学习模型中针对不同类型下的每一特征均预先设置对应的模型参数的初始值,后续通过大量不同类型下的历史推荐信息的点击通过率的预测误差,不断对该机器学习模型中各特征对应的模型参数进行修正,直至能够准确预测任一类型下的历史推荐信息的点击通过率。
具体的,获取大量不同类型下的历史推荐信息,用于准确分析用户对不同类型信息的点击行为,进而判断用户的喜好;将各历史推荐信息的历史特征向量输入到预设的机器学习模型中,由该机器学习模型中预设的当前模型参数对历史特征向量中对应的特征进行分析,进而得到各历史推荐信息的点击通过率,通过对该历史推荐信息的历史标签和点击通过率进行比对,判断机器学习模型中当前模型参数下的预测误差,同时根据历史推荐信息的特征向量中包含的特征,判断该机器学习模型中各个特征出现的次数,也就是本实施例中特征的频次,并将该预测误差在机器学习模型中反向传播,用于对选取出的机器学习模型中频次大于第一阈值的特征对应的模型参数进行修正,以便后续提高预测结果的准确性。
示例性的,如图2B所示,本实施例中根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新机器学习模型中频次大于第一阈值的特征对应的模型参数,具体可以包括:通过机器学习模型对当前历史推荐信息的历史特征向量进行预测,得到对应的当前点击通过率;采用预设损失函数计算当前点击通过率在频次大于第一阈值的特征对应的模型参数下的损失系数,并根据该损失系数修正机器学习模型中对应的模型参数,继续通过机器学习模型对下一历史推荐信息的历史特征向量进行预测,并修正机器学习模型中频次大于第一阈值的特征对应的模型参数,直至机器学习模型完成训练。
具体的,将当前历史推荐信息的历史特征向量输入预设的机器学习模型中,通过当前的模型参数对当前历史推荐信息的历史特征向量中的对应特征进行分析,预测得到该当前历史推荐信息的当前点击通过率,并根据历史推荐信息的历史特征向量中包含的特征分析机器学习模型中各个特征的频次,进而标记出频次大于第一阈值的特征对应的模型参数;同时采用预设损失函数确定当前点击通过率在该机器学习模型中频次大于第一阈值的特征对应的模型参数下的损失系数,也就是该模型参数距离达到能够准确分析出历史推荐信息的点击通过率的差距,进而根据该损失系数分别修正机器学习模型中对应的模型参数;在本次修正后继续获取下一历史推荐信息的历史特征向量,并输入到修正后的机器学习模型中,由该机器学习模型中修正后的模型参数(频次大于第一阈值的特征对应的模型参数)继续分析下一历史推荐信息的历史特征向量中与该模型参数对应的特征,排除频次小于等于第一阈值的特征,得到下一历史推荐信息的下一点击通过率,并继续修正该机器学习模型中频次大于第一阈值的特征对应的模型参数,依次循环,直至历史推荐信息的点击通过率的预测误差低于预设误差阈值,表示此时该机器学习模型完成训练。
S220,在机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成推荐模型。
其中,剩余模型参数为机器学习模型中频次大于第一阈值的特征对应的模型参数。
可选的,由于机器学习模型中频次小于等于第一阈值的特征对于预测用户的点击行为几乎未作出贡献,因此为了推荐模型的效率,本实施例中在机器学习模型完成训练后,可以直接根据模型训练过程中对频次大于第一阈值的特征对应的模型参数的标记情况,去掉该机器学习模型中频次小于等于第一阈值的特征对应的模型参数,而不对推荐信息的点击通过率的预测结果造成影响,后续利用去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数(机器学习模型中频次大于第一阈值的特征对应的模型参数)生成对应的推荐模型,使得该推荐模型中仅保留频次大于第一阈值的特征对应的模型参数,在保证推荐准确性的基础上,见笑了推荐模型的大小,提高了推荐模型的效率。
此外,为了准确判断出机器学习模型中频次小于等于第一阈值的特征对应的模型参数,本实施例在依次更新机器学习模型中频次大于第一阈值的特征对应的模型参数之后,还可以包括:将机器学习模型中频次小于等于第一阈值的特征对应的模型参数设置为预设稀疏值,以便在机器学习模型完成训练后,去掉预设稀疏值下的模型参数。
具体的,在模型训练过程中,在将每一历史推荐信息的历史特征向量输入到机器学习模型中进行训练的过程中,可以根据历史特征向量中包含的特征确定该机器学习模型中预设的各个特征的频次,此时对于频次大于第一阈值的特征对应的模型参数进行修正,对于频次小于等于第一阈值的特征对应的模型参数,由于后续该特征对应的模型参数不再参与学习训练,因此直接将频次小于等于第一阈值的特征对应的模型参数设置为预设稀疏值(本实施例中该预设稀疏值为0),后续在机器学习模型完成训练后,直接去掉预设稀疏值下的模型参数,进而保留频次大于第一阈值的特征对应的模型参数。
示例性的,本实施例中在机器学习模型中配置改进的跟随正则化逻辑(Followedthe Regularized Leader,FTRL)算法,通过该改进的FTRL算法对在模型训练过程中依次对频次大于第一阈值的特征对应的模型参数进行修正。现有的FTRL算法如下:
Figure BDA0002255997880000111
其中,g为某一特征对应的模型参数的损失系数,z和n为机器学习模型在训练过程中的中间变量,w为特征对应的模型参数,α、β、λ1和λ2为稀疏性训练的限定参数。
本实施例中在上述FTRL算法的基础上,对机器学习模型中特征的频次进行限定,改进的FTRL算法如下:
Figure BDA0002255997880000121
其中,f为机器学习模型中某一特征的频次,λ3为特征的频次限定的第一阈值;改进后的FTRL算法对机器学习模型中频次大于第一阈值的特征对应的模型参数依然进行常规的训练,而直接将频次小于等于第一阈值的特征对应的模型参数设置为0,不参与后续的机器学习过程,也就是在机器学习模型的训练过程中,根据历史推荐信息的历史特征向量,确定机器学习模型中预设的各个特征的频次,只有特征频次大于第一阈值后才会对该特征对应的模型参数进行机器学习,否则该特征对应的模型参数一直设置为0;后续在机器学习模型完成训练后,利用不为0的模型参数生成对应的推荐模型,在保证推荐准确性的基础上,减少了推荐模型的大小,提高了推荐模型的效率。
S230,线上发布推荐模型。
可选的,在生成对应的推荐模型后,可以直接将该推荐模型在线上发布,也就是应用到执行本发明任意实施例提供的信息推荐的方法的推荐服务器中,以便在线上直接采用该推荐模型预测各个推荐信息的点击通过率,为用户推荐更感兴趣的内容,提高信息推荐的准确性和效率。
本实施例提供的技术方案,通过机器学习模型对历史推荐信息预测的点击通过率不断更新机器学习模型中频次大于第一阈值的特征对应的模型参数,并在机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成对应的推荐模型,无需每次对频次小于等于第一阈值的特征对应的模型参数进行修正,提高了模型训练的高效性,减少了推荐模型的大小,同时降低了模型参数和高维稀疏特征的内存占用。
实施例三
图3A为本发明实施例三提供的方法中训练推荐模型的流程图,图3B为本发明实施例三提供的方法中推荐模型的训练过程的原理示意图。本实施例是在上述实施例的基础上进行优化。可选的,由于在机器学习模型完成训练后,如果模型规模达到内存上限则会造成模型预测的拥塞,因此需要对频次较低的特征对应的模型参数再次进行过滤,以保证推荐模型的高效性。具体的,本实施例主要对于推荐模型的二次优化过程进行详细的解释说明。
具体的,如图3A所示,该方法可以包括如下步骤:
S310,根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新机器学习模型中频次大于第一阈值的特征对应的模型参数。
S320,在机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,如果机器学习模型规模达到内存上限,则在剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,并利用过滤后的剩余模型参数生成推荐模型。
可选的,在机器学习模型完成训练后,可以去掉该机器学习模型中频次小于等于第一阈值的特征对应的模型参数,此时如果该机器学习模型的规模还是达到内存上限,则在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中继续过滤出频次小于等于第二阈值的特征对应的模型参数,此时该第二阈值大于第一阈值,释放相应的内存空间,并利用过滤后的剩余模型参数生成对应的推荐模型,进而进一步减少推荐模型的大小。
S330,在机器学习模型完成当前时段下的训练后,根据预设的频次衰减系数更新机器学习模型中不同特征的频次,并在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成当前时段下的推荐模型。
可选的,由于在信息推荐过程中不断存在新的推荐业务,从而存在新的特征,而如果某一时段更新的推荐业务特征仅热门一段时间,后期不再对该业务特征进行参考,但机器学习模型中在热门时段已经记录该业务特征的频次大于第一阈值,在后期训练时还是会一直参考该业务特征,但该业务特征已经不再对模型训练有任何贡献,因此为了保证推荐模型的准确性,本实施例可以对机器学习模型进行分时段训练,获取当前时段下的历史推荐信息,不断对机器学习模型中频次大于第一阈值的特征对应的模型参数进行修正,在机器学习模型完成当前时段下的训练后,由于前一时段的某一特征在当前时段可能不在出现,因此根据预设的频次衰减系数更新机器学习模型中不同特征的频次,此时如果某一特征一直不出现,则该特征的频次会不断衰减,直至小于等于第一阈值而被去掉,如图3B所示,本实施例中根据预设的频次衰减系数更新机器学习模型中不同特征的频次后,首先去掉频次小于等于第一阈值的特征对应的模型参数,并在剩余模型参数中再次过滤频次小于等于第二阈值的特征对应的模型参数,进而利用过滤后的剩余模型参数生成当前时段下的推荐模型,进一步提高推荐模型的准确性和高效性。
需要说明的是,本实施例中过滤频次小于等于第二阈值的特征对应的模型参数可以根据训练后的机器学习模型的规模来判断是否执行,如果在机器学习模型完成当前时段下的训练后规模未达到内存上限,则可以不用再次过滤频次小于等于第二阈值的特征对应的模型参数,而直接利用去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数生成对应的推荐模型,因此本实施例中S320和S330可以选择执行其中的一个。
S340,线上发布推荐模型。
本实施例提供的技术方案,在机器学习模型完成训练后,如果机器学习模型的规模达到内存上限,则在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中再次过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成对应的推荐模型,进一步减少了推荐模型的大小,降低了模型参数和高维稀疏特征的内存占用;同时通过分时段训练机器学习模型,并根据频次衰减系数不断更新不同特征的频次,保证不同时段下推荐模型的准确性和高效性。
实施例四
图4为本发明实施例四提供的一种信息推荐的方法的流程图。本实施例是在上述实施例的基础上进行优化。具体的,本实施例中对于具体的信息推荐过程进行说明,如图4所示,本实施例中可以包括如下步骤:
S410,获取推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数。
具体的,在根据用户请求获取到大量推荐信息后,需要通过线上发布的推荐模型对各个推荐信息的特征向量进行预测,因此首先确定线上发布的推荐模型,并查找出该推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数,也就是频次大于第一阈值的特征对应的模型参数,以便对各个推荐信息的特征向量中对应的特征进行分析。
S420,根据剩余模型参数以及特征向量中与剩余模型参数对应的特征,计算推荐信息的点击通过率。
可选的,根据推荐模型中保留的剩余模型参数,在各个推荐信息的特征向量中筛选出该剩余模型参数对应的特征,此时模型参数可以是特征的权重系数,采用加权求和的方式将每一剩余模型参数和推荐信息的特征向量中与该剩余模型参数对应的特征相乘并求和,将推荐信息的特征向量中各个剩余模型参数对应的特征加权求和的结果作为本实施例中推荐信息的点击通过率,减少推荐模型中的计算量,提高信息推荐的效率。
S430,根据点击通过率对推荐信息排序,并构建对应的下发列表下发给用户。
可选的,在得到各个推荐信息的点击通过率后,根据该点击通过率的高低为各个推荐信息进行排序,并根据用户的需求选择排序靠前的推荐信息构建对应的下发列表,并将该下发列表显示给用户,保证信息推荐的准确性。
本实施例提供的技术方案,在推荐模型的训练过程中,去掉与推荐信息的特征向量中的特征相同且频次小于等于第一阈值的特征对应的模型参数,仅保留频次大于第一阈值的特征对应的模型参数,从而减小了推荐模型的大小,降低了推荐模型中的参数占用空间,同时在通过该推荐模型中的模型参数对推荐信息的特征向量进行预测时,无需查询特征向量中的每一特征对应的模型参数,降低了查询过程中的耗费时长,仅对推荐信息的特征向量中与推荐模型中保留的模型参数对应的特征进行分析,在保证推荐准确性的同时,提高了信息推荐效率,进而为用户推送更加优质的内容,优化了信息推送效果。
实施例五
图5为本发明实施例五提供的一种信息推荐的装置的结构示意图,具体的,如图5所示,该装置可以包括:
点击预测模块510,用于通过推荐模型对推荐信息的特征向量进行预测,得到推荐信息的点击通过率,该推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
信息推荐模块520,用于根据点击通过率,下发推荐信息。
本实施例提供的技术方案,在推荐模型的训练过程中,去掉与推荐信息的特征向量中的特征相同且频次小于等于第一阈值的特征对应的模型参数,仅保留频次大于第一阈值的特征对应的模型参数,从而减小了推荐模型的大小,降低了推荐模型中的参数占用空间,同时在通过该推荐模型中的模型参数对推荐信息的特征向量进行预测时,无需查询特征向量中的每一特征对应的模型参数,降低了查询过程中的耗费时长,仅对推荐信息的特征向量中与推荐模型中保留的模型参数对应的特征进行分析,在保证推荐准确性的同时,提高了信息推荐效率。
进一步的,上述点击预测模块510,可以具体用于:
获取推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数;
根据剩余模型参数以及特征向量中与剩余模型参数对应的特征,计算推荐信息的点击通过率。
进一步的,上述推荐模型可以通过模型训练系统包括的模型参数更新模块和推荐模型生成模块执行下述操作生成:
模型参数更新模块,用于根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新机器学习模型中频次大于第一阈值的特征对应的模型参数;
推荐模型生成模块,用于在机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成推荐模型,该剩余模型参数为机器学习模型中频次大于第一阈值的特征对应的模型参数。
进一步的,上述模型参数更新模块,可以具体用于:
通过机器学习模型对当前历史推荐信息的历史特征向量进行预测,得到对应的当前点击通过率;
采用预设损失函数计算当前点击通过率在频次大于第一阈值的特征对应的模型参数下的损失系数,并根据该损失系数修正机器学习模型中对应的模型参数,继续通过机器学习模型对下一历史推荐信息的历史特征向量进行预测,并修正机器学习模型中频次大于第一阈值的特征对应的模型参数,直至机器学习模型完成训练。
进一步的,上述模型训练系统,还可以包括:
稀疏参数设置模块,用于将机器学习模型中频次小于等于第一阈值的特征对应的模型参数设置为预设稀疏值,以便在机器学习模型完成训练后,去掉预设稀疏值下的模型参数。
进一步的,上述推荐模型生成模块,可以具体用于:
如果机器学习模型规模达到内存上限,则在剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,并利用过滤后的剩余模型参数生成推荐模型,该第二阈值大于第一阈值。
进一步的,上述推荐模型生成模块,还可以具体用于:
在机器学习模型完成当前时段下的训练后,根据预设的频次衰减系数更新机器学习模型中不同特征的频次,并在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成当前时段下的推荐模型。
进一步的,上述模型训练系统,还可以包括:
模型发布模块,用于线上发布推荐模型。
进一步的,上述模型参数为推荐模型中不同特征的权重系数。
进一步的,上述信息推荐模块520,可以具体用于:
根据点击通过率对推荐信息排序,并构建对应的下发列表下发给用户。
本实施例提供的信息推荐的装置可适用于上述任意实施例提供的信息推荐的方法,具备相应的功能和有益效果。
实施例六
图6为本发明实施例六提供的一种模型训练系统的原理架构图。本实施例是在上述实施例的基础上进行优化。参照图6,该模型训练系统可以包括:训练服务器集群610和参数服务器集群620,参数服务器集群620中存储预设的机器学习模型中不同特征对应的模型参数。
具体的,训练服务器集群610依次从参数服务器集群620获取机器学习模型中不同特征对应的最新模型参数,根据该模型参数对历史推荐信息的历史特征向量进行处理,得到对应的点击通过率,并计算机器学习模型中频次大于第一阈值的特征对应的模型参数的损失系数,将该损失系数返回给参数服务器集群620;参数服务器集群620根据该损失系数更新对应的模型参数并反馈给训练服务器集群610,直至机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成对应的推荐模型。
同时,训练服务器集群610将机器学习模型中频次小于等于第一阈值的特征对应的模型参数设置为预设稀疏值,并返回给参数服务器集群620;参数服务器集群620将频次小于等于第一阈值的特征对应的模型参数修正为预设稀疏值,并在机器学习模型完成训练后,去掉预设稀疏值下的模型参数。
可选的,为了保证模型的高效性,参数服务器集群620在机器学习模型完成训练后,在剩余模型参数中过滤频次小于第二阈值的特征对应的模型参数,并利用过滤后的剩余模型参数生成推荐模型。
进一步的,为了保证各个时段下的推荐模型的准确性,参数服务器集群620在机器学习模型完成当前时段下的训练后,根据预设的频次衰减系数更新机器学习模型中不同特征的频次,并在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成当前时段下的推荐模型。
此外,模型训练系统中还可以包括推荐服务器630,参数服务器集群620将生成的推荐模型发布到推荐服务器630中,推荐服务器630用于执行本发明任意实施例提供的信息推荐的方法。
需要说明的是,训练服务器集群610中分布式部署多个训练服务器,该训练服务器可以并行执行机器学习模型的训练,提高模型的训练速率;同时,参数服务器集群620中分布式部署多个参数服务器,该参数服务器中分片存储机器学习模型中不同特征对应的模型参数,减少数据的存储压力;而且将模型训练过程中的训练步骤和参数修正步骤分离开来,降低了模型训练的计算压力。
本实施例提供的技术方案,通过训练服务器集群和参数服务器集群共同训练推荐模型,从而将具体的训练步骤和参数更新步骤分离开来,将训练和模型参数分散到不同的计算节点上,减小单台服务器的计算压力,提高了推荐模型的训练速率。
实施例七
图7为本发明实施例七提供的一种推荐服务器的结构示意图,如图7所示,该推荐服务器包括处理器70、存储装置71和通信装置72;推荐服务器中处理器70的数量可以是一个或多个,图7中以一个处理器70为例;推荐服务器中的处理器70、存储装置71和通信装置72可以通过总线或其他方式连接,图7中以通过总线连接为例。
存储装置71作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明任意实施例所述的信息推荐的方法对应的程序指令/模块。处理器70通过运行存储在存储装置71中的软件程序、指令以及模块,从而执行推荐服务器的各种功能应用以及数据处理,即实现上述信息推荐的方法。
存储装置71可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置71可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置71可进一步包括相对于处理器70远程设置的存储器,这些远程存储器可以通过网络连接至推荐服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信装置72可用于实现推荐服务器与客户端之间的网络连接或者移动数据连接。
本实施例提供的一种推荐服务器可用于执行上述任意实施例提供的信息推荐的方法,具备相应的功能和有益效果。
实施例八
本发明实施例八还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时可实现上述任意实施例中的信息推荐的方法。该方法具体可以包括:
通过推荐模型对推荐信息的特征向量进行预测,得到推荐信息的点击通过率,该推荐模型中去掉与特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
根据点击通过率,下发推荐信息。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的信息推荐的方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述信息推荐的装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
以上所述仅为本发明的优选实施例,并不用于限制本发明,对于本领域技术人员而言,本发明可以有各种改动和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (17)

1.一种信息推荐的方法,其特征在于,包括:
通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
根据所述点击通过率,下发所述推荐信息;
其中,所述推荐模型通过模型训练系统执行下述操作生成:
根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新所述机器学习模型中频次大于第一阈值的特征对应的模型参数,所述机器学习模型中针对历史推荐信息的历史特征向量中的每一特征均预先设置对应的模型参数的初始值,所述机器学习模型中每一特征的频次在所述机器学习模型每次完成训练后,采用预设的频次衰减系数进行更新;
在所述机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成所述推荐模型,所述剩余模型参数为所述机器学习模型中频次大于第一阈值的特征对应的模型参数。
2.根据权利要求1所述的方法,其特征在于,通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,包括:
获取所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数;
根据所述剩余模型参数以及所述特征向量中与所述剩余模型参数对应的特征,计算所述推荐信息的点击通过率。
3.根据权利要求1所述的方法,其特征在于,根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新所述机器学习模型中频次大于第一阈值的特征对应的模型参数,包括:
通过所述机器学习模型对当前历史推荐信息的历史特征向量进行预测,得到对应的当前点击通过率;
采用预设损失函数计算所述当前点击通过率在频次大于第一阈值的特征对应的模型参数下的损失系数,并根据该损失系数修正所述机器学习模型中对应的模型参数,继续通过所述机器学习模型对下一历史推荐信息的历史特征向量进行预测,并修正所述机器学习模型中频次大于第一阈值的特征对应的模型参数,直至所述机器学习模型完成训练。
4.根据权利要求1所述的方法,其特征在于,在依次更新所述机器学习模型中频次大于第一阈值的特征对应的模型参数之后,还包括:
将所述机器学习模型中频次小于等于所述第一阈值的特征对应的模型参数设置为预设稀疏值,以便在所述机器学习模型完成训练后,去掉预设稀疏值下的模型参数。
5.根据权利要求1所述的方法,其特征在于,利用最新的剩余模型参数生成所述推荐模型,包括:
如果所述机器学习模型规模达到内存上限,则在剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,并利用过滤后的剩余模型参数生成所述推荐模型,所述第二阈值大于所述第一阈值。
6.根据权利要求1所述的方法,其特征在于,在所述机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成所述推荐模型,包括:
在所述机器学习模型完成当前时段下的训练后,根据预设的频次衰减系数更新所述机器学习模型中不同特征的频次,并在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成当前时段下的推荐模型。
7.根据权利要求1或4-6任一项所述的方法,其特征在于,在利用最新的剩余模型参数生成所述推荐模型之后,还包括:
线上发布所述推荐模型。
8.根据权利要求1-6任一项所述的方法,其特征在于,所述模型参数为所述推荐模型中不同特征的权重系数。
9.根据权利要求1所述的方法,其特征在于,根据所述点击通过率,下发所述推荐信息,包括:
根据所述点击通过率对所述推荐信息排序,并构建对应的下发列表下发给用户。
10.一种信息推荐的装置,其特征在于,包括:
点击预测模块,用于通过推荐模型对推荐信息的特征向量进行预测,得到所述推荐信息的点击通过率,所述推荐模型中去掉与所述特征向量的特征相同且频次小于等于第一阈值的特征对应的模型参数;
信息推荐模块,用于根据所述点击通过率,下发所述推荐信息;
其中,所述推荐模型通过模型训练系统包括的模型参数更新模块和推荐模型生成模块执行下述操作生成:
所述模型参数更新模块,用于根据历史推荐信息的历史特征向量在预设的机器学习模型中的点击通过率,依次更新所述机器学习模型中频次大于第一阈值的特征对应的模型参数,所述机器学习模型中针对历史推荐信息的历史特征向量中的每一特征均预先设置对应的模型参数的初始值,所述机器学习模型中每一特征的频次在所述机器学习模型每次完成训练后,采用预设的频次衰减系数进行更新;
所述推荐模型生成模块,用于在所述机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成所述推荐模型,所述剩余模型参数为所述机器学习模型中频次大于第一阈值的特征对应的模型参数。
11.一种推荐服务器,其特征在于,所述推荐服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的信息推荐的方法。
12.一种模型训练系统,其特征在于,包括:训练服务器集群和参数服务器集群,所述参数服务器集群中存储预设的机器学习模型中不同特征对应的模型参数,所述机器学习模型中针对历史推荐信息的历史特征向量中的每一特征均预先设置对应的模型参数的初始值;
所述训练服务器集群依次从所述参数服务器集群获取所述机器学习模型中不同特征对应的最新模型参数,根据该模型参数对历史推荐信息的历史特征向量进行处理,得到对应的点击通过率,并计算所述机器学习模型中频次大于第一阈值的特征对应的模型参数的损失系数,将该损失系数返回给所述参数服务器集群;
所述参数服务器集群根据该损失系数更新对应的模型参数并反馈给所述训练服务器集群,直至所述机器学习模型完成训练后,去掉频次小于等于第一阈值的特征对应的模型参数,并利用最新的剩余模型参数生成对应的推荐模型,所述机器学习模型中每一特征的频次在所述机器学习模型每次完成训练后,采用预设的频次衰减系数进行更新。
13.根据权利要求12所述的系统,其特征在于,所述训练服务器集群将所述机器学习模型中频次小于等于所述第一阈值的特征对应的模型参数设置为预设稀疏值,并返回给所述参数服务器集群;
所述参数服务器集群将频次小于等于所述第一阈值的特征对应的模型参数修正为所述预设稀疏值,并在所述机器学习模型完成训练后,去掉预设稀疏值下的模型参数。
14.根据权利要求12所述的系统,其特征在于,所述参数服务器集群在所述机器学习模型完成训练后,在剩余模型参数中过滤频次小于第二阈值的特征对应的模型参数,并利用过滤后的剩余模型参数生成所述推荐模型,所述第二阈值大于所述第一阈值。
15.根据权利要求12所述的系统,其特征在于,所述参数服务器集群在所述机器学习模型完成当前时段下的训练后,根据预设的频次衰减系数更新所述机器学习模型中不同特征的频次,并在去掉频次小于等于第一阈值的特征对应的模型参数后的剩余模型参数中过滤频次小于等于第二阈值的特征对应的模型参数,利用过滤后的剩余模型参数生成当前时段下的推荐模型。
16.根据权利要求12-15任一项所述的系统,其特征在于,还包括权利要求11 所述的推荐服务器,所述参数服务器集群将生成的推荐模型发布到所述推荐服务器中。
17.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的信息推荐的方法。
CN201911053819.3A 2019-10-31 2019-10-31 一种信息推荐的方法、装置、推荐服务器和存储介质 Active CN110825966B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201911053819.3A CN110825966B (zh) 2019-10-31 2019-10-31 一种信息推荐的方法、装置、推荐服务器和存储介质
EP20882554.7A EP4053716A4 (en) 2019-10-31 2020-07-01 INFORMATION RECOMMENDATION METHOD, DEVICE, RECOMMENDATION SERVER AND STORAGE MEDIUM
PCT/CN2020/099662 WO2021082500A1 (zh) 2019-10-31 2020-07-01 一种信息推荐的方法、装置、推荐服务器和存储介质
US17/772,925 US20220405641A1 (en) 2019-10-31 2020-07-01 Method for recommending information, recommendation server, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911053819.3A CN110825966B (zh) 2019-10-31 2019-10-31 一种信息推荐的方法、装置、推荐服务器和存储介质

Publications (2)

Publication Number Publication Date
CN110825966A CN110825966A (zh) 2020-02-21
CN110825966B true CN110825966B (zh) 2022-03-04

Family

ID=69551843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911053819.3A Active CN110825966B (zh) 2019-10-31 2019-10-31 一种信息推荐的方法、装置、推荐服务器和存储介质

Country Status (4)

Country Link
US (1) US20220405641A1 (zh)
EP (1) EP4053716A4 (zh)
CN (1) CN110825966B (zh)
WO (1) WO2021082500A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110825966B (zh) * 2019-10-31 2022-03-04 广州市百果园信息技术有限公司 一种信息推荐的方法、装置、推荐服务器和存储介质
CN111478963B (zh) * 2020-04-07 2022-05-20 北京奇艺世纪科技有限公司 消息推送方法、装置、电子设备及计算机可读存储介质
CN113495715A (zh) * 2020-04-08 2021-10-12 北京意锐新创科技有限公司 适用于支付设备管控平台的语音下发方法和装置
CN111970335B (zh) * 2020-07-30 2021-09-07 腾讯科技(深圳)有限公司 一种信息推荐的方法、装置及存储介质
CN112437349B (zh) * 2020-11-10 2022-09-23 杭州时趣信息技术有限公司 一种视频流推荐方法及相关装置
CN112340609B (zh) * 2020-11-25 2023-06-16 广州三叠纪元智能科技有限公司 参数信息的配置方法、电箱、服务器和存储介质
US20220245444A1 (en) * 2021-01-29 2022-08-04 Microsoft Technology Licensing, Llc System for training an artificial neural network
CN113794900B (zh) * 2021-08-31 2023-04-07 北京达佳互联信息技术有限公司 视频处理方法和装置
CN116167829B (zh) * 2023-04-26 2023-08-29 湖南惟客科技集团有限公司 一种多维多粒度用户行为分析方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310003A (zh) * 2013-06-28 2013-09-18 华东师范大学 一种基于点击日志的新广告点击率预测方法及系统
CN107045511A (zh) * 2016-02-05 2017-08-15 阿里巴巴集团控股有限公司 一种目标特征数据的挖掘方法和装置
CN107122327A (zh) * 2016-02-25 2017-09-01 阿里巴巴集团控股有限公司 一种利用训练数据训练模型的方法和训练系统
CN107203891A (zh) * 2016-03-17 2017-09-26 阿里巴巴集团控股有限公司 一种自动多阀值特征过滤方法及装置
CN108960264A (zh) * 2017-05-19 2018-12-07 华为技术有限公司 分类模型的训练方法及装置
CN109582903A (zh) * 2018-11-29 2019-04-05 广州市百果园信息技术有限公司 一种信息展示的方法、装置、设备和存储介质
CN110321422A (zh) * 2018-03-28 2019-10-11 腾讯科技(深圳)有限公司 在线训练模型的方法、推送方法、装置以及设备
CN110378434A (zh) * 2019-07-24 2019-10-25 腾讯科技(深圳)有限公司 点击率预测模型的训练方法、推荐方法、装置及电子设备

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2431488A (en) * 2005-10-11 2007-04-25 Hewlett Packard Development Co Data transfer device
CN105160548A (zh) * 2015-08-20 2015-12-16 北京奇虎科技有限公司 对广告点击率进行预测的方法及装置
CN107944589A (zh) * 2016-10-12 2018-04-20 北京奇虎科技有限公司 广告点击率的预测方法和预测装置
US10592570B2 (en) * 2017-07-10 2020-03-17 Facebook, Inc. Selecting content for presentation to a user of a social networking system based on a topic associated with a group of which the user is a member
CN107515909B (zh) * 2017-08-11 2020-05-19 深圳市云网拜特科技有限公司 一种视频推荐方法及系统
CN108062573A (zh) * 2017-12-29 2018-05-22 广东欧珀移动通信有限公司 模型训练方法及装置
CN108965951B (zh) * 2018-07-12 2020-10-02 北京奇艺世纪科技有限公司 广告的播放方法及装置
CN109299994B (zh) * 2018-07-27 2021-09-24 北京三快在线科技有限公司 推荐方法、装置、设备及可读存储介质
CN109992710B (zh) * 2019-02-13 2021-10-15 网易传媒科技(北京)有限公司 点击率预估方法、系统、介质和计算设备
CN110825966B (zh) * 2019-10-31 2022-03-04 广州市百果园信息技术有限公司 一种信息推荐的方法、装置、推荐服务器和存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310003A (zh) * 2013-06-28 2013-09-18 华东师范大学 一种基于点击日志的新广告点击率预测方法及系统
CN107045511A (zh) * 2016-02-05 2017-08-15 阿里巴巴集团控股有限公司 一种目标特征数据的挖掘方法和装置
CN107122327A (zh) * 2016-02-25 2017-09-01 阿里巴巴集团控股有限公司 一种利用训练数据训练模型的方法和训练系统
CN107203891A (zh) * 2016-03-17 2017-09-26 阿里巴巴集团控股有限公司 一种自动多阀值特征过滤方法及装置
CN108960264A (zh) * 2017-05-19 2018-12-07 华为技术有限公司 分类模型的训练方法及装置
CN110321422A (zh) * 2018-03-28 2019-10-11 腾讯科技(深圳)有限公司 在线训练模型的方法、推送方法、装置以及设备
CN109582903A (zh) * 2018-11-29 2019-04-05 广州市百果园信息技术有限公司 一种信息展示的方法、装置、设备和存储介质
CN110378434A (zh) * 2019-07-24 2019-10-25 腾讯科技(深圳)有限公司 点击率预测模型的训练方法、推荐方法、装置及电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于递归神经网络的广告点击率预估;余仕敏;《中国优秀硕士学位论文全文数据库经济与管理科学辑》;20160715;第J157-8页 *

Also Published As

Publication number Publication date
WO2021082500A1 (zh) 2021-05-06
EP4053716A4 (en) 2022-12-21
EP4053716A1 (en) 2022-09-07
US20220405641A1 (en) 2022-12-22
CN110825966A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
CN110825966B (zh) 一种信息推荐的方法、装置、推荐服务器和存储介质
CN110457589B (zh) 一种车辆推荐方法、装置、设备及存储介质
CN109582903B (zh) 一种信息展示的方法、装置、设备和存储介质
CN106651542B (zh) 一种物品推荐的方法及装置
CN109325182B (zh) 基于会话的信息推送方法、装置、计算机设备及存储介质
KR20200069352A (ko) 융합 데이터 처리 방법 및 정보 추천 시스템
CN110909182B (zh) 多媒体资源搜索方法、装置、计算机设备及存储介质
US20230066853A1 (en) Method and apparatus for training information prediction models, method and apparatus for predicting information, and storage medium and device thereof
CN111666448B (zh) 搜索方法、装置、电子设备及计算机可读存储介质
CN110543598A (zh) 信息推荐方法、装置及终端
CN111506820A (zh) 推荐模型、方法、装置、设备及存储介质
Ben-Shimon et al. An ensemble method for top-N recommendations from the SVD
CN115618101A (zh) 基于负反馈的流媒体内容推荐方法、装置及电子设备
CN114547439A (zh) 基于大数据和人工智能的业务优化方法及电子商务ai系统
CN113868466A (zh) 视频推荐的方法、装置、设备和存储介质
KR20200145346A (ko) 상품 또는 컨텐츠 추천 서비스 제공 프로그램
KR20200145344A (ko) 협업 필터링 기반의 사용자 선호도 예측을 이용한 상품 또는 컨텐츠 추천 서비스 제공 방법
CN109213922B (zh) 一种对搜索结果排序的方法和装置
RU2785764C1 (ru) Способ рекомендации информации, устройство, сервер рекомендаций и запоминающее устройство
CN114547440A (zh) 基于互联网大数据的用户画像挖掘方法及人工智能云系统
CN105205098B (zh) 一种点击到达率ctr的确定方法及装置
CN116415063A (zh) 云服务推荐方法及装置
CN112905892A (zh) 应用于用户画像挖掘的大数据处理方法及大数据服务器
CN108304370B (zh) 数据更新方法及装置
KR20200145349A (ko) 상품 또는 컨텐츠 추천 서비스 제공 프로그램 기록매체

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221130

Address after: 31a, 15 / F, building 30, maple mall, bangrang Road, Brazil, Singapore

Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd.

Address before: 511400 floor 5-13, West Tower, building C, 274 Xingtai Road, Shiqiao street, Panyu District, Guangzhou City, Guangdong Province

Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right