CN110162701B - 内容推送方法、装置、计算机设备和存储介质 - Google Patents
内容推送方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN110162701B CN110162701B CN201910390499.4A CN201910390499A CN110162701B CN 110162701 B CN110162701 B CN 110162701B CN 201910390499 A CN201910390499 A CN 201910390499A CN 110162701 B CN110162701 B CN 110162701B
- Authority
- CN
- China
- Prior art keywords
- content
- model
- target
- user
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 239000013598 vector Substances 0.000 claims abstract description 455
- 238000012549 training Methods 0.000 claims description 142
- 238000003062 neural network model Methods 0.000 claims description 53
- 238000004590 computer program Methods 0.000 claims description 11
- 238000009795 derivation Methods 0.000 claims description 7
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 13
- 230000006399 behavior Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000007774 longterm Effects 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 239000013604 expression vector Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 101100391172 Dictyostelium discoideum forA gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种内容推送方法、装置、计算机设备和存储介质,所述方法包括:获取目标用户对应的第一特征;将第一特征输入到目标内容推送模型中,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量;从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,内容向量集合中包括多个候选内容分别对应的内容向量,内容向量是根据第二模型参数对候选内容对应的第二特征进行编码得到的;获取目标内容向量对应的目标候选内容,根据目标候选内容得到目标用户对应的目标推送内容;将目标推送内容的信息推送给目标用户对应的终端。上述方法可以提高推送准确度。
Description
技术领域
本发明涉及信息处理技术领域,特别是涉及内容推送方法、装置、计算机设备和存储介质。
背景技术
随着计算机以及互联网技术的发展,人们对互联网的使用越来越频繁,例如通过互联网获取需要的信息。
在很多场景下都存在向用户推送内容的需求,例如向推送新闻文章、推送视频等。传统技术中,向用户推送的信息时,往往是根据用户喜欢的内容类别,向用户推荐该类别的内容,准确度低,导致推送信息可信赖度低,对用户造成干扰。
发明内容
基于此,有必要针对上述推荐准确度低、对用户造成干扰的问题,提供一种内容推送方法、装置、计算机设备和存储介质。
一种内容推送方法,所述方法包括:获取目标用户对应的第一特征;将所述第一特征输入到目标内容推送模型中,所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量,其中,所述目标内容推送模型通过组合特征进行模型训练得到,所述组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过所述组合特征训练得到所述用户特征对应的所述第一模型参数,以及所述内容特征对应的第二模型参数;从内容向量集合中,查找所述目标用户向量的相似内容向量,作为目标内容向量,所述内容向量集合中包括多个候选内容分别对应的内容向量,所述内容向量是根据所述第二模型参数对所述候选内容对应的第二特征进行编码得到的;获取所述目标内容向量对应的目标候选内容,根据所述目标候选内容得到所述目标用户对应的目标推送内容;将所述目标推送内容的信息推送给所述目标用户对应的终端。
一种内容推送装置,所述装置包括:第一特征获取模块,用于获取目标用户对应的第一特征;目标用户向量得到模块,用于将所述第一特征输入到目标内容推送模型中,所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量,其中,所述目标内容推送模型通过组合特征进行模型训练得到,所述组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过所述组合特征训练得到所述用户特征对应的所述第一模型参数,以及所述内容特征对应的第二模型参数;查找模块,用于从内容向量集合中,查找所述目标用户向量的相似内容向量,作为目标内容向量,所述内容向量集合中包括多个候选内容分别对应的内容向量,所述内容向量是根据所述第二模型参数对所述候选内容对应的第二特征进行编码得到的;目标推送内容得到模块,用于获取所述目标内容向量对应的目标候选内容,根据所述目标候选内容得到所述目标用户对应的目标推送内容;推送模块,用于将所述目标推送内容的信息推送给所述目标用户对应的终端。
在一些实施例中,所述第一特征包括目标浏览特征,所述第一特征获取模块用于:接收向所述目标用户推送内容的推送指令;响应于所述推送指令,根据所述目标用户对应的历史浏览内容得到所述目标浏览特征。
在一些实施例中,所述目标内容推送模型包括神经网络模型以及因子分解模型,所述第一模型参数以及所述第二模型参数为所述因子分解模型中的模型参数,所述目标用户向量得到模块包括:第一向量得到单元,用于所述因子分解模型利用所述第一模型参数对所述第一特征进行编码,得到第一用户向量;第二向量得到单元,用于将所述第一特征输入到所述神经网络模型中,得到第二用户向量;目标用户向量得到单元,用于根据所述第一用户向量以及所述第二用户向量得到所述目标用户向量。
在一些实施例中,所述候选内容对应的内容向量的得到模块用于:将所述候选内容对应的各个所述第二特征输入到所述目标内容推送模型中,所述目标内容推送模型利用各个所述第二特征对应的第二模型参数对所述第二特征分别进行编码,得到各个所述第二特征分别对应的内容向量;根据各个所述第二特征分别对应的内容向量得到所述候选内容对应的内容向量。
在一些实施例中,所述目标内容推送模型的训练模块包括:训练样本集合获取单元,用于获取训练样本集合,所述训练样本集合包括多条训练样本,所述训练样本包括样本用户对应的样本用户特征、样本内容对应的样本内容特征以及浏览状态标签;模型训练单元,用于根据所述训练样本集合的训练样本进行模型训练,得到所述目标内容推送模型。
在一些实施例中,所述模型训练单元用于:将所述训练样本中的所述样本用户特征以及所述样本内容特征输入到训练内容推送模型中;所述训练内容推送模型根据各个所述样本用户特征对应的模型参数对所述样本用户特征分别进行编码,根据各个所述样本用户特征分别编码得到的用户向量得到所述样本用户对应的样本用户向量;所述训练内容推送模型根据各个所述样本内容对应的模型参数对所述样本内容特征分别进行编码,根据各个所述样本内容特征分别编码得到的内容向量得到所述样本内容对应的样本内容向量;根据所述样本用户向量以及所述样本内容向量计算得到所述样本内容对应的预测浏览状态,根据所述预测浏览状态与所述浏览状态标签的差异调整所述训练内容推送模型的模型参数,直至满足模型收敛条件,得到所述目标内容推送模型。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行上述内容推送方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述内容推送方法的步骤。
上述内容推送方法、装置、计算机设备和存储介质,通过用户特征与内容特征组合得到的特征进行模型训练得到的模型进行内容推送,挖掘了用户特征与内容特征之间的关联关系,推送准确度高。且利用组合特征进行模型训练得到的模型参数中,用户特征与内容特征对应的模型参数是分离的,可以在利用模型进行内容推送时,利用第一模型参数以及第二模型参数,分别对用户特征以及内容特征进行处理,因此处理效率高。
附图说明
图1为一些实施例中提供的内容推送方法的应用环境图;
图2A为一些实施例中内容推送方法的流程图;
图2B为一些实施例中进行视频推荐的界面示意图;
图3A为一些实施例中目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量的流程图;
图3B为一些实施例中利用神经网络模型对特征进行编码,得到第二用户向量的示意图;
图3C为一些实施例中得到目标用户向量的示意图;
图4为一些实施例中根据训练样本集合的训练样本进行模型训练,得到目标内容推送模型的流程图;
图5为一些实施例中进行模型训练的示意图;
图6为一些实施例中得到相似内容向量的示意图;
图7A为一些实施例中内容推送系统的架构图;
图7B为一些实施例中向用户推送内容的方案示意图;
图8为一些实施例中内容推送装置的结构框图;
图9为一些实施例中内容推送单元的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一特征称为第二特征,且类似地,可将第二特征称为第一特征。
图1为一个实施例中提供的内容推送方法的应用环境图,如图1所示,在该应用环境中,包括终端110以及服务器120。目标用户可以通过终端110向服务器120发送内容推送指令,服务器120获取终端110对应的目标用户对应的第一特征,执行本发明实施例提供的内容推送方法,得到目标用户对应的目标推送内容,将目标推送内容的信息推送给目标用户对应的终端110,终端110上可以展示目标推送内容的信息。
例如,目标用户可以使用手机进入新闻网站浏览新闻,新闻网站对应的服务器可以获取目标用户对应的第一特征,第一特征可以包括用户历史阅读的文章的特征以及用户的基础属性信息例如用户的年龄等特征。将第一特征输入到目标内容推送模型,得到用户对应的目标用户向量,从预先存储的内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,获取目标内容向量对应的目标候选新闻文章,根据目标候选新闻文章得到目标用户对应的目标推送新闻,将目标推送新闻的标题以及链接等信息发送给目标用户对应的终端。
服务器120可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群,可以是提供云服务器、云数据库、云存储和CDN等基础云计算服务的云服务器。终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端110以及服务器120可以通过网络等通讯连接方式进行连接,本发明实施例在此不做限制。
如图2A所示,在一些实施例中,提出了一种内容推送方法,本实施例主要以该方法应用于上述图1中的服务器120来举例说明。具体可以包括以下步骤:
步骤S202,获取目标用户对应的第一特征。
具体地,第一特征是与目标用户相关的特征,用于描述用户的特性。第一特征可以包括用户的属性信息以及根据用户的操作行为得到的特征中至少一种。用户属性信息例如可以包括用户的年龄、性别以及居住地中的至少一种信息。操作行为可以是与内容浏览有关的行为,例如浏览了哪些内容、评论了哪些内容等,可以根据用户的内容浏览行为得到的用户对应的浏览特征。例如,可以将用户浏览的文章对应的关键词作为用户的特征,可以将用户浏览的文章的类别作为目标用户对应的特征。
在一些实施例中,目标用户对应的目标浏览特征可以包括第一浏览特征、第二浏览特征以及第三浏览特征中的至少一种。浏览特征可以体现用户的浏览兴趣,从而可以推送用户感兴趣的内容。
第一浏览特征、第二浏览特征以及第三浏览特征是根据目标用户对应的历史浏览内容得到的。第一浏览特征、第二浏览特征以及第三浏览特征可以根据浏览行为对应的时间段进行区分,第一浏览特征是根据第一时间段浏览的历史浏览内容得到的,第二浏览特征是根据第二时间段浏览的历史浏览内容得到的,第三浏览特征是根据第三时间段浏览的历史浏览内容得到的。第一时间段的时间长度大于第二时间段,第二时间段的时间长度大于第三时间段。这样,区分不同的时期获取用户的特征,可以得到用户在多个时期内的浏览兴趣,结合各个时期的浏览兴趣得到向用户推送的内容,提高推送准确度。
在一些实施例中,可以将历史时间点到当前时间点之间的时间作为一个时间段。历史时间可以根据需要设置。例如第一时间段为目标用户第一次浏览内容的时间到当前时间之间,这样得到的浏览特征是长期的特征,能够反映用户近段时间的阅读兴趣。第二时间段为七天前到当前时间之间,这样得到的浏览特征是最近一段时间的特征,能够反映用户近段时间的阅读兴趣。第三时间段为目标用户浏览前h个内容的时间到当前之间,h的取值可以根据需要设置。例如为3,这样可以根据用户最近浏览的多个内容确定用户当前的阅读兴趣。
在一些实施例中,目标浏览特征可以包括目标用户对应的历史浏览内容所属的类目(CATEGORY)。类目是对内容的一个抽象描述,将多个描述相似内容的文章映射到同一个类目。例如,类目可以是娱乐类目或者体育类目等。当历史浏览内容较多时,可以获取目标用户浏览内容数量最多的前c个类目作为目标浏览类目,c的取值可以根据需要设置。例如为4。
在一些实施例中,目标浏览特征可以包括目标用户对应的历史浏览内容中的关键字。关键字是表示内容的核心内容的词。可以为一个或多个,例如假设历史浏览内容是关于篮球名人的,则关键字则可以包括“篮球”以及“名人”两个。关键字可以是全部历史浏览内容中的全部关键字,也可以从历史浏览内容中的关键字中筛选部分关键字,例如筛选得到出现次数超过预设次数的关键字。
在一些实施例中,目标浏览特征可以包括目标用户的历史浏览内容中的实体词。例如人名、地名以及机构名中的至少一种。
举个例子,一个用户的用户特征可以包括如表一所示的特征。长期阅读内容的特征是根据用户长期的内容阅读行为得到的特征,例如,最近三年的阅读行为得到的特征。
表一
在一些实施例中,特征可以通过one-hot(独热码)编码成用数值表示的特征。
在一些实施例中,获取目标用户对应的第一特征包括:接收向目标用户推送内容的推送指令;响应于推送指令,根据目标用户对应的历史浏览内容得到目标浏览特征。
具体地,历史浏览内容是用户在当前时间之前浏览的内容。目标浏览特征可以是历史浏览内容对应的类目、关键词或者实体中的至少一个。推送指令可以是终端发送的,也可以是服务器自动触发的。当推送指令是用户对应的终端发送的,则可以根据推送指令进行内容的在线推送。例如,用户可以在新闻页面中点击“推荐文章”按键,通过终端向服务器发送推送指令。服务器也可以自动触发推送指令,例如,每隔预设时长主动向终端推送内容。
步骤S204,将第一特征输入到目标内容推送模型中,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量,其中,目标内容推送模型通过组合特征进行模型训练得到,组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过组合特征训练得到用户特征对应的第一模型参数,以及内容特征对应的第二模型参数。
具体地,内容可以是文本、语音、图片以及视频中的一种或多种。例如内容可以是新闻文章,也可以是电视剧。“多种”是指两种以上,包括两种。目标内容推送模型用于进行内容推送。目标用户向量根据用户的特征进行编码得到,内容推送模型通过模型参数将输入的特征编码成向量。用户特征是用户对应的特征,内容特征是内容对应的特征。例如用户特征可以是用户的属性信息以及根据用户的操作行为得到的特征,例如用户的性别、年龄以及根据用户浏览的内容得到的特征。内容特征是与内容相关的,例如可以是内容的关键字、内容中的实体以及内容所属的类别等。
可以理解,虽然用户特征中包括根据用户浏览的内容得到的特征,但是这与内容对应的特征是不同的。用户特征中根据用户浏览的内容得到的特征是用于描述用户的特性的。而内容对应的特征,用于描述该内容的特性。例如,对于一个训练样本,用户对应的特征可以包括用户的性别为女,根据用户历史浏览的内容得到用户感兴趣的内容所属的类目为娱乐。而训练样本中样本内容对应的内容特征包括所属的类目为娱乐,关键字为“明星”以及“化妆品”。
组合特征是指将多个特征组合得到的特征。例如是将两个特征组合得到的特征。举个实际的例子,假设用户特征为“性别男”,内容特征为“篮球”,则组合特征为“用户性别为男,且内容特征为篮球”。组合特征可以包括用户特征与内容特征之间两两组合得到的二阶特征。内容推送模型是预先训练得到的机器学习模型。内容推送模型例如可以是因子分解模型(Factorization Machines,FM)。FM模型是一种基于矩阵分解的机器学习模型,可以利用特征交叉组合的方式来挖掘特征之间的相关性。
在一些实施例中,内容推送模型包括FM模型以及深度神经网络模型(Deep NeuralNetworks,DNN)。可以结合FM模型以及深度神经网络模型的输出得到目标用户向量,例如可以将FM模型以及深度神经网络模型的输出进行拼接。这样,可以利用神经网络模型负责高阶表示向量的提取。因子分解机模型负责低阶表示向量的提取,因此有效的结合了因子分解机与神经网络在特征学习中的优点。而且可以是端到端模型,无需特征工程也可以进行模型训练得到模型。内容推送模型中神经网络模型与因子分解模型可以共享相同的输入,从而使训练更高效。
目标内容推送模型通过组合特征进行模型训练得到是指:内容推送模型是考虑特征之间进行交叉组合即特征之间相互作用时,对模型结果的影响训练得到的。内容推送模型学习到了特征之间的相互隐藏关系。在一般的线性模型中,是各个特征独立考虑的,没有考虑到特征与特征之间的相互关系。但实际上,大量的特征之间是有关联的。例如,一般女性用户看化妆品服装之类的广告比较多,而男性更青睐各种球类装备。那很明显,女性这个特征与化妆品类服装类商品有很大的关联性,男性这个特征与球类装备的关联性更为密切。如果能将学习到这些有关联的特征的关联关系,那么将会提高内容推送模型的推送准确度。本发明实施例提供的内容推送模型将组合特征对应的模型参数分解为各个组成该组合特征的特征对应的模型参数。组合特征包括用户特征与内容特征组合得到的特征时,第一模型参数是组合特征中,用户特征对应的模型参数。第二模型参数是组合特征中,内容特征对应的模型参数。
本发明实施例提供的内容推送模型将用户特征以及内容特征之间进行组合得到的组合特征对应的模型编码结果分为两个部分:第一模型参数对用户特征进行编码得到的第一编码结果,第二模型参数对内容特征进行编码得到的结果,这两部分结果是可分离的。因此可以在利用模型进行内容推送时,利用第一模型参数以及第二模型参数,分别对用户特征以及内容特征进行处理。
步骤S206,从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,内容向量集合中包括多个候选内容分别对应的内容向量,内容向量是根据第二模型参数对候选内容对应的第二特征进行编码得到的。
具体地,内容向量是候选内容对应的向量。一个候选内容可以对应一个内容向量。内容向量集合中包括多个内容向量。第二特征是候选内容对应的特征,例如可以是候选内容的关键字或者候选内容的类别中的一个或多个。内容向量是根据第二模型参数对候选内容对应的第二特征进行编码得到的。例如可以将第二模型参数对候选内容对应的第二特征进行编码得到的第二编码结果作为内容向量,也可以结合其他方法得到的内容向量得到候选内容对应的内容向量。例如,内容推送模型可以包括深度神经网络模型与FM模型。FM模型输出第二编码结果。将第二编码结果与深度神经网络模型输出的内容向量进行拼接,得到候选内容对应的内容向量
相似内容向量是与目标用户相似的内容向量。相似内容向量的个数可以根据需要设置,例如可以为200个。是否相似可以利用相似度来表示,可以将相似度大于预设相似度的向量作为相似内容向量,也可以将相似度排名在预设排名之前的向量作为相似内容向量。例如,可以查找相似度为前200的内容向量作为相似内容向量。由于内容推送模型中,用户特征与内容特征对应的模型参数是分离的,因此可以在利用模型进行内容推送时,利用第一模型参数以及第二模型参数,分别对用户特征以及内容特征进行处理。
在一些实施例中,内容对应的特征一般不会变化,因此可以预先利用第二模型参数编码得到内容向量,将内容向量组成的内容向量集合进行存储。当接收到用户对应的内容推送指令时,将用户对应的特征输入到内容推送模型中,得到目标用户对应的目标用户向量,从预先存储的内容向量集合中查找得到目标用户向量的相似内容向量。
在一些实施例中,在查找目标用户向量的相似内容向量时,可以采用穷举查找的方法,即计算目标用户向量与内容向量集合中各个内容向量之间的相似度,抽取出相似度排名在前的前N个内容向量或者相似度大于预设相似度的内容向量作为相似内容向量。也可以使用近似邻近算法(Approximate Nearest Neighbor,ANN)检索目标用户向量的相似内容向量。邻近算法可以根据向量的相似性,寻找与目标用户向量相似的内容向量。为了提高获取相似内容向量的速度,可以预先建立内容向量对应的索引,例如建立树型索引结构对内容向量进行分区以实现高效索引。如建立KD-树(k-dimensional Tree)。
在一些实施例中,从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量之前,还包括:根据第二模型参数对候选内容对应的第二特征进行编码,得到候选内容对应的内容向量;存储各个候选内容对应的内容向量组成的内容向量集合;从内容向量集合中,查找目标用户向量的相似内容向量包括:从预先存储的内容向量集合中,查找目标用户向量的相似内容向量。
具体地,内容向量集合中的向量是预先存储的,预先根据第二模型参数对候选内容对应的第二特征进行编码,得到候选内容对应的内容向量;存储各个候选内容对应的内容向量组成的内容向量集合。这样,当接收到向目标用户推送内容的推送指令时,可以响应于向目标用户推送内容的推送指令,从预先存储的内容向量集合中,查找目标用户向量的相似内容向量,以减少获取推送内容的时间。
步骤S208,获取目标内容向量对应的目标候选内容,根据目标候选内容得到目标用户对应的目标推送内容。
具体地,将目标内容向量对应的候选内容作为目标候选内容。可以将目标候选内容直接作为目标用户对应的目标推送内容,也可以根据目标候选内容进行进一步筛选,得到目标推送内容。例如,根据内容的热度对目标候选内容进行排序,将热度为前100个的目标候选内容作为目标推送内容。
步骤S210,将目标推送内容的信息推送给目标用户对应的终端。
具体地,目标推送内容的信息可以是目标推送内容本身以及与目标推送内容有关的信息中的至少一个。在进行推送时,可以将整个目标推送内容推送给目标用户对应的终端。也可以是将部分目标推送内容推送给目标用户对应的终端,还可以将与目标推送内容有关的信息例如阅读量、链接地址等信息推送给目标用户的终端。举个实际的例子,假设目标推送内容是新闻,则可以将新闻标题以及新闻的链接地址推送给目标用户的终端。假设目标推送内容是视频,则可以将视频的其中一张图片以及视频的链接推送给目标用户的终端。
本发明实施例提供的内容推送方法,通过用户特征与内容特征组合得到的特征进行模型训练得到的模型进行内容推送,挖掘了用户特征与内容特征之间的关联关系,准确度高。同时,利用组合特征进行模型训练得到的模型参数中,用户特征与内容特征对应的模型参数是分离的,可以在利用模型进行内容推送时,利用第一模型参数以及第二模型参数,分别对用户特征以及内容特征进行处理,因此处理效率高。
本发明实施例提供的内容推送方法可以应用于从海量内容获取推送内容的方案中。一般来说,对于利用用户的特征与内容特征进行组合特征训练得到的模型,在进行推送时,需要组合用户的特征与内容特征进行计算得到,因此,一般只能应用于候选内容比较少的情况下,例如,候选内容数量小于100个的方案中,这样即使将用户特征逐一与候选内容的特征进行结合,例如将用户特征与第一个候选内容的特征组合,输入到内容推送模型中,得到第一个候选内容对应的推送预测结果。将用户特征与第二个候选内容的特征组合,输入到内容推送模型中,得到第二候选内容对应的推送预测结果,那么内容推送模型的处理计算量小,内容推送时间较短。但是当候选内容数量为海量时,例如为几百万时,则计算量是非常大的。但采用本发明实施例提供的内容推送模型,组合特征的参数中,包括用户特征对应的模型参数与内容特征对应的模型参数。因此可以预先利用第二模型参数,对内容特征进行处理,得到内容向量。当接收到内容推送指令时,在线计算用户对应的用户向量,而内容向量已经预先计算完毕,因此,能够减少推送时间。并且,内容向量可以适用于与各个用户向量进行相似度计算,而不必对每个用户进行推送时,均需要计算一次内容向量。
如图2B所示,为一些实施例中采用本发明实施例提供的方法进行视频推荐的界面示意图。当用户点击了“xx儿歌01”视频进行观看时,服务器可以获取用户最近几篇点击的视频,获取视频关键字以及用户的基础属性信息例如年龄、性别等作为用户对应的特征,根据本发明实施例提供的方法得到推荐的视频,将视频的标题发送给用户终端,用户终端在视频播放界面上显示推荐的视频的标题,例如“ab儿歌”、“cd儿歌”以及“ef”视频。当用户点击推荐的视频的标题时,终端可以进入播放该视频的视频播放界面。
在一些实施中,第一特征包括多个,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量包括:目标内容推送模型利用各个第一特征对应的第一模型参数对第一特征分别进行编码,得到各个第一特征分别对应的用户向量;根据各个第一特征分别对应的用户向量得到目标用户向量。
具体地,第一特征包括多个,因此第一模型参数对用户特征进行编码得到的第一编码结果是结合各个第一特征分别对应的用户向量得到的,第一特征对应的用户向量是用该第一特征对应的第一模型参数对该第一特征进行编码得到的。可以对各个第一特征分别对应的用户向量进行求和计算,得到目标用户向量。假设组合特征为二阶组合特征,即1个用户特征与1个内容特征组合得到的,第一特征有m个,用<x1,x2……xm>表示,则目标用户向量的计算方法可以用公式(1)表示,其中vi表示特征xi对应的模型参数,V用户表示用户对应的目标用户向量。
在一些实施例中,可以将公式(1)得到的向量作为第一用户向量,第一用户向量可以结合其他方法得到的用户向量得到目标用户向量,例如内容推送模型可以包括FM模型以及深度神经网络模型。FM模型通过公式(1)输出对各个第一特征分别对应的用户向量进行求和计算得到的向量,结合深度神经网络模型根据第一特征得到的用户向量得到目标用户向量。例如将FM模型输出的向量与深度神经网络模型输出的向量进行拼接,得到目标用户向量。
在一些实施例中,组合特征还可以包括用户特征与用户特征进行组合,内容特征与内容特征进行组合中的至少一种。因此,还可以根据各个用户特征对应的第一模型参数计算得到用户特征之间组合时,该组合特征对应的模型编码结果。可以将用户特征之间组合时,该组合特征对应的模型编码结果与第一用户向量进行拼接,得到FM模型输出的用户向量。再将FM模型输出的用户向量与深度神经网络模型输出的向量进行拼接,得到目标用户向量。
例如,假设FM模型中的组合特征为二阶组合特征,二阶组合特征还可以包括1个用户特征与另一个用户特征组合得到的组合特征,第一特征有m个,用<x1,x2……xm>表示,则用户特征之间组合的组合特征对应的模型编码结果P用户的计算方法可以用公式(2)表示,其中符号“<,>”表示符号内,“,”号前的值与“,”后的值进行内积计算。例如<a,b>,表示a与b进行内积计算,内积计算是指将两个向量各自对应的维度相乘,再把乘积结果累计求和,例如假设有两个向量f1(x1,y1)以及f2(x2,y2),则两个向量进行内积计算,结果为:x1x2+y1y2。由于同一个用户特征不会进行组合,例如组合特征可以为“性别男且居住地为xx市”,但不会为“性别男且性别男”,因此需要减去同一个用户特征之间组合得到的组合特征对应的模型处理结果,即
在一些实施例中,内容推送模型中还可以包括非组合特征对应的模型参数,例如,用户特征在不与其他特征进行组合时,对应的第三模型参数。内容特征在不与其他特征进行组合时,对应的第四模型参数。因此还可以利用第三模型参数对用户特征进行处理,得到模型编码结果,根据模型编码结果与第一用户向量得到目标用户向量,例如将该模型编码结果与第一用户向量拼接。
在一些实施例中,目标内容推送模型包括神经网络模型以及因子分解模型,第一模型参数以及第二模型参数为因子分解模型中的模型参数,如图3A所示,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量包括:
步骤S302,因子分解模型利用第一模型参数对第一特征进行编码,得到第一用户向量。
具体地,因子分解模型即FM模型可以利用各个第一特征对应的第一模型参数对第一特征分别进行编码,得到各个第一特征分别对应的用户向量,对各个第一特征分别对应的用户向量进行求和计算,得到第一用户向量。
步骤S304,将第一特征输入到神经网络模型中,得到第二用户向量。
具体地,深度神经网络模型是具有一个或多个隐层的神经网络。层与层之间是全连接的,例如第i层的任意一个神经元与第i+1层的任意一个神经元相连。可以将第一特征输入到深度神经网络模型(Deep Neural Networks,DNN)中,经过深度神经网络模型中多个全连接网络的隐向量的处理与激活函数的处理,得到第二用户向量。激活函数例如可以是tanh函数。
在一些实施例中,神经网络模型可以将第一特征分为多个特征组,一种类型的特征组成一个特征组。例如,用户特征中,用户对应的关键词特征在同一个特征组中。当然用户对应的关键词特征也可以进一步分为多组。例如,可以将用户最近阅读的文章中的关键词特征分为一组,将用户长期阅读例如3年阅读的文章中的关键词特征分为另一组。由于特征组中含有多个特征,并且不同的用户所拥有的特征数目可能不相同,因此深度神经网络模型可以对特征组的特征进行聚合计算,例如可以是平均池化(Average Pooling),即可以计算特征组的特征的平均值,得到特征组对应的特征向量,一个特征组可以对应一个特征向量。将多个特征组对应的向量拼接在一起,经过神经网络模型中的全连接网络和Tanh激活函数的处理,得到第二用户向量。
假设待推送的内容为文章,如图3B所示,为一些实施例中利用神经网络模型对特征进行编码,得到第二用户向量的示意图。图3B中,最下面一层的一个长方形表示一个特征,多个特征形成一个特征组。神经网络模型可以把利用阅读的文章得到特征分为四组,包括最近阅读文章的关键词特征、最近阅读文章的总体特征、长期阅读文章的关键词特征以及长期阅读文章的类别特征。最近阅读文章的总体特征可以用该文章对应的向量表示。神经网络模型将特征映射为嵌入(embedding)向量的形式,其中embedding是指将特征表示为分布式向量。神经网络模型对每个特征组的特征进行平均池化,得到各个特征分组对应的向量,如图3B所示的向量a1、向量a2、向量a3以及向量a4。其中用户基本的属性信息例如性别以及年龄等特征,可以不进行特征分组以及平均池化。例如向量a5可以是性别对应的特征向量与年龄对应的特征向量拼接在一起得到的向量。神经网络模型可以将向量a1、a2、a3、a4以及a5拼接,利用leakyRelu激活函数进行处理,然后神经网络模型的全连接层可以对拼接得到的向量进行处理,最终输出第二用户向量。
步骤S306,根据第一用户向量以及第二用户向量得到目标用户向量。
具体地,得到第一用户向量以及第二用户向量后,根据第一用户向量与第二用户向量得到目标用户向量,例如将第一用户向量与第二用户向量拼接在一起,得到目标用户向量。
通过深度神经网络模型,能够学习到用户根据高阶特征得到的用户表示向量。因子分解模型中组合特征可以是二阶特征,即两个特征之间进行组合得到的特征,这样学习到的是用户的低阶特征表示的用户表示向量。因此能够同时学习到用户根据高阶特征得到的表示向量以及根据低阶特征得到的表示向量,提高了模型的泛化能力。其中,阶是指一个特征单位中特征的个数。高阶特征的特征数量大于预设数量,例如4。低阶特征的特征数量小于预设数量。
如图3C所示,假设目标用户对应的用户特征即第一特征有m个,用<x1,x2……xm>表示,m可以根据具体情况可以有不同取值,例如8。内容推送模型包括因子分解模型以及神经网络模型。可以将第一特征分别输入到因子分解模型以及神经网络模型中,因子分解模型根据第一模型参数对第一特征进行编码,得到用户向量V1 用户。神经网络模型也可以根据训练得到的模型参数对第一特征进行编码,得到用户向量V2 用户。用户向量V1 用户与用户向量V2 用户拼接得到的目标用户向量[V1 用户;V2 用户]。
在一些实施例中,候选内容对应的内容向量的得到步骤具体可以包括以下步骤:将候选内容对应的各个第二特征输入到目标内容推送模型中,目标内容推送模型利用各个第二特征对应的第二模型参数对第二特征分别进行编码,得到各个第二特征分别对应的内容向量;根据各个第二特征分别对应的内容向量得到候选内容对应的内容向量。
具体地,第二特征为候选内容对应的特征。例如假设候选内容为视频,视频的特征可以包括视频的导演名称、视频所属的类别以及视频的关键词等。第二特征包括多个,内容推送模型包括各个第二特征对应的第二模型参数。一个候选内容对应的第二特征包括多个,因此第二模型参数对候选内容的内容特征进行编码得到的第二编码结果,是结合各个第二特征分别对应的内容向量得到的。第二特征对应的内容向量是用该第二特征对应的第二模型参数对该第二特征进行编码得到的。可以对各个第二特征分别对应的用户向量进行求和计算,得到候选内容对应的内容向量。假设组合特征为二阶组合特征,即1个用户特征与1个内容特征组合得到的,第二特征有n个,用<xm+1,xm+2……xm+n>表示,则候选内容对应的内容向量的计算方法可以用公式(3)表示,其中vj表示特征xj对应的模型参数,V内容表示候选内容对应的内容向量。
在一些实施例中,可以将公式(3)得到的向量作为第一内容向量,第一内容向量可以结合其他方法得到的内容向量得到候选内容对应的内容向量,例如内容推送模型可以包括FM模型以及深度神经网络模型(Deep Neural Networks,DNN)。FM模型输出对各个第二特征分别对应的内容向量进行求和计算得到的内容向量,结合深度神经网络模型根据第二特征得到的内容向量得到候选内容对应的内容向量。
在一些实施例中,因子分解模型可以根据第二模型参数对第二特征进行编码,得到第一内容向量,将候选内容对应的第二特征输入到神经网络模型中,得到第二内容向量。根据第一内容向量以及第二内容向量得到候选内容的内容向量。例如将第一内容向量与第二内容向量拼接在一起,得到候选内容对应的内容向量。
在一些实施例中,组合特征还可以包括用户特征与用户特征进行组合,内容特征与内容特征进行组合中的至少一种。因此,还可以根据各个内容特征对应的第二模型参数计算得到内容特征之间组合时,该组合特征对应的模型编码结果。可以将内容特征之间组合时,该组合特征对应的模型编码结果与第一内容向量进行拼接,得到FM模型输出的内容向量。再将FM模型输出的内容向量与深度神经网络模型输出的向量进行拼接,得到候选内容对应的内容向量。
例如,假设组合特征为二阶组合特征,二阶组合特征还可以包括1个内容特征与另一个内容特征组合得到的组合特征,候选内容对应的第二特征有n个,用<xm+1,xm+2……xm+n>表示,则内容特征之间组合的组合特征对应的模型结果P内容的计算方法可以用公式(4)表示,其中公式(4)中,符号“<,>”表示符号内,“,”号前的值与“,”后的值进行内积计算。例如<a,b>,表示a与b进行内积计算。由于同一个内容特征不会进行组合,因此需要减去同一个内容特征之间组合得到的组合特征对应的模型处理结果,即
在一些实施例中,内容推送模型中还可以包括非组合特征对应的模型参数,例如,内容特征在不与其他特征进行组合时,即作为独立特征时,对应的第四模型参数。因此还可以利用第四模型参数对内容特征进行处理,得到模型编码结果,根据模型编码结果与第一内容向量得到候选内容对应的内容向量,例如将该模型编码结果与第一内容向量拼接。
在一些实施例中,目标内容推送模型的训练方法包括:获取训练样本集合,训练样本集合包括多条训练样本,训练样本包括样本用户对应的样本用户特征、样本内容对应的样本内容特征以及浏览状态标签;根据训练样本进行模型训练,得到目标内容推送模型。
具体地,训练样本集中训练样本的数量可以根据需要设置,例如可以是几万条。浏览状态标签用于表示样本用户是否浏览了该样本内容。例如,如果样本用户浏览了该样本内容,则浏览状态标签值为1,如果没有浏览状态标签值为0。样本用户是指用于进行模型训练的用户。样本内容是指用于进行模型训练的内容。训练样本是用于进行模型训练的样本。训练样本可以包括正样本以及负样本。一条训练样本的特征可以表示为<x1,x2……xm,xm+1,xm+2……xm+n>,前m个为样本用户的特征,后n个为样本内容的特征。举个实际的例子,假设一个用户的特征包括性别为男,年龄为28,阅读兴趣为体育。该用户阅读的文章包括文章1,文章1的特征包括特征t11、t12以及t13。未阅读的文章包括文章2,文章2的特征包括特征t21、t22以及t23。则训练样本可以有两个,第一个训练样本为正样本,包括特征:性别男、年龄为28、阅读兴趣为体育、t11、t12以及t13。第一个训练样本对应的浏览状态标签为1。第二个训练样本为负样本,包括特征:性别男、年龄为28、阅读兴趣为体育、t21、t22以及t23。第二个训练样本对应的浏览状态标签为0。得到训练样本后,根据训练样本集合的训练样本进行模型训练,得到目标内容推送模型。因此本发明实施例的内容推送方法,相当于将确定向用户推送的内容的问题抽象为分类预测问题。分类结果可以包括两个:推送以及不进行推送。
在一些实施例中,如图4所示,根据训练样本集合的训练样本进行模型训练,得到目标内容推送模型包括:
步骤S402,将训练样本中的样本用户特征以及样本内容特征输入到训练内容推送模型中。
具体地,训练内容推送模型是未最终训练得到的模型。训练内容推送模型可以是包括FM模型以及深度神经网络模型(Deep Neural Networks,DNN)。可以将样本用户特征以及样本内容特征输入到FM模型中,以及将样本用户特征以及样本内容特征输入到神经网络模型中。
步骤S404,训练内容推送模型根据各个样本用户特征对应的模型参数对样本用户特征分别进行编码,根据各个样本用户特征分别编码得到的用户向量得到样本用户对应的样本用户向量。
具体地,得到样本用户对应的样本用户向量的方法可以参考得到目标用户对应的目标用户向量的方法。其中的不同是:在训练内容推送模型中,样本用户特征对应的模型参数还需要根据进一步训练,以进行调整,得到最终的第一模型参数。
步骤S406,训练内容推送模型根据各个样本内容对应的模型参数对样本内容特征分别进行编码,根据各个样本内容特征分别编码得到的内容向量得到样本内容对应的样本内容向量。
具体地,得到样本内容对应的样本内容向量的方法可以参考得到候选内容对应的内容向量的方法。其中的不同是:在训练内容推送模型中,样本内容特征对应的模型参数还需要根据进一步训练,以进行调整,得到最终的第二模型参数。
步骤S408,根据样本用户向量以及样本内容向量计算得到样本内容对应的预测浏览状态,根据预测浏览状态与浏览状态标签的差异调整训练内容推送模型的模型参数,直至满足模型收敛条件,得到目标内容推送模型。
具体地,模型收敛条件可以是训练次数达到预设次数,也可以是模型损失值小于预设值。可以根据预测浏览状态与浏览状态标签的差异计算得到模型损失值,根据随机梯度下降方法,朝着损失值下降的方向调整模型参数,直至模型收敛,将最终得到的内容推送模型作为目标内容推送模型。例如,最终可以利用softmax激活函数输出在样本内容向量以及样本用户向量下,样本用户浏览样本内容的概率,根据预测得到的概率与训练样本中浏览状态标签所表示的概率的差异调整模型参数,可以利用交叉熵函数作为度量预测浏览状态与浏览状态标签的差异的函数。
如图5所示,为一些实施例中进行模型训练的示意图。内容推送模型是FM模型以及深度神经网络模型(Deep Neural Networks,DNN)的结合,即包括神经网络模型以及因子分解模型。训练样本的特征可以表示为<x1,x2……xm,xm+1,xm+2……xm+n>,前m个为样本用户的特征,后n个为样本内容的特征。训练样本内容模型利用因子分解模型以及神经网络模型对输入的样本用户特征进行处理,得到样本用户向量,训练样本内容模型利用因子分解模型以及神经网络模型对输入的样本内容特征进行处理,得到样本内容向量。样本内容向量以及样本用户向量经过Softmax处理得到概率分布,根据经过Softmax处理得到概率分布与真实的训练样本集中的概率分布的差异得到损失值。
需要说明的是,为了说明样本用户向量以及样本内容向量是分别计算得到的,图5中处理样本用户特征以及样本内容特征的因子分解模型被处理成分解为两个模型,样本用户特征以及样本内容特征也处理成是分别输入到不同的因子分解模型中,但实际上一条训练样本中的样本用户特征以及样本内容特征是同时输入到相同的因子分解模型中的,结合样本用户特征以及样本内容特征进行联合训练的,以学习用户特征与内容特征之间相互影响的关系。
如图6所示,为一些实施例中查找目标用户向量的相似内容向量的示意图。假设目标用户的第一特征表示为<x1,x2……xm>,即有m个第一特征,候选内容对应的特征为<xm+1,xm+2……xm+n>,有n个第二特征,内容推送模型包括神经网络模型以及因子分解模型,ANN服务器是指采用ANN邻近算法计算得到相似内容向量的服务器。则可以预先将候选内容对应的第二特征输入到内容推送模型中,得到各个候选内容分别对应的内容向量,将向量集合存储到ANN服务器中,ANN服务器为内容向量集合建立索引。当需要向目标用户推送候选内容时,获取目标用户对应的第一特征,目标内容模型利用因子分解模型以及神经网络模型对输入的第一特征<x1,x2……xm>进行处理,得到目标用户向量,将目标用户向量发送给ANN服务器,ANN服务器从内容集合中查找目标用户向量的相似内容向量。
在一些实施例中,本发明实施例提供的方法可以包括以下步骤:
01、根据训练样本进行模型训练,得到内容推送模型。
02、根据第二模型参数对候选内容对应的第二特征进行编码,得到候选内容对应的内容向量。
03、存储各个内容向量组成的内容向量集合。
04、接收向目标用户推送内容的推送指令。
05、响应于推送指令,获取目标用户对应的第一特征,将第一特征输入到目标内容推送模型中,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量。
06、从内容向量集合中,查找目标用户向量的相似内容向量。
07、获取目标内容向量对应的目标候选内容,根据目标候选内容得到目标用户对应的目标推送内容;
07、将目标推送内容的信息推送给目标用户对应的终端。
本发明实施例的内容推送模型的原理可以解释如下:FM模型通过组合特征进行学习,能够学习得到特征之间进行组合时对输出结果的影响。传统的FM模型中,通过组合特征中各个特征对应的模型参数的内积表示组合特征对应的模型参数,根据模型参数对组合特征进行处理。在传统的FM模型中,假设输入的特征包括m+n个,表示为<x1,x2……xm,xm+1,xm+2……xm+n>,前m个特征为用户对应的特征,后n个为候选内容对应的特征,则对应的计算方法表示如公式(5),其中wi表示特征xi在作为独立的特征时对应的模型参数,vi表示特征xi与其他特征进行组合时,对应的模型参数。vj表示特征xj与其他特征进行组合时,对应的模型参数,vi、vj可以是K维的向量,k可以根据需要设置。从公式(5)可以看出,在根据公式(5)进行计算时,在需要获取用户对应的推送内容时,均需要获取各个候选内容对应的特征,与用户特征进行组合,再输入到内容推送模型中,而候选内容可以是数千个,甚至是几百万个的。如果按照这种计算方法,每一个候选内容的特征都需要与用户特征进行组合,输入到内容推送模型中确定该候选内容是否进行推送,那么将消耗大量的时间以及计算资源,因此在对海量内容进行召回时,即从海量内容中筛选部分内容时,很难应用传统的FM模型进行高效的召回。
在对FM模型的研究中,发明人发现,在进行内容推送时,公式(5)可以分解为公式(6),由公式(6)可以看出,公式(6)一共可分为6部分。这6个部分所表示的意义见表二。其中用户的一阶特征是指用户对应的特征作为独立的特征,候选内容的一阶特征是指候选内容对应的特征作为独立的特征。用户二阶特征是用户的一个特征与另一个特征组合得到的组合特征。候选内容的二阶特征是候选内容的一个特征与另一个特征组合得到的组合特征。用户-候选内容的二阶特征是指用户的一个特征与候选内容的一个特征组合得到的组合特征。
表二
由表一可以看出,除了用户-候选内容的二阶特征的计算结果外,其他计算结果都是不需要用户特征与候选内容的特征进行交互的,而通过进一步实验,用户-候选内容的二阶特征的计算结果,可以用代替,即可以通过/>与/>进行内积计算得到的结果代替,也可以训练得到满足要求的内容推送模型。这样,用户-候选内容的二阶特征的计算结果分解为/>以及/>两个独立的部分。内积可以用于表示向量之间的相似度,因此/>与/>进行内积计算的部分,可以通过邻近算法代替。因此,可以将/>作为模型的第一编码结果,在获取到用户特征xi将时,将用户特征xi输入到内容推送模型中,利用第一模型参数vi对用户特征xi进行编码,得到目标用户向量。可以将作为模型的第二编码结果。因此可以预先获取候选内容对应的特征xj,将用户特征xj输入到内容推送模型中,利用第二模型参数vj对内容特征xj进行编码,得到候选内容对应的内容向量。
同理,公式(5)中,用户二阶特征的计算结果也可以用公式(2)代替,候选内容二阶特征的计算结果可以用公式(4)代替。因此可以根据FM模型输出的用户的一阶特征的计算结果、用户二阶特征的计算结果以及得到目标用户向量,根据候选内容的一阶特征的计算结果、候选内容二阶特征的计算结果以及/>得到候选内容的内容向量。
在一些实施例中,当内容推送模型包括深度神经网络模型时,候选内容二阶特征的计算结果和候选内容的一阶特征的计算结果可以与深度神经网络模型输出的内容向量进行拼接。用户二阶特征的计算结果和用户的一阶特征的计算结果可以与深度神经网络模型输出的用户向量进行拼接,当然也可以忽略不计。偏置项也可以忽略不计。例如在实际应用时,推送指令可以是针对一个用户的推送指令,因此对于同一个用户,用户二阶特征的计算结果、用户的一阶特征的计算结果以及偏置项对于各个推送指令都是保持不变的,可以忽略,不进行计算。
因此,本发明实施例中的FM模型,对于用户特征与内容特征进行组合得到的组合特征,将利用模型参数对组合特征进行处理得到的结果分为:第一模型参数对用户特征进行编码得到的第一编码结果,第二模型参数对内容特征进行编码得到的结果。故用户特征与内容特征对应的模型参数是分离的,可以在利用模型进行内容推送时,利用第一模型参数以及第二模型参数,分别对用户特征以及内容特征进行处理。这样,可以预先计算得到第二编码结果,根据第二编码结果得到内容对应的向量。在接收到对目标用户的推送指令时,再在线计算第一编码结果,根据第一编码结果得到用户对应的向量,通过获取与用户向量相似的目标内容向量,获取目标内容向量对应的目标候选内容,将目标推送内容的信息推送给目标用户对应的终端。
本发明实施例提供的内容推送方法可以应用于向用户推荐内容的系统中,例如可以根据最近阅读的文章向用户推荐文章。以下结合图7A以及图7B对内容推送方法进行说明。内容推送系统可以包括数据存储服务器、模型服务器、ANN服务器、初步筛选服务器以及排序服务器。数据存储服务器中可以存储用户信息、用户操作行为数据以及候选内容。用户信息例如可以包括用户的年龄、性别等基础属性信息以及用户的兴趣等信息。用户操作行为数据中记录了用户浏览了哪些内容。可以从数据存储服务器中获取用户操作数据、用户信息以及内容,进行模型训练,得到内容推送模型。模型服务器存储了内容推送模型,ANN服务器中存储了预先根据内容推送模型得到的内容向量集合。在实际应用时,模型服务器用于根据向目标用户推送内容的推送指令,根据数据存储服务器中的用户信息以及用户操作数据得到用户特征,根据用户特征输出目标用户的目标用户向量。模型服务器得到目标用户向量后,请求ANN服务器查找目标用户向量的相似内容向量。ANN服务器从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,输出目标内容向量对应的目标候选内容,作为在线召回的内容。目标候选内容可以有N篇,N取值可以根据需要设置,例如30。
初选服务器可以对目标候选内容进行进一步筛选,例如,根据用户与文章的相关性筛选用户的好友看过的文章,根据文章的发表时间筛选最近发表的文章,根据用户所在的地域筛选该地域的作者发表的文章,考虑文章的多样性保证筛选得到的文章有不同类别的文章,初选服务器筛选得到N-F篇内容。F取值可以根据需要设置,例如20。初选服务器也可以是使用模型对内容进行筛选,例如使用点击率预测模型进行筛选时,可以将内容推送模型中学习得到的特征嵌入向量(feature embedding)作为特征输入。排序服务器也可以根据排序模型例如点击率(Click Through Rate,CTR)预估模型对初步筛选得到的N-F篇内容进行排序,将排序在前例如预测点击率排名为前q名的内容的标题等信息推送给用户终端,q可以为3。特征获取系统用于获取排序模型中需要输入的特征,特征获取系统可以获取内容推送模型中已经获取得到的用户特征嵌入向量以及内容特征嵌入向量作为特征输入到排序模型中,得到排序结果。
如图8所示,在一些实施例中,提供了一种内容推送装置,该内容推送装置可以集成于上述的服务器120中,具体可以包括第一特征获取模块802、目标用户向量得到模块804、查找模块806、目标推送内容得到模块808以及推送模块810。
第一特征获取模块802,用于获取目标用户对应的第一特征。
目标用户向量得到模块804,用于将第一特征输入到目标内容推送模型中,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量,其中,目标内容推送模型通过组合特征进行模型训练得到,组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过组合特征训练得到用户特征对应的第一模型参数,以及内容特征对应的第二模型参数。
查找模块806,用于从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,内容向量集合中包括多个候选内容分别对应的内容向量,内容向量是根据第二模型参数对候选内容对应的第二特征进行编码得到的。
目标推送内容得到模块808,用于获取目标内容向量对应的目标候选内容,根据目标候选内容得到目标用户对应的目标推送内容。
推送模块810,用于将目标推送内容的信息推送给目标用户对应的终端。
在一些实施例中,第一特征包括目标浏览特征,第一特征获取模块用于:接收向目标用户推送内容的推送指令;响应于推送指令,根据目标用户对应的历史浏览内容得到目标浏览特征。
在一些实施例中,内容推送装置还包括:内容向量得到模块,用于根据第二模型参数对候选内容对应的第二特征进行编码,得到候选内容对应的内容向量;存储模块,用于存储各个候选内容对应的内容向量组成的内容向量集合;查找模块用于:从预先存储的内容向量集合中,查找目标用户向量的相似内容向量。
在一些实施例中,目标用户向量得到模块804包括:第一向量得到单元,用于目标内容推送模型利用各个第一特征对应的第一模型参数对第一特征分别进行编码,得到各个第一特征分别对应的用户向量;目标用户向量得到单元,用于根据各个第一特征分别对应的用户向量得到目标用户向量。
在一些实施例中,第一向量得到单元用于:对各个第一特征分别对应的用户向量进行求和计算,得到目标用户向量。
在一些实施例中,目标内容推送模型包括神经网络模型以及因子分解模型,第一模型参数以及第二模型参数为因子分解模型中的模型参数,目标用户向量得到模块804包括:第一向量得到单元,用于因子分解模型利用第一模型参数对第一特征进行编码,得到第一用户向量;第二向量得到单元,用于将第一特征输入到神经网络模型中,得到第二用户向量;目标用户向量得到单元,用于根据第一用户向量以及第二用户向量得到目标用户向量。
在一些实施例中,候选内容对应的内容向量的得到模块用于:将候选内容对应的各个第二特征输入到目标内容推送模型中,目标内容推送模型利用各个第二特征对应的第二模型参数对第二特征分别进行编码,得到各个第二特征分别对应的内容向量;根据各个第二特征分别对应的内容向量得到候选内容对应的内容向量。
在一些实施例中,目标内容推送模型的训练模块包括:
训练样本集合获取单元,用于获取训练样本集合,训练样本集合包括多条训练样本,训练样本包括样本用户对应的样本用户特征、样本内容对应的样本内容特征以及浏览状态标签。
模型训练单元,用于根据训练样本集合的训练样本进行模型训练,得到目标内容推送模型。
在一些实施例中,模型训练单元用于:
将训练样本中的样本用户特征以及样本内容特征输入到训练内容推送模型中。
训练内容推送模型根据各个样本用户特征对应的模型参数对样本用户特征分别进行编码,根据各个样本用户特征分别编码得到的用户向量得到样本用户对应的样本用户向量。
训练内容推送模型根据各个样本内容对应的模型参数对样本内容特征分别进行编码,根据各个样本内容特征分别编码得到的内容向量得到样本内容对应的样本内容向量。
根据样本用户向量以及样本内容向量计算得到样本内容对应的预测浏览状态,根据预测浏览状态与浏览状态标签的差异调整训练内容推送模型的模型参数,直至满足模型收敛条件,得到目标内容推送模型。
图9示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是图1中的服务器120。如图9所示,该计算机设备包括通过系统总线连接的处理器、存储器以及网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现内容推送方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行内容推送方法。本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一些实施例中,本申请提供的内容推送装置可以实现为一种计算机程序的形式,计算机程序可在如图9所示的计算机设备上运行。计算机设备的存储器中可存储组成该内容推送装置的各个程序模块,比如,图8所示的第一特征获取模块802、目标用户向量得到模块804、查找模块806、目标推送内容得到模块808以及推送模块810。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的内容推送方法中的步骤。
例如,图9所示的计算机设备可以通过如图8所示的内容推送装置中的第一特征获取模块802,用于获取目标用户对应的第一特征;通过目标用户向量得到模块804将第一特征输入到目标内容推送模型中,目标内容推送模型利用第一模型参数对第一特征进行编码,得到目标用户向量,其中,目标内容推送模型通过组合特征进行模型训练得到,组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过组合特征训练得到用户特征对应的第一模型参数,以及内容特征对应的第二模型参数;通过查找模块806从内容向量集合中,查找目标用户向量的相似内容向量,作为目标内容向量,内容向量集合中包括多个候选内容分别对应的内容向量,内容向量是根据第二模型参数对候选内容对应的第二特征进行编码得到的;通过目标推送内容得到模块808,用于获取目标内容向量对应的目标候选内容,根据目标候选内容得到目标用户对应的目标推送内容;通过推送模块810将目标推送内容的信息推送给目标用户对应的终端。
在一些实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述内容推送方法的步骤。此处内容推送方法的步骤可以是上述各个实施例的内容推送方法中的步骤。
在一些实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述内容推送方法的步骤。此处内容推送方法的步骤可以是上述各个实施例的内容推送方法中的步骤。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (16)
1.一种内容推送方法,所述方法包括:
获取目标用户对应的第一特征;
将所述第一特征输入到目标内容推送模型中,所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量,其中,所述目标内容推送模型通过组合特征进行模型训练得到,所述组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过所述组合特征训练得到所述用户特征对应的所述第一模型参数,以及所述内容特征对应的第二模型参数;所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量包括:所述目标内容推送模型利用各个所述第一特征对应的第一模型参数对所述第一特征分别进行编码,得到各个所述第一特征分别对应的用户向量;根据各个所述第一特征分别对应的用户向量得到所述目标用户向量;
根据所述第二模型参数对候选内容对应的第二特征进行编码,得到所述候选内容对应的内容向量;
存储各个所述候选内容对应的内容向量组成的所述内容向量集合;
从预先存储的所述内容向量集合中,查找所述目标用户向量的相似内容向量,作为目标内容向量,所述内容向量集合中包括多个候选内容分别对应的内容向量;
获取所述目标内容向量对应的目标候选内容,根据所述目标候选内容得到所述目标用户对应的目标推送内容;
将所述目标推送内容的信息推送给所述目标用户对应的终端。
2.根据权利要求1所述的方法,其特征在于,所述第一特征包括目标浏览特征,所述获取目标用户对应的第一特征包括:
接收向所述目标用户推送内容的推送指令;
响应于所述推送指令,根据所述目标用户对应的历史浏览内容得到所述目标浏览特征。
3.根据权利要求1所述的方法,其特征在于,所述根据各个所述第一特征分别对应的用户向量得到所述目标用户向量包括:
对各个所述第一特征分别对应的用户向量进行求和计算,得到所述目标用户向量。
4.根据权利要求1所述的方法,其特征在于,所述目标内容推送模型包括神经网络模型以及因子分解模型,所述第一模型参数以及所述第二模型参数为所述因子分解模型中的模型参数,所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量包括:
所述因子分解模型利用所述第一模型参数对所述第一特征进行编码,得到第一用户向量;
将所述第一特征输入到所述神经网络模型中,得到第二用户向量;
根据所述第一用户向量以及所述第二用户向量得到所述目标用户向量。
5.根据权利要求1所述的方法,其特征在于,所述候选内容对应的内容向量的得到步骤包括:
将所述候选内容对应的各个所述第二特征输入到所述目标内容推送模型中,所述目标内容推送模型利用各个所述第二特征对应的第二模型参数对所述第二特征分别进行编码,得到各个所述第二特征分别对应的内容向量;
根据各个所述第二特征分别对应的内容向量得到所述候选内容对应的内容向量。
6.根据权利要求1所述的方法,其特征在于,所述目标内容推送模型的训练步骤包括:
获取训练样本集合,所述训练样本集合包括多条训练样本,所述训练样本包括样本用户对应的样本用户特征、样本内容对应的样本内容特征以及浏览状态标签;
根据所述训练样本集合的训练样本进行模型训练,得到所述目标内容推送模型。
7.根据权利要求6所述的方法,其特征在于,所述根据所述训练样本集合的训练样本进行模型训练,得到所述目标内容推送模型包括:
将所述训练样本中的所述样本用户特征以及所述样本内容特征输入到训练内容推送模型中;
所述训练内容推送模型根据各个所述样本用户特征对应的模型参数对所述样本用户特征分别进行编码,根据各个所述样本用户特征分别编码得到的用户向量得到所述样本用户对应的样本用户向量;
所述训练内容推送模型根据各个所述样本内容对应的模型参数对所述样本内容特征分别进行编码,根据各个所述样本内容特征分别编码得到的内容向量得到所述样本内容对应的样本内容向量;
根据所述样本用户向量以及所述样本内容向量计算得到所述样本内容对应的预测浏览状态,根据所述预测浏览状态与所述浏览状态标签的差异调整所述训练内容推送模型的模型参数,直至满足模型收敛条件,得到所述目标内容推送模型。
8.一种内容推送装置,所述装置包括:
第一特征获取模块,用于获取目标用户对应的第一特征;
目标用户向量得到模块,用于将所述第一特征输入到目标内容推送模型中,所述目标内容推送模型利用第一模型参数对所述第一特征进行编码,得到目标用户向量,其中,所述目标内容推送模型通过组合特征进行模型训练得到,所述组合特征包括用户特征以及内容特征之间进行组合得到的特征,通过所述组合特征训练得到所述用户特征对应的所述第一模型参数,以及所述内容特征对应的第二模型参数;所述目标用户向量得到模块包括:第一向量得到单元,用于所述目标内容推送模型利用各个所述第一特征对应的第一模型参数对所述第一特征分别进行编码,得到各个所述第一特征分别对应的用户向量;目标用户向量得到单元,用于根据各个所述第一特征分别对应的用户向量得到所述目标用户向量;
内容向量得到模块,用于根据所述第二模型参数对候选内容对应的第二特征进行编码,得到所述候选内容对应的内容向量;
存储模块,用于存储各个所述候选内容对应的内容向量组成的所述内容向量集合;
查找模块,用于从预先存储的所述内容向量集合中,查找所述目标用户向量的相似内容向量,作为目标内容向量,所述内容向量集合中包括多个候选内容分别对应的内容向量;
目标推送内容得到模块,用于获取所述目标内容向量对应的目标候选内容,根据所述目标候选内容得到所述目标用户对应的目标推送内容;
推送模块,用于将所述目标推送内容的信息推送给所述目标用户对应的终端。
9.根据权利要求8所述的装置,其特征在于,所述第一特征包括目标浏览特征,所述第一特征获取模块用于:
接收向所述目标用户推送内容的推送指令;响应于所述推送指令,根据所述目标用户对应的历史浏览内容得到目标浏览特征。
10.根据权利要求8所述的装置,其特征在于,所述第一向量得到单元用于:
对各个所述第一特征分别对应的用户向量进行求和计算,得到所述目标用户向量。
11.根据权利要求8所述的装置,其特征在于,所述目标内容推送模型包括神经网络模型以及因子分解模型,所述第一模型参数以及所述第二模型参数为因子分解模型中的模型参数,
所述目标用户向量得到模块包括:
第一向量得到单元,用于所述因子分解模型利用所述第一模型参数对所述第一特征进行编码,得到第一用户向量;第二向量得到单元,用于将所述第一特征输入到所述神经网络模型中,得到第二用户向量;目标用户向量得到单元,用于根据所述第一用户向量以及所述第二用户向量得到所述目标用户向量。
12.根据权利要求8所述的装置,其特征在于,所述候选内容对应的内容向量的得到模块用于:
将所述候选内容对应的各个第二特征输入到目标内容推送模型中,所述目标内容推送模型利用各个第二特征对应的第二模型参数对所述第二特征分别进行编码,得到各个第二特征分别对应的内容向量;根据各个所述第二特征分别对应的内容向量得到所述候选内容对应的内容向量。
13.根据权利要求8所述的装置,其特征在于,所述目标内容推送模型的训练模块包括:
训练样本集合获取单元,用于获取训练样本集合,所述训练样本集合包括多条训练样本,所述训练样本包括样本用户对应的样本用户特征、样本内容对应的样本内容特征以及浏览状态标签;
模型训练单元,用于根据所述训练样本集合的训练样本进行模型训练,得到所述目标内容推送模型。
14.根据权利要求13所述的装置,其特征在于,所述模型训练单元用于:
将所述训练样本中的样本用户特征以及所述样本内容特征输入到训练内容推送模型中;
所述训练内容推送模型根据各个所述样本用户特征对应的模型参数对所述样本用户特征分别进行编码,根据各个所述样本用户特征分别编码得到的用户向量得到所述样本用户对应的样本用户向量;
所述训练内容推送模型根据各个所述样本内容对应的模型参数对所述样本内容特征分别进行编码,根据各个所述样本内容特征分别编码得到的内容向量得到所述样本内容对应的样本内容向量;
根据所述样本用户向量以及所述样本内容向量计算得到样本内容对应的预测浏览状态,根据所述预测浏览状态与所述浏览状态标签的差异调整所述训练内容推送模型的模型参数,直至满足模型收敛条件,得到所述目标内容推送模型。
15.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至7中任一项权利要求所述内容推送方法的步骤。
16.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至7中任一项权利要求所述内容推送方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910390499.4A CN110162701B (zh) | 2019-05-10 | 2019-05-10 | 内容推送方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910390499.4A CN110162701B (zh) | 2019-05-10 | 2019-05-10 | 内容推送方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110162701A CN110162701A (zh) | 2019-08-23 |
CN110162701B true CN110162701B (zh) | 2023-12-19 |
Family
ID=67634226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910390499.4A Active CN110162701B (zh) | 2019-05-10 | 2019-05-10 | 内容推送方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110162701B (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110795657B (zh) * | 2019-09-25 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 文章推送及模型训练方法、装置、存储介质和计算机设备 |
CN110851713B (zh) * | 2019-11-06 | 2023-05-30 | 腾讯科技(北京)有限公司 | 信息处理方法、推荐方法及相关设备 |
CN110851651B (zh) * | 2019-11-08 | 2022-07-22 | 杭州小影创新科技股份有限公司 | 一种个性化视频推荐方法及系统 |
CN110929206B (zh) * | 2019-11-20 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 点击率预估方法、装置、计算机可读存储介质和设备 |
CN111010595B (zh) * | 2019-12-25 | 2021-08-24 | 广州欢聊网络科技有限公司 | 一种新节目推荐的方法及装置 |
CN111259256B (zh) * | 2020-02-13 | 2023-09-12 | 深圳市雅阅科技有限公司 | 内容处理方法、装置、计算机可读存储介质和计算机设备 |
CN113271325A (zh) * | 2020-02-17 | 2021-08-17 | 腾讯科技(北京)有限公司 | 信息推送方法、装置、电子设备及计算机可读介质 |
CN115023933A (zh) * | 2020-02-28 | 2022-09-06 | 深圳市欢太科技有限公司 | 内容推送方法、装置、服务器及存储介质 |
CN113365115B (zh) * | 2020-03-03 | 2022-11-04 | 北京达佳互联信息技术有限公司 | 特征编码的确定方法、装置、服务器和存储介质 |
CN111582645B (zh) * | 2020-04-09 | 2024-02-27 | 上海淇毓信息科技有限公司 | 基于因子分解机的app风险评估方法、装置和电子设备 |
CN111858873B (zh) * | 2020-04-21 | 2024-06-04 | 北京嘀嘀无限科技发展有限公司 | 一种推荐内容的确定方法、装置、电子设备及存储介质 |
CN112035736B (zh) * | 2020-07-31 | 2023-12-26 | 北京达佳互联信息技术有限公司 | 信息推送方法、装置及服务器 |
CN112287238B (zh) * | 2020-12-30 | 2021-04-09 | 腾讯科技(深圳)有限公司 | 用户特征的确定方法和装置、存储介质及电子设备 |
CN113297931A (zh) * | 2021-05-10 | 2021-08-24 | 北京沃东天骏信息技术有限公司 | 目标展示内容发送方法、装置、设备和计算机可读介质 |
CN113343006A (zh) * | 2021-06-28 | 2021-09-03 | 北京三快在线科技有限公司 | 图片推荐方法、装置、设备及存储介质 |
CN114626434B (zh) * | 2022-01-28 | 2024-07-16 | 腾讯科技(深圳)有限公司 | 特征提取模型的训练方法以及对象数据处理方法 |
CN115099323B (zh) * | 2022-06-17 | 2024-08-02 | 抖音视界(北京)有限公司 | 内容小组确定方法、装置、介质及电子设备 |
CN118095426B (zh) * | 2024-03-04 | 2024-09-06 | 北京积加科技有限公司 | 点击行为预测模型训练方法、装置、电子设备与可读介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599226A (zh) * | 2016-12-19 | 2017-04-26 | 深圳大学 | 一种内容推荐方法及内容推荐系统 |
CN107832414A (zh) * | 2017-11-07 | 2018-03-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN108763493A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市思迪信息技术股份有限公司 | 一种基于深度学习的推荐方法 |
CN109190046A (zh) * | 2018-09-18 | 2019-01-11 | 北京点网聚科技有限公司 | 内容推荐方法、装置及内容推荐服务器 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10757218B2 (en) * | 2017-03-29 | 2020-08-25 | Alibaba Group Holding Limited | Method and apparatus for generating push notifications |
CN107241260B (zh) * | 2017-06-02 | 2020-05-05 | 北京百度网讯科技有限公司 | 基于人工智能的新闻推送的方法和装置 |
-
2019
- 2019-05-10 CN CN201910390499.4A patent/CN110162701B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106599226A (zh) * | 2016-12-19 | 2017-04-26 | 深圳大学 | 一种内容推荐方法及内容推荐系统 |
CN107832414A (zh) * | 2017-11-07 | 2018-03-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN108763493A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市思迪信息技术股份有限公司 | 一种基于深度学习的推荐方法 |
CN109190046A (zh) * | 2018-09-18 | 2019-01-11 | 北京点网聚科技有限公司 | 内容推荐方法、装置及内容推荐服务器 |
Non-Patent Citations (2)
Title |
---|
基于内容的推荐与协同过滤融合的新闻推荐方法;杨武;唐瑞;卢玲;;计算机应用(02);第414-418页 * |
基于堆栈降噪自编码器改进的混合推荐算法;杨帅;王鹃;;计算机应用(第07期);42-47 * |
Also Published As
Publication number | Publication date |
---|---|
CN110162701A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162701B (zh) | 内容推送方法、装置、计算机设备和存储介质 | |
CN110263265B (zh) | 用户标签生成方法、装置、存储介质和计算机设备 | |
CN110263243B (zh) | 媒体信息推荐方法、装置、存储介质和计算机设备 | |
CN110929206B (zh) | 点击率预估方法、装置、计算机可读存储介质和设备 | |
CN110321422B (zh) | 在线训练模型的方法、推送方法、装置以及设备 | |
CA3007853C (en) | End-to-end deep collaborative filtering | |
CN110909182B (zh) | 多媒体资源搜索方法、装置、计算机设备及存储介质 | |
CN109684538A (zh) | 一种基于用户个人特征的推荐方法及推荐系统 | |
CN107644036B (zh) | 一种数据对象推送的方法、装置及系统 | |
CN110209931B (zh) | 媒体内容的推送方法和装置、存储介质、电子装置 | |
CN113254679B (zh) | 多媒体资源推荐方法、装置、电子设备以及存储介质 | |
CN112989169B (zh) | 目标对象识别方法、信息推荐方法、装置、设备及介质 | |
CN112364184B (zh) | 多媒体数据的排序方法、装置、服务器及存储介质 | |
CN117836765A (zh) | 基于多模态超图的点击预测 | |
CN110264277B (zh) | 由计算设备执行的数据处理方法及装置、介质和计算设备 | |
Hazrati et al. | Addressing the New Item problem in video recommender systems by incorporation of visual features with restricted Boltzmann machines | |
CN115545832A (zh) | 商品搜索推荐方法及其装置、设备、介质 | |
CN114297509A (zh) | 用户兴趣向量生成方法、产品推荐方法、装置、设备、介质 | |
CN113220974B (zh) | 点击率预测模型训练、搜索召回方法、装置、设备及介质 | |
CN114817692A (zh) | 确定推荐对象的方法、装置和设备及计算机存储介质 | |
Gan et al. | DeepFusion: Fusing User‐Generated Content and Item Raw Content towards Personalized Product Recommendation | |
CN114581165A (zh) | 一种产品推荐方法、装置、计算机存储介质及系统 | |
CN115618126A (zh) | 搜索处理方法、系统、计算机可读存储介质及计算机设备 | |
Liu et al. | An improved matrix factorization model under multidimensional context situation | |
Gayen | AI-Based Movie Recommendation System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20221109 Address after: 1402, Floor 14, Block A, Haina Baichuan Headquarters Building, No. 6, Baoxing Road, Haibin Community, Xin'an Street, Bao'an District, Shenzhen, Guangdong 518100 Applicant after: Shenzhen Yayue Technology Co.,Ltd. Address before: 518000 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 Floors Applicant before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TG01 | Patent term adjustment |