CN115203557A - 内容推荐模型的生成方法、装置、设备、存储介质及产品 - Google Patents
内容推荐模型的生成方法、装置、设备、存储介质及产品 Download PDFInfo
- Publication number
- CN115203557A CN115203557A CN202210836415.7A CN202210836415A CN115203557A CN 115203557 A CN115203557 A CN 115203557A CN 202210836415 A CN202210836415 A CN 202210836415A CN 115203557 A CN115203557 A CN 115203557A
- Authority
- CN
- China
- Prior art keywords
- content recommendation
- model
- data
- models
- candidate content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种内容推荐模型的生成方法、装置、设备、存储介质及产品,涉及机器学习领域。该方法包括:在搜索空间中生成至少两个候选内容推荐模型;获取搜索空间中至少两个候选内容推荐模型分别对应的模型编码;基于至少两个候选内容推荐模型分别对应的模型编码对至少两个候选内容推荐模型进行性能预测,得到至少两个候选内容推荐模型分别对应的性能预测结果;基于性能预测结果从至少两个候选内容推荐模型中确定出目标内容推荐模型,目标内容推荐模型用于向帐号进行内容推荐。通过以上方式,能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的目标内容推荐模型。本申请可应用于云技术、人工智能、智慧交通等各种场景。
Description
技术领域
本申请实施例涉及机器学习领域,特别涉及一种内容推荐模型的生成方法、装置、设备、存储介质及产品。
背景技术
随着网络技术的发展,信息过载的现象愈发明显,传统的信息推荐方式很难从海量的信息中,为对象进行个性化推荐过程。
相关技术中,通常对对象偏好和需求的相关数据进行收集,并借助收集得到的训练数据,对人工搭建的个性化推荐模型进行训练,从而借助训练完毕的推荐模型,为对象进行信息推荐。例如:根据对象的历史偏好数据,为对象推荐符合其喜好的信息。
在上述过程中,虽然训练得到的推荐模型能够为对象进行较为有效的推荐过程,但人工搭建的个性化推荐模型仍然不可避免地受到人为认知的干预,且训练得到的推荐模型与训练数据的收集情况高度相关,当采用该训练模型对其他相关数据进行分析时,数据的推荐预测效果会大打折扣。
发明内容
本申请实施例提供了一种内容推荐模型的生成方法、装置、设备、存储介质及产品,能够避免人工的过度干预,更加快速、自动地选择推荐性能更好的目标内容推荐模型,从而借助目标内容推荐模型,更加准确地为不同的帐号推荐合适的内容。所述技术方案如下。
一方面,提供了一种内容推荐模型的生成方法,所述方法包括:
在搜索空间中生成至少两个候选内容推荐模型,所述搜索空间中包括预先设定的神经网络组成结构,所述候选内容推荐模型是用于进行内容推荐分析的候选模型;
获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,所述模型编码用于指示所述候选内容推荐模型中的神经网络组成结构的组成模式;
基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果;
基于所述性能预测结果从所述至少两个候选内容推荐模型中确定出目标内容推荐模型,所述目标内容推荐模型用于向帐号进行内容推荐。
另一方面,提供了一种内容推荐模型的生成装置,所述装置包括:
生成模块,用于在搜索空间中生成至少两个候选内容推荐模型,所述搜索空间中包括预先设定的神经网络组成结构,所述候选内容推荐模型是用于进行内容推荐分析的候选模型;
获取模块,用于获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,所述模型编码用于指示所述候选内容推荐模型中的神经网络组成结构的组成模式;
预测模块,用于基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果;
确定模块,用于基于所述性能预测结果从所述至少两个候选内容推荐模型中确定出目标内容推荐模型,所述目标内容推荐模型用于向帐号进行内容推荐。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如上述本申请实施例中任一所述内容推荐模型的生成方法。
另一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上述本申请实施例中任一所述的内容推荐模型的生成方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的内容推荐模型的生成方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
在搜索空间中,基于预先设定的神经网络组成结构生成候选内容推荐模型,通过神经网络组成结构的组成模式,获取候选内容推荐模型分别对应的模型编码,从而对候选内容推荐模型进行性能预测,以实现从候选内容推荐模型中确定出目标内容推荐模型的过程。根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,使其符合内容推荐系统神经网络的基本范式,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强用户的使用体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的相关技术示意图;
图2是本申请一个示例性实施例提供的实施环境示意图;
图3是本申请一个示例性实施例提供的内容推荐模型的生成方法的流程图;
图4是本申请另一个示例性实施例提供的内容推荐模型的生成方法的流程图;
图5是本申请再一个示例性实施例提供的内容推荐模型的生成方法的流程图;
图6是本申请一个示例性实施例提供的搜索空间的子结构示意图;
图7是本申请一个示例性实施例提供的性能预测模型的训练流程图;
图8是本申请一个示例性实施例提供的内容推荐模型的生成方法的结构框图;
图9是本申请一个示例性实施例提供的服务器的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,针对本申请实施例中涉及的名词进行简单介绍。
人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
推荐系统是信息过载时代的基础信息设施,用于为对象从海量信息中选择符合其需求与偏好的内容进行展示,是机器学习乃至人工智能技术最为成功的应用场景之一。在推荐系统领域,协同过滤任务是最早也是较为基础的推荐任务。其核心思想在于,合法收集一批对象的行为数据,对行为数据进行协同分析,从而根据协同分析的结果为对象进行信息过滤和信息推荐。示意性的,通过启发式方法或机器学习模型方法计算对象间、物品间的相似性,从而为目标对象计算符合其需求的物品,得到物品推荐列表。近年来,基于模型的协同过滤方法成为了主流选择,从早期的矩阵分解模型,再到最近的神经网络模型。
可选地,在采用神经网络协同过滤(Neural Collaborative Filtering,NCF)方法进行协同过滤时,通过多层感知机学习对象与物品之间的交互关系,通过非线性的多层感知机代替了传统线性模型,在大数据集上具有了更强的建模能力。
示意性的,如图1所示,为NCF方法的框架示意图,其中包括输入层110、嵌入层120、神经协同过滤层130以及输出层140。
在输入层110中,将对象(User)和物品(Item)通过独热编码(one-hot)转化为稀疏向量。
在嵌入层120中,将User向量和Item向量分别嵌入到一个较小维数的空间,假设为K维。其中,嵌入矩阵表示为P,嵌入层120将输入的User向量ui和嵌入矩阵P相乘,得到User向量的嵌入向量Pi。示意性的,如果一共存在M个对象,嵌入维数为K维,则对象的嵌入矩阵的大小为M×K,其中,嵌入矩阵的第i行代表第i个对象的嵌入向量;同理,如果一共存在N个物品,则物品的嵌入矩阵大小为N×K。
在神经协同过滤层130中,在将对象的嵌入向量和物品的嵌入向量送入NCF后,通过NCF内部的处理层(layer1、layer2…layerX)后,得到一个向量。其中,NCF内部的处理层可以预先设定。
然而,在数据集方面,在不同的协同过滤任务中使用的数据集往往具有不同的属性,例如:数据集的形式、规模、分布等存在差异。示意性的,协同过滤方法所采用的数据集一般实现为两种形式,隐式和显式,并且数据集在规模(大或小)和分布(密集或稀疏)上可能不同。此外,在模型层面,一方面,矩阵分解方法易于训练,但由于其模型容量有限,无法捕捉复杂的对象—物品的交互行为;另一方面,在数据量足够时,神经网络模型可能会获得更好的性能,但对于相对较小的数据集可能表现不佳。例如,NCF方法虽然可以在相对较大的数据集上稳定地优于矩阵分解模型(Matrix Factorization,MF)方法,但NCF模型不一定会在某些数据集上取得更好的性能,且上述方法过度依赖于数据集的选取,只有通过人工方法选取到合适的数据集作为训练数据集后,才能训练得到高精准性的推荐模型。
本申请实施例中,提供了一种内容推荐模型的生成方法,能够避免人工的过度干预,更加快速、自动地从生成的多个候选内容推荐模型中,选择推荐性能更好的目标内容推荐模型,从而借助目标内容推荐模型,更加准确地为不同的帐号推荐合适的内容。针对本申请训练得到的内容推荐模型的生成方法,在应用时包括音乐推荐场景、新闻推荐场景、视频推荐场景等多种场景中的至少一种。
值得注意的是,上述应用场景仅为示意性的举例,本实施例提供的内容推荐模型的生成方法还可以应用于其他场景中,本申请实施例对此不加以限定。
需要说明的是,本申请所涉及的信息(包括但不限于对象设备信息、对象个人信息等)、数据(包括但不限于用于分析的数据、存储的数据、展示的数据等)以及信号,均为经对象授权或者经过各方充分授权的,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。例如,本申请中涉及到的帐号数据、内容数据等都是在充分授权的情况下获取的。
其次,对本申请实施例中涉及的实施环境进行说明,示意性的,请参考图2,该实施环境中涉及终端210、服务器220,终端210和服务器220之间通过通信网络230连接。
在一些实施例中,终端210用于向服务器220发送帐号数据和内容数据,其中,帐号数据是指终端存储的、与对象相关的资料信息,例如:帐号的操作数据、帐号的信息数据等;内容数据是指待向对象(帐号)推荐的内容,例如:新闻资讯、影视歌曲等。可选地,内容数据也可以实现为服务器220获取得到的数据等。在一些实施例中,终端210中安装有应用程序,不同的应用程序对应有不同的帐号数据以及内容数据。
本申请实施例提供的内容推荐模型的生成方法可以由终端210单独执行实现,也可以由服务器220执行实现,或者由终端210和服务器220通过数据交互实现,本申请实施例对此不加以限定。本实施例中,终端210通过具有数据获取功能的应用程序获取帐号数据后,向服务器220发送获取得到的帐号数据,示意性的,服务器220根据帐号数据向不同的帐号推荐内容数据,其中,服务器220通过目标内容推荐模型进行推荐过程。示意性的,对目标内容推荐模型的获取方式进行说明。
可选地,服务器220在由预先设定的神经网络组成结构组成的搜索空间中,生成至少两个候选内容推荐模型(如:候选内容推荐模型1、候选内容推荐模型2、候选内容推荐模型n等),并基于候选内容推荐模型中的神经网络组成结构的组成模式,确定与至少两个候选内容推荐模型分别对应的模型编码(如:与候选内容推荐模型1对应的模型编码1、与候选内容推荐模型2对应的模型编码2、与候选内容推荐模型n对应的模型编码n)。此外,服务器220基于至少两个候选内容推荐模型分别对应的模型编码对至少两个候选内容推荐模型进行性能预测,得到与至少两个候选内容推荐模型分别对应的性能预测结果(如:与候选内容推荐模型1对应的性能预测结果1、与候选内容推荐模型2对应的性能预测结果2、与候选内容推荐模型n对应的性能预测结果n),并基于性能预测结果从至少两个候选内容推荐模型中确定出目标内容推荐模型。
可选地,服务器220在接收到终端210发送的帐号数据和内容数据(或者,帐号数据)后,基于目标内容推荐模型,向不同的帐号进行内容推荐,也即,向不同的帐号推荐对应的内容数据,例如:向不同的帐号推荐符合其喜好的新闻资讯、影视歌曲等。
值得注意的是,上述终端包括但不限于手机、平板电脑、便携式膝上笔记本电脑、智能语音交互设备、智能家电、车载终端等移动终端,也可以实现为台式电脑等;上述服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、应用程序、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。
在一些实施例中,上述服务器还可以实现为区块链系统中的节点。
结合上述名词简介和应用场景,对本申请提供的内容推荐模型的生成方法进行说明,以该方法应用于服务器为例进行说明,如图3所示,该方法包括如下步骤310至步骤340。
步骤310,在搜索空间中生成至少两个候选内容推荐模型。
示意性的,一个新的网络结构的提出需要根据以往网络结构在某些方面的不足,针对性地提出一些改进的方案。例如:加入某些有利于训练的模块,或者,改进基本的卷积层模块等。然而,人工构建模型的过程通常非常的耗时耗力,因此,自动搜索网络应运而生。
其中,自动搜索网络结构的过程被称为NAS(Neural Architecture Search,NAS),NAS通常涉及三个方面:搜索空间、搜索策略和模型估计。其中,搜索空间决定了搜索出的模型性能的上限和下限,一个设计合理的搜索空间能够避免查找到没有潜力的网络结构。
其中,搜索空间中包括预先设定的神经网络组成结构。
可选地,通过预先设定的神经网络组成结构,在搜索空间中生成至少两个候选内容推荐模型。示意性的,神经网络组成结构是候选内容推荐模型的结构雏形,其中包括至少一个子结构,例如:候选内容推荐模型是基于神经网络组成结构中的至少一个子结构而得到的模型,通过不同形式的子结构,组成得到不同的候选内容推荐模型。
在一个可选的实施例中,每一个子结构对应多种算法操作,在神经网络组成结构对应的每一个子结构中,从多种算法操作中选择一个算法操作作为该子结构对应的算法操作,依据神经网络组成结构中不同子结构的分布情况,将不同子结构进行拼接后,即可得到候选内容推荐模型。
可选地,在搜索空间中预先设定的神经网络组成结构中,根据神经网络组成结构中子结构,选择至少一个子结构组成候选内容推荐模型。
示意性的,在搜索空间中预设的神经网络组成结构包括四个子结构,分别为子结构A、子结构B、子结构C以及子结构D,其中,子结构A对应包括算法A1以及算法A2,子结构B对应包括算法B1以及算法B2,子结构C对应包括算法C1、算法C2以及算法C3,子结构D对应包括算法D1以及算法D2。
基于神经网络组成结构中不同子结构的分布情况以及不同子结构中不同算法的选择组合,得到不同的候选内容推荐模型。例如:基于子结构A中的算法A1、子结构B中的算法B2、子结构C中的算法C2、子结构D中的算法D1组成候选内容推荐模型1,基于子结构A中的算法A1、子结构B中的算法B2、子结构C中的算法C2、子结构D中的算法D2组成候选内容推荐模型2等。
其中,候选内容推荐模型是用于进行内容推荐分析的候选模型。
内容推荐用于指示将合适的内容推荐至需要的对象,例如:在内容推荐场景下,包括多个待进行推荐的推荐内容,在向对象A进行内容推荐时,从多个待进行推荐的推荐内容中,选择向对象A进行推荐的推荐内容。通过候选内容推荐模型,能够为不同的对象推荐符合其喜好的推荐内容。
在一个可选的实施例中,搜索空间不仅用于生成候选内容推荐模型,还可以预先存储有候选内容推荐模型。例如:预先存储的候选内容推荐模型是通过相关技术训练得到的内容推荐模型。
步骤320,获取搜索空间中至少两个候选内容推荐模型分别对应的模型编码。
其中,模型编码用于指示候选内容推荐模型中的神经网络组成结构的组成模式。
示意性的,在基于预先设定的神经网络组成结构组成候选内容推荐模型时,根据候选内容推荐模型中神经网络组成结构的差异,至少两个候选内容推荐模型分别有其对应的模型编码。
可选地,候选内容推荐模型分别对应的模型编码是基于其中神经网络组成结构的算法操作选择得到的。示意性的,在一个候选内容推荐模型中,确定其中神经网络组成结构中每一个子结构分别对应的结构编码,将不同子结构分别对应的结构编码进行拼接后,得到该候选内容推荐模型对应的模型编码。
示意性的,候选内容推荐模型1是由子结构A中的算法A1、子结构B中的算法B2、子结构C中的算法C2、子结构D中的算法D1组成的推荐模型,则在候选内容推荐模型1中,子结构A的结构编码表示为(1,0),子结构B的结构编码表示为(0,1),子结构C的结构编码表示为(0,1,0),子结构D的结构编码表示为(0,1),将候选内容推荐模型1中不同子结构分别对应的结构编码进行拼接,从而得到候选内容推荐模型1对应的模型编码。
在一个可选的实施例中,在得到的不同子结构组成的候选内容推荐模型后,对候选内容推荐模型进行编码,得到候选内容推荐模型对应的模型编码。
示意性的,在得到上述候选内容推荐模型1后,对候选内容推荐模型1进行编码,如:编码结果为001,将候选内容推荐模型1对应的编码结果001作为与候选内容推荐模型1对应的模型编码,当机器对候选内容推荐模型1进行分析时,能够根据模型编码对应的“001”,确定组成该候选内容推荐模型1的神经网络组成结构的参数运算情况;同理,在得到上述候选内容推荐模型2后,对候选内容推荐模型2进行编码,如:编码结果为010,将候选内容推荐模型2对应的编码结果010作为与候选内容推荐模型2对应的模型编码等。其中,不同候选内容推荐模型对应的编码结果是不同的,用于区别不同的候选内容推荐模型。
步骤330,基于至少两个候选内容推荐模型分别对应的模型编码对至少两个候选内容推荐模型进行性能预测,得到至少两个候选内容推荐模型分别对应的性能预测结果。
示意性的,基于至少两个候选内容推荐模型分别对应的模型编码,区别不同的候选内容推荐模型,以及不同的候选内容推荐模型分别对应的神经网络组成结构的组成模式。
可选地,性能预测用于指示对候选内容推荐模型的内容推荐性能进行预测。示意性的,在得到至少两个候选内容推荐模型后,对至少两个候选内容推荐模型的内容推荐准确率进行确定,从而确定不同候选内容推荐模型的内容推荐性能,即:将内容推荐准确率作为性能预测结果;或者,在得到至少两个候选内容推荐模型后,对至少两个候选内容推荐模型的内容推荐多样性进行确定,从而确定不同候选内容推荐模型的内容推荐性能,即:将内容推荐多样性作为性能预测结果;或者,在得到至少两个候选内容推荐模型后,对至少两个候选内容推荐模型的内容推荐新颖度进行确定,从而确定不同候选内容推荐模型的内容推荐性能,即:将内容推荐新颖度作为性能预测结果等。
步骤340,基于性能预测结果从至少两个候选内容推荐模型中确定出目标内容推荐模型。
可选地,在得到至少两个候选内容推荐模型分别对应的性能预测结果后,将至少两个候选内容推荐模型分别对应的性能预测结果进行比较,根据性能预测结果,从至少两个候选内容推荐模型中选择至少一个候选内容推荐模型作为目标内容推荐模型。
例如:将性能预测结果最好的一个候选内容推荐模型作为唯一的目标内容推荐模型;或者,将性能预测结果最好的n个候选内容推荐模型作为目标内容推荐模型,其中,n为正整数。
示意性的,当性能预测结果实现为内容推荐准确率时,将内容推荐准确率最高的n个候选内容推荐模型作为目标内容推荐模型;或者,当性能预测结果实现为内容推荐多样性时,将内容推荐多样性最高的一个候选内容推荐模型作为目标内容推荐模型等。
其中,目标内容推荐模型用于向帐号进行内容推荐。
可选地,在得到目标内容推荐模型后,将帐号和推荐内容作为模型的输入,通过目标内容推荐模型,为不同的帐号分配对应的推荐内容,从而将推荐内容推荐至对应的帐号。
其中,帐号用于指示接收推荐内容的对象;推荐内容用于指示向对象进行内容推荐过程的内容信息。示意性的,推荐内容可以实现为如下至少一种形式。
(1)推荐内容实现为文本形式
示意性的,以一款新闻应用程序为例进行说明,在新闻应用程序的运行过程中,除会向对象推送实时更新的新闻内容外,还可能会根据不同的帐号的新闻浏览情况,区别性地为不同帐号推荐不同的新闻内容。
例如:在为帐号X提供新闻推荐服务时,将帐号X在历史时间段内的新闻浏览情况作为帐号X对应的帐号信息,将帐号X对应的帐号信息作为目标内容推荐模型的输入,由目标内容推荐模型基于帐号X对应的帐号信息,为帐号X推荐符合其新闻浏览情况的新闻文本内容等。
(2)推荐内容实现为多媒体形式
示意性的,以一款音乐应用程序为例进行说明,该音乐应用程序能够通过上述目标内容推荐模型,基于不同帐号对应的音乐收听喜好,为不同的帐号推荐对应的音乐内容。
例如:在为帐号Y提供新闻推荐服务时,将帐号Y在历史时间段内的音乐点赞情况作为帐号Y对应的帐号信息,将帐号Y对应的帐号信息作为目标内容推荐模型的输入,由目标内容推荐模型基于帐号Y对应的帐号信息,为帐号Y推荐符合其音乐点赞情况的推荐音乐等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
综上所述,在搜索空间中,基于预先设定的不同神经网络组成结构生成候选内容推荐模型,通过神经网络组成结构的组成模式,获取候选内容推荐模型分别对应的模型编码,从而对候选内容推荐模型进行性能预测,以实现从候选内容推荐模型中确定出目标内容推荐模型的过程。根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强对象的使用体验。
在一个可选的实施例中,在搜索空间包括的预先设定的神经网络组成结构中,包括多个子结构,通过多个子结构之间的组合情况,在搜索空间中生成不同的候选内容推荐模型。示意性的,如图4所示,上述图3所示出的实施例还可以实现为如下步骤410至步骤460。
步骤410,确定多个子结构分别对应的算子选择结果。
示意性的,在搜索空间中生成的不同候选内容推荐模型,是基于神经网络组成结构中多个子结构的差异而确定的,其中,不同的子结构分别有其对应的算子选择结果。
其中,算子选择结果用于指示在子结构内部进行参数运算时采用的算子。
示意性的,对于同一个子结构而言,该子结构对应的功能是预先设定的,算子的选择用于指示实现该功能所采用的不同方法。
可选地,算子既包括进行参数运算时所采用的方法,也包括进行参数运算时所涉及到的元素。示意性的,对于不同的子结构而言,在构成子结构时所采用的算子是预先确定的,且不同子结构对应的算子有多种选择,算子选择结果用于指示对算子进行选择后确定的结果。
例如:对子结构A而言,预先设定子结构A对应的算子包括算子A1以及算子A2,当在子结构A中对算子A1算子进行选择,则代表子结构A对应的算子选择结果为算子A1;同理,对子结构B而言,预先设定子结构B对应的算子包括算子B1、算子B2以及算子B3,当在子结构B中对算子B2算子进行选择,则代表子结构B对应的算子选择结果为算子B2。以此类推,确定不同子结构分别对应的算子选择结果。
在一个可选的实施例中,搜索空间通过历史交互数据集以及预先设定的神经网络组成结构生成至少两个候选内容推荐模型。
其中,历史交互数据集中存储有帐号数据、内容数据和交互数据对中的至少一种。
示意性的,帐号数据主要指对象在历史时间段内的操作数据等。例如:帐号数据为对象在过去一个月内的操作数据,如与点赞操作对应的点赞数据、与评论操作对应的评论数据、与删除操作对应的删除数据等,也即,操作数据不仅包括正向数据,也包括负向数据。值得注意的是,上述帐号数据、操作数据等数据,均经过对象授权而获取。
可选地,内容数据用于指示各种推荐内容,如:文字内容、图像内容、影音内容等。示意性的,内容数据与内容推荐场景相关,当内容推荐场景实现为音乐推荐场景时,内容数据通常实现为音频内容;或者,当内容推荐场景实现为视频推荐场景时,内容数据通常实现为视频数据等。
其中,交互数据对用于指示至少一个帐号数据和一个内容数据存在历史交互关系。例如:帐号数据M曾经对内容数据N进行了点赞操作,则帐号数据M与内容数据N之间存在历史交互关系,将帐号数据M和内容数据N作为一个交互数据对,表示为“帐号数据M—内容数据N”;或者,帐号数据L曾经对内容数据Q进行了评论操作,则帐号数据L与内容数据Q之间存在历史交互关系,将帐号数据L和内容数据Q作为一个交互数据对,表示为“帐号数据L—内容数据Q”。
在一个可选的实施例中,以预先设定的神经网络组成结构中包括输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构为例,对不同子结构内的算子进行说明。
(一)输入编码子结构
在一个可选的实施例中,响应于多个子结构中包括输入编码子结构,获取帐号数据对应的第一矩阵表示以及内容数据对应的第二矩阵表示;或者,获取交互数据对中与帐号数据对应的帐号交互矩阵表示以及与内容数据对应的内容交互矩阵表示。
其中,输入编码子结构是构成候选内容推荐模型的模型结构,用于在搜索空间中对输入的数据进行矩阵变换。
可选地,将历史交互数据集输入搜索空间中,经过搜索空间中的输入编码子结构,对历史交互数据集中的数据进行矩阵变换。基于对历史交互数据集中不同的数据进行的矩阵变换,确定不同的算子选择结果,也即,基于矩阵表示的获取方法确定输入编码子结构的算子选择结果。
示意性的,在历史交互数据集中,根据帐号数据和内容数据分别对应的编码表示(ID),表示不同的帐号数据和内容数据,即:采用独热编码(one-hot ID)方法,确定不同的帐号数据分别对应的帐号编码表示,以及不同的内容数据分别对应的内容编码表示。例如:帐号数据ID1对应的帐号编码表示为1000,帐号数据ID2对应的帐号编码表示为0100等;同理,内容数据CON1对应的帐号编码表示为1000,内容数据CON2对应的帐号编码表示为0100等。
可选地,基于帐号数据和内容数据是基于独热编码表示的数据编码表示,通过输入编码子结构将帐号数据对应的帐号编码表示转化为第一矩阵表示;通过输入编码子结构将内容数据对应的内容编码表示转化为第二矩阵表示。
或者,在历史交互数据集中,根据帐号数据和内容数据的历史交互情况,表示不同的帐号数据和内容数据,即:采用多热(Multi-hot)编码方法,确定交互数据对中帐号数据对应的帐号交互编码表示以及内容数据对应的内容交互编码表示。示意性的,在对账号数据和内容数据分别进行编码表示时,将帐号数据与内容数据的交互情况作为帐号数据对应的帐号交互编码表示,将内容数据与帐号数据的交互情况作为内容数据对应的内容交互编码表示。
例如:帐号数据ID1与内容数据CON1和内容数据CON2均存在历史交互,则基于帐号数据ID1与内容数据CON1和内容数据CON2的历史交互情况,确定帐号数据ID1对应的帐号交互编码表示为1100;帐号数据ID2与内容数据CON1存在历史交互,帐号数据ID2与内容数据CON2不存在历史交互,则基于帐号数据ID2与内容数据CON1和内容数据CON2的历史交互情况,确定帐号数据ID2对应的帐号交互编码表示为1000等。
可选地,基于帐号数据和内容数据是基于多热编码表示的历史交互编码表示,通过输入编码子结构将帐号数据对应的帐号交互编码表示转化为帐号交互矩阵表示;通过输入编码子结构将内容数据对应的内容交互编码表示转化为内容交互矩阵表示。
示意性的,将上述基于独热编码方法得到的帐号数据和内容数据的编码表示作为一种算子;将上述基于多热编码方法得到的交互数据对的编码表示作为另一种算子,即:在输入编码子结构中,对应有两种算子,基于对输入编码子结构中两种算子的选择,确定输入编码子结构对应的两种算子选择结果。
(二)嵌入函数子结构
在一个可选的实施例中,响应于多个子结构中包括嵌入函数子结构,将第一矩阵表示和第二矩阵表示投影至向量空间,得到与第一矩阵表示对应的第一嵌入向量,以及与第二矩阵表示对应的第二嵌入向量;或者,将交互数据对中帐号数据对应的帐号交互矩阵表示和内容数据对应的内容交互矩阵表示投影至向量空间,得到与帐号交互矩阵表示对应的第三嵌入向量,以及与内容交互矩阵表示对应的第四嵌入向量。
其中,嵌入函数子结构是构成候选内容推荐模型的模型结构,用于在搜索空间中将高位编码投射至低维空间,以得到便于分析的低维向量表示。
示意性的,嵌入函数子结构的输入与输入编码子结构的输入关系密切,在将历史交互数据集输入搜索空间中的输入编码子结构后,基于对输入编码子结构中不同算子的选择,在嵌入函数子结构中,选择不同的算子在子结构内部进行参数运算。
可选地,当输入编码子结构中的算子选择结果为“基于独热编码方法得到的帐号数据和内容数据的编码表示”时,在嵌入函数子结构中,与该算子选择结果相兼容的算子实现为嵌入矩阵查找函数(ID-look-up),该嵌入矩阵查找函数以矩阵(Matrix,MAT)形式进行表示。
可选地,当输入编码子结构中的算子选择结果为“基于多热编码方法得到的交互数据对的编码表示”时,在嵌入函数子结构中,与该算子选择结果相兼容的算子实现为以下至少两种形式。
(1)嵌入矩阵查找函数与均值池化操作
其中,该嵌入矩阵查找函数表示为MAT,用于和交互数据对对应的矩阵表示进行矩阵运算操作。可选地,对矩阵运算后的结果进行均值池化(mean-pooling)操作,以减小计算量。
(2)多层感知机(Multilayer Perceptron,MLP)模型
示意性的,在得到和交互数据对对应的矩阵表示后,将该矩阵表示通过多层感知机模型,将交互数据对对应的矩阵表示转换为稠密向量,也即,不再通过矩阵表示的方式对交互数据对进行表示,而是将矩阵表示中每一维对应的核心特征投影至低维空间,从而以一个稠密向量表示上述矩阵表示。例如:矩阵表示中的大多元素等于0,矩阵表示中为1的元素为该维度上的核心特征,将矩阵表示通过MLP模型,得到与该矩阵表示对应的稠密向量。
其中,基于嵌入向量的获取方法确定嵌入函数结构的结构编码。可选地,基于上述分析,以“MAT”和“MLP”表示嵌入函数子结构中对应的两种算子。
示意性的,当输入编码子结构中的算子选择结果为“基于独热编码方法得到的帐号数据和内容数据的编码表示”时,在嵌入函数子结构中,选择算子“MAT”作为算子选择结果,并将第一矩阵表示和第二矩阵表示投影至向量空间,得到与第一矩阵表示对应的第一嵌入向量,以及与第二矩阵表示对应的第二嵌入向量。
示意性的,当输入编码子结构中的算子选择结果为“基于多热编码方法得到的交互数据对的编码表示”时,在嵌入函数子结构中,选择算子“MAT”或者算子“MLP”作为算子选择结果,并将将交互数据对中帐号数据对应的帐号交互矩阵表示和内容数据对应的内容交互矩阵表示投影至向量空间,得到与帐号交互矩阵表示对应的第三嵌入向量以及与内容交互矩阵对应的第四嵌入向量。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
(三)交互函数子结构
在一个可选的实施例中,响应于多个子结构中包括交互函数子结构,对第一嵌入向量和第二嵌入向量进行交互处理,得到组合向量;或者,对第三嵌入向量和第四嵌入向量进行交互处理,得到组合向量。
其中,交互函数子结构是构成候选内容推荐模型的模型结构,用于在搜索空间中对帐号数据和内容数据之间进行交互,从而借助交互后的组合向量,实现对帐号数据和内容数据之间的匹配过程。
其中,组合向量用于指示帐号数据和内容数据的预测交互关系。
示意性的,以嵌入函数子结构的输出为交互函数子结构的输入,也即,以帐号数据对应的第一嵌入向量和内容数据对应的第二嵌入向量为交互函数子结构的输入,在交互函数子结构中,对第一嵌入向量和第二嵌入向量进行交互处理。
可选地,交互处理实现为如下至少一种处理方式:(1)相乘处理(Multiplication,MUL),用于指示将第一嵌入向量与第二嵌入向量的向量乘积作为组合向量;(2)相减处理(MINUS),用于指示将第一嵌入向量和第二嵌入向量的向量差作为组合向量;(3)取最大值处理(Maximum,MAX),用于指示将第一嵌入向量和第二嵌入向量中的最大向量作为组合向量;(4)取最小值处理(Minute,MIN),用于指示将第一嵌入向量和第二嵌入向量中的最小向量作为组合向量;(5)拼接处理(Concatenate,CONCAT),用于指示将第一嵌入向量与第二嵌入向量拼接之后的拼接向量作为组合向量等。
其中,基于组合向量的获取方法确定交互函数子结构的算子选择结果,也即,基于上述交互处理的方式确定交互函数子结构的算子选择结果。可选地,以“MUL”、“MINUS”、“MAX”、“MIN”以及“CONCAT”表示交互函数子结构中对应的五种算子。
示意性的,当选择对第一嵌入向量和第二嵌入向量进行处理时,若将算子“MUL”作为算子选择结果,则代表通过对第一嵌入向量和第二嵌入向量进行相乘操作,得到组合向量;或者,若将算子“CONCAT”作为算子选择结果,则代表通过对第一嵌入向量和第二嵌入向量进行拼接操作,得到组合向量等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
可选地,以对第一嵌入向量和第二嵌入向量进行相乘处理得到组合向量为例进行说明。基于历史交互数据集中存储的多个帐号数据和多个内容数据,故与帐号数据对应的第一嵌入向量以及与内容数据对应的第二嵌入向量也存在多个,将第一嵌入向量和第二嵌入向量进行逐项相乘,以生成组合向量。
示意性的,历史交互数据集中存储有帐号数据1、帐号数据2、内容数据1以及内容数据2,帐号数据1对应第一嵌入向量1,帐号数据2对应第一嵌入向量2,内容数据3对应第二嵌入向量1,内容数据2对应第二嵌入向量2。在通过交互函数子结构对嵌入向量进行交互处理后,得到表示第一嵌入向量1和第二嵌入向量1进行交互的组合向量1;表示第一嵌入向量1和第二嵌入向量2进行交互的组合向量2;表示第一嵌入向量2和第二嵌入向量1进行交互的组合向量3;表示第一嵌入向量2和第二嵌入向量2进行交互的组合向量4等。
可选地,若交互函数子结构的输入为第三嵌入向量和第四嵌入向量时,采用上述方法对第三嵌入向量和第四嵌入向量进行交互分析,从而得到与第三嵌入向量和第四嵌入向量对应的组合向量。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
(四)预测函数子结构
在一个可选的实施例中,响应于多个子结构中包括预测函数子结构中,对组合向量进行交互预测分析,得到预测结果。
其中,预测函数子结构是构成候选内容推荐模型的模型结构,用于在搜索空间中对帐号数据和内容数据之间的组成向量进行交互预测分析,也即,对帐号数据和内容数据之间的交互情况进行分析。
其中,预测结果用于指示预测交互关系与历史交互关系之间的差异。
示意性的,以交互函数子结构的输出为预测函数子结构的输入,也即,以帐号数据和内容数据进行交互后的组合向量作为交互函数子结构的输入,在交互函数子结构中,对不同帐号数据与不同内容数据之间交互后的组合向量进行交互预测分析。
可选地,交互预测分析的结果表示为组合向量的预测分数,其中,分数越高,代表组合向量所对应的帐号数据和内容数据交互的概率越高。
示意性的,交互预测分析实现为如下至少一种分析方式:(1)求和处理(Summation,SUM),用于指示将组合向量进行;(2)权重(vector,VEC)分配处理,用于指示为组合向量中不同的维度分配不同的权重,其中,权重表示为带权重的向量的内积;(3)多层感知机处理(MLP),用于指示将组合向量通过多层感知机,从而用多层感知机对组合向量进行交互预测。
其中,基于交互预测分析方法确定预测函数结构的算子选择结果,也即,基于上述交互预测分析的方式确定预测函数子结构的算子选择结果。可选地,以“SUM”、“VEC”以及“MLP”表示预测函数子结构中对应的三种算子。
示意性的,当选择通过预测函数子结构对组合向量进行处理时,若将算子“SUM”作为算子选择结果,则代表通过对组合向量进行相加操作,得到预测结果;或者,若将算子“VEC”作为算子选择结果,则代表对组合向量中不同的维度分配不同的权重,得到预测结果;或者,若将算子“MLP”作为算子选择结果,则代表通过多层感知机处理模型,得到预测结果等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
步骤420,基于多个子结构分别对应的算子选择结果,在搜索空间中生成至少两个候选内容推荐模型。
示意性的,在每一个子结构中,当选择不同的算子作为算子选择结果,在得到多个子结构组成的候选内容推荐模型时,会得到至少两个候选内容推荐模型。
在一个可选的实施例中,以编码形式表示不同子结构分别对应的算子选择结果。
示意性的,对于每一个子结构而言,存在对应的算子,基于对子结构中算子的选择,以编码形式确定不同子结构分别对应的算子选择结果。
可选地,不同子结构对应的算子是预先设定的,不同的算子具有对应的编码位,基于子结构中不同算子对应的编码位结果,确定该子结构对应的算子选择结果。示意性的,当未对子结构中的算子进行选择前,子结构中不同算子对应的编码位结果均为0;当对子结构中的算子进行选择后,将子结构中被选择算子对应的编码位进行置1操作,即:子结构中被选择算子对应的编码位结果为1。
例如:以输入编码子结构为例,输入编码子结构对应有2个算子,分别为“基于独热编码方法得到的帐号数据和内容数据的编码表示”以及“基于多热编码方法得到的交互数据对的编码表示”,当对算子“基于独热编码方法得到的帐号数据和内容数据的编码表示”进行选择后,将该算子对应的编码位进行置1操作,以编码形式(1,0)表示输入编码子结构对应的算子选择结果。
或者,以嵌入函数子结构为例,嵌入函数子结构对应有2个算子,分别为“MAT”和“MLP”,当对算子“MLP”进行选择后,将该算子对应的编码位进行置1操作,以编码形式(0,1)表示嵌入函数子结构对应的算子选择结果。
或者,以交互函数子结构为例,交互函数子结构对应有5个算子,分别为“MUL”、“MINUS”、“MAX”、“MIN”以及“CONCAT”,当对算子“MINUS”进行选择后,将该算子对应的编码位进行置1操作,以编码形式(0,1,0,0,0)表示交互函数子结构对应的算子选择结果。
或者,以预测函数子结构为例,预测函数子结构对应有3个算子,分别为“SUM”、“VEC”以及“MLP”,当对算子“MLP”进行选择后,将该算子对应的编码位进行置1操作,以编码形式(0,0,1)表示预测函数子结构对应的算子选择结果。
值得注意的是,上述仅为对预设算子、预设算子对应的编码位进行的示意性的举例,本申请实施例对此不加以限定。
在一个可选的实施例中,将输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构分别对应的算子选择结果进行组合操作,在搜索空间中生成至少两个候选内容推荐模型。
可选地,在确定不同子结构分别对应的算子选择结果后,将不同子结构分别对应的算子选择结果进行组合操作,基于候选内容推荐模型是由不同的子结构组合而成的,故对子结构分别对应的算子选择结果进行组合操作后得到至少两个候选内容推荐模型。
示意性的,以由上述输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构组成候选内容推荐模型为例进行说明。对编码子结构中的算子“基于多热编码方法得到的交互数据对的编码表示”、嵌入函数子结构中的算子“MLP”、交互函数子结构中的算子“MUL”以及预测函数子结构中的算子“MLP”进行选择后,得到一个候选内容推荐模型M1;对编码子结构中的算子“基于多热编码方法得到的交互数据对的编码表示”、嵌入函数子结构中的算子“MAT”、交互函数子结构中的算子“MUL”以及预测函数子结构中的算子“MLP”进行选择后,得到另一个候选内容推荐模型M2,即:候选内容推荐模型M2与候选内容推荐模型M1相比,其中,嵌入函数子结构中的算子选择存在差异,组成候选内容推荐模型M1的嵌入函数子结构中的算子为“MLP”,但组成候选内容推荐模型M2的嵌入函数子结构中的算子为“MAT”。
基于在不同子结构中通过上述算子选择得到的算子选择结果,以及对不同子结构的组合处理,在搜索空间中生成至少两个候选内容推荐模型。以上仅为示意性的举例,本申请实施例对此不加以限定。
步骤430,在指定候选内容推荐模型中,将各个子结构分别对应的算子选择结果进行拼接操作,得到指定候选内容推荐模型对应的模型编码。
其中,指定候选内容推荐模型是生成的至少两个候选内容推荐模型中的任任意一个,也即:以至少两个候选内容推荐模型中的任意一个候选内容推荐模型的模型编码的组成为例进行说明。
可选地,当算子选择结果实现为如上所示的编码位形式时,将不同子结构分别对应的算子选择结果进行拼接操作,从而在搜索空间中生成至少两个候选内容推荐模型。
例如:以由上述输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构组成候选内容推荐模型为例进行说明。当对输入编码子结构中的算子“基于多热编码方法得到的交互数据对的编码表示”进行选择后,得到输入编码子结构对应的算子选择结果为(0,1);当对嵌入函数子结构中的算子“MLP”进行选择后,得到嵌入函数子结构对应的算子选择结果为(0,1);当对交互函数子结构中的算子“MUL”进行选择后,得到交互函数子结构对应的算子选择结果为(1,0,0,0,0);当对预测函数子结构中的算子“MLP”进行选择后,得到预测函数子结构对应的算子选择结果为(0,0,1),将输入编码子结构对应的算子选择结果(0,1)、嵌入函数子结构对应的算子选择结果(0,1)、交互函数子结构对应的算子选择结果(1,0,0,0,0)以及预测函数子结构对应的算子选择结果(0,0,1)进行拼接操作后,得到一个候选内容推荐模型。
步骤440,采用拼接操作获取搜索空间中与至少两个候选内容推荐模型分别对应的模型编码。
同理,当对输入编码子结构中的算子“基于多热编码方法得到的交互数据对的编码表示”进行选择后,得到输入编码子结构对应的算子选择结果为(0,1);当对嵌入函数子结构中的算子“MLP”进行选择后,得到嵌入函数子结构对应的算子选择结果为(0,1);当对交互函数子结构中的算子“MAX”进行选择后,得到交互函数子结构对应的算子选择结果为(0,0,1,0,0);当对预测函数子结构中的算子“VEC”进行选择后,得到预测函数子结构对应的算子选择结果为(0,1,0),将输入编码子结构对应的算子选择结果(0,1)、嵌入函数子结构对应的算子选择结果(0,1)、交互函数子结构对应的算子选择结果(0,0,1,0,0)以及预测函数子结构对应的算子选择结果(0,1,0)进行拼接操作后,得到另一个候选内容推荐模型。
基于在不同子结构中通过上述算子选择得到的算子选择结果,以及对不同子结构对应的算子选择结果进行的拼接处理、组合处理等处理操作,在搜索空间中生成至少两个候选内容推荐模型。以上仅为示意性的举例,本申请实施例对此不加以限定。
步骤450,基于至少两个候选内容推荐模型分别对应的模型编码对至少两个候选内容推荐模型进行性能预测,得到至少两个候选内容推荐模型分别对应的性能预测结果。
其中,基于模型编码能够对至少两个候选内容推荐模型进行区别。可选地,当候选内容推荐模型的模型编码实现为上述拼接处理后的模型编码,基于该模型编码,能够知悉不同候选内容推荐模型中不同子结构对应的算子选择结果,即:知悉不同候选内容推荐模型中不同子结构所采用的参数运算方法。
示意性的,在得到至少两个候选内容推荐模型分别对应的模型编码后,对至少两个候选内容推荐模型进行性能预测,例如:对组成候选内容推荐模型的不同子结构的分析结果进行预测,综合多个子结构的分析结果,确定该候选内容推荐模型的性能预测结果;或者,任意选取训练数据集,将训练数据集中的训练数据分别输入至少两个候选内容推荐模型中,通过至少两个候选内容推荐模型分别对训练数据进行分析,根据数据分析结果与训练数据所标注标签的差异,确定至少两个候选内容推荐模型分别对应的性能预测结果,例如:若候选内容推荐模型M1的预测差异较小,则性能预测结果较好;若候选内容推荐模型M2的预测差异较大,则性能预测结果较差等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
步骤460,基于性能预测结果从至少两个候选内容推荐模型中确定出目标内容推荐模型。
其中,目标内容推荐模型用于向帐号进行内容推荐。
可选地,以预测得分表示候选内容推荐模型对应的性能预测结果;或者,以预测准确率表示候选内容推荐模型对应的性能预测结果等。
示意性的,在得到至少两个候选内容推荐模型分别对应的性能预测结果后,根据性能预测结果的优劣,从至少两个候选内容推荐模型中确定出目标内容推荐模型。例如:将性能预测结果最好的n个候选内容推荐模型作为目标内容推荐模型;或者,将性能预测结果最好的1个候选内容推荐模型作为唯一的目标内容推荐模型等。
示意性的,当以预测得分表示候选内容推荐模型对应的性能预测结果时,从中选择预测得分最高的前n个候选内容推荐模型作为目标内容推荐模型;或者,当以预测准确率表示候选内容推荐模型对应的性能预测结果时,从中选择预测准确率最好的前n个候选内容推荐模型作为目标内容推荐模型等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
综上所述,根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强对象的使用体验。
在本申请实施例中,在自动化机器学习技术的基础上,对搜索空间中多个子结构分别对应的算子进行了说明,根据对子结构中不同算子的选择操作,以及对不同子结构的组合操作,得到不同的候选内容推荐模型,并根据子结构对应的不同算子选择结果,确定不同候选内容推荐模型的模型编码,从而利用性能预测模型,对候选内容推荐模型进行性能预测,并选择得到推荐性能更好的候选内容推荐模型作为目标内容推荐模型,从而更加准确、高效地为不同的帐号推荐合适的内容。
在一个可选的实施例中,在基于至少两个候选内容推荐模型分别对应的模型编码对至少两个候选内容推荐模型进行性能预测时,将至少两个候选内容模型分别对应的模型编码输入性能预测模型,实现性能预测过程。示意性的,如图5所示,上述图3所示出的实施例中的步骤330还可以实现为如下步骤510至步骤560。
步骤510,将至少两个候选内容推荐模型分别对应的模型编码输入性能预测模型,得到与至少两个候选内容推荐模型分别对应的候选性能预测结果。
其中,性能预测模型用于指示对至少两个候选内容推荐模型进行预测的模型,也即,通过性能预测模型,对至少两个候选内容推荐模型的模型性能进行预测。
示意性的,性能预测模型通过至少两个候选内容推荐模型分别对应的模型编码,对至少两个候选内容推荐模型进行性能预测过程。例如:将候选内容推荐模型对应的模型编码作为性能预测模型的输入,性能预测模型基于候选内容推荐模型中的不同神经网络组成结构,对该候选内容推荐模型的模型性能进行预测。
可选地,性能预测模型为具有基本性能预测能力的预测模型。例如:采用多层感知机(Multi-Layer perceptron,MLP)作为性能预测模型;或者,采用基于树的模型(Tree-based models)作为性能预测模型,如:随机森林。
在一个可选的实施例中,在获取得到至少两个候选内容推荐模型分别对应的模型编码后,将至少两个候选内容推荐模型分别对应的模型编码输入性能预测模型,由性能预测模型对至少两个候选内容推荐模型的模型性能分别进行预测,从而得到与至少两个候选内容推荐模型分别对应的候选性能预测结果。
示意性的,以性能预测模型对上述候选内容推荐模型1进行性能分析为例进行说明。将候选内容推荐模型1对应的模型编码输入性能预测模型中,性能预测模型基于组成候选内容推荐模型1的子结构中的算子选择结果,确定候选内容推荐模型1的模型编码。
例如:候选内容推荐模型1的模型编码为四个子结构的算子选择结果的拼接处理结果。
A中的算法A1、神经网络组成结构B中的算法B2、神经网络组成结构C中的算法C2、神经网络组成结构D中的算法D1组成的推荐模型,则在候选内容推荐模型1中,神经网络组成结构A的结构编码表示为(1,0),神经网络组成结构B的结构编码表示为(0,1),神经网络组成结构C的结构编码表示为(0,1,0),神经网络组成结构D的结构编码表示为(0,1),神经网络组成结构D的结构编码表示为(0,1),将候选内容推荐模型1中不同神经网络组成结构分别对应的结构编码进行拼接,从而得到候选内容推荐模型1对应的模型编码。
在一个可选的实施例中,在得到的不同神经网络组成结构组成的候选内容推荐模型后,对候选内容推荐模型进行编码,得到候选内容推荐模型对应的模型编码。
示意性的,在得到上述候选内容推荐模型1后,对候选内容推荐模型1进行编码,如:编码结果为001,将候选内容推荐模型1对应的编码结果001作为与候选内容推荐模型1对应的模型编码;同理,在得到上述候选内容推荐模型2后,对候选内容推荐模型2进行编码,如:编码结果为010,将候选内容推荐模型2对应的编码结果010作为与候选内容推荐模型2对应的模型编码等。其中,不同候选内容推荐模型对应的编码结果是不同的,用于区别不同的候选内容推荐模型。
在一个可选的实施例中,候选性能预测结果用于对性能预测模型进行训练,从而得到对性能预测模型进行训练后的目标性能预测模型。也即:基于至少两个候选内容推荐模型分别对应的候选性能预测结果,对性能预测模型进行训练,得到目标性能预测模型。
其中,目标性能预测模型用于从至少两个候选内容推荐模型中确定出目标内容推荐模型。
步骤520,基于至少两个候选内容推荐模型分别对应的候选性能预测结果,从至少两个候选内容推荐模型中确定待训练的内容推荐模型。
可选地,在得到至少两个候选内容推荐模型分别对应的候选性能预测结果后,对至少两个候选内容推荐模型分别对应的候选性能预测结果进行比较,并基于比较结果,从至少两个候选内容推荐模型中确定待训练的内容推荐模型。
示意性的,候选性能预测结果实现为性能预测分数,将性能预测分数最高的前n个候选内容推荐模型作为待进行训练的内容推荐模型;或者,候选性能预测结果实现为性能预测准确率,将性能预测准确率最高的前n个候选内容推荐模型作为待进行训练的内容推荐模型。
也即:在确定至少两个候选内容推荐模型分别对应的候选性能预测结果后,根据不同候选内容推荐模型对应的性能预测情况,差异性地选择是否对候选内容推荐模型进行训练。当候选内容推荐模型对应的候选性能预测结果较好时,将该候选内容推荐模型作为待训练的内容推荐模型,从而在后续过程中,对该候选内容推荐模型进行训练过程;当候选内容推荐模型对应的候选性能预测结果较差时,不对该候选内容推荐模型进行训练过程,从而避免对预测性能较差的候选内容推荐模型进行额外的训练过程,有效减少训练过程中的计算量。
步骤530,通过样本交互数据集对待训练的内容推荐模型进行训练,得到与待训练的内容推荐模型对应的训练分析模型。
其中,样本交互数据集中存储有样本交互数据,样本交互数据标注有样本交互数据标签。
可选地,样本交互数据是由样本帐号数据和样本内容数据组成的数据对,样本交互数据标签用于指示在历史交互过程中,样本帐号数据和样本内容数据之间的历史交互情况。
例如:在样本交互数据集中,样本交互数据S1表示样本帐号数据ID1和样本内容数据CON1存在历史交互,样本交互数据S2表示样本帐号数据ID1和样本内容数据CON2存在历史交互等。
在一个可选的实施例中,从样本交互数据集中获取样本交互数据;通过待训练的内容推荐模型对样本交互数据进行交互分析,确定与待训练的内容推荐模型对应的数据交互预测结果。
示意性的,从样本交互数据集中,任意选择至少一个样本交互数据,将样本交互数据输入待训练的内容推荐模型中,通过待训练的内容推荐模型对样本交互数据进行交互分析。
可选地,在通过待训练的内容推荐模型对样本交互数据进行交互分析时,待训练的内容推荐模型对输入的样本交互数据对应的样本帐号数据和样本内容数据分别进行分析,从而对该样本帐号数据和样本内容数据的交互情况进行预测,得到与样本交互数据对应的数据交互预测结果。
其中,数据交互预测结果用于指示待训练的内容推荐模型对样本交互数据中样本帐号数据和样本内容数据的交互预测情况。
例如:以从样本交互数据集中获取得到的样本交互数据S1作为待训练的内容推荐模型的输入为例进行分析。待训练的内容推荐模型在对样本交互数据S1进行分析时,确定样本交互数据S1对应的样本帐号数据ID1和样本内容数据CON1,并对样本帐号数据ID1和样本内容数据CON1的交互情况进行预测,得到与样本交互数据S1对应的数据交互预测结果;同理,待训练的内容推荐模型在对样本交互数据S2进行分析时,确定样本交互数据S2对应的样本帐号数据ID1和样本内容数据CON2,并对样本帐号数据ID1和样本内容数据CON2的交互情况进行预测,得到与样本交互数据S2对应的数据交互预测结果等。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
在一个可选的实施例中,基于样本交互数据标签和至少两个候选内容推荐模型分别对应的数据交互预测结果之间的差异,对待训练的内容推荐模型进行训练,得到与待训练的内容推荐模型对应的训练分析模型。
其中,样本交互数据标签是与样本交互数据对应的标识,通过样本交互数据标签,能够确定样本交互数据中样本帐号数据和样本内容数据之间的历史交互情况。
可选地,在得到至少两个候选内容推荐模型分别对应的数据交互预测结果后,基于数据交互预测结果与样本交互数据相对应,且样本交互数据具有其对应的样本交互数据标签,故确定至少两个数据交互预测结果与对应的样本交互数据标签之间的差异。
示意性的,输入待训练的内容推荐模型的样本交互数据为样本交互数据S1,样本交互数据S1对应的样本交互数据标签为L1,通过待训练的内容推荐模型对样本交互数据S1对应的样本帐号数据ID1和样本内容数据CON1之间的交互关系进行分析,得到与样本交互数据S1对应的数据交互预测结果P1,之后,确定样本交互数据标签L1与数据交互预测结果P1之间的差异。例如:采用交叉熵损失函数,确定样本交互数据标签为L1与数据交互预测结果P1之间的损失值。
可选地,基于上述预测方法,确定不同样本交互数据在输入待训练的内容推荐模型后所分别对应的数据交互预测结果,并根据数据交互预测结果和对应的样本交互数据标签,确定不同样本交互数据对应的损失值。
可选地,基于样本交互数据标签和至少两个数据交互预测结果之间的损失值,对待训练的内容推荐模型进行训练,从而得到与待训练的内容推荐模型对应的训练分析模型。
示意性的,在得到损失值后,以降低损失值为目标,对待训练的内容推荐模型进行训练,响应于对待训练的内容推荐模型的训练达到训练目标而得到训练分析模型,例如:响应于损失值达到收敛状态,将最近一次迭代训练得到的待训练的内容推荐模型作为训练分析模型。
示意性的,损失值达到收敛状态用于指示通过损失函数得到的损失值的数值不再变化或者变化幅度小于预设阈值。例如:待训练的内容推荐模型在训练过程中达到损失函数不再继续下降的状态等。
步骤540,通过训练分析模型对样本交互数据集中的样本交互数据分别进行交互分析,得到与训练分析模型对应的预测分析结果。
示意性的,在对待训练的内容推荐模型的训练达到训练目标后,得到训练分析模型,通过该训练分析模型对样本交互数据集中的至少一个样本交互数据进行交互分析,从而得到与训练分析模型对应的预测分析结果。
其中,预测分析结果用于指示训练分析模型对样本交互数据中样本帐号数据和样本内容数据的预测结果。
示意性的,以一个训练分析模型对样本交互数据S1和样本交互数据S2进行交互分析为例进行说明。该训练分析模型对样本交互数据S1中的样本帐号数据ID1和样本内容数据CON1之间的交互关系进行预测,得到与样本交互数据S1对应的预测分析结果PA1;该训练分析模型对样本交互数据S2中的样本帐号数据ID1和样本内容数据CON2之间的交互关系进行预测,得到与样本交互数据S2对应的预测分析结果PA2,将与样本交互数据S1对应的预测分析结果PA1和与样本交互数据S2对应的预测分析结果PA2作为与训练分析模型对应的预测分析结果。
可选地,在得到与样本交互数据S1对应的预测分析结果PA1以及与样本交互数据S2对应的预测分析结果PA2后,综合分析上述预测分析结果PA1和预测分析结果PA2,将综合分析后的分析结果作为训练分析模型对应的预测分析结果。例如:将预测分析结果PA1和预测分析结果PA2的平均值作为该训练分析模型对应的预测分析结果;或者,将预测分析结果PA1和预测分析结果PA2的最大值作为该训练分析模型对应的预测分析结果等。
步骤550,以至少两个训练分析模型分别对应的预测分析结果对性能预测模型进行训练,得到目标性能预测模型。
示意性的,在得到与训练分析模型对应的预测分析结果后,选取至少两个训练分析模型,并确定至少两个训练分析模型分别对应的预测分析结果。
可选地,以训练分析模型对应的预测分析结果实现为上述综合分析后的分析结果为例进行说明。为了从搜索空间中高效搜索得到能够取得良好推荐性能的目标内容推荐模型,不需要对于特征指标的数值进行非常精准的估计,而是对多个候选内容推荐模型的相互优劣关系进行区分。
示意性的,在得到至少两个训练分析模型分别对应的预测分析结果后,采用成对损失函数(pairwise loss function)对性能预测模型进行优化训练,也即:该性能预测模型的目标在于,对训练得到的至少两个训练分析模型进行推荐性能的排序,如:从优到劣的排序。其中,成对损失函数如下所示。
其中,LP用于指示成对损失函数的成对损失值;x+用于指示预测分析结果较好的训练分析模型;P(x+)用于指示较好的预测分析结果;x-用于指示预测分析结果较差的训练分析模型;P(x-)用于指示较差的预测分析结果;O用于指示至少两个训练分析模型;σ用于指示激活函数。
示意性的,对至少两个训练分析模型分别对应的预测分析结果进行优劣排序后,采用上述成对损失函数,确定至少两个训练分析模型之间两两对应的成对损失值,并通过成对损失值对性能预测模型进行训练,得到目标性能预测模型。
可选地,在得到成对损失值后,以降低成对损失值为目标,对性能预测模型进行训练,响应于成对损失值达到收敛状态,将最近一次迭代训练得到的性能预测模型作为目标性能预测模型。
示意性的,成对损失值达到收敛状态用于指示通过成对损失函数得到的成对损失值的数值不再变化或者变化幅度小于预设阈值。例如:k个成对损失值不再继续下降;或者,k个成对损失值的变化幅度小于预设阈值,其中,k为正整数。
其中,目标性能预测模型用于从搜索空间对应的至少两个候选内容推荐模型中,选择预测性能较好的候选内容推荐模型。
步骤560,通过目标性能预测模型对至少两个候选内容推荐模型进行性能预测,得到至少两个候选内容推荐模型分别对应的性能预测结果。
示意性的,在得到目标性能预测模型后,通过目标性能预测模型对搜索空间对应的至少两个候选内容推荐模型分别进行性能预测,从而确定至少两个候选内容推荐模型分别对应的性能预测结果。
在一个可选的实施例中,通过目标性能预测模型预测得到目标内容推荐模型。
示意性的,将性能预测结果较好的n个候选内容推荐模型作为目标内容推荐模型,从而借助目标内容推荐模型,实现内容推荐过程,即:实现将内容数据推荐至帐号的过程。
例如:当n为1时,将性能预测结果最好的候选内容推荐模型作为目标内容推荐模型,并根据目标内容推荐模型对待分析的帐号数据和待分析的内容数据的分析结果,向不同的帐号推荐对应的内容数据,如:向不同的帐号推荐符合其喜好的影片;当n为大于1的正整数时,将性能预测结果较好的n个候选内容推荐模型作为目标内容推荐模型,通过n个目标内容推荐模型对待分析的帐号数据和待分析的内容数据分别进行分析,并确定n个目标内容推荐模型分别对应的分析结果,综合n个目标内容推荐模型的分析结果,向不同的帐号推荐对应的内容数据。
值得注意的是,以上仅为示意性的举例,本申请实施例对此不加以限定。
综上所述,根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强对象的使用体验。
在本申请实施例中,介绍了对性能预测模型的训练过程。在得到候选内容推荐模型后,将候选内容推荐模型对应的模型编码输入性能预测模型中,得到与不同候选内容推荐模型对应的候选性能预测结果,根据候选性能预测结果,差异性地选择是否对候选内容推荐模型进行训练,从而避免对预测性能较差的候选内容推荐模型进行额外的训练过程,有效减少训练过程中的计算量。在得到训练完毕的训练分析模型后,通过样本交互数据集,对性能预测模型进行训练,从而得到目标性能预测模型,通过目标性能预测模型,能够更快速地获取得到推荐性能更好的目标内容推荐模型,避免通过单独训练的方式,使得一个模型只能与一个训练数据集相对应,通过目标性能预测模型,对多个模型进行同时判定。
在一个可选的实施例中,将上述候选内容推荐模型称为协同过滤模型,以对对象和物品之间的推荐效果进行预测为例进行说明。示意性的,内容推荐模型的生成方法包括协同过滤模型的生成和选择两个过程,且上述内容推荐模型的生成方法还可以实现为如下两个部分,分别为:(一)搜索空间设计;(二)搜索策略设计。
(一)搜索空间设计
(1)算子选择
a.输入编码:示意性的,对于对象和物品的编码表示,一种直观的方式是使用身份标识(Identity document,ID),即:对ID采用one-hot方法进行编码,从而得到两个嵌入矩阵,分别为对象对应的嵌入矩阵以及物品对应的嵌入矩阵;或者,采用历史交互方式,采用对象的Multi-hot方法对对象进行编码,即:采用与对象交互过的物品对对象进行表示,同理,对于物品也可以类似的方式进行表示。此处的编码(one-hot或Multi-hot)用于对对象和物品进行表示,用于后续模型。
b.嵌入函数:示意性的,嵌入函数用于将输入编码得到的高维编码投影至低维空间,从而得到嵌入向量,其选择与上一步的输入编码关系密切。对于ID类型的输入编码,与之兼容的嵌入函数是对象/物品嵌入矩阵查找函数(ID-look-up),表示为MAT;对于历史交互类型的输入编码,有两种与之兼容的嵌入函数。第一类是基于嵌入矩阵查找和均值池化操作,同样表示为MAT;第二类是基于多层感知机(MLP)将多热历史转换为稠密向量,称为MLP。MLP的设计同样可以有多种结构,示意性的,采用神经网络协同过滤模型NeuMF中的设置。
c.交互函数:交互函数以对象和物品的嵌入向量作为输入,用于后续预测。可选地,采用的交互函数为:对两个向量进行逐项相乘,生成一个组合后的向量,其中,交互函数的物理意义是对对象与物品进行匹配。示意性的,与逐项相乘类似的操作还包括相减、取最大值、取最小值和拼接等。
d.预测函数:预测函数用于将上述交互函数的输出转换为最终的预测分数,分数越高代表着越高的对象—物品的交互概率。可选地,采用求和方式(表示为SUM)确定预测分数,此外,还可以用带权重的向量的内积,将权重分配给不同的维度,表示为VEC;也可以用多层感知机得到预测结果,表示为MLP。
(2)完整模型编码
示意性的,采用编码方式表示每个阶段的上述算子选择。为了使空间更加通用,在采用上述四个阶段进行算子选择过程外,考虑从预先定义的集合Sdim中选择模型的嵌入维度、从预先定义的集合Slr中选择优化器学习率作为编码的一部分,因此整个空间的大小还要乘以|Sdim*Slr|。
可选地,此处的编码采用独热编码的形式,例如:编码(0,1,0,0,0)代表着对于在某函数的5种算子选择中,选择了第2个算子。示意性的,将每一个阶段的算子选择,加上嵌入维度选择与优化器学习率选择,从而得到了协同过滤模型的编码表示,并基于该编码表示进行后续的模型搜索过程。
在一个可选的实施例中,如下表1所示,对上述搜索空间中的算子进行表示。
表1
其中,搜索空间包括四个阶段,每个阶段需要定义算子搜索范围,故搜索空间可以理解为不同算子的组合。如上文所述,在实际应用中,可以同样定义嵌入尺寸和学习率的超参数的集合,使得搜索空间在一定范围内进一步扩大。
如图6所示,为协同过滤模型的搜索空间示意图,将数据输入搜索空间中,对数据中对象i以及物品j分别进行分析,通过搜索空间中的输入编码610,确定对象i对应的矩阵ci以及物品j对应的矩阵cj,其中,算子包括ID或历史交互(history)两种情况;此外,通过嵌入函数620,确定与对象i对应的向量euser以及与物品j对应的向量eitem;之后,通过交互函数630对对象对应的向量以及物品对应的向量进行交互分析,例如:通过交互函数630对对象i对应的向量ei以及物品j对应的向量ej进行交互分析;最后,通过预测函数640,得到输出向量。
(二)搜索策略设计
在定义完毕搜索空间后,通过设计有效且适当的搜索策略,以找到具有出色性能的协同过滤模型。
示意性的,为了解决搜索效率的挑战,采用一种易于使用且鲁棒的搜索策略,将随机搜索算法与模型性能预测器(性能预测模型)相结合。
其中,采取随机搜索方法的原因在于考虑到搜索空间的离散性,且随机搜索方法具备一定的有效性。此外,为了使得搜索过程更加高效,将随机搜索与性能预测相结合。
示意性的,模型性能预测器用于区别协同过滤模型的优劣,即:待分析的协同过滤模型属于好模型还是坏模型。其中,模型性能预测器的输入为上文所示的模型编码表示——xo,其中,o的范围从1到6。
可选地,采用多层感知机或基于树的模型(如随机森林)作为模型性能预测器。其中,多层感知机支持基于梯度下降的参数更新,更加兼容随机搜索,具有更强的从复杂数据中学习的能力。
P(x0)=MLP(Concat(x0))
其中,P(x0)用于还是模型预测性能;MLP用于指示多层感知机;Concat用于指示拼接操作;x0用于指示模型编码表示。其中,预测得到的模型预测性能可以是给定任务的任意指标,包括常见的用于显式数据的回归任务与用于隐式数据的排序任务。
为了高效搜索得到能够取得良好推荐性能的协同过滤模型,无需对于特征指标的数值进行非常精准的估计,只需要能够对多个模型的相互优劣关系进行区分,因此,采用成对损失函数对模型性能预测器进行优化训练,即:该预测器的目标是对给定的若干个推荐模型进行推荐性能从优到劣的排序。
简而言之,如图7所示,为一个得到目标模型性能预测器的工作流程示意图。首先,采用随机搜索710的方法,从完整的搜索空间中采样得到多个协同过滤模型;然后,利用模型性能预测器720对多个协同过滤模型进行性能预测,并通过预测性能选择模型730,从多个协同过滤模型中选择预估表现最好的若干个协同过滤模型进行训练数据评估,即:使用公开的、预先获取得到的训练数据集,对若干个协同过滤模型进行训练评估740,直至协同过滤模型达到收敛状态,从而得到若干个协同过滤模型在训练数据集上的推荐效果;最后,使用该推荐结果,根据上述损失函数对模型性能预测器的参数进行参数更新750。该工作流程一直重复,直到搜索得到给定任务上具备足够推荐效果的协同过滤模型。当达到终止条件(例如:停止条件设定为一个超参数)时,工作流程的重复停止,即获得了一个有效的目标模型性能预测器(所需模型),通过该目标模型性能预测器,能够高精度地预测搜索空间中各种协同过滤模型的模型性能,并从搜索空间中找到适合进行内容推荐任务的有效协同过滤模型。
示意性的,首先,定义两个超参数,K1与K2,通过模型性能预测器对K1+K2个协同过滤模型进行预估与排序,选取排序列表前K1个协同过滤模型参与训练,即:得到K1个协同过滤模型的推荐性能结果,并通过该结果对模型性能预测器的参数进行更新。
可选地,自动化协同过滤模型搜索的算法实施步骤如下所示。
算法输入为:搜索空间F、可学习的模型性能预测器P、模型推荐评价指标M、空集合H、搜索集合超参数K1和K2以及训练数据S。
(1)对模型性能预测器P进行随机初始化操作;(2)重复执行如图7所示的工作流程;(3)从集合F中随机选择K1+K2个协同过滤模型的模型集合;(4)生成该模型集合中所有协同过滤模型的模型编码;(5)将模型编码输入至模型性能预测器中,得到不同协同过滤模型分别对应的模型性能;(6)选择Top-K1(前K1)个协同过滤模型,使用训练数据S对K1个协同过滤模型进行训练;(7)通过模型推荐评价指标M。对K1个协同过滤模型进行模型性能评估;(8)更新空集合H,即:添加新评估的K1个协同过滤模型以及与K1个协同过滤模型分别对应的模型性能;(9)通过集合H中存储的协同过滤模型的模型编码以及与不同协同过滤模型分别对应的模型性能,更新预测器P的参数;(10)直至满足终止条件;(11)返回H集合,从K1+K2个协同过滤模型中,得到至少一个协同过滤模型作为目标协同过滤模型,从而通过目标协同过滤模型进行内容推荐过程。
综上所述,根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,使其符合内容推荐系统网络模型范式,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强对象的使用体验。
图8是本申请一个示例性实施例提供的内容推荐模型的生成装置,如图8所示,该装置包括如下部分:
生成模块810,用于在搜索空间中生成至少两个候选内容推荐模型,所述搜索空间中包括预先设定的神经网络组成结构,所述候选内容推荐模型是用于进行内容推荐分析的候选模型;
获取模块820,用于获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,所述模型编码用于指示所述候选内容推荐模型中的神经网络组成结构的组成模式;
预测模块830,用于基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果;
确定模块840,用于基于所述性能预测结果从所述至少两个候选内容推荐模型中确定出目标内容推荐模型,所述目标内容推荐模型用于向帐号进行内容推荐。
在一个可选的实施例中,所述预测模块830还用于将所述至少两个候选内容推荐模型分别对应的模型编码输入性能预测模型,得到与所述至少两个候选内容推荐模型分别对应的候选性能预测结果;基于所述至少两个候选内容推荐模型分别对应的候选性能预测结果,对所述性能预测模型进行训练,得到目标性能预测模型,所述目标性能预测模型用于从所述至少两个候选内容推荐模型中确定出所述目标内容推荐模型;通过所述目标性能预测模型对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果。
在一个可选的实施例中,所述预测模块830还用于基于所述至少两个候选内容推荐模型分别对应的候选性能预测结果,从所述至少两个候选内容推荐模型中确定待训练的内容推荐模型;通过样本交互数据集对所述待训练的内容推荐模型进行训练,得到与所述待训练的内容推荐模型对应的训练分析模型,所述样本交互数据集中存储有样本交互数据,所述样本交互数据标注有样本交互数据标签;通过所述训练分析模型对所述样本交互数据集中的样本交互数据分别进行交互分析,得到与所述至少两个候选内容推荐模型分别对应的预测分析结果;以所述至少两个候选内容推荐模型分别对应的预测分析结果对所述性能预测模型进行训练,得到所述目标性能预测模型。
在一个可选的实施例中,所述预测模块830还用于从所述样本交互数据集中获取样本交互数据;通过所述待训练的内容推荐模型对所述样本交互数据进行交互分析,确定与所述待训练的内容推荐模型对应的数据交互预测结果;基于所述样本交互数据标签和所述至少两个候选内容推荐模型分别对应的数据交互预测结果之间的差异,对所述待训练的内容推荐模型进行训练,得到与所述待训练的内容推荐模型对应的所述训练分析模型。
在一个可选的实施例中,所述样本交互数据是由样本帐号数据和样本内容数据组成的数据对,所述样本交互数据标签用于指示在历史交互过程中,所述样本帐号数据和所述样本内容数据之间的历史交互情况。
在一个可选的实施例中,所述神经网络组成结构包括多个子结构;
所述生成模块810还用于确定所述多个子结构分别对应的算子选择结果,所述算子选择结果用于指示在所述子结构内部进行参数运算时采用的算子;基于所述多个子结构分别对应的算子选择结果,在所述搜索空间中生成至少两个候选内容推荐模型。
在一个可选的实施例中,所述搜索空间通过历史交互数据集以及所述预先设定的神经网络组成结构生成所述至少两个候选内容推荐模型;
所述历史交互数据集中存储有帐号数据、内容数据和交互数据对中的至少一种,其中,交互数据对用于指示至少一个帐号数据和一个内容数据存在历史交互关系。
在一个可选的实施例中,所述生成模块810还用于响应于所述多个子结构中包括输入编码子结构,获取所述第一种类数据对应的第一矩阵表示以及所述第二种类数据对应的第二矩阵表示;或者,获取所述交互数据对中与帐号数据对应的帐号交互矩阵表示以及与内容数据对应的内容交互矩阵表示,其中,基于矩阵表示的获取方法确定所述输入编码子结构的算子选择结果;响应于所述多个子结构中包括嵌入函数子结构,将所述第一矩阵表示和所述第二矩阵表示投影至向量空间,得到与所述第一矩阵表示对应的第一嵌入向量,以及与所述第二矩阵表示对应的第二嵌入向量;或者,将交互数据对中所述帐号数据对应的帐号交互矩阵表示和所述内容数据对应的内容交互矩阵表示投影至向量空间,得到与所述帐号交互矩阵表示对应的第三嵌入向量,以及与所述内容交互矩阵表示对应的第四嵌入向量,其中,基于嵌入向量的获取方法确定所述嵌入函数结构的算子选择结果;响应于所述多个子结构中包括交互函数子结构,将所述第一嵌入向量和所述第二嵌入向量相乘,得到组合向量;或者,对所述第三嵌入向量和所述第四嵌入向量进行交互处理,得到组合向量,所述组合向量用于指示所述帐号数据和所述内容数据的预测交互关系,其中,基于组合向量的获取方法确定所述交互函数结构的算子选择结果;响应于所述多个子结构中包括预测函数子结构中,对所述组合向量进行交互预测分析,得到预测结果,所述预测结果用于指示所述预测交互关系与所述历史交互关系之间的差异,其中,基于交互预测分析方法确定所述预测函数结构的算子选择结果。
在一个可选的实施例中,所述多个子结构中包括输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构;
所述生成模块810还用于将所述输入编码子结构、所述嵌入函数子结构、所述交互函数子结构以及所述预测函数子结构分别对应的算子选择结果进行组合操作,在所述搜索空间中生成至少两个候选内容推荐模型。
在一个可选的实施例中,所述获取模块820还用于在指定候选内容推荐模型中,将各个子结构分别对应的算子选择结果进行拼接操作,得到所述指定候选内容推荐模型对应的模型编码;采用所述拼接操作获取所述搜索空间中与所述至少两个候选内容推荐模型分别对应的模型编码。
综上所述,在搜索空间中,基于预先设定的不同神经网络组成结构生成候选内容推荐模型,通过神经网络组成结构的组成模式,获取候选内容推荐模型分别对应的模型编码,从而对候选内容推荐模型进行性能预测,以实现从候选内容推荐模型中确定出目标内容推荐模型的过程。根据预先设定的神经网络组成结构,不仅将搜索空间生成的候选内容推荐模型的范围进行了限定,也能够避免仅仅采用现有模型进行内容推荐的局限性。此外,根据神经网络组成结构中的组成模式,确定不同候选内容推荐模型的模型编码,并基于模型编码确定每个候选内容推荐模型的模型性能,从而能够更快速、自动地从多个候选内容推荐模型中,选择推荐性能更好的候选内容推荐模型作为目标内容推荐模型。在通过目标内容推荐模型向帐号进行内容推荐时,能够更加准确、高效地为不同的帐号推荐合适的内容,提高内容推荐的准确性,增强对象的使用体验。
需要说明的是:上述实施例提供的内容推荐模型的生成装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的内容推荐模型的生成装置与内容推荐模型的生成方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图9示出了本申请一个示例性实施例提供的服务器的结构示意图。该服务器900包括中央处理单元(Central Processing Unit,CPU)901、包括随机存取存储器(RandomAccess Memory,RAM)902和只读存储器(Read Only Memory,ROM)903的系统存储器904,以及连接系统存储器904和中央处理单元901的系统总线905。服务器900还包括用于存储操作系统913、应用程序914和其他程序模块915的大容量存储设备906。
大容量存储设备906通过连接到系统总线905的大容量存储控制器(未示出)连接到中央处理单元901。大容量存储设备906及其相关联的计算机可读介质为服务器900提供非易失性存储。也就是说,大容量存储设备906可以包括诸如硬盘或者紧凑型光盘只读存储器(Compact Disc Read Only Memory,CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、带电可擦可编程只读存储器(Electrically Erasable Programmable Read Only Memory,EEPROM)、闪存或其他固态存储技术,CD-ROM、数字通用光盘(Digital Versatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的系统存储器904和大容量存储设备906可以统称为存储器。
根据本申请的各种实施例,服务器900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器900可以通过连接在系统总线905上的网络接口单元911连接到网络912,或者说,也可以使用网络接口单元911来连接到其他类型的网络或远程计算机系统(未示出)。
上述存储器还包括一个或者一个以上的程序,一个或者一个以上程序存储于存储器中,被配置由CPU执行。
本申请的实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述各方法实施例提供的内容推荐模型的生成方法。
本申请的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现上述各方法实施例提供的内容推荐模型的生成方法。
本申请的实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的内容推荐模型的生成方法。
可选地,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (14)
1.一种内容推荐模型的生成方法,其特征在于,所述方法包括:
在搜索空间中生成至少两个候选内容推荐模型,所述搜索空间中包括预先设定的神经网络组成结构,所述候选内容推荐模型是用于进行内容推荐分析的候选模型;
获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,所述模型编码用于指示所述候选内容推荐模型中的神经网络组成结构的组成模式;
基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果;
基于所述性能预测结果从所述至少两个候选内容推荐模型中确定出目标内容推荐模型,所述目标内容推荐模型用于向帐号进行内容推荐。
2.根据权利要求1所述的方法,其特征在于,所述基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果,包括:
将所述至少两个候选内容推荐模型分别对应的模型编码输入性能预测模型,得到与所述至少两个候选内容推荐模型分别对应的候选性能预测结果;
基于所述至少两个候选内容推荐模型分别对应的候选性能预测结果,对所述性能预测模型进行训练,得到目标性能预测模型,所述目标性能预测模型用于从所述至少两个候选内容推荐模型中确定出所述目标内容推荐模型;
通过所述目标性能预测模型对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果。
3.根据权利要求2所述的方法,其特征在于,所述基于所述至少两个候选内容推荐模型分别对应的候选性能预测结果,对所述性能预测模型进行训练,得到目标性能预测模型,包括:
基于所述至少两个候选内容推荐模型分别对应的候选性能预测结果,从所述至少两个候选内容推荐模型中确定待训练的内容推荐模型;
通过样本交互数据集对所述待训练的内容推荐模型进行训练,得到与所述待训练的内容推荐模型对应的训练分析模型,所述样本交互数据集中存储有样本交互数据,所述样本交互数据标注有样本交互数据标签;
通过所述训练分析模型对所述样本交互数据集中的样本交互数据分别进行交互分析,得到与所述至少两个候选内容推荐模型分别对应的预测分析结果;
以所述至少两个候选内容推荐模型分别对应的预测分析结果对所述性能预测模型进行训练,得到所述目标性能预测模型。
4.根据权利要求3所述的方法,其特征在于,所述通过样本交互数据集对所述待训练的内容推荐模型进行训练,得到与所述待训练的内容推荐模型对应的训练分析模型,包括:
从所述样本交互数据集中获取样本交互数据;
通过所述待训练的内容推荐模型对所述样本交互数据进行交互分析,确定与所述待训练的内容推荐模型对应的数据交互预测结果;
基于所述样本交互数据标签和所述至少两个候选内容推荐模型分别对应的数据交互预测结果之间的差异,对所述待训练的内容推荐模型进行训练,得到与所述待训练的内容推荐模型对应的所述训练分析模型。
5.根据权利要求4所述的方法,其特征在于,所述样本交互数据是由样本帐号数据和样本内容数据组成的数据对,所述样本交互数据标签用于指示在历史交互过程中,所述样本帐号数据和所述样本内容数据之间的历史交互情况。
6.根据权利要求1至5任一所述的方法,其特征在于,所述神经网络组成结构包括多个子结构;
所述在搜索空间中生成至少两个候选内容推荐模型,包括:
确定所述多个子结构分别对应的算子选择结果,所述算子选择结果用于指示在所述子结构内部进行参数运算时采用的算子;
基于所述多个子结构分别对应的算子选择结果,在所述搜索空间中生成至少两个候选内容推荐模型。
7.根据权利要求6所述的方法,其特征在于,所述搜索空间通过历史交互数据集以及所述预先设定的神经网络组成结构生成所述至少两个候选内容推荐模型;
所述历史交互数据集中存储有帐号数据、内容数据和交互数据对中的至少一种,其中,交互数据对用于指示至少一个帐号数据和一个内容数据存在历史交互关系。
8.根据权利要求7所述的方法,其特征在于,所述确定所述多个子结构分别对应的算子选择结果,包括:
响应于所述多个子结构中包括输入编码子结构,获取所述第一种类数据对应的第一矩阵表示以及所述第二种类数据对应的第二矩阵表示;或者,获取所述交互数据对中与帐号数据对应的帐号交互矩阵表示以及与内容数据对应的内容交互矩阵表示,其中,基于矩阵表示的获取方法确定所述输入编码子结构的算子选择结果;
响应于所述多个子结构中包括嵌入函数子结构,将所述第一矩阵表示和所述第二矩阵表示投影至向量空间,得到与所述第一矩阵表示对应的第一嵌入向量,以及与所述第二矩阵表示对应的第二嵌入向量;或者,将交互数据对中所述帐号数据对应的帐号交互矩阵表示和所述内容数据对应的内容交互矩阵表示投影至向量空间,得到与所述帐号交互矩阵表示对应的第三嵌入向量,以及与所述内容交互矩阵表示对应的第四嵌入向量,其中,基于嵌入向量的获取方法确定所述嵌入函数结构的算子选择结果;
响应于所述多个子结构中包括交互函数子结构,将所述第一嵌入向量和所述第二嵌入向量相乘,得到组合向量;或者,对所述第三嵌入向量和所述第四嵌入向量进行交互处理,得到组合向量,所述组合向量用于指示所述帐号数据和所述内容数据的预测交互关系,其中,基于组合向量的获取方法确定所述交互函数结构的算子选择结果;
响应于所述多个子结构中包括预测函数子结构中,对所述组合向量进行交互预测分析,得到预测结果,所述预测结果用于指示所述预测交互关系与所述历史交互关系之间的差异,其中,基于交互预测分析方法确定所述预测函数结构的算子选择结果。
9.根据权利要求6所述的方法,其特征在于,所述多个子结构中包括输入编码子结构、嵌入函数子结构、交互函数子结构以及预测函数子结构;
所述基于所述多个子结构分别对应的算子选择结果,在所述搜索空间中生成至少两个候选内容推荐模型,包括:
将所述输入编码子结构、所述嵌入函数子结构、所述交互函数子结构以及所述预测函数子结构分别对应的算子选择结果进行组合操作,在所述搜索空间中生成至少两个候选内容推荐模型。
10.根据权利要求9所述的方法,其特征在于,所述获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,包括:
在指定候选内容推荐模型中,将各个子结构分别对应的算子选择结果进行拼接操作,得到所述指定候选内容推荐模型对应的模型编码;
采用所述拼接操作获取所述搜索空间中与所述至少两个候选内容推荐模型分别对应的模型编码。
11.一种内容推荐模型的生成装置,其特征在于,所述装置包括:
生成模块,用于在搜索空间中生成至少两个候选内容推荐模型,所述搜索空间中包括预先设定的神经网络组成结构,所述候选内容推荐模型是用于进行内容推荐分析的候选模型;
获取模块,用于获取所述搜索空间中所述至少两个候选内容推荐模型分别对应的模型编码,所述模型编码用于指示所述候选内容推荐模型中的神经网络组成结构的组成模式;
预测模块,用于基于所述至少两个候选内容推荐模型分别对应的模型编码对所述至少两个候选内容推荐模型进行性能预测,得到所述至少两个候选内容推荐模型分别对应的性能预测结果;
确定模块,用于基于所述性能预测结果从所述至少两个候选内容推荐模型中确定出目标内容推荐模型,所述目标内容推荐模型用于向帐号进行内容推荐。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如权利要求1至10任一所述的内容推荐模型的生成方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述至少一条指令由处理器加载并执行以实现如权利要求1至10任一所述的内容推荐模型的生成方法。
14.一种计算机程序产品,其特征在于,包括计算机程序或指令,所述计算机程序或指令被处理器执行时实现如权利要求1至10任一所述的内容推荐模型的生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210836415.7A CN115203557A (zh) | 2022-07-15 | 2022-07-15 | 内容推荐模型的生成方法、装置、设备、存储介质及产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210836415.7A CN115203557A (zh) | 2022-07-15 | 2022-07-15 | 内容推荐模型的生成方法、装置、设备、存储介质及产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115203557A true CN115203557A (zh) | 2022-10-18 |
Family
ID=83582893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210836415.7A Pending CN115203557A (zh) | 2022-07-15 | 2022-07-15 | 内容推荐模型的生成方法、装置、设备、存储介质及产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115203557A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116909534A (zh) * | 2023-09-13 | 2023-10-20 | 深圳市智慧城市科技发展集团有限公司 | 算子流的生成方法、算子流的生成装置及存储介质 |
-
2022
- 2022-07-15 CN CN202210836415.7A patent/CN115203557A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116909534A (zh) * | 2023-09-13 | 2023-10-20 | 深圳市智慧城市科技发展集团有限公司 | 算子流的生成方法、算子流的生成装置及存储介质 |
CN116909534B (zh) * | 2023-09-13 | 2023-12-05 | 深圳市智慧城市科技发展集团有限公司 | 算子流的生成方法、算子流的生成装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111241311B (zh) | 媒体信息推荐方法、装置、电子设备及存储介质 | |
CN110516160B (zh) | 基于知识图谱的用户建模方法、序列推荐方法 | |
CN110717098B (zh) | 基于元路径的上下文感知用户建模方法、序列推荐方法 | |
CN111291266A (zh) | 基于人工智能的推荐方法、装置、电子设备及存储介质 | |
CN113254792B (zh) | 训练推荐概率预测模型的方法、推荐概率预测方法及装置 | |
Wen et al. | Neural attention model for recommendation based on factorization machines | |
CN111506820B (zh) | 推荐模型、方法、装置、设备及存储介质 | |
CN110909182A (zh) | 多媒体资源搜索方法、装置、计算机设备及存储介质 | |
CN113536097B (zh) | 基于自动特征分组的推荐方法及装置 | |
CN114817663B (zh) | 一种基于类别感知图神经网络的服务建模与推荐方法 | |
CN115082142A (zh) | 一种基于异构关系图神经网络的推荐方法、装置及介质 | |
CN112036483B (zh) | 基于AutoML的对象预测分类方法、装置、计算机设备及存储介质 | |
KR102553041B1 (ko) | 인공지능 모델 기반 사용자 및 인테리어 공급자 매칭 플랫폼 서비스 제공 방법, 장치 및 시스템 | |
CN113515690A (zh) | 内容召回模型的训练方法、内容召回方法、装置及设备 | |
WO2023087914A1 (zh) | 推荐内容的选择方法、装置、设备、存储介质及程序产品 | |
CN115203557A (zh) | 内容推荐模型的生成方法、装置、设备、存储介质及产品 | |
Houshmand Nanehkaran et al. | Nearest neighbors algorithm and genetic‐based collaborative filtering | |
Wang et al. | Online course recommendation algorithm based on multilevel fusion of user features and item features | |
Wu et al. | A Federated Deep Learning Framework for Privacy-Preserving Consumer Electronics Recommendations | |
Caschera et al. | MONDE: a method for predicting social network dynamics and evolution | |
Chantamunee et al. | An exploration of user–facet interaction in collaborative-based personalized multiple facet selection | |
Sangeetha et al. | Predicting personalized recommendations using GNN | |
CN112307310A (zh) | 一种推荐方法及装置、设备、存储介质 | |
CN114363671A (zh) | 多媒体资源推送方法、模型训练方法、装置、存储介质 | |
CN113449193A (zh) | 基于多分类图像的信息推荐方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |