CN114625894A - 鉴赏力评估、模型训练方法、装置、介质和计算设备 - Google Patents
鉴赏力评估、模型训练方法、装置、介质和计算设备 Download PDFInfo
- Publication number
- CN114625894A CN114625894A CN202210141674.8A CN202210141674A CN114625894A CN 114625894 A CN114625894 A CN 114625894A CN 202210141674 A CN202210141674 A CN 202210141674A CN 114625894 A CN114625894 A CN 114625894A
- Authority
- CN
- China
- Prior art keywords
- sample
- appreciation
- user
- training
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 214
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000011156 evaluation Methods 0.000 title abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 161
- 230000006399 behavior Effects 0.000 claims abstract description 105
- 238000013210 evaluation model Methods 0.000 claims abstract description 38
- 238000004364 calculation method Methods 0.000 claims description 28
- 230000003321 amplification Effects 0.000 claims description 23
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 42
- 238000009826 distribution Methods 0.000 description 22
- 238000012360 testing method Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 244000025254 Cannabis sativa Species 0.000 description 12
- 235000001808 Ceanothus spinosus Nutrition 0.000 description 12
- 241001264786 Ceanothus spinosus Species 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000002790 cross-validation Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 238000009825 accumulation Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 240000004808 Saccharomyces cerevisiae Species 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 201000006549 dyspepsia Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000024798 heartburn Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 235000021028 berry Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013524 data verification Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开的实施方式提供了一种鉴赏力评估、模型训练方法、装置、介质和计算设备。其中,所述鉴赏力评估方法包括:根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。该方法可以较为全面地反映用户真实的鉴赏能力,一定程度上提升了鉴赏力的评估准确度;而且相对于线下方式,显著提升了鉴赏力的评估效率。
Description
技术领域
本公开的实施方式涉及数据处理技术领域,更具体地,本公开的实施方式涉及一种鉴赏力评估、模型训练方法、装置、介质和计算设备。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
现阶段,资源消费平台的用户可以消费平台提供的文本、图片、音乐、视频等多媒体资源。用户消费多媒体资源的过程可以认为是在鉴赏多媒体资源,通常情况下,不同用户的鉴赏力并不相同,平台可以对用户针对资源的鉴赏力进行评估。
在相关技术中,一类方法是基于用户针对不同类型的多媒体资源的历史消费记录评估其鉴赏力,以音乐为例,用户针对某一垂类音乐的累计收听时长越长,通常认为用户对该垂类音乐的鉴赏能力越高。另一类方法基于用户对经典资源的消费情况评估其鉴赏力,仍以音乐为例,用户所收听音乐中的大师级音乐的占比越高,且用户所掌握的乐器数量越多,通常认为用户对音乐的鉴赏力越高。
发明内容
但是,因为用户可以消费的资源类型通常多种多样,而且用户通常也并非仅使用单一方式消费资源,所以用户针对资源的鉴赏力是用户消费资源过程中体现出的用户的综合能力,而上述第一类方法通常仅考虑用户对资源的消费行为,较为片面,因此所得结果往往难以全面准确地反映用户对资源的真实鉴赏力。第二类方法主要基于资源的相关理论知识,且往往需要线下采集用户的相关信息(如线下招募音乐达人等),因此不仅评估效率较低,而且难以完整地统计有效数据,导致很难对用户的鉴赏力进行准确的量化评估。
为此,非常需要一种改进的鉴赏力评估和模型训练方法,以提升鉴赏力的评估效率和准确度。
在本上下文中,本公开的实施方式期望提供一种鉴赏力评估、模型训练方法、装置、介质和计算设备。
在本公开实施方式的第一方面中,提供了一种鉴赏力评估模型的训练方法,所述方法包括:
确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;
根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本;
利用所述训练样本对所述鉴赏力评估模型进行训练。
在本公开实施方式的第二方面中,提供了一种鉴赏力评估方法,所述方法包括:
根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;
将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
在本公开实施方式的第三方面中,提供了一种鉴赏力评估模型的训练装置,所述装置包括:
分值确定单元,用于确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;
样本划分单元,用于根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本;
模型训练单元,用于利用所述训练样本对所述鉴赏力评估模型进行训练。
在本公开实施方式的第四方面中,提供了一种鉴赏力评估装置,所述装置包括:
向量生成单元,用于根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;
模型输入单元,用于将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
在本公开实施方式的第五方面中,提供了一种介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面或第二方面中任一实施例所述的方法。
在本公开实施方式的第六方面中,提供了一种计算设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现上述第一方面或第二方面中任一实施例所述的方法。
通过本公开所述的鉴赏力的评估训练方案,基于用户针对多媒体资源实施操作行为所产生的操作数据,根据该操作数据生成该用户的行为特征向量,进而将该向量输入鉴赏力评估模型,以得到用于表征所述用户针对所述多媒体资源的鉴赏力的鉴赏力值。
可见,一方面,本方案所述行为特征向量被根据用户针对多媒体资源实施的操作数据所生成,而上述操作数据通常并非单一维度的操作数据,因此上述行为特征向量能够较为全面地反映所述用户的行为习惯,进而将该向量输入鉴赏力评估模型后得到的鉴赏力值,可以较为全面地反映用户真实的鉴赏能力,一定程度上提升了鉴赏力的评估准确度。
另一方面,因为生成上述行为特征向量的操作数据由用户在资源消费平台中实时操作行为所产生,所以该数据均线上数据,因此可以仅通过线上方式获取上述操作数据并通过对该数据进行的上述操作得到鉴赏力值,相对于线下方式,显著提升了鉴赏力的评估效率。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1示意性地示出了根据本公开实施方式的一种资源消费平台的结构示意图;
图2示意性地示出了根据本公开实施方式的一种鉴赏力评估模型的训练方法的流程图;
图3示意性地示出了根据本公开实施方式的一种鉴赏力评估模型的训练过程的示意图;
图4示意性地示出了根据本公开实施方式的一种鉴赏力评估方法的流程图;
图5示意性地示出了根据本公开实施方式的一种介质的示意图;
图6示意性地示出了根据本公开实施方式的一种鉴赏力评估模型的训练装置的框图;
图7示意性地示出了根据本公开实施方式的一种鉴赏力评估装置的框图;
图8示意性地示出了根据本公开实施方式的一种计算设备的示意图。
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本公开的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本公开的实施方式,提出了一种鉴赏力评估、模型训练方法、装置、介质和计算设备。本公开所述实施例方案评估的用户的鉴赏力,是用户消费多媒体资源的综合能力。所述方案评估过程中涉及到的任一用户的操作数据,可以是经过该用户授权或者经过各方充分授权的数据。另外,本公开所述的多个实施方式/实施例可以互相组合并实施,组合方案仍属于本公开的保护范围。
在本文中,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本公开的若干代表性实施方式,详细阐释本公开的原理和精神。
发明概述
发明人发现,用户可以消费的资源类型通常多种多样,而且用户通常并非仅使用单一方式消费资源,所以用户针对资源的鉴赏力是用户消费资源过程中体现出的用户的综合能力。在基于用户的历史消费记录评估其鉴赏力的第一类方案中,通常仅考虑用户对资源的消费行为,较为片面,因此所得结果往往难以全面准确地反映用户对资源的真实鉴赏力。而基于用户对经典资源的消费情况评估其鉴赏力的第二类方案主要依赖用户对资源的相关理论知识,且往往需要线下采集用户的相关信息(如线下招募音乐达人等),不仅评估效率较低,而且难以完整地统计有效数据,导致很难对用户的鉴赏力进行准确的量化评估。
为了解决上述问题,本公开提供一种鉴赏力评估、模型训练方法、装置、介质和计算设备。其中,通过鉴赏力评估模型的训练方法,服务端可以确定样本用户在各个鉴赏维度下的样本分值,其中,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;然后,服务端可以根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,进而利用所述正样本和负样本构成的训练样本对所述鉴赏力评估模型进行训练,从而得到训练后的鉴赏力评估模型。
进一步地,通过鉴赏力评估方法,服务端或者客户端可以基于用户针对多媒体资源实施操作行为所产生的操作数据,根据该操作数据生成该用户的行为特征向量,进而将该向量输入鉴赏力评估模型,以得到用于表征所述用户针对所述多媒体资源的鉴赏力的鉴赏力值。
采用上述方式,一方面,所述行为特征向量被根据用户针对多媒体资源实施的操作数据所生成,而上述操作数据通常并非单一维度的操作数据,因此上述行为特征向量能够较为全面地反映所述用户的行为习惯,进而将该向量输入鉴赏力评估模型后得到的鉴赏力值,可以较为全面地反映用户真实的鉴赏能力,一定程度上提升了鉴赏力的评估准确度。
另一方面,因为生成上述行为特征向量的操作数据由用户在资源消费平台中实时操作行为所产生,所以该数据均线上数据,因此可以仅通过线上方式获取上述操作数据并通过对该数据进行的上述操作得到鉴赏力值,相对于线下方式,显著提升了鉴赏力的评估效率。
在介绍了本公开的基本原理之后,下面介绍本公开的各种非限制性实施方式。
应用场景总览
需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
图1是一示例性实施例提供的一种资源消费平台的架构示意图。如图1所示,该平台可以包括网络10、服务器11、若干电子设备,比如手机12、手机13和手机14等。
手机12-14只是用户可以使用的一种类型的电子设备举例。实际上,用户显然还可以使用诸如下述类型的电子设备:平板设备、笔记本电脑、掌上电脑(PDAs,Per sonalDigital Assistants)、可穿戴设备(如智能眼镜、智能手表等)等,本说明书一个或多个实施例并不对此进行限制。在运行过程中,该电子设备可以运行某一应用的客户端侧的程序(下文简称为“客户端”),以实现该应用的相关业务功能。比如当该电子设备运行资源消费平台的应用程序时,可以实现为该资源消费平台的客户端,例如手机12通过运行相应的应用程序可以实现为资源生产客户端,手机13和手机14通过运行相应的应用程序可以实现为资源消费客户端。而对于网络10,可以包括多种类型的有线或无线网络。
需要指出的是:资源消费平台的客户端可以被预先安装在电子设备上,使得该客户端可以在该电子设备上被启动并运行;当然,当采用诸如HTML5技术的在线“客户端”时,无需在电子设备上安装相应的应用程序,即可获得并运行该客户端。
服务器11可以为包含一独立主机的物理服务器,或者该服务器11可以为主机集群承载的虚拟服务器、云服务器等。在运行过程中,服务器11可以运行某一应用的服务器侧的应用程序,以实现该应用的相关业务功能,比如服务器11可以通过运行资源消费平台的应用程序被实现为该资源消费平台的服务端。
在所述资源消费平台中,可由运行有相应服务端的服务器11通过与运行有相应客户端的手机12-14进行配合,实现资源管理及消费方案,如在所述资源为音乐的情况下,用户可以在音乐平台中对平台所维护的音乐进行管理或消费(如收听音频、观看歌词、观看MV等)。
在本说明书一个或多个实施例的技术方案中,服务器11可以与手机12-14相互配合;例如,可由手机12-14采集样本用户实施操作行为所产生的样本操作数据,并将采集到的数据通过网络10上传至服务器11,然后由服务器11基于所述样本操作数据,按照本说明书的模型训练方案对鉴赏力评估模型进行训练。另外,手机12-14可以采集用户针对多媒体资源实施操作行为所产生的操作数据,进而基于该数据并利用上述鉴赏力评估模型评估所述用户的鉴赏力值。或者,上述信息收集12-14也可以基于该数据并采用其他方式计算所述用户的鉴赏力值。再或者,上述手机12-14也可以将上述操作数据上传至服务器11,以由服务器11基于该数据并利用上述鉴赏力评估模型评估所述用户的鉴赏力值。通过上述方式评估或计算得到的所述用户的鉴赏力值,可以用于表征该用户针对所述多媒体资源的鉴赏力。
如前所述,服务器11可以通过运行资源消费平台的应用程序被实现为该资源消费平台的服务端,因此前述服务器11训练所述鉴赏力评估模型以及使用该模型评估用户的鉴赏力值的过程,可以认为由所述服务端完成,下文实施例均以“服务端”为执行主体对下述方案中的相应步骤进行解释。类似地,以手机12-14所实现的“客户端”为执行主体对下述方案中的相应步骤进行解释,特此说明。
根据本公开实施方式的鉴赏力评估模型的训练方法,服务端可以确定样本用户在各个鉴赏维度下的样本分值,其中,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;然后,服务端可以根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,进而利用所述正样本和负样本构成的训练样本对所述鉴赏力评估模型进行训练,从而得到训练后的鉴赏力评估模型。
进一步地,服务端或者客户端可以基于用户针对多媒体资源实施操作行为所产生的操作数据,根据该操作数据生成该用户的行为特征向量,进而将该向量输入鉴赏力评估模型,以得到用于表征所述用户针对所述多媒体资源的鉴赏力的鉴赏力值。
在本公开所述实施例中,多媒体资源可以具有多种形式,例如,可以为文字、音乐、图片、视频等;另外,本公开实施例所述的用户可以为资源管理平台所维护多媒体资源的消费方,如阅读文章的用户、收听音乐的用户、观看视频的用户等,本公开实施例并不对此进行限定。
示例性方法
需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
参考图2,图2示意性地示出了根据本公开实施方式的一种鉴赏力评估模型的训练方法的流程图。如图2所示,该方法应用于资源消费平台的服务端,可以包括以下步骤S201-S203:
步骤S201,确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到。
在本公开实施例中,在训练所述鉴赏力评估模型之前,服务端可以先确定样本用户在各个鉴赏维度下的样本分值。其中,训练过程中涉及到的所述样本用户可以为所述资源消费平台对应的用户,如在该资源消费平台或者其关联平台中注册的用户等。样本用户可以在任一历史时刻或历史时间段内针对多媒体资源实施操作行为,从而产生相应的样本操作数据。
例如,在样本用户被注册至所述资源消费平台的情况下,该用户可以针对该平台所维护的多媒体资源实施操作行为;再例如,在样本用户被注册至所述资源消费平台的关联平台的情况下,该用户可以针对所述关联平台维护的多媒体资源实施操作行为,或者也可以通过跨平台交互的方式针对所述资源消费平台维护的多媒体资源实施操作行为。其中,根据所述多媒体资源的形式不同,所述操作行为可以为播放音乐、播放视频、阅读文章等,相应地,所述资源消费平台及其关联平台可以以音乐播放软件、视频播放软件、文本展示软件、和/或图片展示软件等方式向所述样本用户提供相应的消费服务。
任一样本用户在实施所述操作行为的过程中产生的样本操作数据,可以包括至少一个鉴赏维度的数据。对此,服务端可以分别确定样本用户在各个鉴赏维度下的样本分值,以便从各个鉴赏维度分别反映该用户对多媒体资源的鉴赏力,有助于训练得到更准确的鉴赏力评估模型,以用于从各个鉴赏维度全面地评价用户的鉴赏力。
在一实施例中,任一样本用户对应的鉴赏维度可以包括下述至少之一:优质资源发现能力、优质资源分发能力、资源消费能力、资源消费强度、网络影响力。相应地,所述任一样本用户在上述各个鉴赏维度下的样本分值分别为:在所述优质资源发现能力下的鉴赏伯乐分,该鉴赏伯乐分可用于表征用户在消费过程中发现高质量的优质多媒体资源的能力,如该分值越大表征用户发现优质多媒体资源的能力越强;在所述优质资源分发能力下的种草能力分,该种草能力分可用于表征用户将优质多媒体资源分发至其他用户的能力,如该分值越大表征用户将优质多媒体资源分发至其他用户的能力越强;在所述资源消费强度下的资源偏好分,该资源偏好分可用于表征该用户对不同类型资源的偏好情况,如某一用户的该分值越大表征该用户越偏好于消费某种类型的多媒体资源;在所述资源消费能力下的多广深得分,该多广深得分可用于从多度(消费资源的时长和/或频次)、广度(所消费资源的类型丰富度)和深度(所消费资源被消费的广泛程度)综合表征用户的资源消费能力;在所述网络影响力下的网络影响力分,该网络影响力分可用于表征用户的音乐消费行为对其他用户的影响程度,如该分值越大表征用户的音乐消费行为对其他用户的影响程度越大,即该用户的影响力越强。通过上述各个鉴赏维度的样本操作数据计算相应的样本分值的具体过程,可以参见后续图4所对应实施例的记载,此处暂不赘述。
其中,上述样本操作数据可以由客户端采集后上传至服务端,以由服务端根据该样本操作数据确定相应的样本分值;或者,也可以由客户端根据自身采集的所述样本操作数据计算相应的样本分值后,将该分值上传至服务端。当然,在上述样本操作数据由服务端自身维护的情况下,服务端可以根据该数据直接计算相应的样本分值,而无需与客户端交互。另外,为了避免产生用户隐私方面的争议,服务端可以在获取到任一样本用户或相关方针对样本操作数据的使用许可或授权的情况下,再确定该用户在各个鉴赏维度下的样本分值。
步骤S202,根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本。
需要说明的是,上述方式获取的样本分值,可以以用户为单位,即对于任一样本用户,服务端可以获取该用户对应的各个鉴赏维度下的样本分值。进一步地,可以使用样本用户的样本分值将各个样本用户分别划分为正样本和负样本,其中,上述正样本和负样本共同构成用于训练鉴赏力评估模型的训练样本。
为使训练后的鉴赏力评估模型能够尽可能全面的评估用户的鉴赏力,模型训练阶段可以分别针对上述多个鉴赏维度获取相应的训练样本。在一实施例中,服务端可以根据各个鉴赏维度下的所述样本分值,将任一鉴赏维度对应的样本用户划分为该鉴赏维度对应的正样本和负样本。例如,对于前述优质资源发现能力,可以通过该能力下的鉴赏伯乐分对各个样本用户进行划分,从而得到该鉴赏维度对应的正样本和负样本;再例如,对于前述优质资源分发能力,可以通过该能力下的种草能力分对各个样本用户进行划分,从而得到该鉴赏维度对应的正样本和负样本,其他各个鉴赏维度的样本用户划分方式与此类似,不再一一赘述。
具体地,服务端可以按照样本分值的大小对各个样本用户进行上述划分。作为一示例性实施例,服务端可以预先确定任一鉴赏维度对应的分值阈值,从而可以在任一鉴赏维度对应的全部样本用户中,将样本分值大于该分值阈值的样本用户确定为正样本,并将样本分值不大于该分值阈值的样本用户确定为负样本。以优质资源发现能力这一鉴赏维度为例,相应的鉴赏伯乐分阈值可以为200分,从而服务端在确定出各个样本用户的鉴赏伯乐分的情况下,可以将鉴赏伯乐分大于200分的样本用户确定为正样本,并将样本分值不大于(小于或等于)200分的样本用户确定为负样本。当然,也可以将不小于(大于或等于)200分的样本用户确定为正样本,并将样本分值小于200分的样本用户确定为负样本,本公开实施例并不对此进行限制。通过该方式,能够保证任一鉴赏维度下正样本和负样本的样本分值在数值上具有明确的差别,即二者以所述分值阈值为分界。
作为另一示例性实施例,服务端也可以根据任一鉴赏维度下的所述样本分值对该鉴赏维度对应的样本用户进行排序,进而将排序后位于头部的预设数量个样本用户确定为正样本,并将其余样本用户确定为负样本。仍以优质资源发现能力这一鉴赏维度为例,服务端可以按照鉴赏伯乐分的大小对各个样本用户进行排序,进而将排序后位于头部(即鉴赏伯乐分最大)的1000个样本用户确定为正样本,并将其余样本用户确定为负样本。通过该方式,不仅能够保证任一鉴赏维度下正样本和负样本的样本分值在数值上具有明确的差别,而且能够确定出预设数量的正样本。
需要说明的是,上述不同鉴赏维度对应的样本划分过程之间相互独立,通过上述方式划分得到的对应于不同鉴赏维度的训练样本也相互独立。例如,上述各个鉴赏维度的训练样本可能不存在交集,如优质资源发现能力对应的各个训练样本与优质资源分发能力对应的各个训练样本可能均不相同。再例如,上述各个鉴赏维度的训练样本也可能存在交集,如某些样本用户可能既属于优质资源发现能力对应的训练样本,也属于优质资源分发能力对应的训练样本;其中,优质资源发现能力对应的任一正样本可能为优质资源分发能力对应的正样本或者负样本,优质资源分发能力对应的任一正样本也可能为优质资源发现能力对应的正样本或者负样本,本公开实施例并不对此进行限制。总而言之,对于任意两个鉴赏维度各自对应的训练样本,无论两训练样本是否为同一用户,二者参与鉴赏力评估模型训练的过程都互不影响;如对应于优质资源发现能力的样本用户U1和对应于优质资源分发能力的样本用户U2,无论U1和U2为同一样本用户还是不同样本用户,二者均分别且独立地作为训练样本的参与后续的模型训练过程。
在一实施例中,本公开实施例所述的训练样本可以包括第一样本和第二样本。所述第一样本和所述第二样本均可以在候选样本用户中确定,其中,第一样本可以在第二候选样本用户中确定、第二样本可以在第一候选样本用户中基于所述第一样本所确定。所述第二候选样本用户即为全量候选样本用户,其可以包括所述资源消费平台维护的用户,和/或也可以包括所述资源消费平台的关联平台维护的用户。另外,可以对各个第二候选样本用户进行数据验证和筛选,以保证任一候选样本用户在各个鉴赏维度下的样本操作数据的有效性和真实性。在从所述第二候选样本用户中确定第一样本之后,第二候选样本用户中除所述第一样本之外的候选样本用户可以作为第一候选样本用户。换言之,第二候选样本用户可以用于确定第一样本,确定出第一样本之后剩余的候选样本用户所构成的第一候选用户样本可以用于确定第二样本。上述第一样本和第二样本所构成的训练样本用于训练鉴赏力评估模型。当然,第一候选用户样本中可能存在部分候选样本用户并未被确定为第二样本,显然,剩余的这部分候选样本用户并不会参与鉴赏力评估模型的训练过程,本公开实施例并不关注这部分样本用户。下面分别对第一样本和第二样本的确定过程进行说明:
服务端可以根据所述样本操作数据计算第二候选样本用户分别在各个鉴赏维度下的样本分值,然后分别按照各个鉴赏维度下的样本分值对所述第二候选样本用户进行排序,进而将各个鉴赏维度对应的位于头部的预设数量个第二候选样本用户分别作为相应鉴赏维度对应的第一样本。
为保证鉴赏力评估模型的准确性,训练过程可能需要大量的训练样本,但是通过上述方式确定的第一样本的数量可能较少,因此服务端可以在第一样本的基础上通过样本扩增的方式进一步确定第二样本,从而将第一样本和第二样本均作为鉴赏力评估模型的训练样本。例如,服务端可以利用第一样本对扩增模型进行多轮训练;其中,在任一轮训练完成后,可以使用当前时刻的扩增模型预测各个第一候选样本用户的特征分值,并将特征分值满足扩增条件的第一候选样本用户确定为第二样本。上述任一候选样本用户的特征分值可以用于表征该用户为正样本的概率大小。任一时刻的第一候选样本用户为当前时刻全部候选样本用户中除第一样本和已经被确定的第二样本之外的候选样本用户。
可见,服务端在每一轮训练结束后,可以使用当前的扩增模型对其余候选样本用户的特征分值进行预测,并根据预测结果从所述其余样本用户中确定本轮训练对应的第二样本。另外,在确定出任一轮训练对应的第二样本的情况下,服务端可以判断第二样本的数量(即当前时刻全部第二样本的样本总量)是否满足预设值,并在满足该预设值的情况下终止训练所述扩增模型。上述扩增模型可以为随机森林模型,此时可以根据所述服务端在训练过程中可调用资源(如计算资源、存储资源、网络资源等)的大小设置该模型中决策树的数量,如可以按照与可调用资源的大小呈正相关的规律设置所述决策树的数量。另外,为了平衡该模型训练过程所用资源的大小与训练速度,可以设置所述决策树M的数量区间,如100≤M≤500等,并在该数量区间内调整M的具体取值。具体调整及模型训练过程可以参见相关技术中公开的内容,此处不再赘述。
如前所述,用于训练鉴赏力评估模型的训练样本包括正样本和负样本,而根据确定方式可以将训练样本分为第一样本和第二样本两类,因此无论是第一样本还是第二样本,其中包含的任一训练样本(即样本用户)可以被划分为正样本或者被划分为负样本。如前所述,在任一轮训练完成后,服务端已经使用当前时刻的扩增模型预测得到各个第一候选样本用户的特征分值,此时服务端可以根据所述特征分值将第二样本中的各个第一候选样本用户划分为正样本和负样本。例如,服务端可以对各个第一候选样本用户的特征分值进行排序,此后,可以将排序后位于头部的第一数量个特征分值对应的第一候选样本用户确定为第二样本中的正样本;以及,将排序后位于尾部的第二数量个特征分值对应的第一候选样本用户确定为第二样本中的负样本。再例如,服务端也可以将大于预设分值的特征分值对应的第一候选样本用户确定为第二样本中的正样本;以及,将小于或等于预设分值的特征分值对应的第一候选样本用户确定为第二样本中的负样本。其中,上述第一数量、第二数量和预设分值可以根据实际情况进行设置,本公开实施例并不对此进行限制。
以实际场景为例对确定训练样本的过程进行直观说明:假设将音乐平台自身维护的2亿个用户作为候选样本用户(即存在2亿个第二候选样本用户),服务端可以根据样本操作数据分别计算各个第二候选样本用户的鉴赏伯乐分、种草能力分、资源偏好分、多广深得分和网络影响力分,且每一鉴赏维度需获取不少于1000万个训练样本。
以鉴赏伯乐分为例,服务端可以将鉴赏伯乐分最高的1000个第二候选样本用户确定为第一样本中的正样本、将鉴赏伯乐分最低的10000个第二候选样本用户确定为第一样本中的负样本。此时,除第一样本之外的剩余候选样本用户即为第一候选样本用户,进而服务端可以使用上述11000个第一样本对扩增模型进行第一轮训练,并使用训练后的该模型预测各个第一候选样本用户的特征分值,然后,可以将特征分值最大的10万个第一候选样本用户确定为第二样本中的正样本、将特征分值最小的100万个第一候选样本用户确定为第二样本中的负样本。此时,共确定了111.1万个训练样本(包括1.1万个第一样本和110万个第二样本),尚不足1000万。
进一步地,服务端可使用当前时刻已确定出的全部训练样本对扩增模型进行第二轮训练,并使用训练后的模型预测其余各个第一候选样本用户的特征分值,然后,可以将特征分值最大的10万个第一候选样本用户确定为第二样本中的正样本、将特征分值最小的100万个第一候选样本用户确定为第二样本中的负样本。此时,共确定了221.1万个训练样本(包括1.1万个第一样本和220万个第二样本),仍不足1000万。
再进一步地,可以对所述扩增模型进行多次迭代训练,直至第10轮训练后可以确定出1101.1万个训练样本(包括1.1万个第一样本和1100万个第二样本),满足1000万,此时可以停止针对该模型的训练过程,并将当前时刻的全部训练样本用于后续训练鉴赏力评估模型。当然,训练过程中的训练样本可以按照正样本和负样本加以区分,而不再区分第一样本和第二样本。另外,上述过程中的各个参数可以根据实际情况进行适应性调整,本公开实施例并不对此进行限制。
可以理解的是,利用任一训练样本训练扩增模型,可以将该训练样本对应的样本特征向量输入该扩增模型。考虑到任一训练样本均对应于至少一个鉴赏维度,在上述训练扩增模型的不同轮,可分别采用不同的用户特征分别对应的样本特征向量,如每一轮都在样本用户全部特征中随机选取70%的特征计算样本特征向量并参与训练,从而有助于提升扩增模型的全面性和准确度。另外,对于种草能力分、资源偏好分、多广深得分和网络影响力分等其余样本分值,服务端同样可以通过上述方式确定相应的训练样本,最终得到各个鉴赏维度分别对应的足够数量的训练样本。
在一实施例中,为保证训练样本的数据准确,进而提升所训练鉴赏力评估模型预测鉴赏力的准确性,管理人员(如管理模型训练过程的后台技术人员)可以凭借自身经验检查确定出的训练样本(即样本用户)的样本分值、注册和消费时间等信息,以便对训练样本进行复核。在管理人员认为任一样本用户不适于作为训练样本的情况下,可以通过其使用的客户端或者发送命令行等形式向服务端发起针对该样本用户的剔除指令。相应地,服务端可以响应于该指令,将所述任一样本用户从所述训练样本中剔除,以避免使用该训练样本训练鉴赏力评估模型。
当然,上述样本扩增等处理过程并非针对鉴赏力评估模型的实际训练过程,因此为了减轻服务端的数据处理压力,上述处理过程可以由服务端之外的其他设备完成,而服务端仅需获取该设备处理后确定出的各个训练样本甚至各个训练样本的样本特征向量即可。
步骤S203,利用所述训练样本对所述鉴赏力评估模型进行训练。
可以理解的是,虽然本公开实施例将样本用户作为“训练样本”,但是在模型训练过程中,服务端可以计算任一样本用户的样本特征向量,并将该向量作为该用户对应的模型参数输入待训练的鉴赏力评估模型,换言之,模型训练过程中输入模型的实际参数是样本用户的样本特征向量。
在一实施例中,服务端可以根据所述训练样本中各个样本用户的样本操作数据,分别生成各个样本用户的样本特征向量,然后将各个样本特征向量作为所述鉴赏力评估模型的输入,对所述鉴赏力评估模型进行训练。可以理解的是,上述训练样本被划分为正样本和负样本,可以视为各个训练样本被分别标记为正样本和负样本,所以针对鉴赏力评估模型的训练过程本质上属于有监督训练。
对于通过前述方式确定的任一训练样本,其具有分别对应于各个鉴赏维度的样本操作数据。以音乐这一多媒体资源为例,样本用户针对音乐实施操作行为可以产生相应的操作数据,根据该操作数据可以提取样本用户的基础行为特征。例如,对应于优质资源发现能力,根据用户对歌曲的收藏行为可以提取收藏次数、收藏天数、收藏后升级的歌曲数量、升级歌曲的升级数量、曲均升级数量等基础行为特征。对应于优质资源分发能力,根据用户对歌曲的分享行为可以提取分享次数、分享天数、曲均分享次数、曲均分享天数、首次分享后升级歌曲数、升级歌曲的升级数量、曲均升级数量等基础行为特征。对应于资源消费强度,根据用户对歌曲的消费行为可以提取不同类型(或称垂类)音乐的播放时长、主动播放次数、有效播放次数、红心次数、收藏次数、切歌次数、不同渠道来源的播放时长占比等基础行为特征。对应于资源消费能力,根据用户对歌曲的消费行为可以提取该样本用户的播放时长、播放天数、播放或收藏的类型数量和占比、语言数量和占比、地区数量和占比、头腰尾部艺人有效播放的次数和占比等基础行为特征。对应于网络影响力,根据用户对歌曲的传播行为可以提取网络输入类特征(类型消费、行为数量、网络反馈等)和网络输出类特征(生产内容的类型、粉丝结构、粉丝活跃度、网络规模等)基础行为特征。
在一实施例中,服务端可以根据样本用户的基础行为特征生成该样本用户的样本特征向量,该样本特征向量中的各个特征值分别对应于预设的基础行为特征,且各个特征值的取值由相应的基础行为特征的特征值所决定。例如,不妨假设样本特征向量对应的基础行为特征分别为:收藏次数、收藏天数、分享次数、分享天数、红心次数和收藏次数。若某一样本用户的收藏次数为20次、收藏天数(20首歌曲的总收藏天数)为452天、分享次数为5次、分享天数(5首歌曲的总分享天数)为96天、红心次数为10次、收藏次数为20次,则该样本用户的样本特征向量=[20,452,5,96,10,20]。当然,为简化后续处理过程的计算量,还可以根据样本特征向量中各个基础行为特征的特征值的取值范围对样本特征向量进行归一化处理,具体过程不再赘述。其中,任一样本用户的样本特征向量对应的基础行为特征,以及各个基础行为特征的特征值在该向量中的排列顺序等,均可以根据实际情况调整。
另外,考虑到所述各个鉴赏维度下的样本分值能够分别反映各个鉴赏维度对应的特征,所以服务端可以根据任一样本用户的样本分值生成该用户的样本特征向量。任一样本用户的样本特征向量中的特征值,可以包括该样本用户在各个鉴赏维度下的所述样本分值。例如,任一样本用户的样本特征向量除了包含至少一个基础行为特征分别对应的特征值外,还可以包含鉴赏伯乐分、种草能力分、资源偏好分、多广深得分、网络影响力分等至少一个样本分值。当然,为避免样本特征向量维度过大,该向量中也可以仅包含比较重要的部分样本分值,如仅包含鉴赏伯乐分和多广深得分,不再赘述。
在一实施例中,待训练的鉴赏力评估模型可以包括至少两个子模型,以通过不同的子模型对作为模型输入的样本特征向量进行不同层次的处理。例如,该鉴赏力评估模型可以包括第一子模型和多个第二子模型,具体地,可以包括一个第一子模型和至少两个第二子模型。其中,任一第二子模型可以与第一子模型级联,以便向第一子模型传递鉴赏力评估模型的中间参数(如基础特征向量和扩展特征向量等)。上述第一子模型可以采用lightGBM模型或者XGBoost模型等。考虑到不同模型框架分别具有各自的优缺点,所述多个第二子模型可以分别采用不同的模型框架,以便综合多种模型框架的优缺点,使得数据处理过程更全面,一定程度上提升鉴赏力评估模型对鉴赏力预测结果的准确性。如所述多个第二子模型可以采用朴素贝叶斯模型、随机森林模型和lightGBM模型中的至少两个等,不再赘述。
服务端可以将通过前述方式确定出的训练样本划分为训练集和测试集,如选取80%的训练样本作为训练集,并将剩余20%的训练样本作为测试集,进而通过上述训练集和测试集完成对鉴赏力评估模型的训练。需要说明的是,划分训练集和测试集的过程可以针对全部训练样本进行划分,如随机选取上述80%的训练样本作为训练集;或者,为保证训练集和测试集中均包含正样本和负样本,也可以将所述训练样本中的正样本和负样本分别划分为正训练集和正测试集,以及负训练集和负测试集,由上述正训练集和负训练集构成所述训练集,并由上述正测试集和负测试集构成所述测试集。
在鉴赏力评估模型包括第一子模型和多个第二子模型的情况下,服务端可以使用所述训练集对所述多个第二子模型分别进行多折交叉验证,得到分别对应于各个第二子模型的第一特征向量,然后通过进行多折交叉验证后的所述多个第二子模型分别预测所述测试集,得到分别对应于各个第二子模型的第二特征向量,再根据各个第二子模型分别对应的所述第一特征向量和所述第二特征向量,构建分别对应于各个第二子模型的基础特征向量,最后使用分别对应于各个第二子模型的基础特征向量对所述第一子模型进行训练。需要说明的是,上述多折交叉验证和构建基础特征向量的过程,需要针对所述多个第二子模型分别进行。
如图3所示,以针对所述多个第二子模型中的朴素贝叶斯模型进行五折交叉验证的过程为例进行说明:在进行五折交叉验证的情况下,可以将测试集均分得到五份训练子集,然后使用第2-5份训练子集对朴素贝叶斯模型进行第一轮训练,并使用训练后的该模型预测第1份训练子集,得到预测结果Prediction1;另外,使用第1份和第3-5份训练子集对朴素贝叶斯模型进行第二轮训练,并使用训练后的该模型预测第2份训练子集,得到预测结果Prediction2;类似地,对朴素贝叶斯模型依次进行第三、第四和第五轮训练,并分别得到预测结果Prediction3、Prediction4和Prediction5。
可以理解的是,上述任意一份训练集中可能包括多个训练样本,如在共有5000万个训练样本(其中优质资源发现能力、优质资源分发能力、资源消费强度、资源消费能力和网络影响力分别对应于1000万个训练样本),且所述训练集包括80%的训练样本的情况下,若均分上述五份训练样本,则任意一份训练集中包括800万条训练样本,因此上述预测结果Prediction1-5中的任一Prediction可以视为一个维度为800万维的向量。至此,可以按照预设顺序将上述预测结果Prediction1-5构成一个4000万维的特征向量,该向量即为所述朴素贝叶斯模型的第一特征向量Feature1。如图3所示,所述Feature1=[Prediction5,Prediction4,Prediction3,Prediction2,Prediction1]T。
另外,上述任一轮训练结束后,可以使用当前的朴素贝叶斯模型预测所述测试集,并分别得到五份预测结果Predict_t1-t5,将所述五份测试结果的均值(如算术平均值或加权平均值)作为所述朴素贝叶斯模型的第二特征向量Feature2。因为所述测试集对应于20%的训练样本,且均值计算过程不会影响特征向量的维度,所以所述第二特征向量Feature2为1000万维的特征向量。如图3所示,所述Feature2=[Prediction_t]T。
进一步地,根据所述第一特征向量Feature1和所述第二特征向量Feature2,服务端可以构建对应于朴素贝叶斯模型的基础特征向量。上述构建过程可以包括向量拼接,即直接将Feature1和Feature2按照预设顺序拼接为对应于朴素贝叶斯模型的基础特征向量。在拼接方式下,所述基础特征向量的维度为所述Feature1和Feature2的维度之和,即5000万维,与训练样本的数量保持一致。
至此,对朴素贝叶斯模型的基础特征向量构建过程说明完毕。与此类似地,还可以分别确定随机森林模型、lightGBM模型等其他各个第二子模型对应的基础特征向量。进而,服务端可使用各个第二子模型的基础特征向量对第一子模型进行训练。
所述基础特征向量能够反映各个训练样本单独对应的预测结果,但第二子模型的预测结果之间的可能并不明显。为进一步提升第一子模型的预测准确度,服务端还可以使用所述基础特征向量生成至少一个扩展特征向量,并使用分别对应于各个第二子模型的基础特征向量和所述至少一个扩展特征向量对所述第一子模型进行训练。
具体地,可以通过下述至少之一的方式使用所述基础特征向量生成至少一个扩展特征向量:可以将各个基础特征向量中的特征值分别进行离散化处理,以生成各个基础特征向量分别对应的扩展特征向量;例如,在基础特征向量中的特征值的值域为[0,1]的情况下,可以以0.5为边界进行离散化(此时即为二值化),如对于基础特征向量Tb1=[0.1,0.3,0.6,0.5,0.9……]T,离散化得到的扩展特征向量Te1=[0,0,1,1,1……]T。再例如,分别计算各个基础特征向量中的特征值的n次幂,以生成各个基础特征向量分别对应的扩展特征向量,所述n为整数且n大于1。若计算特征值的平方且计算结果保留小数点后两位,则前述基础特征向量Tb1对应的扩展特征向量Te2=[0.01,0.09,0.36,0.25,0.81……]T。可见,Tb1中0.1与0.3的差值占比为200%,Te2中0.01与0.09的差值占比为800%,显然二者差异更明显。通过上述离散化和/或n次幂的方式,可以进一步突出同一基础特征向量中不同特征值之间的差异。
再例如,服务端也可以按照交叉规则对任意两个基础特征向量中相应位置的特征值进行交叉运算,以生成相应的扩展特征向量。若朴素贝叶斯模型的基础特征向量为前述Tb1,而随机森林模型在基础特征向量Tb2=[0.5,0.3,0.2,0.2,0.4……]T,则对Tb1和Tb2进行交叉运算得到的扩展特征向量Te3=[0.05,0.09,0.12,0.1,0.36……]T。又例如,服务端可以分别确定各个基础特征向量中的特征值对应的模型评估指标,并计算所述各个基础特征向量中相同位置的特征值分别对应模型评估指标的均值,以生成由各个均值作为特征值的扩展特征向量。其中,上述模型评估指标可以为AUC值(Area Under Curve,ROC曲线下方的面积大小)或者KS值(Kolmogorov-Smirno v,区分度评估指标),具体计算过程可以参见相关技术中的记载,此处不再赘述。通过上述交叉规则或者模型评估指标确定的扩展特征向量,有助于第一子模型更加全面的确定不同第二子模型的预测结果之间的差异。
基于通过上述方式确定出的基础特征向量和/或扩展特征向量,服务端可以对所述鉴赏力评估模型中的第一子模型进行训练。其中,所述第一子模型的输出可以作为所述鉴赏力评估模型输出的最终预测结果,即预测值。针对任一训练样本,鉴赏力评估模型输出的预测值即为预测得到的该训练样本为正样本的概率值。其中,该概率值p的值域为[0,1],p的取值越大,可以表明该训练样本为正样本的可能性越大。
在训练过程中,服务端可以根据模型的输出结果与输入样本的标记之间的偏差相应地调整鉴赏力评估模型的模型参数,以实现对模型的有监督训练。例如,为提升训练效率,服务端可以按批次(Batch)对模型进行训练,如将S(S不小于2,如可以为200、500等)个训练样本作为一个Batch输入鉴赏力评估模型,并一次性获取鉴赏力评估模型输出的S个输出结果。在这种情况下,服务端可以在获取到S个训练样本分别对应的输出结果后,分别计算各个训练样本的属于结果与自身标记(正样本的标记可视为1,负样本的标记可视为0)之间的偏差,进而可以根据S个训练样本的偏差均值调整鉴赏力评估模型的模型参数,直至训练样本使用完毕或者所述鉴赏力评估模型输出预测值的模型评估指标满足终止条件时,终止训练所述鉴赏力评估模型。其中,参数调整过程与所述鉴赏力评估模型的具体形式有关,此处不再赘述。
通过上述实施例,服务端可以确定样本用户在各个鉴赏维度下的样本分值,该样本分值被根据样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;然后根据各个鉴赏维度下的样本分值将所述样本用户划分为正样本和负样本,进而利用所述正样本和负样本构成的训练样本对所述鉴赏力评估模型进行训练。通过该方式训练得到的鉴赏力评估模型,根据用户的操作数据预测得到的用户的鉴赏力,能够对应于根据操作数据计算得到的分值,从而准确反映用户的真实鉴赏力,具有较高的评估准确性。
参考图4,图4示意性地示出了根据本公开实施方式的一种鉴赏力评估方法的流程图。该方法可以应用于资源消费平台的服务端或者客户端,下文以服务端为例进行说明。该方法可以包括以下步骤S401-S402:
步骤S401,根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生。
在一实施例中,服务端可以获取用户实施所述操作行为产生的分别对应于各个鉴赏维度的操作数据,并根据获取到的操作数据生成所述用户的行为特征向量。与样本用户类似地,所述用户也可以为所述资源消费平台或其关联平台所维护的用户,所述用户针对多媒体资源实施的操作行为,也可以产生分别对应于各个鉴赏维度的操作数据。根据上述操作数据,可以提取得到所述用户的行为特征向量。仍以音乐这一多媒体资源为例,根据操作数据提取得到的基础行为特征可以参见前述实施例的记载。
根据上述各个基础行为特征可以生成所述用户的行为特征向量,其中,因为所述行为特征向量被用于作为所述鉴赏力评估模型的输入模型参数,所以所述行为特征向量对应的所述用户的各个基础行为特征,应当与该模型训练阶段输入的各个样本特征向量对应的所述样本用户的各个基础行为特征保持一致,如二者分别对应的基础行为特征以及各个基础行为特征的排序顺序应当保持一致。
进一步地,根据所述操作数据生成所述行为特征向量,可以包括:根据对应于各个鉴赏维度的操作数据,并分别计算所述用户在各个鉴赏维度下的分值,然后根据所述分值生成所述行为特征向量。其中,根据所述分值生成的所述行为特征向量中的特征值,可以包括该用户在各个鉴赏维度下的所述分值。例如,任一用户的行为特征向量除了包含至少一个基础行为特征分别对应的特征值外,还可以包含鉴赏伯乐分、种草能力分、资源偏好分、多广深得分、网络影响力分等至少一个分值。当然,为避免行为特征向量维度过大,该向量中也可以仅包含比较重要的部分分值,不再赘述。
下面对根据任一用户针对歌曲资源的操作数据,计算该用户在各个鉴赏维度下的分值的具体过程进行说明。另外,前述实施例所述的样本分值也可以按照下述过程进行计算。
1、在所述优质资源发现能力下的鉴赏伯乐分
在鉴赏维度包括优质资源发现能力的情况下,服务端可以根据对应于所述优质资源发现能力的操作数据计算用户在优质资源发现能力下的分值。例如,服务端可以根据用户的资源收藏记录确定该用户的精准率得分、召回率得分以及该用户收藏的各个资源的第一等级得分,进而利用所述精准率得分、召回率得分和各个第一等级得分计算该用户在优质资源发现能力下的鉴赏伯乐分。具体地,鉴赏伯乐分的计算公式可以为:
其中:
其中,上述“被收藏歌曲”为所述用户收藏(或标记红心)的歌曲;对于音乐平台维护的任一歌曲,可以根据其播放量和/或收藏量确定其歌曲等级,所述“升级歌曲”即为等级升高(通常表明其播放量和/或收藏量增加)的歌曲;式(1)中的第一等级得分、精准率得分和召回率得分为针对任一被收藏歌曲计算出的相应得分,所述鉴赏伯乐分为该用户所收藏的全部歌曲的整体得分。
鉴赏伯乐分主要用于评估用户发现优质歌曲的能力,考虑到歌曲收藏行为的时效性,上述计算过程中涉及到的各个参数可以采用一定时长内的数据,如“被收藏歌曲”可以为所述用户最近一周内收藏(或标记红心)的歌曲、所述“升级歌曲”可以为最近一周内等级升高的歌曲。通过该方式计算得到的上述鉴赏伯乐分,可以用于表征用户在歌曲的7日平均播放量和/或收藏量发生快速增加(表明该歌曲为优质歌曲)之前发现该歌曲。
2、在所述优质资源分发能力下的种草能力分
在鉴赏维度包括优质资源分发能力的情况下,服务端可以根据对应于优质资源分发能力的操作数据计算用户在优质资源分发能力下的分值。例如,服务端可以根据用户的资源分发记录确定该用户的分享得分和被该用户分发的各个优质资源的第二等级得分,并利用所述分享得分和各个第二等级得分计算该用户在优质资源分发能力下的种草能力分。
种草能力分主要用于评估用户对优质歌曲的分发能力,除了考察用户是否能够在歌曲的7日平均播放量和/或收藏量发生快速增加(表明该歌曲为优质歌曲)之前发现和分享该歌曲之外,还考察用户的分享频率、歌曲被间接二次分享的次数等,是用户对歌曲的分发影响力的综合评估指标。具体地,种草能力分的计算公式可以为:
其中:
时间衰减因子τ=e(-k1*分享时刻与当前时刻的间隔天数)
在式(2)中,考虑到歌曲分享效果的时间衰减特性,在所述第一等级得分的基础上增加时间衰减因子τ,以计算分享行为对应的第二等级得分;所述时间衰减因子的系数k1可以为0.002,从而使得分享行为在一年内的衰减率为0.5,即半衰期为1年。所述第二等级得分、分享得分和累计分享天数为该用户向其他用户分享的自身所收藏的任一歌曲对应的得分,由求和函数sum()可见,上述种草能力分为该用户所分享的自身收藏的全部歌曲的整体得分。对于被分享的任一歌曲,所述“内部分享次数”表示该用户向所述音乐平台内部的其他用户分享该歌曲的次数;所述“外部分享次数”表示该用户向所述音乐平台之外的其他平台的用户分享该歌曲的次数;所述“间接分享次数”表示该用户向其他用户分享该歌曲之后,该歌曲被所述其他用户二次分享的次数;所述累计分享天数为该歌曲的所有分享方式分别对应的分享天数的累加值。
3、在所述资源消费强度下的资源偏好分
在鉴赏维度包括优质资源消费强度的情况下,服务端可以根据对应于所述资源消费强度的操作数据计算所述用户在资源消费强度下的分值。例如,可以根据所述用户的第一消费记录确定该用户的类型累计得分和在各个资源类型下的类型偏好得分,然后利用所述类型累计得分和各个类型偏好得分计算该用户在资源消费强度下的资源偏好分。
歌曲偏好得分主要用于评估用户对特定歌曲内容的消费强度,某一类型(或称垂类)对应的歌曲偏好得分越高,表示用户在该类型的深耕程度也越高,越偏好于消费该类型的歌曲。而音乐偏好分用于表征用户整体上是否偏好消费某些类型的歌曲。具体地,音乐偏好分的计算公式可以为:
其中:
在式(3)中,“是否历史收藏”、“是否近期收藏”、“是否近期取消收藏”的具体取值可以为零或一,例如,若该歌曲是历史收藏,则取值为一;否则,若该歌曲为近期收藏,则取值为零。其中,所述“历史”与“近期”的区分标准为任一历史时刻,如一月前,一周前等。所述“有效播放”可以为播放时长大于时长阈值(如10s、30s等);所述“主动播放”可以为用户通过主动搜索或者查看歌单等方式触发歌曲播放;所述“被动播放”可以为用户通过系统推荐、其他用户(向该用户)分享等方式触发歌曲播放;所述“类型消费时长”为该用户播放某一类型下全部歌曲的总时长,该播放过程可以包括所述主动播放和被动播放。
4、在所述资源消费能力下的多广深得分
在鉴赏维度包括优质资源消费能力的情况下,服务端可以根据对应于所述资源消费能力的操作数据计算该用户在资源消费能力下的分值。例如,可以根据所述用户在第二消费记录分别确定该用户的消费多度分、消费广度分和消费深度分;其中,所述消费多度分用于表征所述用户消费资源的时长和/或频次、所述消费广度分用于表征所述用户所消费资源的类型丰富度、所述消费深度分用于表征所述用户所消费资源被消费的广泛程度。然后,可以利用所述消费多度分、消费广度分和消费深度分计算该用户在资源消费能力下的多广深得分。具体地,多广深得分的计算公式可以为:
多广深得分=k6*消费多度分+k7*消费广度分+k8*消费深度分 (4)
在式(4)中,所述权重值k6、k7和k8可以根据实际情况进行调整,如可以设置k6=0.25、k7=0.35和k8=0.4等,本公开实施例并不对此进行限制。
(1)消费多度分的计算公式可以为:
其中,所述“统计期内累计播放时长”为所述用户在统计期内播放的全部歌曲的总时长;“统计期内累计播放天数”为所述用户在统计期内播放歌曲的总天数;函数data_diff(T1,T2)用于计算T1和T2之间的时间间隔;max(统计期的首天,统计期内首次活跃时间)用于确定二者之间的相对较晚的时间,若“统计期内首次活跃时间”为“统计期的首天”,则max(统计期的首天,统计期内首次活跃时间)=“统计期的首天”;否则,若“统计期内首次活跃时间”晚于“统计期的首天”,则max(统计期的首天,统计期内首次活跃时间)=“统计期内首次活跃时间”。
(2)消费广度分的计算公式可以为:
其中,时间衰减因子τ=edate_diff(当前时刻,红心时刻)*-k9
红心广度分=ln(喜欢歌曲数)+k10*ln(1.05-最大曲风占比)+k11*ln(可接受曲风数)+ln(喜欢语言数)+k12*ln(1.05-最大语言占比)+k13*ln(可接受语言数)
近期广度分=ln(近期播放曲风数)+k14*ln(1.05-最大曲风占比)+ln(近期播放语言数)+k15*ln(1.05-最大语言占比)
上述时间衰减因子τ的取值越大,则衰减效果越显著,具体取值可以根据实际情况进行调整,本公开实施例并不对此进行限制。如可以设置时间衰减因子的系数k9为0.005,从而使得一年内的衰减率为0.85。上述系数1.05是为了保证函数ln(x)中的对数x大于,从而保证计算结果有意义。
其中,红心广度分从曲风和语言两个维度计算,还可以采用国家、性别等其他维度计算该红心广度分,本公开实施例并不对此进行限制。若某曲风/语言的歌曲在所有的红心歌曲中的占比超过1%且至少有2首歌,则可以确定该曲风/语言为用户“喜欢的曲风/语言”,若不符合则可以确定为用户“可接受的曲风/语言”。
可以理解的是,计算红心广度分的前提是音乐平台为用户提供了歌曲红心功能,其中,该功能可以与歌曲收藏功能相区别,以用于表征用户喜欢该歌曲;或者,该功能也可以与歌曲收藏功能合并(此时可以根据歌曲收藏列表的数据计算该红心广度分)。当然,在音乐平台不提供歌曲红心功能仅提供歌曲收藏功能的情况下,也可以根据歌曲收藏列表的数据计算该收藏广度分,以替代所述红心广度分代入式(4)参与计算。
(3)消费深度分的计算公式可以为:
消费深度分=k16*艺人占比分+k17*有效播放得分+k18*红心次数得分
其中:所述艺人占比分=头部艺人占比*0.05+腰部艺人占比*0.1+尾部艺人占比*0.85;
具体的,可以先计算艺人深度分,然后根据艺人深度分确定各个艺人(即歌曲的发布方)对应的发布方深度等级,进而统计所述用户消费的歌曲所对应各个发布方深度等级对应的艺人占比并计算相应的艺人占比分。其中,艺人深度分的计算公式可以为:
其中,上述T为预设的时间区间,如当前时刻之前的一个月、一年等。通过共识依次计算音乐平台所维护各个艺人的艺人深度分,并根据艺人深度分对各个艺人进行排序,其中,第1~S1名的发布方深度等级为头部艺人,第S1~S2名的发布方深度等级为腰部艺人,其余的发布方深度等级为尾部艺人。上述名次阈值S1和S2可以根据实际情况进行设置,如S1=500,S2=8500等,本公开实施例并不对此进行限制。
所述有放播放得分=头部艺人有放次数占比*0.05+腰部艺人有效播放次数占比*0.1+尾部艺人有效播放次数占比*0.5;
所述红心次数得分=头部艺人红心次数占出*0.05+腰部艺人红心次数占比*0.1+尾部艺人红心次数占比*0.6。上述各个公式中头部艺人、腰部艺人和尾部艺人分别对应的权重值可以根据实际情况进行调整,本公开实施例并不对此进行限制。
5、在所述网络影响力下的网络影响力分
在鉴赏维度包括网络影响力的情况下,服务端可以根据对应于所述网络媒介类型的操作数据计算该用户在网络影响力下的分值。例如,可以根据所述用户的资源消费记录确定该用户针对入度媒介类型的第一消费次数和针对出度媒介类型的第二消费次数,然后根据所述入度媒介类型和出度媒介类型的类型数量,以及所述第一消费次数和所述第二消费次数计算该用户在所述网络影响力下的网络影响力分。
具体地,网络影响力分的计算公式可以为:
其中,时间衰减因子τ=e(-k19*当前时刻与分享时刻的间隔天数)
上述公式(5)中借用有向图中节点的入度和出度的概念。在有向图中,一个节点的入度是指向该节点的边的数量;而一个节点的出度是从该节点出发的边的数量。在本公开实施例方案,可以将所述用户与其他用户、艺人、音乐平台的功能等作为节点,将所述用户与其他节点之间的交互或关系作为边,构建有向图,具体过程不再赘述。
通过借用上述概念,可以确定出入度媒介包括所述用户触发针对歌曲的红心、将歌曲收藏至歌单、回复其他用户的私信或评论、关注其他用户等;出度媒介包括所述用户分享歌曲、创建歌单、发布动态或评论、关注艺人或其他用户等。
在方案应用中,上述各个公式中的参数k1-k19以及其他系数和权重值,可以根据实际情况进行适应性调整,本公开实施例并不对此进行限制。
步骤S402,将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
在确定所述用户的行为特征向量之后,可以将该向量输入鉴赏力评估模型,以获取模型预测得到的所述用户的鉴赏力值。其中,该鉴赏力评估模型可以通过本公开所述的赏力评估模型的训练方法训练得到;当然,也可以通过其他方法训练得到,本公开实施例并不对此进行限制,下面以通过前述方法训练得到的鉴赏力评估模型为例进行说明。
通过前述实施例的方式,可以计算得到所述用户在各个鉴赏维度下的分值。如前所述,各个所述分值可以分别用于反映该用户在某些方面的特征,因此各个所述分值可以分别用于表征相应维度对该用户的鉴赏力值的贡献度。因此,可以输出所述各个鉴赏维度下的分值,以用于向相应用户或管理人员展示。例如,在所述鉴赏力评估方法的执行主体为服务端的情况下,服务端可以主动向普通用户所使用的客户端发送该用户的分值,或者发送该用户具有访问权限的其他用户的分值,再或者也可以向后台管理人员所使用的客户端发送针对至少一个普通用户的所述分值。当然,上述任一客户端也可以向服务端发送针对某一用户的分值的获取请求,并接收服务端响应于该请求返回的分值。相应地,客户端在获取到上述分值之后,可以在本地展示该分值或者将其发送至其他展示设备进行展示,以便相关人员查看。
再例如,在所述鉴赏力评估方法的执行主体为客户端的情况下,该客户端可以接收服务端主动下发的分值;或者,也可以在检测到用户实施的预设操作的情况下,响应于该操作向服务端发起针对某一用户的分值的获取请求,并接收服务端响应于该请求返回的分值。再或者,该客户端本地也可以部署所述各个分值的计算逻辑(如前述公式)或服务端训练完成的所述鉴赏力评估模型,从而其可以在采集到本地产生的操作数据的情况下,通过上述计算逻辑直接计算相应的分值,并进一步对其进行展示。具体地,客户端可以通过数字或者图标等多种形式展示上述分值。如对于上述任一用户的上述鉴赏伯乐分、种草能力分、资源偏好分、多广深得分和网络影响力分,客户端可以以五维图的形式展示上述各个分值,不再赘述。
在一实施例中,服务端可以将所述行为特征向量输入鉴赏力评估模型,并获取所述鉴赏力评估模输出的鉴赏力预测值,然后根据所述鉴赏力预测值确定所述用户的鉴赏力值。如前所述,上述鉴赏力预测值为所述鉴赏力评估模型输出的预测概率值P。此时,服务端可以直接将该鉴赏力预测值作为所述用户的鉴赏力值。
或者,服务端也可以将所述鉴赏力预测值输入分值计算模型,并获取该模型输出的所述用户的鉴赏力值。例如,该分值计算模型的计算逻辑可以为:将该鉴赏力预测值与预设倍数的乘积作为所述用户的鉴赏力值,从而可以将小数形式的鉴赏力预测值转换为整数形式的分值,便于用户更直观的查看和理解该值。再例如,考虑到用户的鉴赏力通常并不符合简单的线性规律,因此可以采用信贷评分卡模型作为上述分值计算模型。当然,要将适用于信贷场景的信贷评分卡模型应用于鉴赏力评估场景,可以对该模型进行适当的调整,下面进行详细说明。
信贷评分卡模型产出的是一个分数,且与违约概率y有关,具体公式如下:
所述PDO全称是Point-to-Double Odds,指的是好坏比每升高一倍,分数升高PDO。然而,在信贷场景中,被打标成1的样本代表的是坏样本,评分卡的作用在于分数越高,样本是一个坏样本的概率最低。
在这里,信贷场景中的坏样本就相当于本方案提及到的有音乐鉴赏力的用户,所以在逻辑上与本方案的初衷诉求恰好相反。已知上述信贷评分卡模型的分数Score取值范围在300-900分,所以可以规定:
鉴赏力值=1200-Score (7)
上述模型中,Score是最终需要计算的结果,y可以通过鉴赏力评估模型输出的鉴赏力预测值(即所述P)计算得到,所以最终需要求解的参数分别是BasePoint和PDO,从而可以将式(7)简化为:
可见,可以把公式的求解转化成一个二元一次方程的求解。基于PDO的定义可以推导得到方程组:
基于这个方程组,只需代入已知的参数Score和y,就可以求解得到未知参数A和B。
例如,假设在全量用户中有音乐鉴赏力的用户的比例是10%,且对应的Score为600分,那么Score=600,y=ln(0.1/0.9)=-2.19722。当用户群体中没有音乐鉴赏力的用户与有音乐鉴赏力的用户的比值提升一倍,也就是有音乐鉴赏力的用户占比与没有音乐鉴赏力的用户占比的比值减少一倍时,分数提高40分,那么Score’=640,y’=ln(0.1/0.9/2)=-2.89037。把这两组值代入上述方程组,可以得到:A=-57.71,B=473.2。从而,在该场景下:
鉴赏力值=1200-(473.2-57.71*ln(P/(1-P)) (10)
此时,在通过前述鉴赏力评估模型预测得到所述P之后,可以直接通过式(9)计算得到相应的鉴赏力值。当然,上述仅是以Score为600分、PDO为40分为例进行的说明,在方案应用过程中,上述Score和PDO的具体值可以根据实际情况进行调整,本公开实施例并不对此进行限制。
通过本公开所述的鉴赏力的评估训练方案,基于用户针对多媒体资源实施操作行为所产生的操作数据,根据该操作数据生成该用户的行为特征向量,进而将该向量输入鉴赏力评估模型,以得到用于表征所述用户针对所述多媒体资源的鉴赏力的鉴赏力值。
可见,一方面,本方案所述行为特征向量被根据用户针对多媒体资源实施的操作数据所生成,而上述操作数据通常并非单一维度的操作数据,因此上述行为特征向量能够较为全面地反映所述用户的行为习惯,进而将该向量输入鉴赏力评估模型后得到的鉴赏力值,可以较为全面地反映用户真实的鉴赏能力,一定程度上提升了鉴赏力的评估准确度。
另一方面,因为生成上述行为特征向量的操作数据由用户在资源消费平台中实时操作行为所产生,所以该数据均线上数据,因此可以仅通过线上方式获取上述操作数据并通过对该数据进行的上述操作得到鉴赏力值,相对于线下方式,显著提升了鉴赏力的评估效率。
在上述实施例中,服务端或者客户端通过鉴赏力评估模型评估用户的鉴赏力。实际上,也可以通过非模型的方式评估用户的鉴赏力。例如,在确定用户的所述操作数据后,可以分别计算所述用户在所述各个鉴赏维度下的分值,并将各个分值的均值(如算术平均值或加权平均值)作为该用户的鉴赏力值,以用于表征该用户的鉴赏力。
示例性介质
在介绍了本公开示例性实施方式的方法之后,接下来,参考图5对本公开示例性实施方式的介质进行说明。
本示例性实施方式中,可以通过程序产品实现上述方法,如可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,该存储器可以在设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读介质50可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
该程序产品可以采用一个或多个可读介质的任意组合。可读介质50可以是可读信号介质或者可读介质。可读介质50例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质50上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RE等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
示例性装置
在介绍了本公开示例性实施方式的介质之后,接下来,参考图6对本公开示例性实施方式的装置进行说明。关于下述装置,其中各个功能模块执行操作的具体方式以及执行操作后所实现的具体功能,均已在鉴赏力评估模型的训练方法和鉴赏力评估方法的前述各实施例中进行了详细描述,此处不再详细阐述说明。
图6示意性地示出了根据本公开实施方式的一种鉴赏力评估模型的训练装置的框图。该装置可以包括:
分值确定单元601,用于确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;
样本划分单元602,用于根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本;
模型训练单元603,用于利用所述训练样本对所述鉴赏力评估模型进行训练。
可选地,所述训练样本包括第一样本和第二样本,所述装置还包括:
样本扩增单元604,用于利用所述第一样本对扩增模型进行多轮训练;其中,在任一轮训练完成后,使用当前时刻的所述扩增模型预测各个第一候选样本用户的特征分值,并将特征分值满足扩增条件的第一候选样本用户确定为所述第二样本;
训练终止单元605,用于响应于所述第二样本的数量满足预设值,终止训练所述扩增模型。
可选地,还包括:分值计算单元606,用于根据所述样本操作数据计算第二候选样本用户分别在各个鉴赏维度下的样本分值;
候选样本排序单元607,用于分别按照各个鉴赏维度下的样本分值对所述第二候选样本用户进行排序;
第一样本确定单元608,用于将各个鉴赏维度对应的位于头部的预设数量个第二候选样本用户分别作为相应鉴赏维度对应的第一样本。
可选地,所述样本扩增单元604还用于:
对各个第一候选样本用户的特征分值进行排序;
将排序后位于头部的第一数量个特征分值对应的第一候选样本用户确定为所述第二样本中的正样本;以及,将排序后位于尾部的第二数量个特征分值对应的第一候选样本用户确定为所述第二样本中的负样本。
可选地,所述样本划分单元602还用于:
根据各个鉴赏维度下的所述样本分值,将任一鉴赏维度对应的样本用户划分为该鉴赏维度对应的正样本和负样本。
可选地,所述样本划分单元602还用于:
根据任一鉴赏维度下的所述样本分值对该鉴赏维度对应的样本用户进行排序;以及,将排序后位于头部的预设数量个样本用户确定为正样本,并将其余样本用户确定为负样本;或者,在任一鉴赏维度对应的全部样本用户中,将样本分值大于分值阈值的样本用户确定为正样本,并将样本分值不大于所述分值阈值的样本用户确定为负样本。
可选地,还包括:样本剔除单元609,用于响应于针对任一样本用户的剔除指令,将所述任一样本用户从所述训练样本中剔除。
可选地,所述模型训练单元603还用于:根据所述训练样本中各个样本用户的所述样本操作数据,分别生成各个样本用户的样本特征向量;将所述各个样本用户的样本特征向量作为所述鉴赏力评估模型的输入,对所述鉴赏力评估模型进行训练。
可选地,任一样本用户的样本特征向量中的特征值,包括该样本用户在各个鉴赏维度下的所述样本分值。
可选地,所述鉴赏力评估模型包括第一子模型和多个第二子模型,所述训练样本包括训练集和测试集,所述模型训练单元603还用于:
使用所述训练集对所述多个第二子模型分别进行多折交叉验证,得到分别对应于各个第二子模型的第一特征向量;通过进行多折交叉验证后的所述多个第二子模型分别预测所述测试集,得到分别对应于各个第二子模型的第二特征向量;根据各个第二子模型分别对应的所述第一特征向量和所述第二特征向量,构建分别对应于各个第二子模型的基础特征向量;使用分别对应于各个第二子模型的基础特征向量对所述第一子模型进行训练。
可选地,还包括向量生成单元610:用于使用所述基础特征向量生成至少一个扩展特征向量;
所述模型训练单元603还用于:使用分别对应于各个第二子模型的基础特征向量和所述至少一个扩展特征向量对所述第一子模型进行训练。
可选地,所述向量生成单元610还用于下述至少之一:
将各个基础特征向量中的特征值分别进行离散化处理,以生成各个基础特征向量分别对应的扩展特征向量;
分别计算各个基础特征向量中的特征值的n次幂,以生成各个基础特征向量分别对应的扩展特征向量,所述n为整数且n大于1;
按照交叉规则对任意两个基础特征向量中相应位置的特征值进行交叉运算,以生成相应的扩展特征向量;
分别确定各个基础特征向量中的特征值对应的模型评估指标,并计算所述各个基础特征向量中相同位置的特征值分别对应模型评估指标的均值,以生成由各个均值作为特征值的扩展特征向量。
可选地,所述多个第二子模型分别采用不同的模型框架。
可选地,任一样本用户对应的鉴赏维度包括下述至少之一:优质资源发现能力、优质资源分发能力、资源消费能力、资源消费强度、网络影响力。
图7示意性地示出了根据本公开实施方式的一种鉴赏力评估装置的框图。该装置可以包括:
向量生成单元701,用于根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;
模型输入单元702,用于将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
可选地,所述向量生成单元701还用于:获取用户实施所述操作行为产生的分别对应于各个鉴赏维度的操作数据;根据所述操作数据生成所述行为特征向量。
可选地,所述向量生成单元701还用于:根据对应于各个鉴赏维度的操作数据,分别计算所述用户在各个鉴赏维度下的分值;根据所述分值生成所述行为特征向量。
可选地,所述鉴赏维度包括优质资源发现能力,所述向量生成单元701还用于:
根据所述用户的资源收藏记录确定所述用户的精准率得分、召回率得分以及所述用户收藏的各个资源的第一等级得分;利用所述精准率得分、召回率得分和各个第一等级得分计算所述用户在所述优质资源发现能力下的鉴赏伯乐分。
可选地,所述鉴赏维度包括优质资源分发能力,所述向量生成单元701还用于:
根据所述用户的资源分发记录确定所述用户的分享得分和被所述用户分发的各个优质资源的第二等级得分;利用所述分享得分和各个第二等级得分计算所述用户在所述优质资源分发能力下的种草能力分。
可选地,所述鉴赏维度包括资源消费强度,所述向量生成单元701还用于:
根据所述用户的第一消费记录确定所述用户的类型累计得分和在各个资源类型下的类型偏好得分;利用所述类型累计得分和各个类型偏好得分计算所述用户在所述资源消费强度下的资源偏好分。
可选地,所述鉴赏维度包括资源消费能力,所述向量生成单元701还用于:
根据所述用户在第二消费记录分别确定所述用户的消费多度分、消费广度分和消费深度分;利用所述消费多度分、消费广度分和消费深度分计算所述用户在所述资源消费能力下的多广深得分。
可选地,所述向量生成单元701还用于:
确定资源消费平台维护的各个候选资源发布方的发布方深度等级;根据所述第二消费数据确定所述用户所消费资源对应的目标资源发布方的目标发布方深度等级,以及不同的目标发布方深度等级的占比;基于各个目标发布方深度等级的占比,确定所述用户的消费深度分。
可选地,所述鉴赏维度包括网络影响力,所述向量生成单元701还用于:
根据所述用户的资源消费记录确定所述用户针对入度媒介类型的第一消费次数和针对出度媒介类型的第二消费次数;根据所述入度媒介类型和出度媒介类型的类型数量,以及所述第一消费次数和所述第二消费次数计算所述用户在所述网络影响力下的网络影响力分。
可选地,还包括:分值输出单元703,用于输出各个鉴赏维度下的所述分值,各个所述鉴赏力值分别用于表征相应维度对所述鉴赏力值的贡献度。
可选地,所述模型输入单元702还用于:
将所述行为特征向量输入鉴赏力评估模型,并获取所述鉴赏力评估模输出的鉴赏力预测值;根据所述鉴赏力预测值确定所述用户的鉴赏力值。
可选地,所述模型输入单元702还用于:将所述鉴赏力预测值输入分值计算模型,并获取该模型输出的所述用户的鉴赏力值。
可选地,所述分值计算模型包括信贷评分卡模型。
示例性计算设备
在介绍了本公开示例性实施方式的方法、介质和装置之后,接下来,参考图8对本公开示例性实施方式的计算设备进行说明。
图8显示的计算设备80仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,计算设备80以通用计算设备的形式表现。计算设备80的组件可以包括但不限于:上述至少一个处理单元801、上述至少一个存储单元802,连接不同系统组件(包括处理单元801和存储单元802)的总线803。
总线803包括数据总线、控制总线和地址总线。
存储单元802可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)8021和/或高速缓存存储器8022,可以进一步包括非易失性存储器形式的可读介质,例如只读存储器(ROM)8023。
存储单元802还可以包括具有一组(至少一个)程序模块8024的程序/实用工具8025,这样的程序模块8024包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算设备80也可以与一个或多个外部设备804(例如键盘、指向设备等)通信。
这种通信可以通过输入/输出(I/O)接口805进行。并且,计算设备80还可以通过网络适配器806与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器806通过总线803与计算设备80的其它模块通信。应当理解,尽管图中未示出,可以结合计算设备80使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了鉴赏力评估装置的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本公开方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本公开的精神和原理,但是应该理解,本公开并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (10)
1.一种鉴赏力评估模型的训练方法,包括:
确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;
根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本;
利用所述训练样本对所述鉴赏力评估模型进行训练。
2.根据权利要求1所述的方法,所述训练样本包括第一样本和第二样本,所述方法还包括:
利用所述第一样本对扩增模型进行多轮训练;其中,在任一轮训练完成后,使用当前时刻的所述扩增模型预测各个第一候选样本用户的特征分值,并将特征分值满足扩增条件的第一候选样本用户确定为所述第二样本;
响应于所述第二样本的数量满足预设值,终止训练所述扩增模型。
3.根据权利要求2所述的方法,还包括:
根据所述样本操作数据计算第二候选样本用户分别在各个鉴赏维度下的样本分值;
分别按照各个鉴赏维度下的样本分值对所述第二候选样本用户进行排序;
将各个鉴赏维度对应的位于头部的预设数量个第二候选样本用户分别作为相应鉴赏维度对应的第一样本。
4.根据权利要求2所述的方法,所述将特征分值满足扩增条件的第一候选样本用户确定为所述第二样本,包括:
对各个第一候选样本用户的特征分值进行排序;
将排序后位于头部的第一数量个特征分值对应的第一候选样本用户确定为所述第二样本中的正样本;以及,
将排序后位于尾部的第二数量个特征分值对应的第一候选样本用户确定为所述第二样本中的负样本。
5.根据权利要求1所述的方法,所述根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,包括:
根据各个鉴赏维度下的所述样本分值,将任一鉴赏维度对应的样本用户划分为该鉴赏维度对应的正样本和负样本。
6.一种鉴赏力评估方法,包括:
根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;
将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
7.一种鉴赏力评估模型的训练装置,包括:
分值确定单元,用于确定样本用户在各个鉴赏维度下的样本分值,所述样本分值根据所述样本用户针对样本多媒体资源实施操作行为所产生的样本操作数据计算得到;
样本划分单元,用于根据各个鉴赏维度下的所述样本分值将所述样本用户划分为正样本和负样本,所述正样本和负样本构成训练样本;
模型训练单元,用于利用所述训练样本对所述鉴赏力评估模型进行训练。
8.一种鉴赏力评估装置,包括:
向量生成单元,用于根据用户的操作数据生成所述用户的行为特征向量,所述操作数据由所述用户针对多媒体资源实施操作行为所产生;
模型输入单元,用于将所述行为特征向量输入鉴赏力评估模型,以得到所述用户的鉴赏力值,所述鉴赏力值用于表征所述用户针对所述多媒体资源的鉴赏力。
9.一种介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述的方法。
10.一种计算设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器通过运行所述可执行指令以实现如权利要求1-6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210141674.8A CN114625894A (zh) | 2022-02-16 | 2022-02-16 | 鉴赏力评估、模型训练方法、装置、介质和计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210141674.8A CN114625894A (zh) | 2022-02-16 | 2022-02-16 | 鉴赏力评估、模型训练方法、装置、介质和计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114625894A true CN114625894A (zh) | 2022-06-14 |
Family
ID=81899052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210141674.8A Pending CN114625894A (zh) | 2022-02-16 | 2022-02-16 | 鉴赏力评估、模型训练方法、装置、介质和计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114625894A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115454171A (zh) * | 2022-08-30 | 2022-12-09 | 海尔优家智能科技(北京)有限公司 | 智能设备及其除雾方法、设备及介质 |
-
2022
- 2022-02-16 CN CN202210141674.8A patent/CN114625894A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115454171A (zh) * | 2022-08-30 | 2022-12-09 | 海尔优家智能科技(北京)有限公司 | 智能设备及其除雾方法、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958748B2 (en) | Resource push method and apparatus | |
US11995112B2 (en) | System and method for information recommendation | |
WO2017202006A1 (zh) | 数据处理方法和装置、计算机存储介质 | |
CN110266745B (zh) | 基于深度网络的信息流推荐方法、装置、设备及存储介质 | |
CN111242310B (zh) | 特征有效性评估方法、装置、电子设备及存储介质 | |
WO2020088058A1 (zh) | 生成信息的方法和装置 | |
US9558273B2 (en) | System and method for generating influencer scores | |
CN111177473B (zh) | 人员关系分析方法、装置和可读存储介质 | |
WO2018157808A1 (zh) | 互联网征信评估方法和系统 | |
US20170322931A1 (en) | Integration and combination of random sampling and document batching | |
US11275994B2 (en) | Unstructured key definitions for optimal performance | |
EP4134900A2 (en) | Method and apparatus for recommending content, method and apparatus for training ranking model, device, and storage medium | |
CN113971527A (zh) | 基于机器学习的数据风险评估方法及装置 | |
US10387390B2 (en) | Judgment quality in SBS evaluation | |
CN113672758B (zh) | 歌单生成方法、装置、介质和计算设备 | |
CN114625894A (zh) | 鉴赏力评估、模型训练方法、装置、介质和计算设备 | |
US20200112755A1 (en) | Providing relevant and authentic channel content to users based on user persona and interest | |
CN113836388A (zh) | 信息推荐方法、装置、服务器及存储介质 | |
CN116304352A (zh) | 消息推送方法、装置、设备及存储介质 | |
CN115641198A (zh) | 用户运营方法、装置、电子设备和存储介质 | |
CN112541705A (zh) | 生成用户行为评估模型的方法、装置、设备以及存储介质 | |
KR102343848B1 (ko) | 이용자 상태 벡터를 이용한 전환 전략 탐색 방법 및 운영 장치 | |
KR102562367B1 (ko) | 퀀트 투자 방식에 기반한 투자 정보를 제공하기 위한 장치 및 방법 | |
US20240184812A1 (en) | Distributed active learning in natural language processing for determining resource metrics | |
CN115618047A (zh) | 潜力评估方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |