CN113515702A - 内容推荐方法、模型训练方法、装置、设备及存储介质 - Google Patents
内容推荐方法、模型训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113515702A CN113515702A CN202110771080.0A CN202110771080A CN113515702A CN 113515702 A CN113515702 A CN 113515702A CN 202110771080 A CN202110771080 A CN 202110771080A CN 113515702 A CN113515702 A CN 113515702A
- Authority
- CN
- China
- Prior art keywords
- expression
- micro
- content
- target
- content recommendation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种内容推荐方法、模型训练方法、装置、设备及存储介质,涉及人工智能领域,具体涉及内容推荐领域。具体实现方案为:在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像;从采集图像中,提取微表情特征;通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识;基于微表情标识,执行与目标内容相关的内容推荐操作。通过微表情标识可以确定出用户对所浏览的目标内容的喜好程度,因此基于微表情标识所执行的内容推荐操作能够提高推荐内容的准确性,进一步提升了用户体验。
Description
技术领域
本公开涉及人工智能领域,具体涉及内容推荐领域。
背景技术
通过互联网观看感兴趣的内容已经成为人们主要的休闲娱乐活动,为了提升用户黏性,需要根据用户的喜好推荐相应的内容来供用户浏览,以获取用户的持续关注。
现有的内容推荐方法,通常以用户对内容的点赞行为信息或用户对内容的浏览时间信息为依据,来筛选出用户所偏好的内容类型,之后向用户推荐其偏好的内容。然而,现有的内容推荐方法容易受到误差因素的影响,导致筛选出用户所偏好的内容类型出现较大的偏差。
发明内容
本公开提供了一种内容推荐方法、模型训练方法、装置、设备及存储介质。
根据本公开的第一方面,提供了一种内容推荐方法,包括:
在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像;
从采集图像中,提取微表情特征;
通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识;
基于微表情标识,执行与目标内容相关的内容推荐操作。
根据本公开的第二方面,提供了一种微表情模型的训练方法,包括:
获取样本视频,从样本视频中提取出微表情特征、以及确定微表情特征对应的真实微表情标识;
通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识;
根据确定出的微表情标识与对应的真实微表情标识的差异,调整微表情模型的参数。
根据本公开的第三方面,提供了一种基于微表情的内容推荐装置,包括:
图像获取模块,用于在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像;
特征提取模块,用于从采集图像中,提取微表情特征;
标识获取模块,用于通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识;
内容推荐模块,用于基于微表情标识,执行与目标内容相关的内容推荐操作。
根据本公开的第四方面,提供了一种微表情模型的训练装置,包括:
样本处理模块,用于获取样本视频,从样本视频中提取出微表情特征、以及确定微表情特征对应的真实微表情标识;
标识确定模块,用于通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识;
参数调整模块,用于根据确定出的微表情标识与对应的真实微表情标识的差异,调整微表情模型的参数。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的内容推荐方法。
根据本公开的第六方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的微表情模型的训练方法。
根据本公开的第七方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述的内容推荐方法。
根据本公开的第八方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述的微表情模型的训练方法。
根据本公开的第九方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述的内容推荐方法。
根据本公开的第十方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述的微表情模型的训练方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
本公开提供的技术方案带来的有益效果是:
本公开实施提供的方案,可以在目标内容被输出过程中的采集图像中识别出微表情标识,通过微表情标识可以确定出用户对所浏览的目标内容的喜好程度,因此基于微表情标识所执行的内容推荐操作能够提高推荐内容的准确性,进一步提升了用户体验。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1示出了本公开实施例提供的一种内容推荐方法的流程示意图;
图2示出了本公开实施例提供的一种人脸图像中示意性面部区域的示意图;
图3示出了本公开实施例提供的另一种内容推荐方法的流程示意图;
图4示出了本公开实施例提供的一种面部动作编码系统的部分内容的示意图;
图5示出了本公开实施例提供的一种微表情模型的训练方法的流程示意图;
图6示出了本公开实施例提供的一种提取出面部区域的微表情特征的示意性流程图;
图7示出了本公开实施例提供的一种利用示意性的微表情模型确定微表情标识的过程的示意图;
图8示出了本公开实施例提供的一种面部区域识别模型的训练过程的示意性训练流程图;
图9示出了本公开实施例提供的一种内容推荐方法装置的结构示意图;
图10示出了本公开实施例提供的一种模型训练装置的结构示意图;
图11示出了可以用来实施本公开的实施例的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
通过互联网观看感兴趣的内容已经成为人们主要的休闲娱乐活动,为了提升用户黏性,需要根据用户的喜好推荐相应的内容来供用户浏览,以获取用户的持续关注。
现有的内容推荐方法,通常以用户对内容的点赞行为信息或用户对内容的浏览时间信息为依据,来筛选出用户所偏好的内容类型,之后向用户推荐其偏好的内容。然而,现有的内容推荐方法容易受到误差因素的影响,导致筛选出用户所偏好的内容类型出现较大的偏差。
以用户浏览的内容是短视频为例,现有的短视频推荐方法目前普遍采用如下方案:
(1)分析用户点赞行为。预先给视频打上相关标签,统计用户的点赞视频的标签类型,并推荐与点赞视频标签相同或近似的视频。对于这种方案,在如下场景可能会对短视频推荐造成偏差:用户误点赞;同一个短视频应用账号被不同的用户使用、且不同的用户均发生过点赞行为。上述场景会导致对用户喜好视频的分析出现偏差,进而影响短视频推荐结果。
(2)分析用户浏览行为。计算用户对每个视频的浏览时长与平均浏览时长的比值,确定出浏览时长大于平均时长的目标视频,将目标视频的类型作为用户喜好的视频类型。对于这种方案,在如下场景可能会对短视频推荐造成偏差:用户长时间不操作终端,但是自动播放短视频,这会导致当前视频的浏浏览时长大于平均浏览时长。上述场景会导致对用户喜好视频的分析出现偏差,进而影响短视频推荐结果。
本公开实施例提供的内容推荐方法、模型训练方法、装置、设备及存储介质,旨在解决现有技术的如上技术问题中的至少一个。
图1示出了本公开实施例提供的一种内容推荐方法的流程示意图,如图1所示,该方法主要可以包括以下步骤:
S110:在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像。
在本公开实施例中,只有在被授权的情况下才可以获取目标内容被输出过程中的采集图像,可以理解,当接收到允许图像采集指令,即可以视为以被授权来获取采集图像。
可选地,可以在目标内容被输出之前,推送与目标内容对应的图像采集请求,周期性地确定是否接收到针对图像采集请求返回的允许图像采集指令,在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像。
例如,可以向用户用于浏览目标内容的终端设备发送与目标内容对应的图像采集请求,该图像采集请求可以包含询问是否可以采集图像的内容。若用户同意在目标内容被输出过程中被采集其图像,则可以通过终端设备输入同意请求操作,终端设备响应于同意请求操作以发送允许图像采集指令,从而使本公开实施例的执行主体接收到允许图像采集指令。
这里,采集图像至少包含用户的人脸图像。以本公开实施例的执行主体是服务器为例,服务器在收到允许图像采集指令之后,可以向终端设备推送目标内容,终端设备可以向用户输出目标内容,并在目标内容被输出过程中的采集包含用户人脸的图像,服务器可以通过终端设备获取采集图像。可选的,采集图像可以是一段时长(如500ms)的视频,终端设备可以每录制一段时长(如500ms)的视频,向服务器上传一段视频。
在本公开实施例中,目标内容可以是任意一种能够在设备上展示的内容,如视频、音乐、文章、新闻等等。以视频为例,目标内容可以是由部署在终端设备上的短视频应用播放的短视频,当然,也可以是其它类型的视频,此处不做具体限定。
S120:从采集图像中,提取微表情特征。
微表情特征是可以描述面部区域内指定部位的状态变化的特征。例如,微表情特征可以是LBP-TOP(Local Binary Patterns from Three Orthogonal Planes)特征,其中,LBP(Local Binary Pattern,局部二值模式)特征能够反应出图像局部纹理特征,适合用来描述人脸的细微变化,加上时间的特征之后就变成了LBP-TOP特征,能够描述在时空域上人脸的纹理特征。当然,微表情特征也可以是描述面部区域内指定部位的状态变化的其他类型的特征,此处不再一一列举。
在本公开实施例中,可以在人脸图像上设定至少一个面部区域,基于设定的面部区域提取对应区域的微表情特征。图2示出了本公开实施例提供的一种人脸图像中示意性面部区域的示意图,图2中的每个框形区域代表一个面部区域,如图2所示,至少一个面部区域包括左眉区域、右眉区域、左眼区域、右眼区域、左嘴角区域、右嘴角区域和嘴部区域之中的至少一个,在该步骤中,可以从采集图像中提取出上述任一面部区域的微表情特征(如LBP-TOP特征)。在此需要说明的是,该步骤所提取出的微表情特征并不包含用户的隐私信息(如虹膜或唇纹等)。
可选地,可以预先训练一个面部区域识别模型,面部区域识别模型的训练过程将在后续内容介绍。在提取面部区域的微表情特征时,可以将采集图像输入到训练好的面部区域识别模型,利用面部区域识别模型标注出采集图像中至少一个面部区域;从已标注至少一个面部区域的采集图像中,提取出用户的至少一个面部区域的微表情特征。
S130:通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识。
本公开实施例可以预先训练一个微表情模型,微表情模型的训练过程将在后续内容介绍,在该步骤可以利用训练好的微表情模型获取的微表情标识。如前文所述,微表情特征可以描述面部区域内指定部位的状态变化,每个部位的一种状态变化可以对应一种微表情标识。以左眉区域为例,左眉区域中的眉毛的状态变化可以包括内部眉毛抬起、外部眉毛抬起、眉毛整体低垂等,这3种状态变化分别对应一个微表情标识;以左嘴角区域为例,左嘴角区域中的嘴角的状态变化可以包括上扬嘴角、拉动嘴角向上、嘴角向牙齿收缩、嘴角垂直向下拉动等,这4种状态变化分别对应一个微表情标识。其他面部区域的指定部位的状态变化此处不再一一列举。微表情模型可基于每个面部区域的微表情特征,确定出每个面部区域的微表情标识。
在本公开实施例中,可以确定出微表情特征在面部动作编码系统(Facial ActionCoding System,FACS)中相匹配的目标表情编码;将确定出的目标表情编码,确定为微表情特征对应的微表情标识。这里,面部表情编码系统包括对应于每个面部区域的至少一个表情编码,每个表情编码对应于面部区域的指定部分的一种状态变化。本公开实施例结合了深度学习方法,利用微表情模型确定的表情编码,可以减少人工匹配编码的主观性干扰性,同时引入了面部动作编码系统,做到了微表情分析有据可依。
S140:基于微表情标识,执行与目标内容相关的内容推荐操作。
在本公开实施例中,可以预先建立每种类型的内容推荐操作与微表情标识的映射关系,在获取到微表情标识之后,可以通过微表情标识确定出对应类型的内容推荐操作,之后即可执行与目标内容相关的内容推荐操作。
可选地,可以基于微表情标识,从至少一个情绪类型中确定出目标情绪类型;基于目标情绪类型,执行与目标内容相关的内容推荐操作。
本公开实施提供的内容推荐方法,可以在目标内容被输出过程中的采集图像中识别出微表情标识,通过微表情标识可以确定出用户对所浏览的目标内容的喜好程度,因此基于微表情标识所执行的内容推荐操作能够提高推荐内容的准确性,进一步提升了用户体验。
图3示出了本公开实施例提供的另一种内容推荐方法的流程示意图,如图3所示,该方法主要可以包括以下步骤:
S310:在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像。
在本公开实施例中,步骤S310的其他描述可以参照步骤S110中的具体描述,此处不再赘述。
S320:将采集图像输入到训练好的面部区域识别模型,利用面部区域识别模型标注出采集图像中至少一个面部区域。
如前文所述,采集图像可以是一段时长的视频,可以利用面部区域识别模型在采集图像的每个视频帧中识别出至少一个面部区域;在每个视频帧中,标注出至少一个面部区域中各面部区域的位置。
本公开实施例结合了深度学习方法,利用面部区域识别模型标注面部区域,一方面减少了人工标注的主观性干扰性,提高了标注结果的转确性,另一方面也提高了标注面部区域的效率。
S320:从已标注至少一个面部区域的采集图像中,提取出用户的至少一个面部区域的微表情特征。
如前文所述,微表情特征是可以描述面部区域内指定部位的状态变化的特征,微表情特征可以是LBP-TOP(Local Binary Patterns from Three Orthogonal Planes)特征。这里,关于微表情特征的描述参照步骤S120中的描述,此处不再赘述。
S330:通过将微表情特征输入到微表情模型中,确定出微表情特征在面部动作编码系统中相匹配的目标表情编码。
这里,面部动作编码系统包括对应于每个面部区域的至少一个表情编码,每个表情编码对应于面部区域的指定部分的一种状态变化。
图4示出了本公开实施例提供的一种面部动作编码系统的部分内容的示意图,如图4所示,表中的“Action Unit”栏中罗列的是各个表情编码,“description”栏中罗列的是各个状态变化。以左眉区域为例,左眉区域中的眉毛的状态变化可以包括内部眉毛抬起、外部眉毛抬起、眉毛整体低垂等,这3种状态变化分别对应微表情标识分别为AU1、AU2和AU4。
可选地,可以在面部动作编码系统设置一个特殊标签编码,该特殊标签编码代表面部区域的指定部分无任何状态变化。通常来说,面部动作编码系统包含46个表情编码(图4中未完全示出),可以将特殊标签编码作为面部动作编码系统中的第47个表情编码,记做AU47。
在本公开实施例中,可以确定微表情特征与面部动作编码系统中每个表情编码的匹配概率;将对应的匹配概率最高的表情编码,确定为微表情特征在面部动作编码系统中相匹配的目标表情编码。本公开实施例计算了微表情特征与每个表情编码的匹配概率,充分考虑了每一种表情编码与微表情特征相匹配的可能性,较大程度地避免了匹配结果出现错漏。
可选地,可以将一个面部区域的微表情特征向量化为指定维度(如128*128维度)的向量,将指定维度的向量输入到微表情模型,微表情模型可以输出1*N维度的向量,其中,N为表情编码的总数(如47)。表情模型所输出的每个维度的向量,代表该面部区域的微表情特征与面部动作编码系统中对应表情编码的匹配概率。从N个匹配概率中确定出最高的匹配概率,将对应的匹配概率最高的表情编码,确定为该面部区域的微表情特征在面部动作编码系统中相匹配的目标表情编码。
S340:将确定出的目标表情编码,确定为微表情特征对应的微表情标识。
S350:基于微表情标识,从至少一个情绪类型中确定出目标情绪类型。
在本公开实施例中,可以预先定义多种情绪类型,如喜爱、厌恶、恐惧、忧伤等,并预先建立每种情绪类型与微表情标识的映射关系,从而基于微表情标识确定出目标情绪类型。
可选地,可以获取各个面部区域的微表情标识所组成的标识组合,基于标识组合,从至少一个情绪类型中确定出用户的情绪类型。具体地,可选地,可以将各个面部区域的微表情特征对应的微表情标识组合在一起,形成一个标识组合,该标识组合实际上是有多个目标表情编码组成的表情编码序列。预先定义每种情绪类型所对应的多个标识组成的标识组合,可以理解,至少一个情绪类型中的每个情绪类型对应至少一种标识组合,基于标识组合即可确定出用户的情绪类型。本公开实施例将各个面部区域的微表情特征对应的的微表情标识组合成标识组合,充分考虑了每一个面部区域对情绪类型的影响,基于该标识组合确定情绪类型,可以确保结果的准确性。
例如,在之前的步骤中确定出的至少一个面部区域包括左眉区域、右眉区域和嘴部区域,这3个区域被确定出的微表情标识分别是AU4、AU4、AU16,则标识组合为“AU4、AU4、AU16”,该标识组合对应的情绪类型为厌恶。
S360:基于目标情绪类型,执行与目标内容相关的内容推荐操作。
在本公开实施例中,可以预先建立每种类型的内容推荐操作与情绪类型的映射关系,每种情绪类型可以对应一种内容推荐操作,通过情绪类型确定出对应的内容推荐操作,从而以该内容推荐操作来调整与目标内容的类型相同的待推荐内容。
可选地,内容推荐操作包括内容数量调整操作,可以通过内容数量调整操作,调整待推荐内容队列中与目标内容的类型相同的待推荐内容的数量。内容数量调整操作可以包括数量增加操作或数量减少操作,其中,当情绪为积极类型(如喜爱)时,可以采用数量增加操作;当情绪为消极类型(如厌恶)时,可以采用数量减少操作。以数量增加操作为例,数量增加操作可以进一步划分为不同的增加数量或增加比例。例如,不同的增加数量可以是增加100个、增加200个等;不同的增加比例可以是增加10%、增加20%等。
本公开实施提供的内容推荐方法,可以在目标内容被输出过程中的采集图像中识别出微表情标识,通过微表情标识确定能够反映用户对所浏览内容的喜好程度的情绪类型,基于情绪类型来执行相应的内容推荐操作。微表情在无意识状态下自发产生,难以掩饰或伪装,通常与真实情感直接相关,所以微表情在情感分析中较为可靠,能够比较客观地反映真实情感,所以基于微表情能够较准确地确定出用户的情绪类型,基于情绪类型可以准确地判断出用户对所浏览内容的喜好程度,以便确定出正确的内容推荐操作,使得用户能够浏览较多的到其偏好内容,有助于提高用户黏性。
图5示出了本公开实施例提供的一种微表情模型的训练方法的流程示意图,如图5所示,该流程可以主要包括的以下步骤:
S510:获取样本视频,从样本视频中提取出微表情特征、以及确定微表情特征对应的真实微表情标识。
可以理解,样本视频应当至少包含人脸图像。在本公开实施例中,可以从指定的数据集中获取样本视频,以如CASME II数据集为例,该数据集包含247条微表情视频片段,使用200FPS摄像机进行拍摄,符合本公开实施例的训练模型的标准。当然,也可以从其他的合法途径获取包含人脸图像的样本视频。
在该步骤中,可以在样本视频的每个视频帧中识别出至少一个面部区域,在每个视频帧中,标注出至少一个面部区域中各面部区域的位置。可以理解,该标注过程可以由人工进行标注,也可以利用面部区域识别模型完成。
图6示出了本公开实施例提供的一种提取出面部区域的微表情特征的示意性流程图,如图6所示,可以提取出样本视频的多个视频帧,在每个视频帧中标注出面部区域(例如右嘴角)的位置。
步骤S510中针对面部区域、微表情特征和微表情标识的具体内容,可以参照上述介绍的内容推荐方法中的对应内容,此处不再赘述。
S520:通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识。
在本步骤中,可以将一个面部区域的微表情特征向量化为指定维度的向量,将指定维度的向量输入到微表情模型,微表情模型可以输出1*N维度的向量,其中,N为表情编码的总数(如47)。表情模型所输出的每个维度的向量,代表该面部区域的微表情特征与面部动作编码系统中对应表情编码的匹配概率。从N个匹配概率中确定出最高的匹配概率,将对应的匹配概率最高的表情编码,确定为该面部区域的微表情特征在面部动作编码系统中相匹配的目标表情编码。
图7示出了本公开实施例提供的一种利用示意性的微表情模型确定微表情标识的过程的示意图,如图7所示,可以将一个面部区域的微表情特征特征向量化为128*128维度的向量,128*128维度的向量进过至少一个池化层和卷积层的处理后,得到1*47维度的向量,从47个匹配概率中确定出最高的匹配概率,将对应的匹配概率最高的表情编码,确定为该面部区域的微表情特征在面部动作编码系统中相匹配的目标表情编码。
S530:根据确定出的微表情标识与对应的真实微表情标识的差异,调整微表情模型的参数。
在本公开实施例中,调整微表情模型的参数目的,是使得由微表情模型确定出的微表情标识与对应的真实微表情标识一致。当确定出的微表情标识与对应的真实微表情标识一致时,可以结束训练过程。
下面简单介绍一下本公开实施例提供面部区域识别模型的训练过程,图8示出了本公开实施例提供的一种面部区域识别模型的训练过程的示意性训练流程图。可以预先获取多个包含有人脸图像的样本图像,为了减少非人脸区域噪声影响,可以对样本图像进行预处理,如图7所示,可以从样本图像中裁剪出仅包含人脸区域的样本图像,并在每个样本图像标注出至少一个面部区域(如左眉区域、右眉区域、左区域、右区域、左嘴角区域、右嘴角区域和嘴部区域)。
将预处理后的多个样本图像作为一个数据集,将数据集按照预设比例(如7:2:1)分为训练集、测试集和验证集。将数据集加载到面部区域识别模型,对面部区域识别模型进行训练,在训练完成后即可得到训练好的面部区域识别模型。在本公开实施例中,面部区域识别模型可以是mobilenet-v3模型,也可以是其它类型的模型,此处不做具体限定。
基于与上述的内容推荐方法相同的原理,图9示出了本公开实施例提供的一种内容推荐装置的结构示意图。如图9所示,内容推荐装置800包括图像获取模块810、特征提取模块820、标识获取模块830和内容推荐模块840。
图像获取模块810用于在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像。
特征提取模块820用于从采集图像中,提取微表情特征。
标识获取模块830用于通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识。
内容推荐模块840,用于基于微表情标识,执行与目标内容相关的内容推荐操作。
本公开实施提供的内容推荐装置,可以在目标内容被输出过程中的采集图像中识别出微表情标识,通过微表情标识可以确定出用户对所浏览的目标内容的喜好程度,因此基于微表情标识所执行的内容推荐操作能够提高推荐内容的准确性,进一步提升了用户体验。
在本公开实施例中,识获取模块用于通过以下方式获取微表情特征对应的微表情标识:
确定出微表情特征在面部动作编码系统中相匹配的目标表情编码;将确定出的目标表情编码,确定为微表情特征对应的微表情标识。
在本公开实施例中,标识获取模块830在用于确定出微表情特征在面部动作编码系统中相匹配的目标表情编码时,具体用于:
确定微表情特征与面部动作编码系统中每个表情编码的匹配概率;
将对应的匹配概率最高的表情编码,确定为微表情特征在面部动作编码系统中相匹配的目标表情编码。
在本公开实施例中,内容推荐模块840在用于基于微表情标识,执行与目标内容相关的内容推荐操作时,具体用于:
基于微表情标识,从至少一个情绪类型中确定出目标情绪类型;
基于目标情绪类型,执行与目标内容相关的内容推荐操作。
在本公开实施例中,内容推荐操作包括内容数量调整操作,内容推荐模块840在用于执行与目标内容相关的内容推荐操作时,具体用于:
通过内容数量调整操作,调整待推荐内容队列中与目标内容的类型相同的待推荐内容的数量。
在本公开实施例中,微表情特征为LBP-TOP特征。
可以理解的是,本公开实施例中的内容推荐装置的上述各模块具有实现上述的内容推荐方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述内容推荐装置的各模块的功能描述具体可以参见上述的内容推荐方法的对应描述,在此不再赘述。
基于与上述的模型训练方法相同的原理,图10示出了本公开实施例提供的一种微表情模型的训练装置的结构示意图。如图10所示,微表情模型的训练装置900包括样本处理模块910、标识确定模块920和参数调整模块930。
样本处理模块910用于获取样本视频,从样本视频中提取出微表情特征、以及确定微表情特征对应的真实微表情标识。
标识确定模块920用于通过将微表情特征输入到微表情模型中,获取微表情特征对应的微表情标识。
参数调整模块930用于根据确定出的微表情标识与对应的真实微表情标识的差异,调整微表情模型的参数。
可以理解的是,本公开实施例中的模型训练装置的上述各模块具有实现上述的模型训练方法相应步骤的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。上述模块可以是软件和/或硬件,上述各模块可以单独实现,也可以多个模块集成实现。对于上述模型训练装置的各模块的功能描述具体可以参见上述的模型训练方法的对应描述,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备的示意性框图,可以理解,电子设备可以用来实施本公开的实施例内容推荐方法和模型训练方法中的至少一个。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如内容推荐方法和模型训练方法中的至少一个。例如,在一些实施例中,内容推荐方法和模型训练方法中的至少一个可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的内容推荐方法的一个或多个步骤,或者可以执行上文描述的模型训练方法的一个或多个步骤,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行内容推荐方法和模型训练方法之中的至少一个。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (20)
1.一种内容推荐方法,包括:
在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像;
从所述采集图像中,提取微表情特征;
通过将所述微表情特征输入到微表情模型中,获取所述微表情特征对应的微表情标识;
基于所述微表情标识,执行与所述目标内容相关的内容推荐操作。
2.根据权利要求1所述的方法,其中,通过以下方式获取所述微表情特征对应的微表情标识:
确定出所述微表情特征在面部动作编码系统中相匹配的目标表情编码;
将确定出的所述目标表情编码,确定为所述微表情特征对应的微表情标识。
3.根据权利要求2所述的方法,其中,所述确定出所述微表情特征在面部动作编码系统中相匹配的目标表情编码,包括:
确定所述微表情特征与所述面部动作编码系统中每个表情编码的匹配概率;
将对应的匹配概率最高的表情编码,确定为所述微表情特征在所述面部动作编码系统中相匹配的目标表情编码。
4.根据权利要求1所述的方法,其中,所述基于所述微表情标识,执行与所述目标内容相关的内容推荐操作,包括:
基于所述微表情标识,从至少一个情绪类型中确定出目标情绪类型;
基于所述目标情绪类型,执行与所述目标内容相关的内容推荐操作。
5.根据权利要求4所述的方法,其中,所述内容推荐操作包括内容数量调整操作,所述执行与所述目标内容相关的内容推荐操作,包括:
通过所述内容数量调整操作,调整待推荐内容队列中与所述目标内容的类型相同的待推荐内容的数量。
6.根据权利要求1至5中任一项所述的方法,其中,所述微表情特征为LBP-TOP特征。
7.一种微表情模型的训练方法,包括:
获取样本视频,从所述样本视频中提取出微表情特征、以及确定所述微表情特征对应的真实微表情标识;
通过将所述微表情特征输入到微表情模型中,获取所述微表情特征对应的微表情标识;
根据确定出的微表情标识与对应的所述真实微表情标识的差异,调整所述微表情模型的参数。
8.一种内容推荐装置,包括:
图像获取模块,用于在接收到允许图像采集指令的情况下,获取目标内容被输出过程中的采集图像;
特征提取模块,用于从所述采集图像中,提取微表情特征;
标识获取模块,用于通过将所述微表情特征输入到微表情模型中,获取所述微表情特征对应的微表情标识;
内容推荐模块,用于基于所述微表情标识,执行与所述目标内容相关的内容推荐操作。
9.根据权利要求8所述的装置,其中,所述标识获取模块用于通过以下方式获取所述微表情特征对应的微表情标识:
确定出所述微表情特征在面部动作编码系统中相匹配的目标表情编码;
将确定出的所述目标表情编码,确定为所述微表情特征对应的微表情标识。
10.根据权利要求9所述的装置,其中,所述标识获取模块在用于确定出所述微表情特征在面部动作编码系统中相匹配的目标表情编码时,具体用于:
确定所述微表情特征与所述面部动作编码系统中每个表情编码的匹配概率;
将对应的匹配概率最高的表情编码,确定为所述微表情特征在所述面部动作编码系统中相匹配的目标表情编码。
11.根据权利要求8所述的装置,其中,所述内容推荐模块在用于基于所述微表情标识,执行与所述目标内容相关的内容推荐操作时,具体用于:
基于所述微表情标识,从至少一个情绪类型中确定出目标情绪类型;
基于所述目标情绪类型,执行与所述目标内容相关的内容推荐操作。
12.根据权利要求11所述的装置,其中,所述内容推荐操作包括内容数量调整操作,所述内容推荐模块在用于执行与所述目标内容相关的内容推荐操作时,具体用于:
通过所述内容数量调整操作,调整待推荐内容队列中与所述目标内容的类型相同的待推荐内容的数量。
13.根据权利要求8至12中任一项所述的装置,其中,所述微表情特征为LBP-TOP特征。
14.一种微表情模型的训练装置,包括:
样本处理模块,用于获取样本视频,从所述样本视频中提取出微表情特征、以及确定所述微表情特征对应的真实微表情标识;
标识确定模块,用于通过将所述微表情特征输入到微表情模型中,获取所述微表情特征对应的微表情标识;
参数调整模块,用于根据确定出的微表情标识与对应的所述真实微表情标识的差异,调整所述微表情模型的参数。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
16.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求7所述的方法。
17.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-6中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求7所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-6中任一项所述的方法。
20.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110771080.0A CN113515702A (zh) | 2021-07-07 | 2021-07-07 | 内容推荐方法、模型训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110771080.0A CN113515702A (zh) | 2021-07-07 | 2021-07-07 | 内容推荐方法、模型训练方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113515702A true CN113515702A (zh) | 2021-10-19 |
Family
ID=78067037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110771080.0A Pending CN113515702A (zh) | 2021-07-07 | 2021-07-07 | 内容推荐方法、模型训练方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113515702A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194347A (zh) * | 2017-05-19 | 2017-09-22 | 深圳市唯特视科技有限公司 | 一种基于面部动作编码系统进行微表情检测的方法 |
WO2019029261A1 (zh) * | 2017-08-07 | 2019-02-14 | 深圳市科迈爱康科技有限公司 | 微表情识别方法、装置及存储介质 |
CN109767261A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 产品推荐方法、装置、计算机设备和存储介质 |
CN111428175A (zh) * | 2020-03-04 | 2020-07-17 | 中国平安人寿保险股份有限公司 | 基于微表情识别的在线课程推荐方法及相关设备 |
WO2021027553A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳壹账通智能科技有限公司 | 微表情分类模型生成、图像识别方法、装置、设备及介质 |
-
2021
- 2021-07-07 CN CN202110771080.0A patent/CN113515702A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107194347A (zh) * | 2017-05-19 | 2017-09-22 | 深圳市唯特视科技有限公司 | 一种基于面部动作编码系统进行微表情检测的方法 |
WO2019029261A1 (zh) * | 2017-08-07 | 2019-02-14 | 深圳市科迈爱康科技有限公司 | 微表情识别方法、装置及存储介质 |
CN109767261A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 产品推荐方法、装置、计算机设备和存储介质 |
WO2021027553A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳壹账通智能科技有限公司 | 微表情分类模型生成、图像识别方法、装置、设备及介质 |
CN111428175A (zh) * | 2020-03-04 | 2020-07-17 | 中国平安人寿保险股份有限公司 | 基于微表情识别的在线课程推荐方法及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160050169A1 (en) | Method and System for Providing Personal Emoticons | |
WO2016165615A1 (zh) | 一种即时视频中的表情特效动画加载方法和电子设备 | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN113177449B (zh) | 人脸识别的方法、装置、计算机设备及存储介质 | |
CN113542801B (zh) | 主播标识的生成方法、装置、设备、存储介质及程序产品 | |
CN112749685B (zh) | 视频分类方法、设备和介质 | |
CN112861885A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN113420681A (zh) | 行为识别及模型训练的方法、设备、存储介质和程序产品 | |
CN113011309A (zh) | 图像识别方法、装置、设备、介质及程序产品 | |
CN111191503A (zh) | 一种行人属性识别方法、装置、存储介质及终端 | |
CN109657535B (zh) | 图片识别方法、目标设备及云平台 | |
CN113642481A (zh) | 识别方法、训练方法、装置、电子设备以及存储介质 | |
CN113515702A (zh) | 内容推荐方法、模型训练方法、装置、设备及存储介质 | |
CN114387651B (zh) | 一种人脸识别方法、装置、设备及存储介质 | |
US20220207286A1 (en) | Logo picture processing method, apparatus, device and medium | |
CN113920306A (zh) | 目标再识别方法、装置及电子设备 | |
CN113554062A (zh) | 多分类模型的训练方法、设备和存储介质 | |
CN113127058A (zh) | 数据标注方法、相关装置及计算机程序产品 | |
CN113327311A (zh) | 基于虚拟角色的显示方法、装置、设备、存储介质 | |
CN112651449A (zh) | 确定视频的内容特征的方法、装置、电子设备及存储介质 | |
CN111783515A (zh) | 行为动作识别的方法和装置 | |
CN112948635B (zh) | 视频分析方法、装置、电子设备及可读存储介质 | |
CN113642495B (zh) | 用于评价时序提名的模型的训练方法、设备、程序产品 | |
CN111259689A (zh) | 用于发送信息的方法和装置 | |
CN112801083B (zh) | 图像识别的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |