CN109766767A - 行为数据推送方法、装置、计算机设备和存储介质 - Google Patents
行为数据推送方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN109766767A CN109766767A CN201811546651.5A CN201811546651A CN109766767A CN 109766767 A CN109766767 A CN 109766767A CN 201811546651 A CN201811546651 A CN 201811546651A CN 109766767 A CN109766767 A CN 109766767A
- Authority
- CN
- China
- Prior art keywords
- expression
- data
- user
- multiframe
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003542 behavioural effect Effects 0.000 title claims abstract description 137
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000014509 gene expression Effects 0.000 claims abstract description 303
- 238000004458 analytical method Methods 0.000 claims abstract description 123
- 230000001815 facial effect Effects 0.000 claims abstract description 76
- 239000000284 extract Substances 0.000 claims abstract description 35
- 230000006399 behavior Effects 0.000 claims description 129
- 238000012549 training Methods 0.000 claims description 38
- 241001269238 Data Species 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 21
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000007405 data analysis Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000009098 adjuvant therapy Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000010224 classification analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请涉及基于生物识别的一种行为数据推送方法、装置、计算机设备和存储介质。该方法包括:获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到对应的表情类别;根据用户标识获取对应的历史行为数据;获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情和用户历史行为习惯相匹配的行为标签;根据行为标签获取对应的行为数据;将行为数据推送至用户终端。采用本方法能够根据用户表情和喜好进行推送,有效提高了行为数据的推送准确率。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及基于生物识别的一种行为数据推送方法、装置、计算机设备和存储介质。
背景技术
随着人工智能技术的迅速发展,人机交互技术逐渐成熟并且被应用于各个领域。人的脸部可以传达信息,通过人脸的面部表情,可以获取到用户的一些情绪信息。人脸图像的表情识别在现实生活中有广泛的应用,包括情感机器人、智能监控、心理学研究辅助治疗等方面。
目前出现了一些通过识别用户的面部表情推送相关的音乐等数据的方式,由于微表情具有动作强度低、动作行为快的特殊性,对人脸的表情进行识别存在一定难度。传统的通过单一的表情识别进行数据推送的方式,推送的数据可能与用户的喜好并不相符,导致数据推送的准确率较低。因此,如何有效提高数据推送的准确率成为目前需要解决的技术问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高行为数据的推送准确率的行为数据推送方法、装置、计算机设备和存储介质。
一种行为数据推送方法,所述方法包括:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
根据所述用户标识获取对应的历史行为数据;
获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据所述行为标签获取对应的行为数据;
将所述行为数据推送至所述用户终端。
在其中一个实施例中,所述根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征,包括:对所述多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;对所述多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
在其中一个实施例中,所述获取预设的表情分类器之前,所述方法还包括:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;将所述验证集中是数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在其中一个实施例中,所述多帧人脸图片包括对应的图像序列,所述通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别,包括:将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;计算所述动态表情特征属于每个表情类别的概率值;获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
在其中一个实施例中,所述获取预设的分析模型之前,还包括:从预设数据库中获取多个用户历史行为数据和表情类别数据;对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
在其中一个实施例中,所述通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,包括:对所述历史行为数据进行特征提取,得到所述历史行为数据对应的特征向量;将所述特征向量输入至所述分析模型中,通过所述分析模型对所述历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;根据所述表情类别和所述行为数据表生成分析结果。
一种行为数据推送装置,所述装置包括:
数据获取模块,用于获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
人脸识别模块,用于根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
表情分类模块,用于获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
所述数据获取模块还用于根据所述用户标识获取对应的历史行为数据;
数据分析模块,用于获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
所述数据获取模块还用于根据所述行为标签获取对应的行为数据;
数据推送模块,用于将所述行为数据推送至所述用户终端。
在其中一个实施例中,所述多帧人脸图片包括对应的图像序列,所述表情分类模块还用于将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;计算所述动态表情特征属于每个表情类别的概率值;获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
根据所述用户标识获取对应的历史行为数据;
获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据所述行为标签获取对应的行为数据;
将所述行为数据推送至所述用户终端。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
根据所述用户标识获取对应的历史行为数据;
获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据所述行为标签获取对应的行为数据;
将所述行为数据推送至所述用户终端。
上述行为数据推送方法、装置、计算机设备和存储介质,获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识。根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过预设的表情分类器能够准确有效地识别出用户当前的表情类别。进而根据用户标识获取对应的历史行为数据,并获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签,进而根据行为标签获取对应的行为数据,并将行为数据推送至用户终端。通过识别出用户当前的表情类别后,利用分析模型对用户的历史行为数据进行分析,能够有效地分析出用户的行为喜好,进而能够有效地根据用户的表情和行为喜好推送相对应的行为数据,由此能够有效地为用户的推送符合用户当前心情和喜好的行为数据,进而有效地提高了行为数据的推送准确率。
附图说明
图1为一个实施例中行为数据推送方法的应用场景图;
图2为一个实施例中行为数据推送方法的流程示意图;
图3为一个实施例中训练表情分类器步骤的流程示意图;
图4为一个实施例中通过表情分类器对人脸特征分类步骤的流程示意图;
图5为一个实施例中行为数据推送装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的行为数据推送方法,可以应用于如图1所示的应用环境中。其中,用户终端102通过网络与服务器104通过网络进行通信。其中,用户终端102可以但不限于是有摄像功能的各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。服务器104获取用户终端102上传的多帧人脸图片,多帧人脸图片携带了用户标识。服务器104根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器104进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过预设的表情分类器能够准确有效地识别出用户当前的表情类别。服务器104进而根据用户标识获取对应的历史行为数据,并获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签,进而根据行为标签获取对应的行为数据,并将行为数据推送至用户终端102。通过识别出用户当前的表情类别后,利用分析模型对用户的历史行为数据进行分析,能够有效地分析出用户的行为喜好,进而能够有效地根据用户的表情和行为喜好推送相对应的行为数据,由此能够有效地为用户的推送符合用户当前心情和喜好的行为数据,进而有效地提高了行为数据的推送准确率。
在一个实施例中,如图2所示,提供了一种行为数据推送方法,以该方法应用于图1中的服务器为例进行说明,包括以下步骤:
步骤202,获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识。
其中,用户终端可以是各种具有摄像装置的智能手机、平板电脑、数字电视机、便携式设备等。当用户对终端进行解锁后,用户可以向终端触发启动对应的应用程序的指令,用户终端响应该应用程序的启动指令后,终端的摄像装置可以按照预设频率捕捉用户的人脸图片,并将捕捉的多帧人脸图片按照时间序列上传至服务器。其中,终端捕捉的多帧人脸图片可以是连续的多帧静态图片,也可以是动态视频。
进一步地,用户对用户终端进行解锁后,用户终端还可以根据预设的频率通过摄像装置自动拍摄用户的人脸图片或人脸视频,并将拍摄的人脸图片或人脸视频按照时间序列上传至服务器。
步骤204,根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器获取用户终端通过摄像装置拍摄的多帧人脸图片后,则对多帧人脸图片进行人脸识别,识别出多帧人脸图片中的人脸图像,并对识别出的多帧人脸图像进行特征提取,提取出每帧人脸图像对应的人脸特征。多帧人脸图片还包括对应的图像序列。具体地,服务器对多帧人脸图片进行关键点定位,根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像,并对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征,由此能够有效地识别并提取出人脸图像对应的人脸特征。
步骤206,获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。
服务器提取每帧人脸图像对应的人脸特征后,获取预设的表情分类器。其中,表情分类器可以是预先训练得到的基于神经网络模型的分类器。具体地,服务器将提取的每帧人脸图像对应的人脸特征输入至表情分类器中,通过表情分类器中的卷积神经网络识别每帧人脸特征,并根据图像序列和多帧人脸特征计算对应的动态人脸特征,进而计算动态人脸特征属于每个表情类别的概率值。服务器则获取概率值最高的表情类别,由此得到对用户标识对应的表情类别。
步骤208,根据用户标识获取对应的历史行为数据。
步骤210,获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签。
服务器通过表情分类器对多帧人脸特征进行分类,得到对应的表情类别后,进一步根据用户标识获取该用户的历史行为数据。例如,历史行为数据可以包括用户的听歌记录、查看天气预报记录和查看新闻记录以及对应的使用时段和使用频率等。
服务器则进一步获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果。其中,分析模型可以是基于神经网络的模型,也可以是基于决策树的模型。具体地,服务器对历史行为数据进行特征提取,得到历史行为数据对应的特征向量,将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表,根据表情类别和行为数据表生成分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签。
步骤212,根据行为标签获取对应的行为数据。
步骤214,将行为数据推送至用户终端。
分析结果中包括与该用户当前的表情类别和用户的历史行为习惯相匹配的行为标签,例如听音乐、查阅天气预报、查阅新闻等。服务器进而根据分析结果中的行为标签获取对应的行为数据,行为数据可以包括具体的推荐数据和对应的第三方接口。服务器则将获取的行为数据推送至用户终端,以使得用户终端根据对应的第三方接口对推送的行为数据进行展示或播报等。
例如,当用户终端为智能手机时,用户对用户终端进行解锁后,用户终端检测到用户处于握持状态,获取通过检测到用户人脸时,则根据预设的频率通过摄像装置自动拍摄用户的人脸图片或人脸视频,并将拍摄的人脸图片或人脸视频按照时间序列上传至服务器。服务器获取用户终端上传的多帧人脸图片后,对多帧人脸图片进行人脸识别,并根据识别后的人脸特征通过预设的表情分类器进行分类,得到该用户当前的表情类别。服务器进而获取该用户的历史行为数据,通过对历史行为数据结合当前的表情类别进行分析,得到与用户相匹配的分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签。具体地,服务器可以预先根据行为标签与对应的行为数据的关联关系建立关系映射表。服务器则可以根据分析结果中的行为标签从关系映射表中获取相对应的行为数据,进而将获取的行为数据推送至用户终端。例如当用户在早上时,用户终端识别出用户当前的表情为“愉悦”,并通过对该用户的历史数据进行分析后,分析出该用户在早上喜欢播放欢快类型的音乐时,服务器则获取欢快类型的音乐数据,并推送给用户终端。
用户终端接收到服务器推送的行为数据和语音提示信息后,则根据行为数据调用对应的应用接口,并通过该应用接口对行为数据进行展示和处理。例如,推送的行为数据为播放推荐音乐时,终端则打开音乐播放器并播放推送的音乐;当行为数据为播报天气预报时,终端则打开天气应用,并播报预设范围的天气预报。通过预设的表情分类器能够准确有效地识别出用户当前的表情情绪,通过分析模型对用户的历史行为数据进行分析,能够有效地分析出用户的行为喜好,进而能够有效地根据用户的表情推送相对应的行为数据,由此能够有效地为用户的推送符合用户当前心情和喜好的行为数据,进而有效地提高了行为数据的推送准确率。
上述行为数据推送方法中,服务器获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识。服务器根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过预设的表情分类器能够准确有效地识别出用户当前的表情类别。服务器进而根据用户标识获取对应的历史行为数据,并获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,进而根据分析结果获取对应的行为数据,并将行为数据推送至用户终端。通过识别出用户当前的表情类别后,利用分析模型对用户的历史行为数据进行分析,能够有效地分析出用户的行为喜好,进而能够有效地根据用户的表情和行为喜好推送相对应的行为数据,由此能够有效地为用户的推送符合用户当前心情和喜好的行为数据,进而有效地提高了行为数据的推送准确率。
在一个实施例中,根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征的步骤,包括:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
具体地,服务器根据预设算法检测多帧人脸图片中的关键点,并对多帧人脸图片进行关键点定位。服务器进而根据预设的人脸识别算法识别关键点定位后的多帧人脸图片中的多帧人脸图像,服务器还可以对人脸图片进行分割,提取出人脸图像部分,进一步对提取出的人脸图像进行灰度化处理和归一化处理。服务器则对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征,由此能够有效地识别并提取出人脸图像对应的人脸特征。
服务器还可以通过识别每帧人脸图片中的人脸特征是否一致,来判断用户的的人脸表情开始帧和结束帧以及持续的时间,通过人脸表情开始帧和结束帧以及持续的时间提取出用户的当前的多帧人脸特征。由此能够准确有效地提取出用户当前表情对应的多帧人脸特征。
服务器识别并提取出该用户的多帧人脸特征后,进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过利用基于神经网络模型的表情分类器对用户的多帧人脸特征进行识别并分类,由此能够准确有效地识别出该用户当前的表情类别。服务器识别出该用户当前的人脸特征对应的表情类别后,则获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签。服务器则根据分析结果中的行为标签获取对应的行为数据,并将行为数据推送至用户终端。通过对用户人脸表情特征进行识别,能够准确有效地提取出用户当前表情对应的多帧人脸特征,并通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情类别,进而能够有效地根据用户的表情类别和历史行为数据推送相对应的行为数据,由此能够有效地提高行为数据的推送准确率。
在一个实施例中,如图3所示,在获取预设的表情分类器之前,该方法还包括训练表情分类器的步骤,该步骤具体包括以下内容:
步骤302,从预设数据库中获取多个表情数据。
步骤304,利用获取的多个表情数据生成训练集和验证集。
步骤306,利用训练集中的数据用过预设算法进行训练得到初步的表情分类器。
步骤308,将验证集中是数据输入至初步的表情分类器中进行验证训练。
步骤310,当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
服务器在获取预设的表情分类器之前,还需要利用大量的表情数据训练得到表情分类器。具体地,服务器可以从本地或第三方数据库中获取大量的表情数据,其中,表情数据可以包括表情图片和表情视频以及动态表情图像等。服务器进而将获取的大量的表情数据生成训练集和验证集,其中,训练集中的表情数据可以是通过人工标注后的数据,验证集中的表情数据可以是未进行标注的数据。
服务器则将训练集中的表情数据进行特征提取,通过预设的算法进行训练,训练得到初步的表情分类器。例如,服务器可以通过CNN(Convolutional Neural Network,卷积神经网络)对表情数据中的人脸图像进行卷积操作,得到人脸图像对应的人脸特征。并将表情数据中多帧人脸图片对应的多帧人脸特征输入至BLSTM(Bidirectional Long Short-term Memory,双向长短期记忆神经网络),通过预设函数计算出表情数据对应的动态表情特征。服务器进而根据预设算法计算出每个动态表情特征对应每个标签类别的概率值,从而对表情分类器进行训练,由此能够有效地得到初步的表情分类器。
服务器进一步将验证集中的数据输入至初始表情分类器中进行持续训练,得到每个表情数据对应每个类别的概率值,获取达到预设的概率阈值的表情数据,当达到预设的概率阈值的表情数据的数量达到预设比值时,则停止训练,则得到训练完成的表情分类器。通过利用大量的表情数据对表情分类器进行训练和验证,从而可以有效地训练出分类准确率较高的表情分类器。
在一个实施例中,如图4所示,多帧人脸图片包括对应的图像序列,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别的步骤,具体包括一下内容:
步骤402,将多帧人脸图片对应的多帧人脸特征输入至表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量。
步骤404,根据图像序列和多帧人脸特征向量计算对应的动态表情特征。
步骤406,计算动态表情特征属于每个表情类别的概率值。
步骤408,获取概率值最高的表情类别,得到用户标识对应的表情类别。
用户终端可以根据预设的频率通过摄像装置捕捉用户的多帧人脸图片,并将捕捉的多帧人脸图片上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,进而根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。
服务器提取每帧人脸图像对应的人脸特征后,获取预设的表情分类器。其中,表情分类器可以是预先训练得到的基于神经网络模型的分类器。具体地,服务器将提取的每帧人脸图像对应的人脸特征输入至表情分类器中,通过表情分类器中的卷积神经网络识别每帧人脸特征向量,并根据图像序列和多帧人脸特征向量计算对应的动态人脸特征,进而计算动态人脸特征属于每个表情类别的概率值。服务器则获取概率值最高的表情类别,由此得到对用户标识对应的表情类别。
例如,服务器可以通过CNN(Convolutional Neural Network,卷积神经网络)对多帧人脸图像对应的多帧人脸特征进行卷积操作,识别得到人脸图像对应的人脸特征向量。并将多帧人脸特征向量输入至BLSTM(Bidirectional Long Short-term Memory,双向长短期记忆神经网络),通过预设函数计算出多帧人脸特征向量对应的动态表情特征。服务器进而根据预设算法计算出每个动态表情特征对应每个标签类别的概率值,服务器则获取概率值最高的表情类别。
服务器识别出该用户当前的人脸特征对应的表情类别后,则获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果。服务器则根据分析结果获取对应的行为数据,并将行为数据推送至用户终端。通过基于神经网络的表情分类器对用户的表情进行识别分类,能够准确有效地识别出用户当前的表情情绪,进而能够有效地根据用户的表情类别和历史行为数据推送相对应的行为数据,由此能够有效地提高行为数据的推送准确率。
在一个实施例中,获取预设的分析模型之前,还包括:从预设数据库中获取多个用户历史行为数据和表情类别数据;对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
服务器在获取预设的分析模型之前,还需要构建出出分析模型。具体地,服务器可以本地数据库或第三方数据库中获取多个用户终端的用户历史行为数据和多个表情类别数据。服务器进而对多个用户历史行为数据和多个表情类别数据进行聚类分析。具体地,服务器对多个用户历史行为数据和多个表情类别数据进行特征提取,提取出对应的特征变量。服务器提取出多个用户历史行为数据和多个表情类别对应的特征变量后,采用预设的聚类算法对特征变量进行聚类分析。例如,预设的聚类算法可以为k-means(k-均值算法)聚类的方法。服务器通过对特征变量进行多次聚类后得到多个聚类结果。
服务器进一步对多个聚类结果内的特征变量分别进行组合,得到多个组合特征变量。获取目标变量,利用目标变量对多个组合特征变量进行相关性检验。检验通过时,对组合特征变量添加交互标签。利用添加交互标签后的组合特征变量解析对应的特征变量。添加交互标签后的组合特征变量可以为达到预设阈值的特征变量,服务器则提取出达到预设阈值的特征变量。服务器进一步计算出达到预设阈值的特征变量对应的特征维度值。其中,大量的特征变量可以包括多个维度。特征维度值可以表示为特征变量所属的特征维度。
服务器提取出多个特征变量和对应的特征维度值后,则根据多个特征变量和对应的特征维度值按照预设算法构建分析模型。其中,分析模型可以是基于决策树的模型,也可以是基于神经网络的模型。
进一步地,服务器还可以将获取的大量的用户历史行为数据和表情类别数据生成训练及数据和验证集数据。服务器对训练集中的大量数据进行聚类分析,得到聚类结果后,根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值。服务器则根据多个特征变量和对应的特征维度值按照预设算法建立初步分析模型。
服务器建立初步分析模型后,利用验证集中的大量数据对初步分析模型进行进一步训练和验证,当验证集中的满足预设评估值的数据达到预设比值时,得到训练完成的分析模型。通过对大量的用户历史行为数据和表情类别数据进行大数据分析后,利用提取的特征变量和特征维度值按照预设方式建立分析模型并进行训练,由此能够有效地构建出分析准确率较高的分析模型。
在一个实施例中,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,包括:对历史行为数据进行特征提取,得到历史行为数据对应的特征向量;将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;根据表情类别和行为数据表生成分析结果。
用户终端通过摄像装置获取用户的多帧人脸图片,并上传至服务器,多帧人脸图片携带了用户标识。服务器获取用户终端上传的多帧人脸图片后,根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征。服务器进一步获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别。通过预设的表情分类器能够准确有效地识别出用户当前的表情类别。
服务器进而根据用户标识获取对应的历史行为数据,并获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果。具体地,服务器对历史行为数据进行特征提取,得到历史行为数据对应的特征向量。服务器进而将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表。例如行为数据表中可以包括用户的兴趣行为和常用应用以及经常使用的时间段。进一步地,服务器还可以通过分析模型分析出该用户对每种应用的兴趣度,则行为数据表中还可以包括该用户对应每个行为对应的应用的兴趣度。服务器进而根据表情类别和行为数据表对用户当前可能感兴趣的行为进行分析,并生成分析结果。分析结果中可以包括与该用户当前的表情类别和用户的历史行为习惯相匹配的行为标签。例如可以通过用户的历史行为数据分析出用户在早上喜欢打开什么应用等。通过对用户的历史行为数据进行分析,能够有效地分析出用户的喜好行为,进而能够有效地对用户推荐当前表情相对应的且用户喜好的行为数据。
服务器进而根据分析结果中的行为标签获取对应的行为数据,并将行为数据推送至用户终端。通过识别出用户当前的表情类别后,利用分析模型对用户的历史行为数据进行分析,能够有效地分析出用户的行为喜好,进而能够有效地根据用户的表情和行为喜好推送相对应的行为数据,由此能够有效地为用户的推送符合用户当前心情和喜好的行为数据,进而有效地提高了行为数据的推送准确率。
在一个实施例中,服务器还可以将分析出的行为数据表推送至终端,由此用户可以通过终端自定义行为数据表,或对行为数据表进行编辑和修改。用户自定义行为数据表后,将编辑后的行为数据表上传至的服务器。通过用户对行为数据表进行自定义编辑,能够有效地提高行为数据表与用户的匹配度,进而能够有效地提高行为数据的推送准确率。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种行为数据推送装置,包括:数据获取模块502、人脸识别模块504、表情分类模块506、数据分析模块508和数据推送模块510,其中:
数据获取模块502,用于获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
人脸识别模块504,用于根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
表情分类模块506,用于获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
数据获取模块502还用于根据用户标识获取对应的历史行为数据;
数据分析模块508,用于获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
数据获取模块502还用于根据行为标签获取对应的行为数据;
数据推送模块510,用于将行为数据推送至用户终端。
在其中一个实施例中,人脸识别模块504还用于对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
在其中一个实施例中,该装置还包括表情分类器训练模块,用于从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中是数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在其中一个实施例中,多帧人脸图片包括对应的图像序列,表情分类模块506还用于将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在其中一个实施例中,该装置还包括分析模型建立模块,用于从预设数据库中获取多个用户历史行为数据和表情类别数据;对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
在其中一个实施例中,数据分析模块508还用于对历史行为数据进行特征提取,得到历史行为数据对应的特征向量;将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;根据表情类别和行为数据表生成分析结果。
关于行为数据推送装置的具体限定可以参见上文中对于行为数据推送方法的限定,在此不再赘述。上述行为数据推送装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储人脸图片、历史行为数据、行为数据表等数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种行为数据推送方法。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
根据用户标识获取对应的历史行为数据;
获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据行为标签获取对应的行为数据;
将行为数据推送至用户终端。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中是数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在一个实施例中,多帧人脸图片包括对应的图像序列,处理器执行计算机程序时还实现以下步骤:将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:从预设数据库中获取多个用户历史行为数据和表情类别数据;对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:对历史行为数据进行特征提取,得到历史行为数据对应的特征向量;将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;根据表情类别和行为数据表生成分析结果。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取用户终端上传的多帧人脸图片,多帧人脸图片携带了用户标识;
根据多帧人脸图片识别人脸图像,并提取人脸图像对应的人脸特征;
获取预设的表情分类器,通过表情分类器对人脸特征进行分类,得到用户标识对应的表情类别;
根据用户标识获取对应的历史行为数据;
获取预设的分析模型,通过分析模型对表情类别和历史行为数据进行分析,得到分析结果,分析结果包括与用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据行为标签获取对应的行为数据;
将行为数据推送至用户终端。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:对多帧人脸图片进行关键点定位;根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;对多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:从预设数据库中获取多个表情数据;利用获取的多个表情数据生成训练集和验证集;利用训练集中的数据用过预设算法进行训练得到初步的表情分类器;将验证集中是数据输入至初步的表情分类器中进行验证训练;当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
在一个实施例中,多帧人脸图片包括对应的图像序列,计算机程序被处理器执行时还实现以下步骤:将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过表情分类器中的卷积神经网络识别每帧人脸特征向量;根据图像序列和多帧人脸特征向量计算对应的动态表情特征;计算动态表情特征属于每个表情类别的概率值;获取概率值最高的表情类别,得到用户标识对应的表情类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:从预设数据库中获取多个用户历史行为数据和表情类别数据;对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:对历史行为数据进行特征提取,得到历史行为数据对应的特征向量;将特征向量输入至分析模型中,通过分析模型对历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;根据表情类别和行为数据表生成分析结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种行为数据推送方法,所述方法包括:
获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
根据所述用户标识获取对应的历史行为数据;
获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
根据所述行为标签获取对应的行为数据;
将所述行为数据推送至所述用户终端。
2.根据权利要求1所述的方法,其特征在于,所述根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征,包括:
对所述多帧人脸图片进行关键点定位;
根据预设的人脸识别算法识别定位后的多帧人脸图片中的多帧人脸图像;
对所述多帧人脸图像进行特征提取,得到多帧人脸图像对应的人脸特征。
3.根据权利要求1所述的方法,其特征在于,所述获取预设的表情分类器之前,所述方法还包括:
从预设数据库中获取多个表情数据;
利用获取的多个表情数据生成训练集和验证集;
利用所述训练集中的数据用过预设算法进行训练得到初步的表情分类器;
将所述验证集中是数据输入至初步的表情分类器中进行验证训练;
当达到预设概率值的验证集数据的数量达到预设比值时,则停止训练,得到训练完成的表情分类器。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述多帧人脸图片包括对应的图像序列,所述通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别,包括:
将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;
根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;
计算所述动态表情特征属于每个表情类别的概率值;
获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
5.根据权利要求1所述的方法,其特征在于,所述获取预设的分析模型之前,还包括:
从预设数据库中获取多个用户历史行为数据和表情类别数据;
对多个用户历史行为数据和表情类别数据进行聚类分析,得到聚类结果;
根据聚类结果进行特征选择,提取出多个特征变量和对应的特征维度值;
根据多个特征变量和对应的特征维度值按照预设方式建立分析模型。
6.根据权利要求1所述的方法,其特征在于,所述通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,包括:
对所述历史行为数据进行特征提取,得到所述历史行为数据对应的特征向量;
将所述特征向量输入至所述分析模型中,通过所述分析模型对所述历史行为数据对应的特征向量进行分析,并生成对应的行为数据表;
根据所述表情类别和所述行为数据表生成分析结果。
7.一种行为数据推送装置,所述装置包括:
数据获取模块,用于获取用户终端上传的多帧人脸图片,所述多帧人脸图片携带了用户标识;
人脸识别模块,用于根据所述多帧人脸图片识别人脸图像,并提取所述人脸图像对应的人脸特征;
表情分类模块,用于获取预设的表情分类器,通过所述表情分类器对所述人脸特征进行分类,得到所述用户标识对应的表情类别;
所述数据获取模块还用于根据所述用户标识获取对应的历史行为数据;
数据分析模块,用于获取预设的分析模型,通过所述分析模型对所述表情类别和所述历史行为数据进行分析,得到分析结果,所述分析结果包括与所述用户当前的表情类别和用户历史行为习惯相匹配的行为标签;
所述数据获取模块还用于根据所述行为标签获取对应的行为数据;
数据推送模块,用于将所述行为数据推送至所述用户终端。
8.根据权利要求7所述的装置,其特征在于,所述多帧人脸图片包括对应的图像序列,所述表情分类模块还用于将多帧人脸图片对应的多帧人脸特征输入至所述表情分类器,通过所述表情分类器中的卷积神经网络识别每帧人脸特征向量;根据所述图像序列和多帧人脸特征向量计算对应的动态表情特征;计算所述动态表情特征属于每个表情类别的概率值;获取所述概率值最高的表情类别,得到所述用户标识对应的表情类别。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811546651.5A CN109766767A (zh) | 2018-12-18 | 2018-12-18 | 行为数据推送方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811546651.5A CN109766767A (zh) | 2018-12-18 | 2018-12-18 | 行为数据推送方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109766767A true CN109766767A (zh) | 2019-05-17 |
Family
ID=66450845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811546651.5A Pending CN109766767A (zh) | 2018-12-18 | 2018-12-18 | 行为数据推送方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109766767A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298245A (zh) * | 2019-05-22 | 2019-10-01 | 平安科技(深圳)有限公司 | 兴趣收集方法、装置、计算机设备及存储介质 |
CN110428087A (zh) * | 2019-06-25 | 2019-11-08 | 万翼科技有限公司 | 企业稳定性预测方法、装置、计算机设备和存储介质 |
CN110458647A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 产品推送方法、装置、计算机设备及存储介质 |
CN110990625A (zh) * | 2019-11-27 | 2020-04-10 | 南京创维信息技术研究院有限公司 | 影视推荐方法及装置 |
CN112084863A (zh) * | 2020-08-06 | 2020-12-15 | 珠海格力电器股份有限公司 | 一种基于表情的满意度分析方法、装置及存储介质 |
CN112861633A (zh) * | 2021-01-08 | 2021-05-28 | 广州朗国电子科技有限公司 | 一种基于机器学习的图像识别方法、设备及存储介质 |
CN112990119A (zh) * | 2021-04-25 | 2021-06-18 | 之江实验室 | 一种视频多目标人脸表情识别方法和系统 |
CN114511336A (zh) * | 2020-10-28 | 2022-05-17 | 中移(上海)信息通信科技有限公司 | 用户标签确定的方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104202718A (zh) * | 2014-08-05 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种向用户提供信息的方法与装置 |
CN105956059A (zh) * | 2016-04-27 | 2016-09-21 | 乐视控股(北京)有限公司 | 基于情绪识别的信息推荐方法和装置 |
CN106384083A (zh) * | 2016-08-31 | 2017-02-08 | 上海交通大学 | 一种自动面部表情识别并进行信息推荐的方法 |
CN106682090A (zh) * | 2016-11-29 | 2017-05-17 | 上海智臻智能网络科技股份有限公司 | 主动交互实现装置、方法及智能语音交互设备 |
CN107483636A (zh) * | 2017-09-22 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN107911491A (zh) * | 2017-12-27 | 2018-04-13 | 广东欧珀移动通信有限公司 | 信息推荐方法、装置及存储介质、服务器和移动终端 |
-
2018
- 2018-12-18 CN CN201811546651.5A patent/CN109766767A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104202718A (zh) * | 2014-08-05 | 2014-12-10 | 百度在线网络技术(北京)有限公司 | 一种向用户提供信息的方法与装置 |
CN105956059A (zh) * | 2016-04-27 | 2016-09-21 | 乐视控股(北京)有限公司 | 基于情绪识别的信息推荐方法和装置 |
CN106384083A (zh) * | 2016-08-31 | 2017-02-08 | 上海交通大学 | 一种自动面部表情识别并进行信息推荐的方法 |
CN106682090A (zh) * | 2016-11-29 | 2017-05-17 | 上海智臻智能网络科技股份有限公司 | 主动交互实现装置、方法及智能语音交互设备 |
CN107483636A (zh) * | 2017-09-22 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN107911491A (zh) * | 2017-12-27 | 2018-04-13 | 广东欧珀移动通信有限公司 | 信息推荐方法、装置及存储介质、服务器和移动终端 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298245A (zh) * | 2019-05-22 | 2019-10-01 | 平安科技(深圳)有限公司 | 兴趣收集方法、装置、计算机设备及存储介质 |
CN110298245B (zh) * | 2019-05-22 | 2023-10-13 | 平安科技(深圳)有限公司 | 兴趣收集方法、装置、计算机设备及存储介质 |
CN110428087A (zh) * | 2019-06-25 | 2019-11-08 | 万翼科技有限公司 | 企业稳定性预测方法、装置、计算机设备和存储介质 |
CN110458647A (zh) * | 2019-07-05 | 2019-11-15 | 深圳壹账通智能科技有限公司 | 产品推送方法、装置、计算机设备及存储介质 |
CN110990625A (zh) * | 2019-11-27 | 2020-04-10 | 南京创维信息技术研究院有限公司 | 影视推荐方法及装置 |
CN112084863A (zh) * | 2020-08-06 | 2020-12-15 | 珠海格力电器股份有限公司 | 一种基于表情的满意度分析方法、装置及存储介质 |
CN114511336A (zh) * | 2020-10-28 | 2022-05-17 | 中移(上海)信息通信科技有限公司 | 用户标签确定的方法、装置、设备及存储介质 |
CN112861633A (zh) * | 2021-01-08 | 2021-05-28 | 广州朗国电子科技有限公司 | 一种基于机器学习的图像识别方法、设备及存储介质 |
CN112861633B (zh) * | 2021-01-08 | 2022-05-31 | 广州朗国电子科技股份有限公司 | 一种基于机器学习的图像识别方法、设备及存储介质 |
CN112990119A (zh) * | 2021-04-25 | 2021-06-18 | 之江实验室 | 一种视频多目标人脸表情识别方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109766767A (zh) | 行为数据推送方法、装置、计算机设备和存储介质 | |
CN111050193B (zh) | 用户画像构建方法、装置、计算机设备和存储介质 | |
US11605226B2 (en) | Video data processing method and apparatus, and readable storage medium | |
US11308993B2 (en) | Short video synthesis method and apparatus, and device and storage medium | |
CN111428088B (zh) | 视频分类方法、装置及服务器 | |
Cui et al. | Distribution-oriented aesthetics assessment with semantic-aware hybrid network | |
CN109173263B (zh) | 一种图像数据处理方法和装置 | |
WO2020143156A1 (zh) | 热点视频标注处理方法、装置、计算机设备及存储介质 | |
CN109766765A (zh) | 音频数据推送方法、装置、计算机设备和存储介质 | |
CN110519617B (zh) | 视频评论处理方法、装置、计算机设备及存储介质 | |
CN109767261A (zh) | 产品推荐方法、装置、计算机设备和存储介质 | |
Chen et al. | HEU Emotion: a large-scale database for multimodal emotion recognition in the wild | |
CN110839173A (zh) | 一种音乐匹配方法、装置、终端及存储介质 | |
CN109766917A (zh) | 面试视频数据处理方法、装置、计算机设备和存储介质 | |
CN110139158A (zh) | 视频以及子视频的生成方法、装置、电子设备 | |
CN113709384A (zh) | 基于深度学习的视频剪辑方法、相关设备及存储介质 | |
Aly et al. | The AXES submissions at TrecVid 2013 | |
CN110418204B (zh) | 基于微表情的视频推荐方法、装置、设备和存储介质 | |
CN109523344A (zh) | 产品信息推荐方法、装置、计算机设备和存储介质 | |
US20200380690A1 (en) | Image processing method, apparatus, and storage medium | |
CN110175298A (zh) | 用户匹配方法 | |
CN110505504B (zh) | 视频节目处理方法、装置、计算机设备及存储介质 | |
CN109766474A (zh) | 审讯信息审核方法、装置、计算机设备和存储介质 | |
CN109684978A (zh) | 员工情绪监控方法、装置、计算机设备和存储介质 | |
CN109697421A (zh) | 基于微表情的评价方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |