CN110427802A - Au检测方法、装置、电子设备及存储介质 - Google Patents
Au检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN110427802A CN110427802A CN201910528234.6A CN201910528234A CN110427802A CN 110427802 A CN110427802 A CN 110427802A CN 201910528234 A CN201910528234 A CN 201910528234A CN 110427802 A CN110427802 A CN 110427802A
- Authority
- CN
- China
- Prior art keywords
- face picture
- picture
- training
- parameter
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 122
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 121
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 73
- 238000012360 testing method Methods 0.000 claims abstract description 58
- 238000013528 artificial neural network Methods 0.000 claims abstract description 30
- 239000003550 marker Substances 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 30
- 238000013145 classification model Methods 0.000 claims description 27
- 230000002708 enhancing effect Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 12
- 238000005516 engineering process Methods 0.000 claims description 11
- 241000208340 Araliaceae Species 0.000 claims description 4
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 4
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 4
- 235000008434 ginseng Nutrition 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 230000001815 facial effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000001097 facial muscle Anatomy 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000003313 weakening effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Abstract
本发明提供一种AU检测方法、装置、电子设备及存储介质。所述AU检测方法能够当接收到AU检测指令时,获取目标人脸图片,调整所述目标人脸图片的尺寸,并对调整后的目标人脸图片进行去均值,进一步对去均值后的目标人脸图片进行归一化,得到待检测图片,以实现对所述目标人脸图片的预处理,便于在同一维度上进行训练及计算,进一步将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,从而结合神经网络算法实现智能决策,准确且高效。
Description
技术领域
本发明涉及智能决策技术领域,尤其涉及一种AU检测方法、装置、电子设备及存储介质。
背景技术
随着人工智能技术的飞速发展,为了应对心理学研究、医疗、公共安全等众多领域的科研需求,AU(action units,人脸动作单元)检测也随之越来越重要。
现有技术方案中,AU检测通常采用神经网络算法,但在传统的训练方式中,训练样本单一,且训练参数有限,因此检测结果的准确率及检测速度均受到一定限制,对人工智能的发展产生不利影响。
发明内容
鉴于以上内容,有必要提供一种AU检测方法、装置、电子设备及存储介质,本发明能够实现网络参数的不断更新,并充分利用先验知识,以达到更高的训练精度。
一种AU检测方法,所述方法包括:
当接收到AU检测指令时,获取目标人脸图片;
调整所述目标人脸图片的尺寸;
对调整后的目标人脸图片进行去均值;
对去均值后的目标人脸图片进行归一化,得到待检测图片;
将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
根据本发明优选实施例,在将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果前,所述方法还包括:
当接收到训练指令时,获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片;
提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数;
利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
根据本发明优选实施例,所述获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片包括以下一种或者多种方式的组合:
采用网络爬虫技术获取所述样本图片;及/或
通过人脸图片获取工具获取所述样本图片;及/或
获取上传的人脸图片作为所述样本图片。
根据本发明优选实施例,所述获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片还包括:
对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
根据本发明优选实施例,在提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数前,所述方法还包括:
训练出所述人脸分类模型,得到所述第一参数;
利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
根据本发明优选实施例,所述利用反向传播算法,结合所述第一参数及所述第二参数,训练所述样本图片,得到AU检测模型包括:
计算所述AU检测模型输出结果的精度值;
获取所述AU检测模型输出结果的精度阈值;
利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
根据本发明优选实施例,在得到所述表情检测结果后,所述方法还包括:
保留所述表情检测结果中的AU检测结果;
删除所述表情检测结果中的人脸分类结果。
一种AU检测装置,所述装置包括:
获取单元,用于当接收到AU检测指令时,获取目标人脸图片;
调整单元,用于调整所述目标人脸图片的尺寸;
去均值单元,用于对调整后的目标人脸图片进行去均值;
归一化单元,用于对去均值后的目标人脸图片进行归一化,得到待检测图片;
输入单元,用于将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
根据本发明优选实施例,所述获取单元,还用于在将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果前,当接收到训练指令时,获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片;
所述装置还包括:
提取单元,用于提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数;
训练单元,用于利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
根据本发明优选实施例,所述获取单元获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片包括以下一种或者多种方式的组合:
采用网络爬虫技术获取所述样本图片;及/或
通过人脸图片获取工具获取所述样本图片;及/或
获取上传的人脸图片作为所述样本图片。
根据本发明优选实施例,所述获取单元获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片还包括:
对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
根据本发明优选实施例,所述训练单元,还用于在提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数前,训练出所述人脸分类模型,得到所述第一参数;
所述训练单元,还用于利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
根据本发明优选实施例,所述训练单元利用反向传播算法,结合所述第一参数及所述第二参数,训练所述样本图片,得到AU检测模型包括:
计算所述AU检测模型输出结果的精度值;
获取所述AU检测模型输出结果的精度阈值;
利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
根据本发明优选实施例,所述装置还包括:
保留单元,用于在得到所述表情检测结果后,保留所述表情检测结果中的AU检测结果;
删除单元,用于删除所述表情检测结果中的人脸分类结果。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述AU检测方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述AU检测方法。
由以上技术方案可以看出,本发明能够当接收到AU检测指令时,获取目标人脸图片,调整所述目标人脸图片的尺寸,并对调整后的目标人脸图片进行去均值,进一步对去均值后的目标人脸图片进行归一化,得到待检测图片,以实现对所述目标人脸图片的预处理,便于在同一维度上进行训练及计算,进一步将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,从而结合神经网络算法实现智能决策,准确且高效。
附图说明
图1是本发明AU检测方法的较佳实施例的流程图。
图2是本发明AU检测装置的较佳实施例的功能模块图。
图3是本发明实现AU检测方法的较佳实施例的电子设备的结构示意图。
主要元件符号说明
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明AU检测方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述AU检测方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到AU检测指令时,获取目标人脸图片。
在本发明的至少一个实施例中,所述AU检测指令可以由用户触发,也可以在满足一定条件时自动触发,本发明不限制。
在本发明的至少一个实施例中,所述目标人脸图片是指需要检测的图片。
S11,调整所述目标人脸图片的尺寸。
在本发明的至少一个实施例中,为了保证在同一维度上进行训练及计算,所述电子设备首先对所述述目标人脸图片进行预处理,即调整所述目标人脸图片的尺寸。
具体地,所述电子设备把所述人脸图片等比例缩放到最小边长为256的尺寸,如[1280,720]缩放到[455,256]尺寸,进一步地,所述电子设备对所述人脸图片进行中心裁剪,取所述人脸图片最中间224*224尺寸的区域图片,如[455,256]尺寸图片取[115:339,16:240]区域,得到224*224尺寸的人脸图片。
S12,对调整后的目标人脸图片进行去均值。
在本发明的至少一个实施例中,所述电子设备对所述224*224尺寸的人脸图片进行去均值,把输入图片对应的矩阵各个维度都中心化为0,即人脸图片减均值。
S13,对去均值后的目标人脸图片进行归一化,得到待检测图片。
在本发明的至少一个实施例中,所述电子设备对所述224*224尺寸的人脸图片进行归一化,得到所述待检测图片。
具体地,归一化是指将幅度归一化到同样的范围,即人脸图片除标准差。经过归一化后,减少了各维度数据取值范围有差异而带来的干扰,例如,我们有两个维度的特征A和B,A范围是0到10,而B范围是0到10000,如果直接使用这两个特征是有问题的,进行归一化处理后,则A和B的数据都变为0到1的范围,便于在同一维度上进行训练及计算。
S14,将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果。
其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
通过上述实施方式,所述电子设备能够利用所述AU检测模型得到表情检测结果,且结果更加准确。
在本发明的至少一个实施例中,在将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果前,所述方法还包括:
所述电子设备训练所述AU检测模型。
具体地,所述电子设备训练所述AU检测模型包括:
当接收到训练指令时,所述电子设备获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片,进一步地,所述电子设备提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数,所述电子设备利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
在本发明的至少一个实施例中,所述电子设备接收所述训练指令包括,但不限于以下一种或者多种的组合:
(1)所述电子设备接收到用户触发配置按键的信号,以确定接收到所述训练指令。
具体地,所述配置按键是预先配置的,用于触发所述训练指令。所述配置按键可以是虚拟按键,也可以是实体按键。
(2)所述电子设备接收到配置语音信号,以确定接收到所述训练指令。
具体地,所述配置语音信号是预先配置的,用于触发所述训练指令。
进一步地,所述电子设备接收用户输入的语音,并对所述语音进行语音识别,以确定所述语音是否与所述配置语音一致,并且,当所述语音与所述配置语音一致时,所述电子设备确定接收到所述训练指令。
在本发明的至少一个实施例中,FACS(Facial Action Coding System,面部行为编码系统)中详细分析了面部全部肌肉组织的活动,及其活动所引起的面部各个独立部位的变化,以及可观察到的、由这些肌肉活动所引起的表情。在此基础上,将脸部运动分解成一些基本的AU。其中,AU是脸部肌肉的细微运动,也就是指人脸部的基本肌肉动作单元,而且AU主要有单个AU和组合AU。
例如:AU可以包括内眉上扬、嘴角上扬、鼻子蹙皱等。
进一步地,所述AU检测是指通过比较人脸图片和AU的相似度,以判断人脸图片为哪一个AU的过程。
在本提案中,可以选取FACS中的19个单个AU,如:6个上半脸AU和13个下半脸AU,本发明不限制。
那么,所述AU检测则是指将上述19个AU作为检测对比的标准,以预测输入的人脸图片属于19个AU中每个AU的概率。
在本发明的至少一个实施例中,将人脸图片进行AU标记包括,但不限于以下任意一种方式:
(1)所述电子设备为人脸图片中的AU打标签。
(2)所述电子设备对人脸图片中的AU做特殊标记(如:红色圆圈、红色方框等)。
在本发明的至少一个实施例中,所述电子设备将人脸图片进行分类标记包括:
根据用户的不同,对人脸图片进行分类,并对属于不同用户的人脸图片分别进行标记。
具体地,标记方式可以是打标签等,本发明不限制。
在本发明的至少一个实施例中,所述样本图片用于采用神经网络算法训练所述AU检测模型。
在本发明的至少一个实施例中,所述电子设备获取所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片包括,但不限于以下一种或者多种方式的组合:
(1)所述电子设备采用网络爬虫技术获取所述样本图片。
由于训练样本的数量越多,训练精度越高,因此,所述电子设备采用网络爬虫技术,可以获取到大量人脸图片作为所述样本图片,有效保证了模型的训练精度。
(2)所述电子设备通过人脸图片获取工具获取所述样本图片。
例如:所述电子设备通过opencv(开源库)读取图片等。
(3)所述电子设备获取上传的人脸图片作为所述样本图片。
当检测范围是根据用户的需求设定时,所述电子设备还可以接收用户上传的人脸图片作为所述样本图片,以确保模型的精确性。
在本发明的至少一个实施例中,所述样本图片的格式包括,但不限于:jpg、png和gif等,此处不作限制。
在本发明的至少一个实施例中,所述电子设备获取所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片还包括:
对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
可以理解的是,一方面局限于人脸图片数量的有限性,另一方面限制于AU标记的困难性,因此,为了保证具有足够的训练样本进行训练,以得到更加精准的所述AU检测模型,所述电子设备首先对人脸图片进行数据增强,以确保训练样本充足,从而达到更好的训练效果。
具体地,只要能够起到数据增强的作用,本发明对采取的数据增强技术不限制。
在本实施例中,由于同时采用所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片,因此能够保证训练时具有充足的训练样本,训练效果更好。且由于提供了更多的特征细节,进而有效避免过拟合现象的发生。
在本发明的至少一个实施例中,所述电子设备首先训练所述人脸分类模型及所述表情识别模型。
具体地,所述电子设备在提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数前,所述方法还包括:
所述电子设备训练出所述人脸分类模型,得到所述第一参数,利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
例如:所述电子设备采用迁移方式逐步训练得到所述人脸分类模型,具体地,最后一层全连接层参数表征人脸种类数,并采用softmax层进行多分类。先训练100个种类的分类模型,当分类结果的准确率达到70%后,再把100个种类的分类结果迁移到1200个种类的分类模型进行训练,当分类结果的准确率达到90%后,再把1200个种类的分类结果迁移到16000个种类的分类模型进行训练,以此类推,最后尽可能高的训练得到16000个种类的人脸分类模型。
进一步地,由于所述人脸分类模型及所述表情识别模型的网络组成类似,仅仅最后一层结构不一样,其他参数数量均一致,因此,网络参数是可以互相加载的。
当所述人脸分类模型的准确率达到预设值(如:95%)时,所述电子设备以所述人脸分类模型的第一参数迁移学习所述表情识别模型,即直接加载所述第一参数进行训练,以所述第一参数作为初始参数,固定神经网络从开始到conv3_x的各层参数,并利用反向传播算法对conv4_x及后面的各层参数进行训练。
通过上述实施方式,所述电子设备使用人脸分类模型的训练结果并迁移,同时锁定部分网络层参数,因此,在AU预测中即可充分利用人脸分类中学习到的人脸结构特征,充分利用所述人脸分类学习的先验知识,提高AU训练精度。
在本发明的至少一个实施例中,所述电子设备利用所述反向传播算法,并充分利用先验知识,能够实现网络参数的不断更新,以达到更高的训练精度。
具体地,所述电子设备利用反向传播算法,结合所述第一参数及所述第二参数,训练所述样本图片,得到AU检测模型包括:
所述电子设备计算所述AU检测模型输出结果的精度值,并获取所述AU检测模型输出结果的精度阈值,进一步地,所述电子设备利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
具体地,所述精度阈值可以进行自定义配置,以便根据实际需求训练出满足精度要求的模型。
进一步地,训练后得到的所述AU检测模型首先将所述样本图片进行数据拼接,然后经过一个卷积层、一个池化层,再经过两组参数不同的convolution package后,将数据进行拆分,进一步经由两组参数不同的convolution package后,再经过池化层、全连接层,最后由sigmoid层进行二分类,得到AU的预测结果。其中,在每组第一个convolutionpackage的第二个卷积层处进行stride为2的下采样,以便对数据降维,去掉次要因素,并减少冗余数据量。
通过上述实施方式,所述电子设备能够通过所有参数的不断调整,实现对所述AU检测模型的训练,以获取到满足精度需求的模型,而且由于所有参数都参与调整,因此训练效果更佳。
在本发明的至少一个实施例中,所述电子设备在得到所述表情检测结果后,所述方法还包括:
所述电子设备保留所述表情检测结果中的AU检测结果,进一步地,所述电子设备删除所述表情检测结果中的人脸分类结果。
通过上述实施方式,由于将所述带有分类标记的人脸图片作为样本图片,因此提供了更多的特征细节,可以有效防止由于过拟合导致学习到错误信息的情况,但是,在训练过程中,所述带有AU标记的人脸图片特征在逐步加强,而所述带有分类标记的人脸图片特征在逐渐减弱,导致训练结束后,所述AU检测结果的精度在逐渐提高,而所述人脸分类结果的精度在逐渐下降,因此,所述电子设备保留所述表情检测结果中的AU检测结果,并删除所述表情检测结果中的人脸分类结果,以达到对结果的合理利用。
由以上技术方案可以看出,本发明能够当接收到AU检测指令时,获取目标人脸图片,调整所述目标人脸图片的尺寸,并对调整后的目标人脸图片进行去均值,进一步对去均值后的目标人脸图片进行归一化,得到待检测图片,以实现对所述目标人脸图片的预处理,便于在同一维度上进行训练及计算,进一步将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,从而结合神经网络算法实现智能决策,准确且高效。
如图2所示,是本发明AU检测装置的较佳实施例的功能模块图。所述AU检测装置11包括获取单元110、提取单元111、训练单元112、归一化单元113、输入单元114、保留单元115、删除单元116、调整单元117及去均值单元118。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到AU检测指令时,获取单元110获取目标人脸图片。
在本发明的至少一个实施例中,所述AU检测指令可以由用户触发,也可以在满足一定条件时自动触发,本发明不限制。
在本发明的至少一个实施例中,所述目标人脸图片是指需要检测的图片。
调整单元117调整所述目标人脸图片的尺寸。
在本发明的至少一个实施例中,为了保证在同一维度上进行训练及计算,所述调整单元117首先对所述述目标人脸图片进行预处理,即调整所述目标人脸图片的尺寸。
具体地,所述调整单元117把所述人脸图片等比例缩放到最小边长为256的尺寸,如[1280,720]缩放到[455,256]尺寸,进一步地,所述调整单元117对所述人脸图片进行中心裁剪,取所述人脸图片最中间224*224尺寸的区域图片,如[455,256]尺寸图片取[115:339,16:240]区域,得到224*224尺寸的人脸图片。
去均值单元118对调整后的目标人脸图片进行去均值。
在本发明的至少一个实施例中,所述去均值单元118对所述224*224尺寸的人脸图片进行去均值,把输入图片对应的矩阵各个维度都中心化为0,即人脸图片减均值。
归一化单元113对去均值后的目标人脸图片进行归一化,得到待检测图片。
在本发明的至少一个实施例中,所述归一化单元113对224*224尺寸的人脸图片进行归一化,得到所述待检测图片。
具体地,归一化是指将幅度归一化到同样的范围,即人脸图片除标准差。经过归一化后,减少了各维度数据取值范围有差异而带来的干扰,例如,我们有两个维度的特征A和B,A范围是0到10,而B范围是0到10000,如果直接使用这两个特征是有问题的,进行归一化处理后,则A和B的数据都变为0到1的范围,便于在同一维度上进行训练及计算。
输入单元114将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果。
其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
通过上述实施方式,能够利用所述AU检测模型得到表情检测结果,且所述检测结果更加准确。
在本发明的至少一个实施例中,在将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果前,所述方法还包括:
训练所述AU检测模型。
具体地,训练所述AU检测模型包括:
当接收到训练指令时,所述获取单元110获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片,进一步地,提取单元111提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数,所述训练单元112利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
在本发明的至少一个实施例中,所述获取单元110接收所述训练指令包括,但不限于以下一种或者多种的组合:
(1)所述获取单元110接收到用户触发配置按键的信号,以确定接收到所述训练指令。
具体地,所述配置按键是预先配置的,用于触发所述训练指令。所述配置按键可以是虚拟按键,也可以是实体按键。
(2)所述获取单元110接收到配置语音信号,以确定接收到所述训练指令。
具体地,所述配置语音信号是预先配置的,用于触发所述训练指令。
进一步地,所述获取单元110接收用户输入的语音,并对所述语音进行语音识别,以确定所述语音是否与所述配置语音一致,并且,当所述语音与所述配置语音一致时,所述获取单元110确定接收到所述训练指令。
在本发明的至少一个实施例中,FACS(Facial Action Coding System,面部行为编码系统)中详细分析了面部全部肌肉组织的活动,及其活动所引起的面部各个独立部位的变化,以及可观察到的、由这些肌肉活动所引起的表情。在此基础上,将脸部运动分解成一些基本的AU。其中,AU是脸部肌肉的细微运动,也就是指人脸部的基本肌肉动作单元,而且AU主要有单个AU和组合AU。
例如:AU可以包括内眉上扬、嘴角上扬、鼻子蹙皱等。
进一步地,AU检测是指通过比较人脸图片和AU的相似度,以判断人脸图片为哪一个AU。
在本提案中,可以选取FACS中的19个单个AU,如:6个上半脸AU和13个下半脸AU,本发明不限制。
那么,AU检测则是指将上述19个AU作为检测对比的标准,以预测输入的人脸图片属于19个AU中每个AU的概率。
在本发明的至少一个实施例中,将人脸图片进行AU标记包括,但不限于以下任意一种方式:
(1)为人脸图片中的AU打标签。
(2)对所述人脸图片中的AU做特殊标记(如:红色圆圈、红色方框等)。
在本发明的至少一个实施例中,将人脸图片进行分类标记包括:
根据用户的不同,对人脸图片进行分类,并对属于不同用户的人脸图片分别进行标记。
具体地,标记方式可以是打标签等,本发明不限制。
在本发明的至少一个实施例中,所述样本图片用于采用神经网络算法训练所述AU检测模型。
在本发明的至少一个实施例中,所述获取单元110获取所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片包括,但不限于以下一种或者多种方式的组合:
(1)所述获取单元110采用网络爬虫技术获取所述样本图片。
由于训练样本的数量越多,训练精度越高,因此,所述获取单元110采用网络爬虫技术,可以获取到大量人脸图片作为所述样本图片,有效保证了模型的训练精度。
(2)所述获取单元110通过人脸图片获取工具获取所述样本图片。
例如:所述获取单元110通过opencv(开源库)读取图片等。
(3)所述获取单元110获取上传的人脸图片作为所述样本图片。
当检测范围是根据用户的需求设定时,所述获取单元110还可以接收用户上传的人脸图片作为所述样本图片,以确保模型的精确性。
在本发明的至少一个实施例中,所述样本图片的格式包括,但不限于:jpg、png和gif等,此处不作限制。
在本发明的至少一个实施例中,所述获取单元110获取所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片还包括:
所述获取单元110对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
可以理解的是,一方面局限于人脸图片数量的有限性,另一方面限制于AU标记的困难性,因此,为了保证具有足够的训练样本进行训练,以得到所述AU检测模型,所述获取单元110首先对所述人脸图片进行数据增强,以确保训练样本充足,从而达到更好的训练效果。
具体地,只要能够起到数据增强的作用,本发明对采取的数据增强技术不限制。
在本实施例中,由于同时采用所述带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片,因此能够保证训练时具有充足的训练样本,训练效果更好。且由于提供了更多的特征细节,进而有效避免过拟合现象的发生。
在本发明的至少一个实施例中,所述训练单元112首先训练所述人脸分类模型及所述表情识别模型。
具体地,所述提取单元111在提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数前,所述方法还包括:
所述训练单元112训练出所述人脸分类模型,得到所述第一参数,利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
例如:所述训练单元112采用迁移方式逐步训练得到所述人脸分类模型,具体地,最后一层全连接层参数表征人脸种类数,并采用softmax层进行多分类。所述训练单元112先训练100个种类的分类模型,当分类结果的准确率达到70%后,再把100个种类的分类结果迁移到1200个种类的分类模型进行训练,当分类结果的准确率达到90%后,再把1200个种类的分类结果迁移到16000个种类的分类模型进行训练,以此类推,最后尽可能高的训练得到16000个种类的人脸分类模型。
进一步地,由于所述人脸分类模型及所述表情识别模型的网络组成类似,仅仅最后一层结构不一样,其他参数数量均一致,因此,网络参数是可以互相加载的。
当所述人脸分类模型的准确率达到预设值(如:95%)时,所述训练单元112以所述人脸分类模型的第一参数迁移学习所述表情识别模型,即直接加载所述第一参数进行训练,以所述第一参数作为初始参数,固定神经网络从开始到conv3_x的各层参数,并利用反向传播算法对conv4_x及后面的各层参数进行训练。
通过上述实施方式,所述训练单元112使用人脸分类模型的训练结果并迁移,同时锁定部分网络层参数,因此,在AU预测中即可充分利用人脸分类中学习到的人脸结构特征,充分利用人脸分类学习的先验知识,提高AU训练精度。
在本发明的至少一个实施例中,所述训练单元112利用所述反向传播算法,并充分利用先验知识,能够实现网络参数的不断训练更新,以达到更高的训练精度。
具体地,所述训练单元112利用反向传播算法,结合所述第一参数及所述第二参数,训练所述样本图片,得到AU检测模型包括:
所述训练单元112计算所述AU检测模型输出结果的精度值,并获取所述AU检测模型输出结果的精度阈值,进一步地,所述训练单元112利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
具体地,所述精度阈值可以进行自定义配置,以便根据实际需求训练出满足精度要求的模型。
进一步地,所述训练单元112训练后得到的所述AU检测模型首先将所述样本图片进行数据拼接,然后经过一个卷积层、一个池化层,再经过两组参数不同的convolutionpackage后,将数据进行拆分,进一步经由两组参数不同的convolution package后,再经过池化层、全连接层,最后由sigmoid层进行二分类,得到AU的预测结果。其中,在每组第一个convolution package的第二个卷积层处进行stride为2的下采样,以便对数据降维,去掉次要因素,并减少冗余数据量。
通过上述实施方式,所述训练单元112能够通过所有参数的不断调整,实现对所述AU检测模型的训练,以获取到满足精度需求的模型,而且由于所有参数都参与调整,因此训练效果更佳。
在本发明的至少一个实施例中,在得到所述表情检测结果后,所述方法还包括:
保留单元115保留所述表情检测结果中的AU检测结果,进一步地,删除单元116删除所述表情检测结果中的人脸分类结果。
通过上述实施方式,由于将所述带有分类标记的人脸图片作为样本图片,因此提供了更多的特征细节,可以有效防止由于过拟合导致学习到错误信息的情况,但是,在训练过程中,所述带有AU标记的人脸图片特征在逐步加强,而所述带有分类标记的人脸图片特征在逐渐减弱,导致训练结束后,所述AU检测结果的精度在逐渐提高,而所述人脸分类结果的精度在逐渐下降,因此,所述保留单元115保留所述表情检测结果中的AU检测结果,进一步地,所述删除单元116删除所述表情检测结果中的人脸分类结果,以达到对结果的合理利用。
由以上技术方案可以看出,本发明能够当接收到AU检测指令时,获取目标人脸图片,调整所述目标人脸图片的尺寸,并对调整后的目标人脸图片进行去均值,进一步对去均值后的目标人脸图片进行归一化,得到待检测图片,以实现对所述目标人脸图片的预处理,便于在同一维度上进行训练及计算,进一步将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,从而结合神经网络算法实现智能决策,准确且高效。
如图3所示,是本发明实现AU检测方法的较佳实施例的电子设备的结构示意图。
所述电子设备1是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备1还可以是但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备1还可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
所述电子设备1所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如AU检测程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个AU检测方法实施例中的步骤,例如图1所示的步骤S10、S11、S12、S13、S14。
或者,所述处理器13执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如:当接收到AU检测指令时,获取目标人脸图片;调整所述目标人脸图片的尺寸;对调整后的目标人脸图片进行去均值;对去均值后的目标人脸图片进行归一化,得到待检测图片;将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、提取单元111、训练单元112、归一化单元113、输入单元114、保留单元115、删除单元116、调整单元117及去均值单元118。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是集成电路中没有实物形式的具有存储功能的电路,如RAM(Random-AccessMemory,随机存取存储器)、FIFO(First In First Out,)等。或者,所述存储器12也可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种AU检测方法,所述处理器13可执行所述多个指令从而实现:当接收到AU检测指令时,获取目标人脸图片;调整所述目标人脸图片的尺寸;对调整后的目标人脸图片进行去均值;对去均值后的目标人脸图片进行归一化,得到待检测图片;将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
根据本发明优选实施例,所述处理器13执行多个指令包括:
当接收到训练指令时,获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片;
提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数;
利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
根据本发明优选实施例,所述处理器13执行多个指令包括:
采用网络爬虫技术获取所述样本图片;及/或
通过人脸图片获取工具获取所述样本图片;及/或
获取上传的人脸图片作为所述样本图片。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
训练出所述人脸分类模型,得到所述第一参数;
利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
计算所述AU检测模型输出结果的精度值;
获取所述AU检测模型输出结果的精度阈值;
利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
保留所述表情检测结果中的AU检测结果;
删除所述表情检测结果中的人脸分类结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种AU检测方法,其特征在于,所述方法包括:
当接收到AU检测指令时,获取目标人脸图片;
调整所述目标人脸图片的尺寸;
对调整后的目标人脸图片进行去均值;
对去均值后的目标人脸图片进行归一化,得到待检测图片;
将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
2.如权利要求1所述的AU检测方法,其特征在于,在将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果前,所述方法还包括:
当接收到训练指令时,获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片;
提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数;
利用反向传播算法,结合所述第一参数及所述第二参数,采用神经网络算法训练所述样本图片,得到AU检测模型。
3.如权利要求2所述的AU检测方法,其特征在于,所述获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片包括以下一种或者多种方式的组合:
采用网络爬虫技术获取所述样本图片;及/或
通过人脸图片获取工具获取所述样本图片;及/或
获取上传的人脸图片作为所述样本图片。
4.如权利要求2所述的AU检测方法,其特征在于,所述获取带有AU标记的人脸图片及带有分类标记的人脸图片作为样本图片还包括:
对所述带有AU标记的人脸图片及带有分类标记的人脸图片进行数据增强,得到所述样本图片。
5.如权利要求2所述的AU检测方法,其特征在于,在提取预先训练的人脸分类模型的第一参数,及预先训练的表情识别模型的第二参数前,所述方法还包括:
训练出所述人脸分类模型,得到所述第一参数;
利用反向传播算法,结合所述第一参数,训练出所述表情识别模型,得到所述第二参数。
6.如权利要求2所述的AU检测方法,其特征在于,所述利用反向传播算法,结合所述第一参数及所述第二参数,训练所述样本图片,得到AU检测模型包括:
计算所述AU检测模型输出结果的精度值;
获取所述AU检测模型输出结果的精度阈值;
利用反向传播算法调节所述AU检测模型中的所有参数,直至所述精度值达到所述精度阈值,停止训练。
7.如权利要求1所述的AU检测方法,其特征在于,在得到所述表情检测结果后,所述方法还包括:
保留所述表情检测结果中的AU检测结果;
删除所述表情检测结果中的人脸分类结果。
8.一种AU检测装置,其特征在于,所述装置包括:
获取单元,用于当接收到AU检测指令时,获取目标人脸图片;
调整单元,用于调整所述目标人脸图片的尺寸;
去均值单元,用于对调整后的目标人脸图片进行去均值;
归一化单元,用于对去均值后的目标人脸图片进行归一化,得到待检测图片;
输入单元,用于将所述待检测图片输入到结合反向传播算法及神经网络算法训练的AU检测模型中,得到表情检测结果,其中,所述AU检测模型由带有AU标记的人脸图片及带有分类标记的人脸图片训练得到,用于根据所述目标人脸图片输出所述表情检测结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的AU检测方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的AU检测方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910528234.6A CN110427802A (zh) | 2019-06-18 | 2019-06-18 | Au检测方法、装置、电子设备及存储介质 |
PCT/CN2019/102615 WO2020252903A1 (zh) | 2019-06-18 | 2019-08-26 | Au检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910528234.6A CN110427802A (zh) | 2019-06-18 | 2019-06-18 | Au检测方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110427802A true CN110427802A (zh) | 2019-11-08 |
Family
ID=68408671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910528234.6A Pending CN110427802A (zh) | 2019-06-18 | 2019-06-18 | Au检测方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110427802A (zh) |
WO (1) | WO2020252903A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085063A (zh) * | 2020-08-10 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种目标识别方法、装置、终端设备及存储介质 |
CN112541445A (zh) * | 2020-12-16 | 2021-03-23 | 中国联合网络通信集团有限公司 | 人脸表情的迁移方法、装置、电子设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818772A (zh) * | 2021-01-19 | 2021-05-18 | 网易(杭州)网络有限公司 | 一种面部参数的识别方法、装置、电子设备及存储介质 |
CN113792572A (zh) * | 2021-06-17 | 2021-12-14 | 重庆邮电大学 | 一种基于局部表征的面部表情识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875901A (zh) * | 2017-11-20 | 2018-11-23 | 北京旷视科技有限公司 | 神经网络训练方法以及通用物体检测方法、装置和系统 |
CN109409198A (zh) * | 2018-08-31 | 2019-03-01 | 平安科技(深圳)有限公司 | Au检测模型训练方法、au检测方法、装置、设备及介质 |
CN109583431A (zh) * | 2019-01-02 | 2019-04-05 | 上海极链网络科技有限公司 | 一种人脸情绪识别模型、方法及其电子装置 |
CN109784153A (zh) * | 2018-12-10 | 2019-05-21 | 平安科技(深圳)有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
WO2019095571A1 (zh) * | 2017-11-15 | 2019-05-23 | 平安科技(深圳)有限公司 | 人物情绪分析方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107644209A (zh) * | 2017-09-21 | 2018-01-30 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
CN109740657B (zh) * | 2018-12-27 | 2021-10-29 | 郑州云海信息技术有限公司 | 一种用于图像数据分类的神经网络模型的训练方法与设备 |
CN109840513B (zh) * | 2019-02-28 | 2020-12-01 | 北京科技大学 | 一种人脸微表情识别方法及识别装置 |
-
2019
- 2019-06-18 CN CN201910528234.6A patent/CN110427802A/zh active Pending
- 2019-08-26 WO PCT/CN2019/102615 patent/WO2020252903A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019095571A1 (zh) * | 2017-11-15 | 2019-05-23 | 平安科技(深圳)有限公司 | 人物情绪分析方法、装置及存储介质 |
CN108875901A (zh) * | 2017-11-20 | 2018-11-23 | 北京旷视科技有限公司 | 神经网络训练方法以及通用物体检测方法、装置和系统 |
CN109409198A (zh) * | 2018-08-31 | 2019-03-01 | 平安科技(深圳)有限公司 | Au检测模型训练方法、au检测方法、装置、设备及介质 |
CN109784153A (zh) * | 2018-12-10 | 2019-05-21 | 平安科技(深圳)有限公司 | 情绪识别方法、装置、计算机设备及存储介质 |
CN109583431A (zh) * | 2019-01-02 | 2019-04-05 | 上海极链网络科技有限公司 | 一种人脸情绪识别模型、方法及其电子装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085063A (zh) * | 2020-08-10 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种目标识别方法、装置、终端设备及存储介质 |
CN112085063B (zh) * | 2020-08-10 | 2023-10-13 | 深圳市优必选科技股份有限公司 | 一种目标识别方法、装置、终端设备及存储介质 |
CN112541445A (zh) * | 2020-12-16 | 2021-03-23 | 中国联合网络通信集团有限公司 | 人脸表情的迁移方法、装置、电子设备及存储介质 |
CN112541445B (zh) * | 2020-12-16 | 2023-07-18 | 中国联合网络通信集团有限公司 | 人脸表情的迁移方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020252903A1 (zh) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110427802A (zh) | Au检测方法、装置、电子设备及存储介质 | |
Pan et al. | Hierarchical recurrent neural encoder for video representation with application to captioning | |
CN112734775B (zh) | 图像标注、图像语义分割、模型训练方法及装置 | |
Yang et al. | Skeletonnet: A hybrid network with a skeleton-embedding process for multi-view image representation learning | |
CN112131978B (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN107844784A (zh) | 人脸识别方法、装置、计算机设备和可读存储介质 | |
CN106778852A (zh) | 一种修正误判的图像内容识别方法 | |
Hii et al. | Multigap: Multi-pooled inception network with text augmentation for aesthetic prediction of photographs | |
CN112221159B (zh) | 一种虚拟道具推荐方法、装置及计算机可读存储介质 | |
Wang et al. | Gan-knowledge distillation for one-stage object detection | |
CN111046886A (zh) | 号码牌自动识别方法、装置、设备及计算机可读存储介质 | |
CN112990378B (zh) | 基于人工智能的场景识别方法、装置及电子设备 | |
CN108509833A (zh) | 一种基于结构化分析字典的人脸识别方法、装置及设备 | |
Oluwasammi et al. | Features to text: a comprehensive survey of deep learning on semantic segmentation and image captioning | |
CN109446897B (zh) | 基于图像上下文信息的场景识别方法及装置 | |
CN110851621A (zh) | 基于知识图谱预测视频精彩级别的方法、装置及存储介质 | |
KR102185979B1 (ko) | 동영상에 포함된 객체의 운동 유형을 결정하기 위한 방법 및 장치 | |
CN105389588B (zh) | 基于多语义码本图像特征表示方法 | |
CN113763385A (zh) | 视频目标分割方法、装置、设备及介质 | |
CN113569895A (zh) | 图像处理模型训练方法、处理方法、装置、设备及介质 | |
Wang et al. | Action recognition using edge trajectories and motion acceleration descriptor | |
Liu et al. | Image retrieval using CNN and low-level feature fusion for crime scene investigation image database | |
Rodrigues et al. | Classification of facial expressions under partial occlusion for VR games | |
Lu | Multifeature fusion human motion behavior recognition algorithm using deep reinforcement learning | |
CN111709473A (zh) | 对象特征的聚类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |