CN105701468A - 一种基于深度学习的人脸吸引力评价方法 - Google Patents
一种基于深度学习的人脸吸引力评价方法 Download PDFInfo
- Publication number
- CN105701468A CN105701468A CN201610022077.8A CN201610022077A CN105701468A CN 105701468 A CN105701468 A CN 105701468A CN 201610022077 A CN201610022077 A CN 201610022077A CN 105701468 A CN105701468 A CN 105701468A
- Authority
- CN
- China
- Prior art keywords
- face
- layer
- image
- score
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000011156 evaluation Methods 0.000 title claims abstract description 19
- 238000000034 method Methods 0.000 claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 9
- 238000005457 optimization Methods 0.000 claims abstract description 7
- 230000003796 beauty Effects 0.000 claims abstract description 5
- 238000005070 sampling Methods 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 230000001815 facial effect Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000013461 design Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 210000005036 nerve Anatomy 0.000 abstract 2
- 238000000605 extraction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013210 evaluation model Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的人脸吸引力评价方法,该方法包括下述步骤:(1)、对人脸数据库中的人脸图像做图层分解,提取出包含人脸皮肤光滑度信息的细节图层和包含人脸皮肤亮度信息的亮度图层;(2)、在特定设计的卷积神经网络结构下,将细节层作为输入训练得到一个初步的人脸吸引力评价网络模型;(3)、将亮度层作为输入对网络模型进行微调优化;(4)、将人脸图像的RGB颜色信息作为输入对网络模型进行微调优化,得到最终的评分模型;(5)、将任意人脸图像输入评分模型,得到相应的人脸吸引力分数。本发明摒弃传统的手工提取人脸面部特征的方法,利用深度学习中的卷积神经网络自动提取人脸特征并学习人脸美丽的标准。
Description
技术领域
本发明涉及计算机图像数据处理及模式识别的研究领域,特别涉及一种基于深度学习的人脸吸引力评价方法。
背景技术
爱美之心,人皆有之。人人都希望自己是美丽的,然而评价一张人脸图像是否具有足够的吸引力,却是一个抽象的难题,其不可避免的要受到人脸图像的姿态、光照、种族及评判人主观因素等的影响。然而人脸吸引力评价也并非绝对抽象,长时间以来,研究者们关于人脸吸引力也积累了一些量化标准,如由中国的传统审美观念衍生出的“三庭五眼”和“四高三低”,以及在欧洲地区盛行的“面部黄金比例”等。近年来,随着人工智能的兴起,自动化的人脸吸引力评价也在机器学习和计算机视觉领域引起关注。然而如何让计算机对人脸进行客观的吸引力评价是一个复杂的难题,目前这方面国内外的研究还比较少,大多停留在手工提取人脸几何特征或表观特征,然后用传统的机器学习算法进行学习的基础上。然而手工提取特征的工作不仅繁杂,选择合适的面部特征也相当依赖于研究者的经验和学识。深度学习的方法可以摒弃繁琐的手工特征提取的工作,将其吸引力预测合为一体。利用深度自学习来提取人脸图像更具结构性和层次性的美学特征,可以实现对人脸图像更准确的吸引力预测。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于深度学习的人脸吸引力评价方法,具体通过深度学习中的卷积神经网络建立人脸吸引力预测的客观评价模型,结合大量的训练样本和层次化的训练方法,使得模型能够学习到人脸吸引力评价的客观标准,对任意输入的每张人脸图片预测出合理的吸引力分数,从而实现端到端的人脸吸引力评价。
为了实现上述目的,本发明采用以下技术方案:
本发明提供的一种基于深度学习的人脸吸引力评价方法,该方法包括下述步骤:
(1)、对人脸数据库中的人脸图像做图层分解,提取出包含人脸皮肤光滑度信息的细节图层和包含人脸皮肤亮度信息的亮度图层;
(2)、在特定设计的卷积神经网络结构下,将细节层作为输入训练得到一个初步的人脸吸引力评价网络模型;
(3)、将亮度层作为输入对网络模型进行微调优化;
(4)、将人脸图像的RGB颜色信息作为输入对网络模型进行微调优化,得到最终的评分模型;
(5)、将任意人脸图像输入评分模型,得到相应的人脸吸引力分数。
作为优选的技术方案,在步骤(1)中,所述数据库是SCUT-FBP数据库,包含M张亚洲青年女性人脸图像,其人脸美丽标准的制定是根据N位志愿者的平均审美决定的,即在SCUT-FBP数据库中,每张图像被赋予一个人脸吸引力分数。
作为优选的技术方案,所述人脸吸引力分数为N位志愿者对数据库中每张图像进行吸引力评分后所得的平均分,范围是1-5分,分数越高表示吸引力越大。
作为优选的技术方案,在步骤(1)中,对人脸数据库中的人脸图像做图层分解包括颜色空间映射和滤波处理两大过程:
颜色空间映射是指将RGB颜色空间映射到CIEL*a*b*颜色空间,其中,L*坐标表示颜色亮度,范围是0~100,L*为0表示黑色而L*为100表示白色;a*坐标表示红色和绿色之间的值,范围是-500~500,负值指示绿色而正值指示红色;b*坐标表示黄色和蓝色之间的值,范围是-200~200,负值指示蓝色而正值指示黄色,颜色空间映射过程包含从RGB色彩空间到XYZ空间的线性变换与从XYZ空间到L*a*b*空间的非线性变换,从RGB到XYZ的线性变换的公式为:
从XYZ空间到L*a*b*空间的公式为:
其中,
滤波处理表示用加权最小二乘滤波器对CIEL*a*b*中的亮度通道L*进行处理得到代表皮肤亮度的亮度图层,设定原始人脸输入图像经过变换到CIEL*a*b*颜色空间后的亮度通道为IL*,人脸亮度图层为IL,并应用基于加权最小二乘滤波予以描述,则有:
其中:
其中,x和y表示图像中某一点的空间位置;参数∈是一个小的常数,用来避免分母为0的情况;参数λ用来平衡光滑项与数据项的比例,从而控制图像整体的平滑度;参数α是通过调节导向图IG的梯度变化来控制图像输出的;IG是导向图,用来控制边缘保持平滑的局部特性,这里取IG=logIL*,从亮度通道中减去亮度图层就能得到包含皮肤光滑度的光滑度图层Is,即Is=IL*-IL。
作为优选的技术方案,在颜色空间映射过程中,所述Xn,Yn,Zn分别为95.047,100.0,108.883。
作为优选的技术方案,在步骤(2)中,所述特定设计的卷积神经网络结构是具有网络输入图片尺寸较大、卷积核尺寸较小以及网络结构较深的网络结构。
作为优选的技术方案,该特定设计的卷积神经网络结构的图像输入大小为256x256,在训练过程中会被随机裁剪成227x227大小,网络包含6个卷积层和2个全连接层,每个卷积层分别包含50,100,150,200,250,300个特征图;每个卷积层的卷积核大小分别是5x5,5x5,4x4,4x4,4x4,2x2,卷积步长都为1;每个卷积层后紧跟一个下采样层,每个下采样层的核都为2x2大小,步长为2,前5个下采样层采用均值采样方法,最后一个下采样层采用最大值采样方法;网络第一个全连接层包含500个神经元,第二个全连接层包含1个神经元,即输出网络预测的吸引力分数。
作为优选的技术方案,还包括确定卷积神经网络结构的损失函数的步骤,其具体为:
采用人脸图像被赋予的吸引力分数和网络输出分数之间的欧氏距离作为网络的损失函数,定义为网络预测吸引力分数,yn为被赋予的吸引力分数,则网络的损失函数为:
作为优选的技术方案,在步骤(5)中,被输入进行吸引力评分的任意人脸图像的输入信息是RGB像素值。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明摒弃传统的手工提取人脸面部特征的方法,利用深度学习中的卷积神经网络自动提取人脸特征并学习人脸美丽的标准;
2、本发明将特征提取和人脸吸引力预测合为一体,有利于整体优化,实现了真正的端到端的人脸吸引力预测;
3、本发明人脸吸引力评价标准由70位志愿者的平均审美所决定,更具有公正性和合理性;
4、本发明从认知心理学的角度出发,综合利用人脸亮度、光滑度和颜色三种人脸属性,使人脸吸引力预测更符合人的审美判断;
5、本发明与人脸大数据的结合使评分模型可以得到进一步的优化,人脸数据的增加可以使模型在侧脸、遮挡、光照等干扰下仍具有较强的鲁棒性。
附图说明
图1为本发明的流程图;
图2为本发明的图层分解示意图;
图3为本发明的卷积神经网络结构简图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本发明的基于深度学习的人脸吸引力评价方法,其流程示意图如附图1所示,包括下述步骤:
步骤S101、对人脸数据库中的人脸图像做图层分解,提取出包含人脸皮肤光滑度信息的细节图层和包含人脸皮肤亮度信息的亮度图层;
步骤S102、在特定设计的卷积神经网络结构下,将细节层作为输入训练得到一个初步的人脸吸引力评价网络模型;
步骤S103、将亮度层作为输入对网络模型进行微调优化;
步骤S104、将人脸图像的RGB颜色信息作为输入对网络模型进行微调优化,得到最终的评分模型;
步骤S105、将任意人脸图像输入评分模型,得到相应的人脸吸引力分数。
本发明中,通过图层分解得到数据库中的人脸的三种皮肤属性信息:亮度、光滑度和颜色,综合利用这三种属性去训练得到一个基于深度学习中的卷积神经网络评分模型,将任意一张人脸输入此模型即可得到人脸吸引力评价结果
下面对具体的技术点做进一步的分析:
在步骤S101中,所述数据库是SCUT-FBP数据库,包含M张亚洲青年女性人脸图像,其人脸美丽标准的制定是根据N位志愿者的平均审美决定的,即在SCUT-FBP数据库中,每张图像被赋予一个人脸吸引力分数。所述人脸吸引力分数为N位志愿者对数据库中每张图像进行吸引力评分后所得的平均分,范围是1-5分,分数越高表示吸引力越大。当然本实施例中的吸引力分数可以根据实际情况进行选择。其中在该数据库中,M为500,N为70。
在步骤S101中对人脸图像做图层分解的技术方案为:
本发明中很关键的一个技术点在于从人类审美的认知心理学角度出发,综合利用人脸的亮度、光滑度和颜色三种属性去不断优化人脸吸引力评价模型。图层分解是得到人脸亮度和光滑度信息的重要步骤,包括颜色空间映射和滤波处理两大过程,如附图2所示。颜色空间映射指将RGB颜色空间映射到CIEL*a*b*颜色空间。其中,L*坐标表示颜色亮度,范围是0~100,L*为0表示黑色而L*为100表示白色;a*坐标表示红色和绿色之间的值,范围是-500~500,负值指示绿色而正值指示红色;b*坐标表示黄色和蓝色之间的值,范围是-200~200,负值指示蓝色而正值指示黄色。颜色空间映射过程包含从RGB色彩空间到XYZ空间的线性与从XYZ空间到L*a*b*空间的非线性变换。从RGB到XYZ的线性变换的公式为:
从XYZ空间到L*a*b*空间的公式为:
其中,
Xn,Yn,Zn分别为95.047,100.0,108.883。
滤波处理表示用加权最小二乘(WeightedLeastSquares,WLS)滤波器对CIEL*a*b*中的L*通道进行处理得到代表皮肤亮度的亮度图层。设定原始人脸输入图像经过变换到CIEL*a*b*颜色空间后的亮度通道为IL*,人脸亮度图层为IL,并应用基于加权最小二乘(WLS)滤波予以描述,则有:
其中:
其中,x和y表示图像中某一点的空间位置;参数∈是一个小的常数,用来避免分母为0的情况;参数λ用来平衡光滑项与数据项的比例,从而控制图像整体的平滑度;参数α是通过调节导向图IG的梯度变化来控制图像输出的;IG是导向图,用来控制边缘保持平滑的局部特性,这里取IG=logIL*。从亮度通道中减去亮度图层就能得到包含皮肤光滑度的光滑度图层Is,即Is=IL*-IL。
在步骤S102中,卷积神经网络的具体技术方案为:
卷积神经网络的结构对模型学习人脸吸引力表征具有重要影响,经过多次实验,本发明针对性地提出了一个具有较大的输入图片尺寸,较小的卷积核尺寸和较深的结构的卷积神经网络,其简要结构如附图3所示,其详细参数如下所述:
网络的图像输入大小为256x256,在训练过程中会被随机裁剪成227x227大小。网络包含6个卷积层(Convolutionallayer)和2个全连接层(Fully-connectedlayer),每个卷积层分别包含50,100,150,200,250,300个特征图(Featuremap);每个卷积层的卷积核(Convolutionalkernel)大小分别是5x5,5x5,4x4,4x4,4x4,2x2,卷积步长(Stride)都为1;每个卷积层后紧跟一个下采样层(Poolinglayer),每个下采样层的核都为2x2大小,步长为2,前5个下采样层采用均值采样方法(AveragePooling),最后一个下采样层采用最大值采样方法(MaxPooling);网络第一个全连接层包含500个神经元,第二个全连接层包含1个神经元;采用人脸图像被赋予的吸引力分数和网络输出分数之间的欧氏距离作为网络的损失函数。定义为网络预测吸引力分数,yn为被赋予的吸引力分数,则网络的损失函数为:
最后,对网络进行下述训练:
为综合利用人脸的三种属性,本发明在训练网络模型时采取层次性的训练方法,具体包括以下三个步骤:
(1)、在特定设计的卷积神经网络结构下,将代表皮肤光滑度的细节层信息作为输入训练得到一个初步的人脸吸引力评分网络模型;
(2)、将代表皮肤亮度的亮度层信息作为输入对网络模型进行微调;
(3)、将代表皮肤颜色的RGB颜色信息作为输入对网络模型进行微调,得到最终的评分模型。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度学习的人脸吸引力评价方法,其特征在于,该方法包括下述步骤:
(1)、对人脸数据库中的人脸图像做图层分解,提取出包含人脸皮肤光滑度信息的细节图层和包含人脸皮肤亮度信息的亮度图层;
(2)、在特定设计的卷积神经网络结构下,将细节层作为输入训练得到一个初步的人脸吸引力评价网络模型;
(3)、将亮度层作为输入对网络模型进行微调优化;
(4)、将人脸图像的RGB颜色信息作为输入对网络模型进行微调优化,得到最终的评分模型;
(5)、将任意人脸图像输入评分模型,得到相应的人脸吸引力分数。
2.根据权利要求1所述的基于深度学习的人脸吸引力评价方法,其特征在于,在步骤(1)中,所述数据库是SCUT-FBP数据库,包含M张亚洲青年女性人脸图像,其人脸美丽标准的制定是根据N位志愿者的平均审美决定的,即在SCUT-FBP数据库中,每张图像被赋予一个人脸吸引力分数。
3.根据权利要求2所述的基于深度学习的人脸吸引力评价方法,其特征在于,所述人脸吸引力分数为N位志愿者对数据库中每张图像进行吸引力评分后所得的平均分,范围是1-5分,分数越高表示吸引力越大。
4.根据权利要求1所述的基于深度学习的人脸吸引力评价方法,其特征在于,在步骤(1)中,对人脸数据库中的人脸图像做图层分解包括颜色空间映射和滤波处理两大过程:
颜色空间映射是指将RGB颜色空间映射到CIEL*a*b*颜色空间,其中,L*坐标表示颜色亮度,范围是0~100,L*为0表示黑色而L*为100表示白色;a*坐标表示红色和绿色之间的值,范围是-500~500,负值指示绿色而正值指示红色;b*坐标表示黄色和蓝色之间的值,范围是-200~200,负值指示蓝色而正值指示黄色,颜色空间映射过程包含从RGB色彩空间到XYZ空间的线性变换与从XYZ空间到L*a*b*空间的非线性变换,从RGB到XYZ的线性变换的公式为:
从XYZ空间到L*a*b*空间的公式为:
其中,
滤波处理表示用加权最小二乘滤波器对CIEL*a*b*中的亮度通道L*进行处理得到代表皮肤亮度的亮度图层,设定原始人脸输入图像经过变换到CIEL*a*b*颜色空间后的亮度通道为人脸亮度图层为IL,并应用基于加权最小二乘滤波予以描述,则有:
其中:
其中,x和y表示图像中某一点的空间位置;参数∈是一个小的常数,用来避免分母为0的情况;参数λ用来平衡光滑项与数据项的比例,从而控制图像整体的平滑度;参数α是通过调节导向图IG的梯度变化来控制图像输出的;IG是导向图,用来控制边缘保持平滑的局部特性,这里取从亮度通道中减去亮度图层就能得到包含皮肤光滑度的光滑度图层IS,即
5.根据权利要求4所述的基于深度学习的人脸吸引力评价方法,其特征在于,在颜色空间映射过程中,所述Xn,Yn,Zn分别为95.047,100.0,108.883。
6.根据权利要求1所述的基于深度学习的人脸吸引力评价方法,其特征在于,在步骤(2)中,所述特定设计的卷积神经网络结构是具有网络输入图片尺寸较大、卷积核尺寸较小以及网络结构较深的网络结构。
7.根据权利要求6所述的基于深度学习的人脸吸引力评价方法,其特征在于,该特定设计的卷积神经网络结构的图像输入大小为256x256,在训练过程中会被随机裁剪成227x227大小,网络包含6个卷积层和2个全连接层,每个卷积层分别包含50,100,150,200,250,300个特征图;每个卷积层的卷积核大小分别是5x5,5x5,4x4,4x4,4x4,2x2,卷积步长都为1;每个卷积层后紧跟一个下采样层,每个下采样层的核都为2x2大小,步长为2,前5个下采样层采用均值采样方法,最后一个下采样层采用最大值采样方法;网络第一个全连接层包含500个神经元,第二个全连接层包含1个神经元,即输出网络预测的吸引力分数。
8.根据权利要求7所述的基于深度学习的人脸吸引力评价方法,其特征在于,还包括确定卷积神经网络结构的损失函数的步骤,其具体为:
采用人脸图像被赋予的吸引力分数和网络输出分数之间的欧氏距离作为网络的损失函数,定义为网络预测吸引力分数,yn为被赋予的吸引力分数,则网络的损失函数为:
9.根据权利要求1所述的基于深度学习的人脸吸引力评价方法,其特征在于,在步骤(5)中,被输入进行吸引力评分的任意人脸图像的输入信息是RGB像素值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610022077.8A CN105701468A (zh) | 2016-01-12 | 2016-01-12 | 一种基于深度学习的人脸吸引力评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610022077.8A CN105701468A (zh) | 2016-01-12 | 2016-01-12 | 一种基于深度学习的人脸吸引力评价方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105701468A true CN105701468A (zh) | 2016-06-22 |
Family
ID=56227251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610022077.8A Pending CN105701468A (zh) | 2016-01-12 | 2016-01-12 | 一种基于深度学习的人脸吸引力评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105701468A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169075A (zh) * | 2016-07-11 | 2016-11-30 | 北京小米移动软件有限公司 | 身份验证方法及装置 |
CN106372630A (zh) * | 2016-11-23 | 2017-02-01 | 华南理工大学 | 一种基于深度学习的人脸方向检测方法 |
CN107066969A (zh) * | 2017-04-12 | 2017-08-18 | 南京维睛视空信息科技有限公司 | 一种人脸识别方法 |
CN107301425A (zh) * | 2017-06-09 | 2017-10-27 | 浙江工业大学 | 一种基于深度学习的儿童涂鸦评分方法 |
CN107610201A (zh) * | 2017-10-31 | 2018-01-19 | 北京小米移动软件有限公司 | 基于图像处理的润唇方法及装置 |
CN107818319A (zh) * | 2017-12-06 | 2018-03-20 | 成都睿码科技有限责任公司 | 一种自动判别人脸美丽程度的方法 |
CN108520213A (zh) * | 2018-03-28 | 2018-09-11 | 五邑大学 | 一种基于多尺度深度的人脸美丽预测方法 |
CN108629336A (zh) * | 2018-06-05 | 2018-10-09 | 北京千搜科技有限公司 | 基于人脸特征点识别的颜值计算方法 |
CN109344855A (zh) * | 2018-08-10 | 2019-02-15 | 华南理工大学 | 一种基于排序引导回归的深度模型的人脸美丽评价方法 |
CN110188652A (zh) * | 2019-05-24 | 2019-08-30 | 北京字节跳动网络技术有限公司 | 人脸图像的处理方法、装置、终端及存储介质 |
CN113255585A (zh) * | 2021-06-23 | 2021-08-13 | 之江实验室 | 一种基于色彩空间学习的人脸视频心率估计方法 |
US20220079430A1 (en) * | 2017-05-04 | 2022-03-17 | Shenzhen Sibionics Technology Co., Ltd. | System for recognizing diabetic retinopathy |
CN114898424A (zh) * | 2022-04-01 | 2022-08-12 | 中南大学 | 一种基于双重标签分布的轻量化人脸美学预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222724A1 (en) * | 2010-03-15 | 2011-09-15 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN104636755A (zh) * | 2015-01-31 | 2015-05-20 | 华南理工大学 | 一种基于深度学习的人脸美丽评价方法 |
-
2016
- 2016-01-12 CN CN201610022077.8A patent/CN105701468A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110222724A1 (en) * | 2010-03-15 | 2011-09-15 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN104636755A (zh) * | 2015-01-31 | 2015-05-20 | 华南理工大学 | 一种基于深度学习的人脸美丽评价方法 |
Non-Patent Citations (2)
Title |
---|
JIE XU: "A new humanlike facial attractiveness predictor with cascaded fine-tuning deep learning model", 《ARXIV》 * |
ZEEV FARBMAN等: "Edge-preserving decompositions for multi-scale tone and detail manipulation", 《ACM》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106169075A (zh) * | 2016-07-11 | 2016-11-30 | 北京小米移动软件有限公司 | 身份验证方法及装置 |
CN106372630A (zh) * | 2016-11-23 | 2017-02-01 | 华南理工大学 | 一种基于深度学习的人脸方向检测方法 |
CN107066969A (zh) * | 2017-04-12 | 2017-08-18 | 南京维睛视空信息科技有限公司 | 一种人脸识别方法 |
US11666210B2 (en) * | 2017-05-04 | 2023-06-06 | Shenzhen Sibionics Technology Co., Ltd. | System for recognizing diabetic retinopathy |
US20220079430A1 (en) * | 2017-05-04 | 2022-03-17 | Shenzhen Sibionics Technology Co., Ltd. | System for recognizing diabetic retinopathy |
CN107301425A (zh) * | 2017-06-09 | 2017-10-27 | 浙江工业大学 | 一种基于深度学习的儿童涂鸦评分方法 |
CN107610201A (zh) * | 2017-10-31 | 2018-01-19 | 北京小米移动软件有限公司 | 基于图像处理的润唇方法及装置 |
CN107818319A (zh) * | 2017-12-06 | 2018-03-20 | 成都睿码科技有限责任公司 | 一种自动判别人脸美丽程度的方法 |
CN108520213B (zh) * | 2018-03-28 | 2021-10-19 | 五邑大学 | 一种基于多尺度深度的人脸美丽预测方法 |
CN108520213A (zh) * | 2018-03-28 | 2018-09-11 | 五邑大学 | 一种基于多尺度深度的人脸美丽预测方法 |
CN108629336A (zh) * | 2018-06-05 | 2018-10-09 | 北京千搜科技有限公司 | 基于人脸特征点识别的颜值计算方法 |
CN109344855B (zh) * | 2018-08-10 | 2021-09-24 | 华南理工大学 | 一种基于排序引导回归的深度模型的人脸美丽评价方法 |
CN109344855A (zh) * | 2018-08-10 | 2019-02-15 | 华南理工大学 | 一种基于排序引导回归的深度模型的人脸美丽评价方法 |
CN110188652A (zh) * | 2019-05-24 | 2019-08-30 | 北京字节跳动网络技术有限公司 | 人脸图像的处理方法、装置、终端及存储介质 |
CN113255585A (zh) * | 2021-06-23 | 2021-08-13 | 之江实验室 | 一种基于色彩空间学习的人脸视频心率估计方法 |
CN114898424A (zh) * | 2022-04-01 | 2022-08-12 | 中南大学 | 一种基于双重标签分布的轻量化人脸美学预测方法 |
CN114898424B (zh) * | 2022-04-01 | 2024-04-26 | 中南大学 | 一种基于双重标签分布的轻量化人脸美学预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105701468A (zh) | 一种基于深度学习的人脸吸引力评价方法 | |
CN108710919A (zh) | 一种基于多尺度特征融合深度学习的裂缝自动化勾画方法 | |
CN102930249A (zh) | 基于颜色和模型的农田害虫识别和计数方法 | |
CN106326874A (zh) | 一种人眼图像中的虹膜识别方法及其装置 | |
CN107491726A (zh) | 一种基于多通道并行卷积神经网络的实时表情识别方法 | |
CN108629338A (zh) | 一种基于lbp和卷积神经网络的人脸美丽预测方法 | |
CN106127702A (zh) | 一种基于深度学习的图像去雾算法 | |
CN107909008A (zh) | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 | |
CN1738426A (zh) | 一种视频运动目标分割与跟踪方法 | |
CN106408564A (zh) | 一种基于深度学习的眼底图像处理方法、装置及系统 | |
CN108416266A (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN106447646A (zh) | 一种用于无人机图像的质量盲评价方法 | |
CN103914699A (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN108509920A (zh) | 基于CNN的多patch多通道联合特征选择学习的人脸识别方法 | |
CN109045676B (zh) | 一种象棋识别学习算法和基于该算法的机器人智动化系统与方法 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN110235169A (zh) | 化妆评价系统及其动作方法 | |
CN104574307B (zh) | 一种绘画作品图像的主要颜色提取方法 | |
CN106373136A (zh) | 一种基于颜色和特征的害虫识别计数方法 | |
CN114359727A (zh) | 基于轻量级优化Yolo v4的茶叶病害识别方法及系统 | |
CN111008647B (zh) | 一种样本提取及基于空洞卷积与残差链接的图像分类方法 | |
CN103034872A (zh) | 基于颜色和模糊聚类算法的农田害虫识别方法 | |
CN109886154A (zh) | 基于Inception V3的多数据集联合训练的行人外观属性识别方法 | |
CN107463954A (zh) | 一种模糊异谱图像的模板匹配识别方法 | |
CN106934455A (zh) | 基于cnn的遥感影像光学适配结构选取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160622 |
|
WD01 | Invention patent application deemed withdrawn after publication |