CN117373079A - 基于年龄评估的人脸美丽预测方法、设备及介质 - Google Patents
基于年龄评估的人脸美丽预测方法、设备及介质 Download PDFInfo
- Publication number
- CN117373079A CN117373079A CN202311163792.XA CN202311163792A CN117373079A CN 117373079 A CN117373079 A CN 117373079A CN 202311163792 A CN202311163792 A CN 202311163792A CN 117373079 A CN117373079 A CN 117373079A
- Authority
- CN
- China
- Prior art keywords
- face
- age
- image
- beauty
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003796 beauty Effects 0.000 title claims abstract description 102
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000011156 evaluation Methods 0.000 title description 2
- 238000012549 training Methods 0.000 claims abstract description 27
- 230000009466 transformation Effects 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000012937 correction Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
Abstract
本申请实施例提供了基于年龄评估的人脸美丽预测方法、设备及介质,通过获取标记有真实年龄的人脸图像;调整人脸图像的亮度和对比度;对调整后的人脸图像进行图像重建得到重建图像;将重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,通过人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化预测年龄与真实年龄之间的误差来调整人脸美丽预测模型的参数;综合运用年龄评估和曝光校正,使人脸美丽预测模型能够考虑到与年龄相关的变化和图像质量,从而在不同年龄段和不同光线条件下,能够准确地预测人脸的美丽程度,提高人脸美丽预测的准确性和稳定性。
Description
技术领域
本申请实施例涉及图像处理领域,尤其涉及基于年龄评估的人脸美丽预测方法、设备及介质。
背景技术
人脸美丽预测是针对不同人脸图像所具有的美学特征,采用机器学习等方法进行美丽程度智能预测,从而让计算机具有与人类似的人脸美丽感知能力。人脸美丽预测是对人脸图像进行特征提取后,根据特征进行相应的任务实现预测,从而得到预测结果。
人脸美丽预测训练模型时,会受到光线条件、年龄、姿势变化等环境因素的影响。输入的人脸图像,由于年龄不同,受这个影响,导致人脸美丽预测的准确性降低。此外,人脸图像会受到曝光影响,影响人脸特征的可见性,降低预测结果的准确性。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本申请的目的在于至少一定程度上解决相关技术中存在的技术问题之一,本申请实施例提供了基于年龄评估的人脸美丽预测方法、设备及介质,综合运用年龄评估和曝光校正,提高预测准确性。
本申请的第一方面的实施例,一种基于年龄评估的人脸美丽预测方法,包括:
获取人脸图像训练集,所述人脸图像训练集的人脸图像标记有真实年龄;
调整所述人脸图像的亮度和对比度;
对调整后的人脸图像进行图像重建得到重建图像;
将所述重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,通过所述人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化所述预测年龄与所述真实年龄之间的误差来调整所述人脸美丽预测模型的参数;
获取待预测的人脸图像,将所述待预测的人脸图像输入至所述目标模型得到美丽分数预测结果。
根据本申请的第一方面的某些实施例,所述调整所述人脸图像的亮度和对比度,包括:
通过直方图分析方法分析所述人脸图像的亮度和对比度得到分析结果;
根据所述分析结果设置调整策略;
根据所述调整策略调整所述人脸图像的亮度和对比度以突出所述人脸图像中的人脸特征。
根据本申请的第一方面的某些实施例,所述对调整后的人脸图像进行图像重建得到重建图像,包括:
根据调整后的亮度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望亮度的目标亮度;
根据调整后的对比度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望对比度的目标对比度;
根据所述目标亮度和所述目标对比度对调整后的人脸图像进行图像重建得到重建图像。
根据本申请的第一方面的某些实施例,在所述调整所述人脸图像的亮度和对比度之前,所述方法还包括:
对所述人脸图像进行图像预处理,其中,所述图像预处理包括旋转、尺寸调整和灰度化。
根据本申请的第一方面的某些实施例,所述将所述重建图像输入至人脸美丽预测模型进行训练得到目标模型,包括:
通过卷积层对所述重建图像进行特征提取,得到多个尺度的人脸特征;
基于注意力机制对所述人脸特征进行处理,得到多个尺度的注意力特征;
通过融合模块融合多个尺度的注意力特征,得到融合特征;
通过美丽预测任务的分类器根据所述融合特征进行美丽分数预测,得到预测分数。
根据本申请的第一方面的某些实施例,所述通过美丽预测任务的分类器根据所述融合特征进行美丽分数预测,得到预测分数,包括:
通过美丽预测任务的分类器利用决策函数根据所述融合特征、预设权重向量和预设偏置值得到与美丽分数一一对应的多个预测概率;
将最大的预测概率所对应的美丽分数确定为预测分数。
根据本申请的第一方面的某些实施例,所述预测年龄与所述真实年龄之间的误差按照以下式子得到:式中,n为重建图像的数量,yi为第i个重建图像所对应的预测年龄,/>为第i个重建图像所对应的真实年龄。
根据本申请的第一方面的某些实施例,所述通过最小化所述预测年龄与所述真实年龄之间的误差来调整所述人脸美丽预测模型的参数,包括:
最小化所述预测年龄与所述真实年龄之间的误差得到最小误差值;
根据所述最小误差值得到损失函数值;
根据所述损失函数值调整所述人脸美丽预测模型的参数。
本申请的第二方面的实施例,一种电子设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的基于年龄评估的人脸美丽预测方法。
本申请的第三方面的实施例,一种计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令用于执行如上所述的基于年龄评估的人脸美丽预测方法。
上述方案至少具有以下的有益效果:获取人脸图像标记有真实年龄的人脸图像训练集;调整人脸图像的亮度和对比度,使得人脸特征更加清晰可见,从而提高人脸美丽预测的准确性;对调整后的人脸图像进行图像重建得到重建图像;将重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,使用大量带有已知年龄标签的人脸数据进行训练,提高年龄评估的准确性;通过人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化预测年龄与真实年龄之间的误差来调整人脸美丽预测模型的参数,使优化人脸美丽预测模型;综合运用年龄评估和曝光校正,使人脸美丽预测模型能够考虑到与年龄相关的变化和图像质量,从而在不同年龄段和不同光线条件下,能够准确地预测人脸的美丽程度,提高人脸美丽预测的准确性和稳定性。
附图说明
附图用来提供对本申请技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1是基于年龄评估的人脸美丽预测方法的步骤图;
图2是步骤S200的步骤图;
图3是步骤S300的步骤图;
图4是将重建图像输入至人脸美丽预测模型进行训练得到目标模型的步骤图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书、权利要求书或上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
下面结合附图,对本申请实施例作进一步阐述。
本申请的实施例,提供了一种基于年龄评估的人脸美丽预测方法。
参照图1,人脸美丽预测方法,包括:
步骤S100,获取人脸图像训练集;
步骤S200,调整人脸图像训练集的人脸图像的亮度和对比度;
步骤S300,对调整后的人脸图像进行图像重建得到重建图像;
步骤S400,将重建图像输入至人脸美丽预测模型进行训练得到目标模型;
步骤S500,获取待预测的人脸图像,将待预测的人脸图像输入至目标模型得到美丽分数预测结果。
对于步骤S100,获取多张人脸图像,由多张人脸图像构成人脸图像训练集,人脸图像训练集的人脸图像标记有真实年龄,人脸图像训练集可以是来自于大规模亚洲人脸美丽数据库(Large Scale Asian Female Beauty Database,LSAFBD)。
然后对人脸图像进行图像预处理,其中,图像预处理包括旋转、尺寸调整和灰度化。图像预处理能够确保输入图像具有一致的格式和质量,以便将图像输入模型。
参照图2,对于步骤S200,人脸图像会受到曝光影响,影响人脸特征的可见性,这时需要对人脸图像进行曝光校正,调整人脸图像的亮度和对比度。调整人脸图像的亮度和对比度,包括:
步骤S210,通过直方图分析方法分析人脸图像的亮度和对比度得到分析结果;
步骤S220,根据分析结果设置调整策略;
步骤S230,根据调整策略调整人脸图像的亮度和对比度以突出人脸图像中的人脸特征。
这使得人脸特征更加清晰可见,从而减轻曝光对人脸美丽预测的影响,进一步提高预测结果的准确性。
其中,直方图是一种照片的分析方法,横轴代表图像中像素的亮度,纵轴代表处于这个亮度范围的像素数量。直方图的观看规则是“左黑右白”,左边代表暗部,右边代表亮部,而中间代表中间调。对比度是用来衡量场景中明暗区域的亮度差异,宽直方图反映的是高对比度的场景,相对应的窄的直方图反映的是低对比度的场景。
调整策略使用以下公式调整人脸图像的亮度和对比度:g(i,j)=α·f(i,j)+β;式中,α>0,为增益,用来控制图像的对比度;β为偏置参数,用来控制图像的亮度;g(i,j)为输出图像像素,f(i,j)为源图像像素,i和j表示该像素位于第i行第j列。
参照图3,对于步骤S300,对调整后的人脸图像进行图像重建得到重建图像,包括:
步骤S310,根据调整后的亮度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望亮度的目标亮度;
步骤S320,根据调整后的对比度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望对比度的目标对比度;
步骤S330,根据目标亮度和目标对比度对调整后的人脸图像进行图像重建得到重建图像。
其中,线性变换或非线性变换是灰度变换的两种方式,灰度变换是数字图像处理中常用的一种方法,用于改变图像的亮度和对比度。线性变换是通过对像素值进行线性缩放,将原图像的像素值映射到一个新的范围内。常见的线性变换方式有亮度调整、对比度增强等。亮度调整是通过增加或减少图像中的像素值来改变图像的整体亮度。对比度增强是通过调整图像中像素值的分布,使图像的亮度差异更加明显。非线性变换是通过对像素值进行非线性映射,改变图像的亮度和对比度。常见的非线性变换方式有伽马矫正、直方图均衡化等。伽马矫正是一种常用的非线性变换方法,通过对图像中的像素值进行幂次变换,可以调整图像的亮度和对比度。直方图均衡化是一种通过调整图像的像素值分布,使图像的对比度更加均匀的方法。对调整后的人脸图像的像素值进行线性变换或非线性变换,使获得更好的图像效果,提升图像的质量。
对于步骤S400,对于将重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,通过人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化预测年龄与真实年龄之间的误差来调整人脸美丽预测模型的参数,使优化人脸美丽预测模型。
对于人脸美丽预测模型的年龄预测任务,可以选择适合年龄评估任务的深度学习架构,如卷积神经网络(Convolutional Neural Networks,CNN)。CNN模型架构包括卷积层、池化层和全连接层。卷积层的作用是提取特征,进行的是卷积操作,卷积操作类似于在图像上滑动一个小的窗口,通过与窗口中的像素值进行加权相乘,得到一个新的特征值。这个窗口为卷积核或滤波器,它可以捕捉图像中的不同特征。通过在不同位置使用不同的卷积核,卷积神经网络能够突显图像中的各种特征。卷积操作会生成一系列特征映射,每个特征映射对应着一个卷积核所捕捉到的特征。这些特征映射包含图像中不同位置的特征信息,将这些特征映射组合起来。池化层进行池化操作,有最大池化、平均池化两种方式,通过在特定区域内取最大值或平均值,从而对特征映射进行降采样。全连接层的作用是将学习到的特征表示映射到样本标记空间,方便交给最后的分类器。CNN模型的输入是预处理后的人脸图像,输出的是预测的年龄,模型的中间层提取图像中与年龄有关的特征。
参照图4,将重建图像输入至人脸美丽预测模型进行训练得到目标模型,包括:
步骤S410,通过卷积层对重建图像进行特征提取,得到多个尺度的人脸特征;
步骤S420,基于注意力机制对人脸特征进行处理,得到多个尺度的注意力特征;
步骤S430,通过融合模块融合多个尺度的注意力特征,得到融合特征;
步骤S440,通过美丽预测任务的分类器根据融合特征进行美丽分数预测,得到预测分数。
注意力机制是通过对感兴趣的区域提升更多的注意力,尽可能抑制不感兴趣的区域在图像分割中的作用。注意力机制分为通道注意力和空间注意力两种;通道注意力是确定不同通道之间的权重关系,提升重点通道的权重,抑制作用不大的通道;空间注意力是确定空间领域不同像素之间的权重关系,提升重点区域像素的权重。
通过美丽预测任务的分类器根据融合特征进行美丽分数预测,得到预测分数,包括:通过美丽预测任务的分类器利用决策函数根据融合特征、预设权重向量和预设偏置值得到与美丽分数一一对应的多个预测概率;将最大的预测概率所对应的美丽分数确定为预测分数。其中,决策函数可以用以下公式表示:f(x)=sign(w*x+b);式中,w为权重向量,x为输入特征向量,b为偏置项。
预测年龄与真实年龄之间的误差按照以下式子得到:式中,n为重建图像的数量,yi为第i个重建图像所对应的预测年龄,/>为第i个重建图像所对应的真实年龄。RMSE值越小,说明模型的预测越接近实际观测值,即模型的预测效果越好。
通过最小化预测年龄与真实年龄之间的误差来调整人脸美丽预测模型的参数,包括:最小化预测年龄与真实年龄之间的误差得到最小误差值;根据最小误差值得到损失函数值;根据损失函数值调整人脸美丽预测模型的参数,直至人脸美丽预测模型收敛或者达到预设的训练次数阈值,以优化人脸美丽预测模型。
上述方法获取人脸图像标记有真实年龄的人脸图像训练集;调整人脸图像的亮度和对比度,使得人脸特征更加清晰可见,从而提高人脸美丽预测的准确性;对调整后的人脸图像进行图像重建得到重建图像;将重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,使用大量带有已知年龄标签的人脸数据进行训练,提高年龄评估的准确性;通过人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化预测年龄与真实年龄之间的误差来调整人脸美丽预测模型的参数,使优化人脸美丽预测模型;综合运用年龄评估和曝光校正,使人脸美丽预测模型能够考虑到与年龄相关的变化和图像质量,从而在不同年龄段和不同光线条件下,能够准确地预测人脸的美丽程度,提高人脸美丽预测的准确性和稳定性。
本申请的实施例,提供一种电子设备。电子设备包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上的基于年龄评估的人脸美丽预测方法。
该电子设备可以为包括电脑等任意智能终端。
总体而言,对于电子设备的硬件结构,处理器可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案。
存储器可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器中,并由处理器来调用执行本申请实施例的方法。
输入/输出接口用于实现信息输入及输出。
通信接口用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线在设备的各个组件(例如处理器、存储器、输入/输出接口和通信接口)之间传输信息。处理器、存储器、输入/输出接口和通信接口通过总线实现彼此之间在设备内部的通信连接。
本申请的实施例,提供了一种计算机可读存储介质。计算机可读存储介质存储有计算机可执行指令,计算机可执行指令用于执行如上的基于年龄评估的人脸美丽预测方法。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。在本说明书的上述描述中,参考术语“一个实施方式/实施例”、“另一实施方式/实施例”或“某些实施方式/实施例”等的描述意指结合实施方式或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。尽管已经示出和描述了本申请的实施方式,本领域的普通技术人员可以理解:在不脱离本申请的原理和宗旨的情况下可以对这些实施方式进行多种变化、修改、替换和变型,本申请的范围由权利要求及其等同物限定。
以上是对本申请的较佳实施进行了具体说明,但本申请并不限于实施例,熟悉本领域的技术人员在不违背本申请精神的前提下可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种基于年龄评估的人脸美丽预测方法,其特征在于,包括:
获取人脸图像训练集,所述人脸图像训练集的人脸图像标记有真实年龄;
调整所述人脸图像的亮度和对比度;
对调整后的人脸图像进行图像重建得到重建图像;
将所述重建图像输入至人脸美丽预测模型进行训练得到目标模型,在训练期间,通过所述人脸美丽预测模型的年龄预测任务得到预测年龄,通过最小化所述预测年龄与所述真实年龄之间的误差来调整所述人脸美丽预测模型的参数;
获取待预测的人脸图像,将所述待预测的人脸图像输入至所述目标模型得到美丽分数预测结果。
2.根据权利要求1所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述调整所述人脸图像的亮度和对比度,包括:
通过直方图分析方法分析所述人脸图像的亮度和对比度得到分析结果;
根据所述分析结果设置调整策略;
根据所述调整策略调整所述人脸图像的亮度和对比度以突出所述人脸图像中的人脸特征。
3.根据权利要求1所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述对调整后的人脸图像进行图像重建得到重建图像,包括:
根据调整后的亮度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望亮度的目标亮度;
根据调整后的对比度对调整后的人脸图像的像素值进行线性变换或非线性变换,得到达到预设期望对比度的目标对比度;
根据所述目标亮度和所述目标对比度对调整后的人脸图像进行图像重建得到重建图像。
4.根据权利要求1所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,在所述调整所述人脸图像的亮度和对比度之前,所述方法还包括:
对所述人脸图像进行图像预处理,其中,所述图像预处理包括旋转、尺寸调整和灰度化。
5.根据权利要求1所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述将所述重建图像输入至人脸美丽预测模型进行训练得到目标模型,包括:
通过卷积层对所述重建图像进行特征提取,得到多个尺度的人脸特征;
基于注意力机制对所述人脸特征进行处理,得到多个尺度的注意力特征;
通过融合模块融合多个尺度的注意力特征,得到融合特征;
通过美丽预测任务的分类器根据所述融合特征进行美丽分数预测,得到预测分数。
6.根据权利要求5所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述通过美丽预测任务的分类器根据所述融合特征进行美丽分数预测,得到预测分数,包括:
通过美丽预测任务的分类器利用决策函数根据所述融合特征、预设权重向量和预设偏置值得到与美丽分数一一对应的多个预测概率;
将最大的预测概率所对应的美丽分数确定为预测分数。
7.根据权利要求1所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述预
测年龄与所述真实年龄之间的误差按照以下式子得到:式中,n为重建图像的数量,yi为第i个重建图像所对应的预测年龄,/>为第i个重建图像所对应的真实年龄。
8.根据权利要求1或7所述的一种基于年龄评估的人脸美丽预测方法,其特征在于,所述通过最小化所述预测年龄与所述真实年龄之间的误差来调整所述人脸美丽预测模型的参数,包括:
最小化所述预测年龄与所述真实年龄之间的误差得到最小误差值;
根据所述最小误差值得到损失函数值;
根据所述损失函数值调整所述人脸美丽预测模型的参数。
9.一种电子设备,其特征在于,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至8中任一项所述的基于年龄评估的人脸美丽预测方法。
10.一种计算机存储介质,其特征在于,存储有计算机可执行指令,所述计算机可执行指令用于执行如权利要求1至8中任一项所述的基于年龄评估的人脸美丽预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311163792.XA CN117373079A (zh) | 2023-09-08 | 2023-09-08 | 基于年龄评估的人脸美丽预测方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311163792.XA CN117373079A (zh) | 2023-09-08 | 2023-09-08 | 基于年龄评估的人脸美丽预测方法、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117373079A true CN117373079A (zh) | 2024-01-09 |
Family
ID=89391872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311163792.XA Pending CN117373079A (zh) | 2023-09-08 | 2023-09-08 | 基于年龄评估的人脸美丽预测方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117373079A (zh) |
-
2023
- 2023-09-08 CN CN202311163792.XA patent/CN117373079A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9396531B2 (en) | Systems and methods for image and video signal measurement | |
CN111931751B (zh) | 深度学习训练方法、目标物识别方法、系统和存储介质 | |
CN109670437B (zh) | 年龄预估模型训练方法、面部图像识别方法及装置 | |
CN112669323B (zh) | 图像处理方法及相关设备 | |
CN104915972A (zh) | 图像处理装置、图像处理方法以及程序 | |
CN110969200B (zh) | 基于一致性负样本的图像目标检测模型训练方法及装置 | |
CN106157330B (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN107506792B (zh) | 一种半监督的显著对象检测方法 | |
CN111489401A (zh) | 一种图像颜色恒常性处理方法、系统、设备和存储介质 | |
CN112365497A (zh) | 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统 | |
CN114444565B (zh) | 一种图像篡改检测方法、终端设备及存储介质 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
CN112364916A (zh) | 基于迁移学习的图像分类方法、相关设备及存储介质 | |
CN115082968A (zh) | 基于红外光和可见光融合的行为识别方法及终端设备 | |
EP2523162B1 (en) | Learning device, identification device, learning identification system and learning identification device | |
CN112330648B (zh) | 基于半监督学习的无参考图像质量评价方法及装置 | |
CN117541841A (zh) | 一种曲线形态识别的通用基础模型构建方法 | |
CN116612272A (zh) | 一种图像处理智能数字化的检测系统及其检测方法 | |
CN116030346A (zh) | 基于马尔可夫判别器的非成对弱监督云检测方法及系统 | |
CN117373079A (zh) | 基于年龄评估的人脸美丽预测方法、设备及介质 | |
He et al. | Fast image quality assessment via supervised iterative quantization method | |
Wu et al. | A no-reference quality assessment for contrast-distorted image based on improved learning method | |
Vršnak et al. | Illuminant segmentation for multi-illuminant scenes using latent illumination encoding | |
CN111724297A (zh) | 图像处理方法及装置 | |
US20240273855A1 (en) | Machine learning-based image noise learning server and image noise reduction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |