CN115578762A - 侧脸矫正的方法、矫正装置及计算机可读存储介质 - Google Patents
侧脸矫正的方法、矫正装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115578762A CN115578762A CN202211091716.8A CN202211091716A CN115578762A CN 115578762 A CN115578762 A CN 115578762A CN 202211091716 A CN202211091716 A CN 202211091716A CN 115578762 A CN115578762 A CN 115578762A
- Authority
- CN
- China
- Prior art keywords
- face
- sample
- image
- loss value
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000012937 correction Methods 0.000 claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 31
- 238000007499 fusion processing Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 238000009877 rendering Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 238000012935 Averaging Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G06T3/04—
-
- G06T3/06—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
本申请公开了一种侧脸矫正的方法、矫正装置及计算机可读存储介质,该侧脸矫正的方法包括:获取目标图像,目标图像包括目标人脸;从目标图像中提取特征,得到目标人脸的正脸特征和目标人脸所处背景的背景特征;将正脸特征和背景特征进行融合处理,得到融合特征;根据融合特征,生成矫正图像,其中,矫正图像中的人脸为与目标人脸对应的正脸。本申请所提供的方法能够在进行侧脸矫正时,保留输入的目标图像的背景信息。
Description
技术领域
本申请属于图像处理技术领域,特别是涉及一种侧脸矫正的方法、矫正装置及计算机可读存储介质。
背景技术
人脸信息的完整度对人脸识别、人脸属性分析等领域是至关重要的。在正常情况下,正脸含有最丰富、最完整的人脸信息,然而由于采集设备的角度以及人类活动的自由度,从采集设备获取的大部分人脸图像都是包含一定角度的侧脸图像。其中,侧脸图像因为人脸的旋转而产生的非线性变化以及人脸的自遮挡效应,在不同程度上丢失了人脸信息,进而影响后续的人脸相关的操作。而侧脸矫正的目标便是,根据输入的缺失部分人脸信息的侧脸图像,生成对应的包含完整人脸信息的正脸图像,进而通过对人脸信息的补充,大幅度提升人脸分析的效果。
但是目前在进行侧脸矫正时,容易忽略输入图像中的背景信息,导致生成的正脸图像无法还原输入图像中的背景。
发明内容
本申请提供一种侧脸矫正的方法、矫正装置及计算机可读存储介质,能够在进行侧脸矫正时,保留输入的目标图像的背景信息。
本申请实施例第一方面提供一种侧脸矫正的方法,所述方法包括:获取目标图像,所述目标图像包括目标人脸;从所述目标图像中提取特征,得到所述目标人脸的正脸特征和所述目标人脸所处背景的背景特征;将所述正脸特征和所述背景特征进行融合处理,得到融合特征;根据所述融合特征,生成矫正图像,其中,所述矫正图像中的人脸为与所述目标人脸对应的正脸。
本申请实施例第二方面提供一种矫正装置,所述矫正装置包括处理器、存储器以及通信电路,所述处理器分别耦接所述存储器、所述通信电路,所述存储器中存储有程序数据,所述处理器通过执行所述存储器内的所述程序数据以实现上述方法中的步骤。
本申请实施例第三方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被处理器执行以实现上述方法中的步骤。
有益效果是:本申请根据融合特征生成矫正图像,而由于融合特征融合了正脸特征和背景特征,因此生成的矫正图像能够保留输入的目标图像中的背景信息,最终可以保证在将矫正图像放入原始图像后不会产生违和感。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1是本申请侧脸矫正的方法一实施方式的流程示意图;
图2是图1中步骤S120的流程示意图;
图3是图2中步骤S121的流程示意图;
图4是本申请侧脸矫正的方法另一实施方式的部分流程示意图;
图5是图4中步骤S270的流程示意图;
图6是图4中步骤S280的流程示意图;
图7是图4中步骤S210的流程示意图;
图8是本申请矫正装置一实施方式的结构示意图;
图9是本申请矫正装置另一实施方式的结构示意图;
图10是本申请计算机可读存储介质一实施方式的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
参阅图1,图1是本申请侧脸矫正的方法一实施方式的流程示意图,该侧脸矫正的方法包括:
S110:获取目标图像,目标图像包括目标人脸。
具体地,目标图像中只包括一个人脸,将该人脸定义为目标人脸。其中,目标人脸可以是目标对象的正脸,也可以是目标对象的侧脸,本申请的目的就是将目标图像中的目标侧脸矫正为正脸,也就是说,使最终得到的矫正图像中的人脸为正脸。
其中,从原始图像中裁剪出目标图像,具体而言,原始图像中包括至少一个人脸,在对原始图像进行目标识别后,生成每个人脸对应的检测框,每个检测框都框选对应的人脸,然后分别将每个检测框中的图像裁剪出来,得到至少一个目标图像。可以理解的是,当目标图像的数量为多个时,针对每个目标图像,都执行后续步骤S120至步骤S140。
其中,在经过后续步骤得到与目标图像对应的矫正图像后,还需要将目标图像对应的矫正图像放入原始图像中的相应位置。
S120:从目标图像中提取特征,得到目标人脸的正脸特征和目标人脸所处背景的背景特征。
具体地,目标人脸的正脸特征携带的是目标人脸的正面信息,目标人脸所处背景的背景特征携带的是目标人脸所处的背景信息。
参阅图2,在本实施方式中,步骤S120具体包括:
S121:从目标图像中分离出目标人脸的人脸图像和目标人脸所处背景的背景图像。
具体地,将目标图像中的目标人脸和背景进行分离,得到人脸图像和背景图像。其中,人脸图像的尺寸、背景图像的尺寸与目标图像的尺寸均相同,且人脸图像可以理解为是将目标图像中的背景区域用纯色(例如黑色)进行填充而得到的,背景图像可以理解为是将目标人像中的人脸区域用纯色(例如黑色)进行填充而得到的。
S122:对人脸图像进行正脸特征提取,得到正脸特征,以及对背景图像进行特征提取,得到背景特征。
具体地,在对人脸图像进行特征提取时,是提取目标人脸的正脸特征,并不是提取整个目标人脸的全部人脸特征,因此得到的正脸特征携带的是目标人脸的正面信息。
在本实施方式中,从目标图像中分离出人脸图像与背景图像,然后再提取正脸特征和背景特征,相比较于直接从目标图像中提取正脸特征和背景特征,可以减少在提取正脸特征时背景的影响,以及减少在提取背景特征时目标人脸的影响。
但是在其他实施方式中,也可以不分离出人脸图像和背景图像,直接从目标图像中提取正脸特征和背景特征。
参阅图3,在本实施方式中,步骤S121具体包括:
S1211:根据目标图像,生成目标人脸的三维人脸模型。
具体地,采用预先训练好的三维人脸估计模型,估计目标图像中目标人脸的三维人脸模型。其中三维人脸估计模型预先训练好,其可以生成所接收到的图像中人脸的三维人脸模型。
S1212:根据三维人脸模型,生成目标人脸在目标图像上的人脸掩膜。
具体地,步骤S1212生成人脸掩膜的过程可以理解为:将三维人脸模型的角度、位置调整为与目标图像中的目标人脸对应,而后将三维人脸模型投影到一个与目标图像尺寸完全相同的掩膜图像中,然后将三维人脸模型在掩膜图像上的正投影区域中的像素点的像素值设置为第一像素值,其他区域的像素点的像素值设置为与第一像素值不同的第二像素值,该最终得到的掩膜图像即为人脸掩膜。
S1213:根据人脸掩膜,从目标图像中分离出人脸图像和背景图像。
具体地,根据人脸掩膜可以确定目标人脸在目标图像中的位置,从而可以从目标图像中分离出人脸图像和背景图像。
在其他实施方式中,步骤S121还可以具体是:采用例如边缘检测等方法在目标图像中确定目标人脸的轮廓,然后根据目标人脸的轮廓,从目标图像中分离出人脸图像和背景目标。
可以理解的是,在确定目标人脸的轮廓时,如果目标人脸与背景的颜色相近,则确定轮廓的难度较大,准确也较低。因此如果根据目标人脸的轮廓从目标图像中分离出人脸图像和背景目标,分离的准确率容易受目标人脸以及背景颜色的影响。
但是在本实施方式中,采用三维人脸估计模型生成三维人脸模型,而三维人脸估计模型预先训练好,其生成三维人脸模型的过程不需要去确定目标人脸的轮廓,因此本实施方式利用三维人脸模型去分离人脸图像和背景图像分离的准确率高,难度低。
以上对步骤S120得到正脸特征和背景特征的具体过程进行了介绍,下面介绍步骤S120之后的步骤。
S130:将正脸特征和背景特征进行融合处理,得到融合特征。
具体地,可以采用现有技术中任何一项融合技术将正脸特征和背景特征进行融合处理。例如,在一应用场景中,正脸特征的维度为256维,背景特征的维度为256维,在经过融合处理后,得到维度为512维的融合特征。
S140:根据融合特征,生成矫正图像,其中,矫正图像中的人脸为与目标人脸对应的正脸。
其中,矫正图像与目标图像的尺寸相同,例如,矫正图像与目标图像的尺寸均为128×128。
其中,矫正图像中的人脸是与目标人脸对应的正脸,也就是说,矫正图像是将目标图像中的目标人脸矫正为正脸后的图像。
在本实施方式中,根据融合特征生成矫正图像,而由于融合特征融合了正脸特征和背景特征,因此生成的矫正图像能够保留输入的目标图像中的背景信息,最终可以保证在将矫正图像放入原始图像后不会产生违和感。
在本实施方式中,步骤S120具体包括:利用预先训练好的侧脸矫正模型中的编码器从目标图像提取特征,得到正脸特征和背景特征;步骤S140具体包括:将融合特征输入侧脸矫正模型中的生成器,生成矫正图像。
具体地,为了提高侧脸矫正的速度以及侧脸矫正的准确率,利用预先训练好的侧脸矫正模型参与上述侧脸矫正的过程。
在一应用场景中,为了提高处理速度和效率,将目标图像输入侧脸矫正模型之前,对目标图像进行预处理,预处理过程可以是:对目标图像进行归一化处理,然后对归一化处理后的目标图像进行数据增强处理,最后将增加处理后的目标图像缩放至预设大小,例如为128×128。
其中,进行归一化处理的过程可以是分别将目标图像中的每个像素的像素值除以255,使得归一化后每个像素点的像素值都在区间[0,1]内。
在其他应用场景中,将目标图像输入侧脸矫正模型之前,也可以不对目标图像进行预处理。
在一应用场景中,侧脸矫正模型中编码器的数量为一个,此时该编码器直接从目标图像中进行特征提取,得到正脸特征和背景特征,也就是说,此时将目标图像输入编码器,该编码器输出正脸特征和背景特征。
在另一应用场景中,侧脸矫正模型中编码器的数量为两个,分别记为第一编码器和第二编码器,此时从目标图像中分离出目标人脸的人脸图像和目标人脸所处背景的背景图像后,利用第一编码器对人脸图像进行正脸特征提取,得到正脸特征,以及利用第二编码器对背景图像进行特征提取,得到背景特征。也就是将人脸图像输入第一编码器,得到正脸特征,将背景图像输入第二编码器,得到背景特征。
其中,不管侧脸矫正模型中编码器的数量是一个,还是两个,编码器都可以包括3个ConvBlock,每个ConvBlock又包括2个Con2D层、1个ResBlock、1个BatchNorm2D层以及1个LeakyReLU层,其中每个ResBlock又包含3个Con2D层以及1个LeakyReLU层采用跳层连接的方式。其中,本申请并不限制侧脸矫正模型中编码器的具体结构。
其中,生成器是生成对抗式网络中的生成器,生成对抗式网络包括生成器和判别器,在训练生成式对抗网络的过程中,生成器的目标就是尽量生成真实的图像去欺骗判别器,而判别器的目标就是尽量把生成器生成的图像和真实的图像区别开来,这样生成器和判别器就构成了一个动态的博弈过程。也就是说,生成器的任务是生成接近真图像的假图像,而判别器的任务是在接收真图像和生成器生成的假图像后,判断接收到的图像是属于真图像还是假图像。
因此在完成对侧脸矫正模型中的生成器的训练后,生成器生成的矫正图像的人脸为正脸或者非常接近正脸,从而达到矫正侧脸的目的。
在一应用场景中,生成器包括3个UpConvBlock,每个UpConvBlock都包括2个Con2D层、1个PixelShuffle层、1个ResBlock、1个BatchNorm2D层以及1个LeakyReLU层。此时当融合特征的维度为512维时,输入生成器的融合特征每经过一次UpConvBlock其分辨率便会增大一倍,但是特征维数会减小到原来的1/4,经过三次UpConvBlock之后便能得到128×128大小的矫正图像。
其中,本申请对于生成器的具体结构不做限制。
下面介绍对侧脸矫正模型进行训练的过程,参阅图4,训练侧脸矫正模型的过程包括:
S210:获取多个第一样本图像,每个第一样本图像均包括第一样本人脸。
具体地,第一样本图像包括一个人脸,将该人脸定义为第一样本人脸,且第一样本图像中的第一样本人脸可以是正脸,也可以是侧脸,且不同第一样本图像中的第一样本人脸可以是同一个样本对象的人脸,也可以是不同样本对象的人脸。
S220:利用编码器分别从每个第一样本图像中提取特征,得到每个第一样本图像中第一样本人脸的第一样本正脸特征和第一样本人脸所处背景的第一样本背景特征。
其中,将第一样本图像输入侧脸矫正模型之前,也对第一样本图像进行预处理,该过程与上述对目标图像进行预处理的过程类似,具体可参见上述相关内容,在此不再赘述。
具体地,从第一样本图像中提取特征的过程,与上述从目标图像中提取特征的过程相同,具体可参见上述,在此不再赘述。
在经过步骤S220后,每个第一样本图像都对应有一个第一样本正脸特征和一个第一样本背景特征。
S230:利用编码器从每个第一样本图像各自对应的第二样本图像中提取特征,得到每个第二样本图像中第二样本人脸的第二样本正脸特征,其中,第一样本图像中的第一样本人脸和第一样本图像对应的第二样本图像中的第二样本人脸对应同一个样本对象,第一样本图像中的背景和第一样本图像对应的第二样本图像中的背景对应同一背景,且每个第二样本图像中的第二样本人脸为正脸。
具体地,每一个第一样本图像都对应一个第二样本图像,与第一样本图像对应的第二样本图像指的是第二样本图像中的第二样本人脸是正脸,且第二样本人脸与第一样本图像中的第一样本人脸是同一个人的人脸,同时第二样本图像中的背景和第一样本图像中的背景对应同一个背景。为了便于理解,在此结合具体实例进行说明:假设第一样本图像中包括人A的侧脸,则与第一样本图像对应的第二样本图像中的人脸必须是人A的正脸,且第二样本图像中的背景与第一样本图像中的背景对应同一个背景。
可以理解的是,不同的第一样本图像对应的第二样本图像可以是同一个图像,也可以不是同一个图像。
其中,从第二样本图像中提取第二样本正脸特征的过程与上述从第一样本图像中提取第一样本正脸特征的过程相同,可参见上述相关内容。
S240:分别将每个第一样本图像对应的第一样本正脸特征和第一样本背景特征进行融合处理,得到每个第一样本图像对应的样本融合特征。
具体地,将第一样本正脸特征和第一样本背景特征进行融合处理的过程,与上述将正脸特征和背景特征进行融合处理的过程相同,具体可参见上述相关内容。
可以理解的是,在经过步骤S240后,对于每个第一样本图像而言,都对应一个样本融合特征。
S250:分别将每个样本融合特征输入生成器,得到每个第一样本图像对应的样本矫正图像。
具体地,在将第一样本图像对应的样本融合特征输入生成器后,生成器输出与第一样本图像对应的样本矫正图像,该样本矫正图像可以理解为是将第一样本图像中的第一人样本人脸矫正为正脸后的图像,但是因为目前还处于训练阶段,因此生成器的矫正效果还未达到理想状态,只有最终在经过不断的训练后,生成器生成的样本矫正图像中的人脸就是或者接近是第一样本人脸对应的样本对象的正脸。
S260:根据多个第一样本正脸特征和第一样本正脸特征各自对应的第二样本正脸特征,确定第一损失值。
具体地,第一样本正脸特征对应的第二样本正脸特征指的是,与第一样本正脸特征对应的第一样本图像对应的第二样本图像对应的第二样本正脸特征。
其中,第一损失值表征着编码器提取第一样本人脸的第一样本正脸特征的准确率,对侧脸矫正模型进行训练的目的之一就是,使编码器提取的第一样本正脸特征就是或者接近是第一样本人脸对应的样本对象的正脸特征,也就是使得第一样本正脸特征就是或者接近是第一样本正脸特征对应的第二样本正脸特征。
其中,步骤S260的具体过程可以是:分别根据每个第一样本正脸特征和第一样本正脸特征对应的第二样本正脸特征,确定每个第一样本正脸特征对应的正脸子损失值;然后根据每个第一样本正脸特征对应的正脸子损失值,确定第一损失值。
其中,可以利用L1损失函数,确定每个第一样本正脸特征对应的正脸子损失值,以及将每个第一样本正脸特征对应的正脸子损失值进行求和处理,得到第一损失值,或者求取正脸子损失值的平均值,得到第一损失值。
总而言之,本申请对于确定第一损失值的具体过程不做限制,只要第一损失值能够表征编码器提取正脸特征的准确率即可。
S270:根据多个样本矫正图像和样本矫正图像对应的第二样本图像,确定第二损失值。
具体地,样本矫正图像对应的第二样本图像指的是,样本矫正图像对应的第一样本图像所对应的第二样本图像。
其中,第二损失值表征生成器生成第一样本图像对应的样本矫正图像的准确率,对侧脸矫正模型进行训练的目的之一就是,使生成器生成的样本矫正图像中的人脸就是或者接近是第一样本图像对应的第二样本图像中的人脸,也就是使矫正图像接近或者就是对应的第二样本图像。
参阅图5,在一应用场景中,步骤S270具体包括:
S271:根据多个样本矫正图像的像素值和每个样本矫正图像对应的第二样本图像的像素值,确定第一子损失值。
具体地,分别根据每个样本矫正图像的像素值和样本矫正图像各自对应的第二样本图像的像素值,确定每个样本矫正图像对应的像素子损失值,然后根据每个样本矫正图像对应的像素子损失值,确定第一子损失值。
其中,在确定每个样本矫正图像对应的像素子损失值时,可以采用L1损失函数进行计算,即采用L1损失函数逐像素计算样本矫正图像与对应的第二样本图像之间的像素值误差,从而得到样本矫正图像对应的像素子损失值。其中,L1损失函数也称为绝对值损失函数,其目的是使目标值与估计值的绝对差值的总和最小化。关于L1损失函数可参见现有技术,在此不详细介绍。
其中,将每个样本矫正图像对应的像素子损失值进行例如求和处理、求平均值处理等计算,得到第一子损失值。
从上述过程可以看出,第一子损失值表征着样本矫正图像与对应的第二样本图像之间的像素级损失。
S272:根据多个样本矫正图像的人脸特征和每个样本矫正图像对应的第二样本图像的人脸特征,确定第二子损失值。
具体地,样本矫正图像的人脸特征、第二样本图像的人脸特征均包括相应人脸的正面信息和侧面信息。
其中,针对每个样本矫正图像以及每个第二样本图像而言,可以采用预先训练好的人脸特征提取网络提取人脸特征。在一应用场景中,预先训练好的人脸特征提取网络是基于MS_Celeb_1M数据集上预训练过的VGG19网络。其中关于人脸特征提取网络的具体结构不做限制。
其中,步骤S272具体可以是:分别根据每个样本矫正图像的人脸特征和样本矫正图像各自对应的第二样本图像的人脸特征,确定每个样本矫正图像对应的感知子损失值,然后根据每个样本矫正图像对应的感知子损失值,确定第二子损失值。
其中,可以利用L1损失函数计算样本矫正图像的人脸特征和对应的第二样本图像的人脸特征之间的距离,得到样本矫正图像对应的感知子损失值。
其中,将每个样本矫正图像对应的感知子损失值进行例如求和处理、求平均值处理等计算,得到第二子损失值。
从上述过程可以看出,第二子损失值表征着样本矫正图像与对应的第二样本图像之间的感知损失。
S273:根据多个样本矫正图像中人脸上的至少一个目标部位的第一部位特征和每个样本矫正图像对应的第二样本图像中人脸上的至少一个目标部位的第二部位特征,确定第三子损失值。
具体地,针对每个样本矫正图像而言,使用例如关键点识别等技术从样本矫正图像中裁剪出人脸的目标部位,其中,目标部位包括双眼、鼻子、嘴巴中的至少一个,然后针对每个目标部位进行特征提取,得到相应的第一部位特征。
类似地,针对每个第二样本图像而言,也从第二样本图像中裁剪出人脸的目标部位,然后针对每个目标部位进行特征提取,得到相应的第二部位特征。
其中在对目标部位进行特征提取时,可以采用例如VGG19网络进行特征提取。
其中,样本矫正图像对应的至少一个目标部位与第二样本图像对应的至少一个目标部位一一对应,例如,如果针对样本矫正图像是针对鼻子、眼睛进行特征的提取,那针对第二样本图像也是针对鼻子、眼睛进行特征的提取。
其中当目标部位为一个,例如为鼻子时,每个样本矫正图像对应的第一部位特征为一个,即为鼻子部位特征,每个第二样本图像对应的第二部位特征也为一个,也是鼻子部位特征,此时步骤S273具体包括:分别根据每个样本矫正图像对应的第一部位特征(即鼻子部位特征)和样本矫正图像各自对应的第二样本图像对应的第二部分特征(即鼻子部位特征),确定每个样本矫正图像对应鼻子的部位子损失值,然后根据每个样本矫正图像对应的部位子损失值,确定第三子损失值。例如,将每个样本矫正图像对应的部位子损失值进行例如求和处理、求平均值处理等计算,得到第三子损失值。
其中当目标部位为多个,例如多个目标部位包括鼻子、左眼和右眼时,参照上述方式,分别确定每个样本矫正图像对应鼻子的部位子损失值、对应左眼的部位子损失值以及对应右眼的部位子损失值,然后根据每个样本矫正图像对应鼻子的部位子损失值、对应左眼的部位子损失值以及对应右眼的部位子损失值,确定第三子损失值。例如,将每个样本矫正图像对应鼻子的部位子损失值进行求和处理,得到鼻子损失值;将每个样本矫正图像对应左眼的部位子损失值进行求和处理,得到左眼损失值;将每个样本矫正图像对应右眼的部位子损失值进行求和处理,得到右眼损失值;最后将鼻子损失值、左眼损失值以及右眼损失值进行例如加权求和或者求平均值处理,得到第三子损失值。
其中,可以利用L1损失函数计算每个样本矫正图像对应鼻子的部位子损失值、对应左眼的部位子损失值以及对应右眼的部位子损失值。
从上述过程可以看出,第三子损失值表征着样本矫正图像与对应的第二样本图像之间人脸细节的损失。
S274:根据第一子损失值、第二子损失值以及第三子损失值中的至少一个,确定第二损失值。
其中,可以将第一子损失值、第二子损失值或者第三子损失值,直接确定为第二损失值,也可以结合第一子损失值、第二子损失值以及第三子损失值中的两个或者三个,确定第二损失值。
例如,在一应用场景中,对第一子损失值、第二子损失值以及第三子损失值直接进行求和处理,得到第二损失值。
又例如,在另一应用场景中,对第一子损失值、第二子损失值以及第三子损失值进行加权求和处理,得到第二损失值。
其中,在采用加权求和的方法得到第二损失值时,考虑到像素级损失相比较于感知损失、人脸细节的损失,更能反映样本矫正图像与第二样本图像之间的相似,而感知损失相比较于人脸细节的损失,更能反映样本矫正图像与第二样本图像之间的相似,因此设置第一子损失值、第二子损失值、第三子损失值的权重依次降低。
需要说明的是,本申请并不限制第一子损失值、第二子损失值、第三子损失值的权重,设计人员可以根据实际需求进行灵活设置。
其中,当同时结合第一子损失值、第二子损失值以及第三子损失值,确定第二损失值时,相比较于直接将第一子损失值确定为总损失值,由于第二子损失值与人脸特征相关,第三子损失值与人脸细节相关,因此一方面可以保证后续利用侧脸矫正模型生成的矫正图像包含人脸特征信息,避免矫正图像过于平滑,另一方面还可以保证矫正图像可以还原目标人脸的细节信息,例如表情等信息。
S280:根据第一损失值和第二损失值,确定总损失值。
具体地,在根据第一损失值和第二损失值,得到总损失值后,根据总损失值对侧脸矫正模型进行训练,具体过程为根据总损失值,对侧脸矫正模型的参数进行调整,使得侧脸矫正模型朝着收敛的方向发展。
其中,可以对第一损失值和第二损失值直接进行求和处理,得到总损失值,也可以对第一损失值、第二损失值进行加权求和处理,得到总损失值。
其中,在对第一损失值、第二损失值进行加权求和处理,得到总损失值时,考虑到对第一样本图像中第一样本人脸进行侧脸矫正的关键是,能够提取到第一样本人脸的正脸特征,同时编码器对最终矫正结果的影响大于生成器对最终矫正结果的影响,因此设置第一损失值的权重大于第二损失值的权重。
当然,第一损失值、第二损失值对应的权重可由设计人员根据实际需求进行灵活设定,在此不做限制。
参阅图6,在一应用场景中,步骤S280包括:
S281:分别将多个样本矫正图像以及每个样本矫正图像对应的第二样本图像输入到侧脸矫正模型中的判别器进行判别。
S282:根据判别器的判别结果,生成第三损失值。
具体地,侧脸矫正模型中的判别器是生成式对抗网络中的判别器,具体可参见上文的介绍。
对于每个样本矫正图像而言,执行如下步骤:
将样本矫正图像以及样本矫正图像对应的第二样本图像(即与样本矫正图像对应的第一样本图像所对应的第二样本图像),输入至判别器中进行判别,根据判别器输出的判别结果,确定每个样本矫正图像对应的判别子损失值。
在针对每个样本矫正图像都执行上述步骤后,可以得到每个样本矫正图像对应的判别子损失值,然后将每个样本矫正图像对应的判别子损失值进行例如求和处理或者求平均值处理等计算,得到第三子损失值。
S283:根据第一损失值、第二损失值以及第三损失值,确定总损失值。
在一应用场景中,对第一损失值、第二损失值以及第三损失值直接进行求和处理,得到总损失值。
在另一应用场景中,对第一损失值、第二损失值以及第三损失值进行加权求和处理,得到总损失值。
其中,在利用加权求和的方法确定总损失值时,考虑到编码器对最终矫正结果的影响大于生成器对最终矫正结果的影响,生成器对最终矫正结果的影响大于判别器对最终矫正结果的影响,设置第一损失值、第二损失值以及第三损失值对应的权重依次降低。
在一应用场景中,在对第一子损失值、第二子损失值以及第三子损失值进行加权求和处理,得到第二损失值时,可按照如下公式确定总损失值Ltotal:
Ltotal=λ1×L1+λ2×L2+λ3×L3+λ4×L4+λ5×L5;
其中,L1为第一损失值,L2为第一子损失值,L3为第二子损失值,L4为第三子损失值,L5为第三损失值,λ1为第一损失值对应的权重,λ2为第一子损失值对应的权重,λ3为第二子损失值对应的权重,λ4为第三子损失值对应的权重,λ5为第三损失值对应的权重,此时,λ1、λ2、λ3、λ4以及λ5的值依次降低,例如,λ1=15,λ2=5,λ3=2,λ4=1以及λ5=0.1。
S290:根据总损失值对侧脸矫正模型进行训练。
具体地,步骤S290具体是根据总损失值对侧脸矫正模型中的编码器和生成器进行训练。当侧脸矫正模型中编码器的数量为两个时,步骤S290是对侧脸矫正模型中的两个编码器以及生成器进行训练。
其中,总损失值既能表征编码器提取正脸特征的准确率,也能表征生成器生成矫正图像的准确率,因此根据总损失值对侧脸矫正模型进行训练,可以使得侧脸矫正模型中的编码器、生成器逐渐完善,最终使侧脸矫正模型达到收敛。同时当同时根据第一子损失值、第二子损失值以及第三子损失值,确定第二损失值时,既能保证生成出的矫正图像富含特征信息,避免矫正图像过于平滑,也能保证生成的矫正图像能够还原出目标人脸的细节信息。
其中,步骤S290在对侧脸矫正模型进行训练时,可以采用随机梯度下降算法对编码器、生成器进行训练,例如,设置初始学习率为0.001,迭代次数epoch设置为100,每经过5个epoch学习率下降为80%。
其中,在训练阶段,也需要对侧脸矫正模型中的判别器进行训练,不过在对判别器进行训练时,并不是根据总损失值对判别器进行训练,而是可以根据判别器判别的结果,对判别器进行训练。其中可以采用现有技术中的任何一种方法,对侧脸矫正模型中的判别器进行训练,关于该过程,在此不做具体介绍。
参阅图7,在本实施方式中,步骤S210获取多个第一样本图像的步骤,包括:
S211:获取第二样本图像。
具体地,任意一个包括正脸的图像都可以作为第二样本图像。
S212:根据第二样本图像,生成第二样本图像中第二样本人脸的三维人脸模型。
具体地,此处生成第二样本人脸的三维人脸模型的过程与上述生成目标人脸的三维人脸模型的过程相同,具体可参见上述相关内容。
S213:提取第二样本图像中第二样本人脸的原始色彩信息,并将原始色彩信息加入三维人脸模型。
具体地,将第二样本人脸的原始色彩信息加入至三维人脸模型后,三维人脸模型带有色彩纹理信息,更加接近真实的人脸。
S214:将三维人脸模型进行不同角度的旋转后渲染到二维平面,得到与第二样本图像对应的多个第一样本图像。
具体地,将加入原始色彩信息后的三维人脸模型进行多角度随机旋转,且每旋转一次后,采用栅格化的方式,将带有色彩纹理信息的三维人脸模型渲染到二维平面,得到多个侧脸图像,该多个侧脸图像中的背景与第二样本图像中的背景为同一个背景,该多个侧面图像即为与第二样本图像对应的多个第一样本图像。
在现有技术中,训练集大部分只包括偏航角yaw对应特定角度的人脸图像,例如特定角度集合为{15°,30°,45°,60°,75°,90°},这些图像对应的俯仰角pitch和旋转角roll均为0°。
而本实施方式采用旋转三维人脸模型的方式,可以随机旋转偏航角yaw和俯仰角pitch,使得旋转后的偏航角yaw分布在区间[-90°,90°],旋转后的俯仰角pitch分布在区间[-45°,45°]内,增加了训练集中的第一样本图像中的第一样本人脸姿态的丰富性,提高了训练数据的多样性,使得训练出的侧脸矫正模型具有良好的泛化性。
参阅图8,图8是本申请矫正装置一实施方式的结构示意图。该矫正装置200包括处理器210、存储器220以及通信电路230,处理器210分别耦接存储器220、通信电路230,存储器220中存储有程序数据,处理器210通过执行存储器220内的程序数据以实现上述任一项实施方式中的方法步骤,其中详细的步骤可参见上述实施方式,在此不再赘述。
其中,矫正装置200可以是电脑、手机等任一项具有图像处理能力的装置,在此不做限制。
参阅图9,图9是本申请矫正装置另一实施方式的结构示意图。该矫正装置300包括获取模块310、提取模块320、融合模块330以及矫正模块340。
获取模块310用于获取目标图像,目标图像包括目标人脸。
提取模块320与获取模块310连接,用于从目标图像中提取特征,得到目标人脸的正脸特征和目标人脸所处背景的背景特征。
融合模块330与提取模块320连接,用于将正脸特征和背景特征进行融合处理,得到融合特征。
矫正模块340与融合模块330连接,用于根据融合特征,生成矫正图像,其中,矫正图像中的人脸为与目标人脸对应的正脸。
其中,矫正装置300在工作时执行上述任一项实施方式中的方法步骤,详细的步骤可参见上述相关内容,在此不再赘述。
其中,矫正装置300可以是手机、电脑等任一个具有图像处理能力的电子设备,在此不做限制。
参阅图10,图10是本申请计算机可读存储介质一实施方式的结构示意图。该计算机可读存储介质400存储有计算机程序410,计算机程序410能够被处理器执行以实现上述任一项方法中的步骤。
其中,计算机可读存储介质400具体可以为U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等可以存储计算机程序410的装置,或者也可以为存储有该计算机程序410的服务器,该服务器可将存储的计算机程序410发送给其他设备运行,或者也可以自运行该存储的计算机程序410。
以上所述仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (14)
1.一种侧脸矫正的方法,其特征在于,所述方法包括:
获取目标图像,所述目标图像包括目标人脸;
从所述目标图像中提取特征,得到所述目标人脸的正脸特征和所述目标人脸所处背景的背景特征;
将所述正脸特征和所述背景特征进行融合处理,得到融合特征;
根据所述融合特征,生成矫正图像,其中,所述矫正图像中的人脸为与所述目标人脸对应的正脸。
2.根据权利要求1所述的方法,其特征在于,所述从所述目标图像中提取特征,得到所述目标人脸的正脸特征和所述目标人脸所处背景的背景特征的步骤,包括:
从所述目标图像中分离出所述目标人脸的人脸图像和所述目标人脸所处背景的背景图像;
对所述人脸图像进行正脸特征提取,得到所述正脸特征,以及对所述背景图像进行特征提取,得到所述背景特征。
3.根据权利要求2所述的方法,其特征在于,所述从所述目标图像中分离出所述目标人脸的人脸图像和所述目标人脸所处背景的背景图像的步骤,包括:
根据所述目标图像,生成所述目标人脸的三维人脸模型;
根据所述三维人脸模型,生成所述目标人脸在所述目标图像上的人脸掩膜;
根据所述人脸掩膜,从所述目标图像中分离出所述人脸图像和所述背景图像。
4.根据权利要求1所述的方法,其特征在于,所述从所述目标图像中提取特征,得到所述目标人脸的正脸特征和所述目标人脸所处背景的背景特征的步骤,包括:
利用预先训练好的侧脸矫正模型中的编码器从所述目标图像提取特征,得到所述正脸特征和所述背景特征;
所述根据融合特征,生成矫正图像的步骤,包括:
将所述融合特征输入所述侧脸矫正模型中的生成器,生成所述矫正图像。
5.根据权利要求4所述的方法,其特征在于,在所述获取目标图像之前,还包括:
获取多个第一样本图像,每个所述第一样本图像均包括第一样本人脸;
利用所述编码器分别从每个所述第一样本图像中提取特征,得到每个所述第一样本图像中所述第一样本人脸的第一样本正脸特征和所述第一样本人脸所处背景的第一样本背景特征;
利用所述编码器从每个所述第一样本图像各自对应的第二样本图像中提取特征,得到每个所述第二样本图像中第二样本人脸的第二样本正脸特征,其中,所述第一样本图像中的所述第一样本人脸和所述第一样本图像对应的所述第二样本图像中的所述第二样本人脸对应同一个样本对象,所述第一样本图像中的背景和所述第一样本图像对应的第二样本图像中的背景对应同一背景,且每个所述第二样本图像中的所述第二样本人脸为正脸;
分别将每个所述第一样本图像对应的所述第一样本正脸特征和所述第一样本背景特征进行融合处理,得到每个所述第一样本图像对应的样本融合特征;
分别将每个所述样本融合特征输入所述生成器,得到每个所述第一样本图像对应的样本矫正图像;
根据多个所述第一样本正脸特征和所述第一样本正脸特征各自对应的所述第二样本正脸特征,确定第一损失值;
根据多个所述样本矫正图像和所述样本矫正图像对应的所述第二样本图像,确定第二损失值;
根据所述第一损失值和所述第二损失值,确定总损失值;
根据所述总损失值对所述侧脸矫正模型进行训练。
6.根据权利要求5所述的方法,其特征在于,所述根据多个所述样本矫正图像和所述样本矫正图像对应的所述第二样本图像,确定第二损失值的步骤,包括:
根据多个所述样本矫正图像的像素值和每个所述样本矫正图像对应的所述第二样本图像的像素值,确定第一子损失值;
根据多个所述样本矫正图像的人脸特征和每个所述样本矫正图像对应的所述第二样本图像的人脸特征,确定第二子损失值;
根据多个所述样本矫正图像中人脸上的至少一个目标部位的第一部位特征和每个所述样本矫正图像对应的所述第二样本图像中人脸上的至少一个所述目标部位的第二部位特征,确定第三子损失值;
根据所述第一子损失值、第二子损失值以及所述第三子损失值中的至少一个,确定所述第二损失值。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第一子损失值、第二子损失值以及所述第三子损失值中的至少一个,确定所述第二损失值的步骤,包括:
对所述第一子损失值、所述第二子损失值以及所述第三子损失值进行加权求和处理,得到所述第二损失值。
8.根据权利要求7所述的方法,其特征在于,所述第一子损失值、所述第二子损失值、所述第三子损失值对应的权重依次降低。
9.根据权利要求5所述的方法,其特征在于,所述根据所述第一损失值和所述第二损失值,确定总损失值的步骤,包括:
分别将多个所述样本矫正图像以及每个所述样本矫正图像对应的所述第二样本图像输入到所述侧脸矫正模型中的判别器进行判别;
根据所述判别器的判别结果,生成第三损失值;
根据所述第一损失值、所述第二损失值以及所述第三损失值,确定所述总损失值。
10.根据权利要求9所述的方法,其特征在于,所述根据所述第一损失值、所述第二损失值以及所述第三损失值,确定所述总损失值的步骤,包括:
对所述第一损失值、所述第二损失值以及所述第三损失值进行加权求和处理,得到所述总损失值。
11.根据权利要求10所述的方法,其特征在于,所述第一损失值、所述第二损失值以及所述第三损失值对应的权重依次降低。
12.根据权利要求5所述的方法,其特征在于,所述获取多个第一样本图像的步骤,包括:
获取所述第二样本图像;
根据所述第二样本图像,生成所述第二样本图像中所述第二样本人脸的三维人脸模型;
提取所述第二样本图像中所述第二样本人脸的原始色彩信息,并将所述原始色彩信息加入所述三维人脸模型;
将所述三维人脸模型进行不同角度的旋转后渲染到二维平面,得到与所述第二样本图像对应的多个所述第一样本图像。
13.一种矫正装置,其特征在于,所述矫正装置包括处理器、存储器以及通信电路,所述处理器分别耦接所述存储器、所述通信电路,所述存储器中存储有程序数据,所述处理器通过执行所述存储器内的所述程序数据以实现如权利要求1-12任一项所述方法中的步骤。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序能够被处理器执行以实现如权利要求1-12任一项所述方法中的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211091716.8A CN115578762A (zh) | 2022-09-07 | 2022-09-07 | 侧脸矫正的方法、矫正装置及计算机可读存储介质 |
PCT/CN2023/116501 WO2024051593A1 (en) | 2022-09-07 | 2023-09-01 | Systems and methods for image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211091716.8A CN115578762A (zh) | 2022-09-07 | 2022-09-07 | 侧脸矫正的方法、矫正装置及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115578762A true CN115578762A (zh) | 2023-01-06 |
Family
ID=84580390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211091716.8A Pending CN115578762A (zh) | 2022-09-07 | 2022-09-07 | 侧脸矫正的方法、矫正装置及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115578762A (zh) |
WO (1) | WO2024051593A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024051593A1 (en) * | 2022-09-07 | 2024-03-14 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for image processing |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102205498B1 (ko) * | 2014-09-18 | 2021-01-20 | 삼성전자주식회사 | 입력 영상으로부터 특징을 추출하는 방법 및 장치 |
CN110992493B (zh) * | 2019-11-21 | 2023-10-31 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN111028169B (zh) * | 2019-12-09 | 2024-02-06 | Oppo广东移动通信有限公司 | 图像校正方法、装置、终端设备和存储介质 |
CN113052783A (zh) * | 2019-12-27 | 2021-06-29 | 杭州深绘智能科技有限公司 | 一种基于人脸关键点的人脸图像融合方法 |
CN115578762A (zh) * | 2022-09-07 | 2023-01-06 | 浙江大华技术股份有限公司 | 侧脸矫正的方法、矫正装置及计算机可读存储介质 |
-
2022
- 2022-09-07 CN CN202211091716.8A patent/CN115578762A/zh active Pending
-
2023
- 2023-09-01 WO PCT/CN2023/116501 patent/WO2024051593A1/en unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024051593A1 (en) * | 2022-09-07 | 2024-03-14 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for image processing |
Also Published As
Publication number | Publication date |
---|---|
WO2024051593A1 (en) | 2024-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111652827B (zh) | 一种基于生成对抗网络的正面人脸合成方法及系统 | |
US11037281B2 (en) | Image fusion method and device, storage medium and terminal | |
WO2009091029A1 (ja) | 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム | |
CN111489287A (zh) | 图像转换方法、装置、计算机设备和存储介质 | |
WO2022095721A1 (zh) | 参数估算模型的训练方法、装置、设备和存储介质 | |
CN102812474B (zh) | 头部识别方法 | |
KR101759188B1 (ko) | 2d 얼굴 이미지로부터 3d 모델을 자동 생성하는 방법 | |
CN111652123B (zh) | 图像处理和图像合成方法、装置和存储介质 | |
CN108875586B (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
CN110070574A (zh) | 一种基于改进PSMNet的双目视觉立体匹配算法 | |
CN112232258A (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN112487922A (zh) | 一种多模态人脸活体检测方法及系统 | |
CN115578762A (zh) | 侧脸矫正的方法、矫正装置及计算机可读存储介质 | |
CN113724354A (zh) | 基于参考图颜色风格的灰度图像着色方法 | |
CN112580434A (zh) | 一种基于深度相机的人脸误检优化方法、系统及人脸检测设备 | |
CN117095128A (zh) | 一种无先验多视角人体服饰编辑方法 | |
CN111598051A (zh) | 一种脸部验证方法、装置、设备及可读存储介质 | |
Wang et al. | Digital twin: Acquiring high-fidelity 3D avatar from a single image | |
CN113886510A (zh) | 一种终端交互方法、装置、设备及存储介质 | |
CN113610969B (zh) | 一种三维人体模型生成方法、装置、电子设备及存储介质 | |
CN116030517A (zh) | 模型训练方法、人脸识别方法、装置以及计算机存储介质 | |
CN111523406B (zh) | 一种基于生成对抗网络改进结构的偏转人脸转正方法 | |
CN108629333A (zh) | 一种低照度的人脸图像处理方法、装置、设备及可读介质 | |
CN111461971B (zh) | 图像处理方法、装置、设备及计算机可读存储介质 | |
CN110163829B (zh) | 图像生成方法、装置和计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |