CN112070681A - 图像处理方法及装置 - Google Patents
图像处理方法及装置 Download PDFInfo
- Publication number
- CN112070681A CN112070681A CN201910439202.9A CN201910439202A CN112070681A CN 112070681 A CN112070681 A CN 112070681A CN 201910439202 A CN201910439202 A CN 201910439202A CN 112070681 A CN112070681 A CN 112070681A
- Authority
- CN
- China
- Prior art keywords
- face
- dimensional
- image
- transformation matrix
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 85
- 230000009466 transformation Effects 0.000 claims abstract description 79
- 238000012937 correction Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000011156 evaluation Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G06T5/77—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G06T3/04—
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Abstract
本公开是关于一种图像处理方法及装置,用以减轻图像的全局透视畸变与局部透视畸变。所述方法包括:获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;根据第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定二维人脸图像的第一透视变换矩阵;根据第二人脸的人脸姿态信息与三维人脸模型,确定第二人脸的第二透视变换矩阵;根据第一透视变换矩阵对二维人脸图像进行透视畸变矫正,得到第一中间图像;根据第一透视变换矩阵以及第二透视变换矩阵对第一中间图像中的第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。本公开技术方案可以减轻图像的透视畸变。
Description
技术领域
本公开涉及互联网技术领域,尤其涉及一种图像处理方法及装置。
背景技术
在移动终端(例如手机)拍照时,由于后置相机和前置相机在包含人像的场景中,会很大程度地收到透视畸变的影响,造成成像结果中人脸部分不可避免地造成问题。
例如,在移动终端拍摄中,后置相机会拍摄多人合影的场景,此场景会在照片上体现出透视畸变的问题,尤其是距离图像中心位置较远的人脸,会有明显的畸变问题。由于人脸是更加关键的信息,所以畸变的人脸是需要被矫正的。
再如,前置相机会拍摄单人自拍以及2-3人合拍。拍摄单人自拍时,会由于人脸距离手机前置相机较近,造成一定的透视畸变,这对于人脸的正确表现有较大影响。拍摄2-3人自拍合影时,由于自拍时移动终端距离被摄人脸较近,所以图像中左侧和右侧的人脸会有较大程度的透视畸变问题,体现在最终图像中,会造成两侧人脸形状的变形(如横向拉伸、径向拉伸及二者的结合),因此,也是有必要进行矫正处理的。
因此,如何对图像进行处理以减轻透视畸变是需要解决的一个技术问题。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种图像处理方法及装置,用以减轻合影图像的全局透视畸变以及局部透视畸变,提高合影图像的质量。
根据本公开实施例的第一方面,提供一种图像处理方法,包括:
获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;
根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵;
根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵;
根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像;
根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
在一个实施例中,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
确定所述二维人脸图像中至少一个人脸各自的面积;
根据所述至少一个人脸各自的面积确定面积最大的至少一个人脸,得到所述第一人脸;或者
确定所述二维人脸图像中至少一个人脸各自的位置;
根据所述至少一个人脸各自的位置确定距离所述二维人脸图像的中心最近的至少一个人脸,得到所述第一人脸。
在一个实施例中,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
确定所述二维人脸图像中至少一个人脸各自的面积,获得至少一个面积值;
确定所述至少一个人脸各自与所述二维人脸图像的中心的距离,获得至少一个距离值;
确定所述至少一个面积值各自的权重系数以及所述至少一个距离值各自的权重系数;
根据所述至少一个面积值、所述至少一个面积值各自的权重系数、所述至少一个距离值以及所述至少一个距离值各自的权重系数,确定所述至少一个人脸各自的重要程度的评估值;
根据所述至少一个人脸各自的重要程度的评估值确定评估值最大的至少一个人脸,得到所述第一人脸。
在一个实施例中,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
根据预设的区域参数确定所述二维人脸图像中的边缘区域;
将所述边缘区域中的至少一个人脸确定为所述第二人脸。
在一个实施例中,所述根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵,包括:
根据所述第一人脸的人脸姿态信息以及预设二维人脸模型的人脸姿态信息,调整所述第一人脸的人脸特征点的二维坐标;调整后的所述第一人脸的人脸姿态与所述预设二维人脸模型的人脸姿态相同;
根据调整后的所述第一人脸的人脸特征点的二维坐标与所述预设二维人脸模型中的人脸特征点的二维坐标进行配准,得到所述第一透视变换矩阵。
在一个实施例中,获取所述第二人脸的人脸姿态信息与三维人脸模型,包括:
获取所述第二人脸的人脸特征点的二维坐标以及三维几何信息;
根据所述第二人脸的人脸特征点的二维坐标以及所述三维几何信息构建所述第二人脸的三维人脸模型;
根据所述三维人脸模型进行姿态估计,获得所述第二人脸的人脸姿态信息。
在一个实施例中,所述根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵,包括:
根据所述第二人脸的人脸姿态信息以及预设三维人脸模型的人脸姿态信息,调整所述第二人脸的三维人脸模型;调整后的所述第二人脸的三维人脸模型的人脸姿态与所述预设三维人脸模型的人脸姿态相同;
根据调整后的所述第二人脸的三维人脸模型与所述预设三维人脸模型进行配准,得到所述第二透视变换矩阵。
在一个实施例中,所述根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像,包括:
确定所述第一透视变换矩阵的逆矩阵;
根据所述逆矩阵与所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
根据本公开实施例的第二方面,提供一种图像处理装置,包括:
获取模块,被配置为获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;
第一确定模块,被配置为根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵;
第二确定模块,被配置为根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵;
第一矫正模块,被配置为根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像;
第二矫正模块,被配置为根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
根据本公开实施例的第三方面,提供一种终端设备,包括处理器和存储器;所述存储器,用于存储计算机程序;所述处理器,用于执行所述存储器上所存储的计算机程序,实现上述的方法步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:通过获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型,以根据第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵,以及根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵,然后,根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像,实现了矫正合影图像的全局透视畸变。然后,根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,实现了矫正合影图像的局部透视畸变。这样,既可以减轻合影图像的全局透视畸变,还可以减轻局部透视畸变,提高合影图像的质量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的图像处理方法的流程图。
图2是根据另一示例性实施例示出的图像处理方法的流程图。
图3是根据另一示例性实施例示出的图像处理方法的流程图。
图4是根据另一示例性实施例示出的图像处理方法的流程图。
图5是根据另一示例性实施例示出的图像处理方法的流程图。
图6是根据另一示例性实施例示出的图像处理方法的流程图。
图7是根据另一示例性实施例示出的图像处理方法的流程图。
图8是根据另一示例性实施例示出的图像处理方法的流程图。
图9是根据另一示例性实施例示出的图像处理方法的流程图。
图10是根据一示例性实施例示出的一种图像处理装置的框图。
图11是根据一示例性实施例示出的一种图像处理装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的图像处理方法的流程图。该图像处理方法可以应用于具备图像处理功能的终端设备,例如,智能手机、平板电脑(PAD)以及摄像机等。如图1所示,该图像处理方法,包括以下步骤S101~S105:
在步骤S101中,获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型。
在一个实施例中,可以将终端设备的摄像装置获取的二维人脸图像作为待处理的二维人脸图像。进一步地,终端设备可以检测摄像装置获取的二维人脸图像中是否存在多个人脸,当存在多个人脸时,可以将获取的二维人脸图像作为待处理的二维人脸图像。
在一个实施例中,上述的第一人脸可以是面积较大的人脸,或者在二维人脸图像中位置相对居中的人脸。上述的第二人脸可以是位于二维人脸图像的边缘区域的人脸,但不限于此。上述的第一人脸的数目至少为一个,例如可以是一个、两个或者三个。上述的第二人脸的数目至少为一个,例如可以是一个、两个、三个或者更多个。
在一个实施例中,第一人脸的面积大于二维人脸图像中其他人脸的面积。在本实施例中,如图2所示,步骤S101之前,还可包括如下步骤S201~S202:
在步骤S201中,确定所述二维人脸图像中至少一个人脸各自的面积。
在步骤S202中,根据所述至少一个人脸各自的面积确定面积最大的至少一个人脸,得到所述第一人脸。
在一个实施例中,终端设备可以将检测到的至少一个人脸分别用矩形的人脸识别框标示出来,并将至少一个人脸识别框所圈的面积分别作为对应的人脸的面积。然后,可以从至少一个人脸的面积中确定出最大的至少一个人脸的面积,并将最大的至少一个人脸的面积对应的人脸确定为上述的第一人脸。例如,可以从至少一个人脸的面积中确定出最大的两个面积,并将这两个面积对应的人脸确定为上述的第一人脸。
在一个实施例中,在步骤S202之前,还可包括以下步骤:确定所述至少一个人脸各自的面积中的最大面积值与最小面积值,以及,确定最大面积值与最小面积值的差值大于第一预设阈值。这样,可以在二维人脸图像中人脸的面积之间的差异较大时选取面积最大的至少一个人脸,作为上述的第一人脸。由于面积最大的人脸对应的区域的信息相对较多,有利于提高图像处理的准确性。
在另一个实施例中,第一人脸的位置距离二维人脸图像的中心最近。在本实施例中,如图3所示,步骤S101之前,还可包括如下步骤S301~S302:
在步骤S301中,确定所述二维人脸图像中至少一个人脸各自的位置。
在步骤S302中,根据所述至少一个人脸各自的位置确定距离所述二维人脸图像的中心最近的至少一个人脸,得到所述第一人脸。
在一个实施例中,终端设备可以将检测到的至少一个人脸分别用矩形的人脸识别框标示出来,并将至少一个人脸识别框的中心位置分别确定为对应的人脸的位置。然后,确定至少一个人脸各自的位置与所述二维人脸图像的中心之间的距离值,得到至少一个距离值。然后,确定至少一个距离值中最小的至少一个距离值,并将最小的至少一个距离值对应的人脸确定为所述第一人脸。例如,可以确定至少一个距离值中最小的两个距离值,并将最小的两个距离值对应的人脸确定为所述第一人脸。
在一个实施例中,在步骤S301之前,还可包括以下步骤:确定所述二维人脸图像中至少一个人脸各自的面积,接着,确定所述至少一个人脸各自的面积中的最大面积值与最小面积值,以及,确定最大面积值与最小面积值的差值小于第二预设阈值。其中,第二预设阈值小于上述的第一预设阈值。这样,可以在二维人脸图像中人脸的面积之间的差异不大时选取靠近二维人脸图像中心的人脸,作为上述的第一人脸。由于靠近二维人脸图像中心的人脸由其他原因引起的畸变较小,这样,有利于提高图像处理的准确性。
在又一个实施例中,可以综合考虑人脸的位置与面积两个因素,来确定第一人脸。在本实施例中,如图4所示,步骤S101之前,还可包括如下步骤S401~S405:
在步骤S401中,确定所述二维人脸图像中至少一个人脸各自的面积,获得至少一个面积值。
在步骤S402中,确定所述至少一个人脸各自与所述二维人脸图像的中心的距离,获得至少一个距离值。
在步骤S403中,确定所述至少一个面积值各自的权重系数以及所述至少一个距离值各自的权重系数。
在步骤S404中,根据所述至少一个面积值、所述至少一个面积值各自的权重系数、所述至少一个距离值以及所述至少一个距离值各自的权重系数,确定所述至少一个人脸各自的重要程度的评估值。
在步骤S405中,根据所述至少一个人脸各自的重要程度的评估值确定评估值最大的至少一个人脸,得到所述第一人脸。
在一个实施例中,终端设备可以将检测到的至少一个人脸分别用矩形的人脸识别框标示出来,并将至少一个人脸识别框所圈的面积分别作为对应的人脸的面积,得到至少一个面积值。
在一个实施例中,终端设备可以将上述至少一个人脸识别框的中心位置分别确定为对应的人脸的位置。然后,确定至少一个人脸各自的位置与所述二维人脸图像的中心之间的距离值,得到至少一个距离值。
在一个实施例中,终端设备可以预先存储有面积与权重的第一对应关系以及距离与权重的第二对应关系。其中,面积与权重呈正相关,距离与权重呈负相关。终端设备可以根据上述的至少一个面积值以及所述第一对应关系得到至少一个面积值各自的权重系数,并根据上述的至少一个距离值与所述第二对应关系得到至少一个距离值各自的权重系数。
在一个实施例中,终端设备可以根据所述至少一个面积值、所述至少一个面积值各自的权重系数、所述至少一个距离值以及所述至少一个距离值各自的权重系数,进行计算得到所述至少一个人脸各自的重要程度的评估值。其中,人脸的重要程度的评估值可以是面积值与距离值的加权和。例如,人脸A的面积值为S,该面积值S对应的权重系数为0.8,人脸A对应的距离值为L,该距离值L对应的权重系数为0.6,则,该人脸A的重要程度的评估值为0.8S+0.6L。
在一个实施例中,终端设备可以根据所述至少一个人脸各自的重要程度的评估值确定评估值最大的至少一个人脸,得到所述第一人脸。例如,可以选取评估值最大的两个人脸,作为第一人脸。这样,综合考虑了人脸的位置与面积两个因素,可以将面积相对较大且位置相对居中的人脸作为第一人脸,这样,第一人脸可以提供较多的人脸信息,且由其他原因引起的畸变较少,有利于提高图像处理的准确性。
在一个实施例中,如图5所示,步骤S101之前,还可包括如下步骤S501~S502:
在步骤S501中,根据预设的区域参数确定所述二维人脸图像中的边缘区域。
在步骤S502中,将所述边缘区域中的至少一个人脸确定为所述第二人脸。
在一个实施例中,终端设备中可以预先存储区域参数。上述的区域参数可以包括二维人脸图像中一个、两个或多个区域的起始坐标与终止坐标,用于确定二维人脸图像中的边缘区域。终端设备可以根据预设的区域参数确定二维人脸图像中的边缘区域,并将所述边缘区域中的至少一个人脸确定为所述第二人脸。通过区域参数确定位于二维人脸图像的边缘区域中的第二人脸,方便实现,且准确率高。
在一个实施例中,可以通过人脸特征点检测获取第一人脸的人脸特征点的二维坐标。其中,人脸特征点可包括左外眼角、右外眼角、鼻尖、左嘴角以及右嘴角等。每个人脸的人脸特征点的数目可以是21点、106点或其他数目。人脸特征点检测的方法可包括基于模型的ASM(Active Shape Model,活动形状模型)和AAM(Active Appearnce Model,主动外观模型)、基于级联形状回归(CPR,Cascaded pose regression)以及基于深度学习的方法等,但不限于此。
在一个实施例中,可以对上述的第一人脸进行人脸姿态估计,得到第一人脸的人脸姿态信息。其中,人脸姿态信息可包括人脸的水平转角(yaw)、俯仰角(pitch)以及旋转角(roll)。其中,水平转角(yaw)、俯仰角(pitch)以及旋转角(roll)可以分别是围绕以人脸上的某一点为原点建立的空间直角坐标系的三个坐标轴旋转的角度。
在一个实施例中,如图6所示,获取所述第二人脸的人脸姿态信息与三维人脸模型可包括以下步骤S601~步骤603:
在步骤S601中,获取所述第二人脸的人脸特征点的二维坐标以及三维几何信息。
在步骤S602中,根据所述第二人脸的人脸特征点的二维坐标以及所述三维几何信息构建所述第二人脸的三维人脸模型。
在步骤S603中,根据所述三维人脸模型进行姿态估计,获得所述第二人脸的人脸姿态信息。
在一个实施例中,终端设备可以通过人脸特征点检测获取第二人脸的人脸特征点的二维坐标并可以通过3D距离传感器检测第二人脸的三维几何信息。其中,3D距离传感器可以是3D结构光学器件、TOF((Time of Flight,飞行时间)深度传感器或主动近红外光(Near Infrared,简称NIR)传感器,3D结构光学器件可以是泛光感应元件或点阵投影器,但不限于此。
在一个实施例中,终端设备可以根据第二人脸的人脸特征点的二维坐标以及第二人脸的三维几何信息调整预先存储的参考三维人脸模型的参数,得到第二人脸的三维人脸模型。在一个实施例中,终端设备可以根据第二人脸的三维人脸模型进行姿态估计,获得所述第二人脸的人脸姿态信息。
在步骤S102中,根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵。
在一个实施例中,如图7所示,步骤S102可包括以下步骤S701~步骤702:
在步骤S701中,根据所述第一人脸的人脸姿态信息以及预设二维人脸模型的人脸姿态信息,调整所述第一人脸的人脸特征点的二维坐标;调整后的所述第一人脸的人脸姿态与所述预设二维人脸模型的人脸姿态相同。
在步骤S702中,根据调整后的所述第一人脸的人脸特征点的二维坐标与所述预设二维人脸模型中的人脸特征点的二维坐标进行配准,得到所述第一透视变换矩阵。
在本实施例中,终端设备中可以存储有经过训练的预设二维人脸模型。预设二维人脸模型的人脸姿态信息中,水平转角(yaw)、俯仰角(pitch)以及旋转角(roll)可以均是零。也就是,预设二维人脸模型是根据正面人脸建立的模型。
在本实施例中,终端设备可以根据所述第一人脸的人脸姿态信息以及预设二维人脸模型的人脸姿态信息,调整所述第一人脸的人脸特征点的二维坐标,以使得调整后的所述第一人脸的人脸姿态与所述预设二维人脸模型的人脸姿态相同。具体地,可以通过调整所述第一人脸的人脸特征点的二维坐标,使将第一人脸的人脸特征点之间的距离、比例关系与预设二维人脸模型的人脸特征点之间的距离、比例关系对应相同,或者呈一定的比例。
然后,终端设备可以将调整后的所述第一人脸的人脸特征点与所述预设二维人脸模型中的人脸特征点进行配准,得到所述第一透视变换矩阵。示例性地,调整后的所述第一人脸的人脸特征点记为X,所述预设二维人脸模型中的人脸特征点记为X’,上述的第一透视变换矩阵记为A。则有
X’=AX (1)
通过解上述的方程(1),即可得到第一透视变换矩阵A的值。
在步骤S103中,根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵。
在一个实施例中,如图8所示,步骤S103可包括以下步骤S801~步骤802:
在步骤S801中,根据所述第二人脸的人脸姿态信息以及预设三维人脸模型的人脸姿态信息,调整所述第二人脸的三维人脸模型;调整后的所述第二人脸的三维人脸模型的人脸姿态与所述预设三维人脸模型的人脸姿态相同;
在步骤S802中,根据调整后的所述第二人脸的三维人脸模型与所述预设三维人脸模型进行配准,得到所述第二透视变换矩阵。
在本实施例中,终端设备中可以存储有经过训练的预设三维人脸模型。预设三维人脸模型的人脸姿态信息中,水平转角(yaw)、俯仰角(pitch)以及旋转角(roll)可以均是零。也就是,预设三维人脸模型是根据正面人脸建立的模型。
在本实施例中,终端设备可以根据所述第二人脸的人脸姿态信息以及预设三维人脸模型的人脸姿态信息,调整所述第二人脸的三维人脸模型,以使得调整后的所述第二人脸的三维人脸模型的人脸姿态与所述预设三维人脸模型的人脸姿态相同。具体地,可以通过调整第二人脸的三维人脸模型的参数,使将第二人脸的三维人脸特征点之间的距离、比例关系与预设三维人脸模型的三维人脸特征点之间的距离、比例关系对应相同,或者呈一定的比例。
然后,终端设备可以根据调整后的所述第二人脸的三维人脸模型与所述预设三维人脸模型进行配准,得到所述第二透视变换矩阵。示例性地,调整后的所述第二人脸的三维人脸模型可记为Y,所述预设三维人脸模型记为Y’,上述的第二透视变换矩阵记为B。则有
Y’=BY (2)
通过解上述的方程(2),即可得到第二透视变换矩阵B的值。
在步骤S104中,根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像。
在本实施例中,所述二维人脸图像可记为Z,第一中间图像可记为M,通过如下计算式(3)可得到M:
M=AZ (3)
在本实施例中,利用第一透视变换矩阵A对二维人脸图像Z进行了整体的透视畸变矫正,得到了第一中间图像M。
在步骤S105中,根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
在本实施例中,由于在步骤S104中利用第一透视变换矩阵对二维人脸图像进行了整体的透视畸变矫正,因此,除了对二维人脸图像中的第一人脸进行了透视畸变矫正,还对二维人脸图像中的第二人脸进行了透视畸变矫正。因此,在对第二人脸进行透视畸变矫正时,需要先消除利用第一透视变换矩阵对第二人脸进行的透视畸变矫正,然后,再利用所述第二透视变换矩阵对所述第二人脸进行透视畸变矫正。
在一个实施例中,如图9所示,步骤S105可包括以下步骤S901~S902:
在步骤S901中,确定所述第一透视变换矩阵的逆矩阵。
在步骤S902中,根据所述逆矩阵与所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
在本实施例中,先确定第一透视变换矩阵的逆矩阵A-1,然后,根据所述逆矩阵A-1与所述第二透视变换矩阵B对所述第一中间图像M中的所述第二人脸进行透视畸变矫正。
在本实施例中,第一中间图像M中的第二人脸可记为F,矫正后的二维人脸图像中第二人脸可记为F’,则可通过如下计算式(4)计算得到F’:
F’=A-1BF (4)
在本公开实施例中,可以在拍摄合影图像时,根据合影图像中的比较大的人脸或者位置居中的人脸的人脸姿态信息与人脸特征点的二维坐标确定合影图像整体的透视变换矩阵,矫正合影图像整体的透视畸变,并根据合影图像中指定人脸的人脸姿态信息与三维人脸模型确定该指定人脸的透视变换矩阵,矫正合影图像中该指定人脸的透视畸变。当指定人脸为两个,且分别位于合影图像中的两侧边缘区域时,可以分别对两个指定人脸进行不同角度的透视畸变矫正。这样,可以自动还原由于透视畸变造成的人脸变形问题,提升成像效果。
在本公开实施例中,通过获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型,以根据第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵,以及根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵,然后,根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像,实现了矫正合影图像的全局透视畸变。然后,根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,实现了矫正合影图像的局部透视畸变。这样,既可以减轻合影图像的全局透视畸变,还可以减轻局部透视畸变,提高合影图像的质量。
图10是根据一示例性实施例示出的图像处理装置的框图。本实施例中,所述装置包括:
获取模块1001,被配置为获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;
第一确定模块1002,被配置为根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵;
第二确定模块1003,被配置为根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵;
第一矫正模块1004,被配置为根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像;
第二矫正模块1005,被配置为根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
本公开实施例还提供一种终端设备,包括处理器和存储器;所述存储器,用于存储计算机程序;所述处理器,用于执行所述存储器上所存储的计算机程序,实现上述任一实施例所述的方法步骤。
本公开实施例还提供一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述的方法步骤。
关于上述实施例中的装置,其中处理器执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种终端设备的框图。例如,设备1100可以是移动电话,计算机,数字广播终端,消息收发设备,平板设备,个人数字助理等。
参照图11,设备1100可以包括以下一个或多个组件:处理组件1102,存储器1104,电源组件1106,多媒体组件1108,音频组件1110,输入/输出(I/O)的接口1112,传感器组件1114,以及通信组件1116。
处理组件1102通常控制设备1100的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件1102可以包括一个或多个处理器1120来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1102可以包括一个或多个模块,便于处理组件1102和其他组件之间的交互。例如,处理部件1102可以包括多媒体模块,以方便多媒体组件1108和处理组件1102之间的交互。
存储器1104被配置为存储各种类型的数据以支持在设备1000的操作。这些数据的示例包括用于在设备1100上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器1104可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件1106为设备1100的各种组件提供电力。电力组件1106可以包括电源管理系统,一个或多个电源,及其他与为设备1100生成、管理和分配电力相关联的组件。
多媒体组件1108包括在所述设备1100和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1108包括一个前置摄像头和/或后置摄像头。当设备1000处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1110被配置为输出和/或输入音频信号。例如,音频组件1110包括一个麦克风(MIC),当设备1100处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1104或经由通信组件1116发送。在一些实施例中,音频组件1110还包括一个扬声器,用于输出音频信号。
I/O接口1112为处理组件1102和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1114包括一个或多个传感器,用于为设备1100提供各个方面的状态评估。例如,传感器组件1114可以检测到设备1000的打开/关闭状态,组件的相对定位,例如所述组件为设备1100的显示器和小键盘,传感器组件1114还可以检测设备1100或设备1100一个组件的位置改变,用户与设备1100接触的存在或不存在,设备1100方位或加速/减速和设备1100的温度变化。传感器组件1114可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1114还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1114还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1116被配置为便于设备1100和其他设备之间有线或无线方式的通信。设备1100可以接入基于通信标准的无线网络,如WiFi,2G或3G,4G LTE,5G NR,或它们的组合。在一个示例性实施例中,通信部件1116经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件1116还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1100可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1104,上述指令可由设备1100的处理器1120执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (11)
1.一种图像处理方法,其特征在于,所述方法包括:
获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;
根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵;
根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵;
根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像;
根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
2.根据权利要求1所述的方法,其特征在于,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
确定所述二维人脸图像中至少一个人脸各自的面积;
根据所述至少一个人脸各自的面积确定面积最大的至少一个人脸,得到所述第一人脸;或者
确定所述二维人脸图像中至少一个人脸各自的位置;
根据所述至少一个人脸各自的位置确定距离所述二维人脸图像的中心最近的至少一个人脸,得到所述第一人脸。
3.根据权利要求1所述的方法,其特征在于,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
确定所述二维人脸图像中至少一个人脸各自的面积,获得至少一个面积值;
确定所述至少一个人脸各自与所述二维人脸图像的中心的距离,获得至少一个距离值;
确定所述至少一个面积值各自的权重系数以及所述至少一个距离值各自的权重系数;
根据所述至少一个面积值、所述至少一个面积值各自的权重系数、所述至少一个距离值以及所述至少一个距离值各自的权重系数,确定所述至少一个人脸各自的重要程度的评估值;
根据所述至少一个人脸各自的重要程度的评估值确定评估值最大的至少一个人脸,得到所述第一人脸。
4.根据权利要求1所述的方法,其特征在于,所述获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型之前,还包括:
根据预设的区域参数确定所述二维人脸图像中的边缘区域;
将所述边缘区域中的至少一个人脸确定为所述第二人脸。
5.根据权利要求1所述的方法,其特征在于,所述根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵,包括:
根据所述第一人脸的人脸姿态信息以及预设二维人脸模型的人脸姿态信息,调整所述第一人脸的人脸特征点的二维坐标;调整后的所述第一人脸的人脸姿态与所述预设二维人脸模型的人脸姿态相同;
根据调整后的所述第一人脸的人脸特征点的二维坐标与所述预设二维人脸模型中的人脸特征点的二维坐标进行配准,得到所述第一透视变换矩阵。
6.根据权利要求1所述的方法,其特征在于,获取所述第二人脸的人脸姿态信息与三维人脸模型,包括:
获取所述第二人脸的人脸特征点的二维坐标以及三维几何信息;
根据所述第二人脸的人脸特征点的二维坐标以及所述三维几何信息构建所述第二人脸的三维人脸模型;
根据所述三维人脸模型进行姿态估计,获得所述第二人脸的人脸姿态信息。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵,包括:
根据所述第二人脸的人脸姿态信息以及预设三维人脸模型的人脸姿态信息,调整所述第二人脸的三维人脸模型;调整后的所述第二人脸的三维人脸模型的人脸姿态与所述预设三维人脸模型的人脸姿态相同;
根据调整后的所述第二人脸的三维人脸模型与所述预设三维人脸模型进行配准,得到所述第二透视变换矩阵。
8.根据权利要求1所述的方法,其特征在于,所述根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像,包括:
确定所述第一透视变换矩阵的逆矩阵;
根据所述逆矩阵与所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
9.一种图像处理装置,其特征在于,所述装置包括:
获取模块,被配置为获取待处理的二维人脸图像中第一人脸的人脸姿态信息与人脸特征点的二维坐标以及第二人脸的人脸姿态信息与三维人脸模型;
第一确定模块,被配置为根据所述第一人脸的人脸姿态信息与人脸特征点的二维坐标,确定所述二维人脸图像的第一透视变换矩阵;
第二确定模块,被配置为根据所述第二人脸的人脸姿态信息与三维人脸模型,确定所述第二人脸的第二透视变换矩阵;
第一矫正模块,被配置为根据所述第一透视变换矩阵对所述二维人脸图像进行透视畸变矫正,得到第一中间图像;
第二矫正模块,被配置为根据所述第一透视变换矩阵以及所述第二透视变换矩阵对所述第一中间图像中的所述第二人脸进行透视畸变矫正,得到矫正后的二维人脸图像。
10.一种终端设备,其特征在于,包括处理器和存储器;所述存储器,用于存储计算机程序;所述处理器,用于执行所述存储器上所存储的计算机程序,实现权利要求1-8任一项所述的方法步骤。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439202.9A CN112070681B (zh) | 2019-05-24 | 2019-05-24 | 图像处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439202.9A CN112070681B (zh) | 2019-05-24 | 2019-05-24 | 图像处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112070681A true CN112070681A (zh) | 2020-12-11 |
CN112070681B CN112070681B (zh) | 2024-02-13 |
Family
ID=73658118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910439202.9A Active CN112070681B (zh) | 2019-05-24 | 2019-05-24 | 图像处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112070681B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966316A (zh) * | 2015-05-22 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 一种3d人脸重建方法、装置及服务器 |
CN105447462A (zh) * | 2015-11-20 | 2016-03-30 | 小米科技有限责任公司 | 人脸姿态估计方法及装置 |
CN106295530A (zh) * | 2016-07-29 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
CN106503684A (zh) * | 2016-10-28 | 2017-03-15 | 厦门中控生物识别信息技术有限公司 | 一种人脸图像处理方法和装置 |
CN108470328A (zh) * | 2018-03-28 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于处理图像的方法和装置 |
CN109377446A (zh) * | 2018-10-25 | 2019-02-22 | 北京市商汤科技开发有限公司 | 人脸图像的处理方法及装置、电子设备和存储介质 |
CN109685915A (zh) * | 2018-12-11 | 2019-04-26 | 维沃移动通信有限公司 | 一种图像处理方法、装置及移动终端 |
-
2019
- 2019-05-24 CN CN201910439202.9A patent/CN112070681B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966316A (zh) * | 2015-05-22 | 2015-10-07 | 腾讯科技(深圳)有限公司 | 一种3d人脸重建方法、装置及服务器 |
WO2016188318A1 (zh) * | 2015-05-22 | 2016-12-01 | 腾讯科技(深圳)有限公司 | 一种3d人脸重建方法、装置及服务器 |
CN105447462A (zh) * | 2015-11-20 | 2016-03-30 | 小米科技有限责任公司 | 人脸姿态估计方法及装置 |
CN106295530A (zh) * | 2016-07-29 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸识别方法及装置 |
CN106503684A (zh) * | 2016-10-28 | 2017-03-15 | 厦门中控生物识别信息技术有限公司 | 一种人脸图像处理方法和装置 |
CN108470328A (zh) * | 2018-03-28 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于处理图像的方法和装置 |
CN109377446A (zh) * | 2018-10-25 | 2019-02-22 | 北京市商汤科技开发有限公司 | 人脸图像的处理方法及装置、电子设备和存储介质 |
CN109685915A (zh) * | 2018-12-11 | 2019-04-26 | 维沃移动通信有限公司 | 一种图像处理方法、装置及移动终端 |
Non-Patent Citations (3)
Title |
---|
MAHDI ABBASPOUR TEHRANI; ADITI MAJUMDER等: "Correcting perceived perspective distortions using object specific planar transformations", 2016 IEEE INTERNATIONAL CONFERENCE ON COMPUTATIONAL PHOTOGRAPHY (ICCP), pages 1 - 10 * |
杨波: "广角图像透视畸变校正方法研究", 中国优秀硕士学位论文全文数据库 (信息科技辑), pages 138 - 5064 * |
詹红燕;张磊;陶培亚;: "基于姿态估计的单幅图像三维人脸重建", 微电子学与计算机, no. 09, pages 101 - 105 * |
Also Published As
Publication number | Publication date |
---|---|
CN112070681B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6134446B2 (ja) | 画像分割方法、画像分割装置、画像分割デバイス、プログラム及び記録媒体 | |
CN108470322B (zh) | 处理人脸图像的方法、装置及可读存储介质 | |
WO2016011747A1 (zh) | 肤色调整方法和装置 | |
CN105554389B (zh) | 拍摄方法及装置 | |
US11308692B2 (en) | Method and device for processing image, and storage medium | |
CN107944367B (zh) | 人脸关键点检测方法及装置 | |
CN107958223B (zh) | 人脸识别方法及装置、移动设备、计算机可读存储介质 | |
CN109840939B (zh) | 三维重建方法、装置、电子设备及存储介质 | |
CN106503682B (zh) | 视频数据中的关键点定位方法及装置 | |
JP2017505466A (ja) | 自動ピント合わせ方法、装置、プログラム及び記録媒体 | |
CN108154466B (zh) | 图像处理方法及装置 | |
CN109325908B (zh) | 图像处理方法及装置、电子设备和存储介质 | |
CN108648280B (zh) | 虚拟角色驱动方法及装置、电子设备和存储介质 | |
CN107403144B (zh) | 嘴巴定位方法及装置 | |
US9665925B2 (en) | Method and terminal device for retargeting images | |
CN107239758B (zh) | 人脸关键点定位的方法及装置 | |
CN108154090B (zh) | 人脸识别方法及装置 | |
CN110796617B (zh) | 面部图像的增强方法及装置、电子设备 | |
CN106469446B (zh) | 深度图像的分割方法和分割装置 | |
CN109934168B (zh) | 人脸图像映射方法及装置 | |
CN108846321B (zh) | 识别人脸假体的方法及装置、电子设备 | |
CN111325674A (zh) | 图像处理方法、装置及设备 | |
CN112070681B (zh) | 图像处理方法及装置 | |
CN111985280B (zh) | 图像处理方法及装置 | |
US9619016B2 (en) | Method and device for displaying wallpaper image on screen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information |
Inventor after: Hu Yi Inventor after: Wang Xuanran Inventor after: Lin Zhehong Inventor after: Du Hui Inventor before: Hu Yi Inventor before: Wang Xuanran |
|
CB03 | Change of inventor or designer information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |