CN108765272A - 图像处理方法、装置、电子设备及可读存储介质 - Google Patents
图像处理方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN108765272A CN108765272A CN201810549498.5A CN201810549498A CN108765272A CN 108765272 A CN108765272 A CN 108765272A CN 201810549498 A CN201810549498 A CN 201810549498A CN 108765272 A CN108765272 A CN 108765272A
- Authority
- CN
- China
- Prior art keywords
- threedimensional model
- target
- image
- key point
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 33
- 239000000463 material Substances 0.000 claims abstract description 229
- 230000004927 fusion Effects 0.000 claims abstract description 75
- 238000006467 substitution reaction Methods 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 83
- 230000036548 skin texture Effects 0.000 claims description 36
- 230000001815 facial effect Effects 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 15
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 210000000887 face Anatomy 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000009191 jumping Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004279 orbit Anatomy 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- 241001396014 Priacanthus arenatus Species 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 210000000158 ommatidium Anatomy 0.000 description 1
- 210000003733 optic disk Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提出一种图像处理方法、装置、电子设备及可读存储介质,其中,方法包括:获取包括目标对象的深度图像;根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型;将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型;将目标替换模型映射到二维平面,以生成目标替换图像;将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。该方法能够使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。并且可以使得处理后的图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
Description
技术领域
本申请涉及电子设备技术领域,尤其涉及一种图像处理方法、装置、电子设备及可读存储介质。
背景技术
随着移动终端技术的不断发展,越来越多的用户选择使用移动终端,如手机、掌上电脑等,进行拍照。为了达到较佳的拍摄效果,还可以采用相关的图像处理手段对图像进行处理。例如,在用户拍摄图像时,可以使用图像替换技术,对拍摄的图像中的部分图像进行替换处理,比如可以将人或者动物的小眼替换为大眼,矮鼻梁换为高鼻梁。
相关技术中,利用二维的替换图像,贴图在二维的拍摄的图像中的对应区域。
这种方式下,直接利用替换图像进行贴图处理,可能发生过渡区域较为突兀的情况,使得处理后的图像不自然,处理效果不佳。
发明内容
本申请提出一种图像处理方法、装置、电子设备及可读存储介质,用于解决相关技术中直接利用替换图像进行贴图处理,可能发生过渡区域较为突兀的情况,使得处理后的图像不自然,处理效果不佳的问题。
本申请一方面实施例提出了一种图像处理方法,包括:
获取包括目标对象的深度图像;
根据所述深度图像中与所述目标对象对应的深度信息,构建所述目标对象对应的三维模型;
将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型;
将所述目标替换模型映射到二维平面,以生成目标替换图像;
将所述目标替换图像与所述深度图像中除所述目标对象外的其余部分进行融合处理,得到处理后的图像。
本申请实施例的图像处理方法,通过获取包括目标对象的深度图像,而后根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型,之后将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,最后将目标替换模型映射到二维平面,以生成目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。本申请中,由于素材三维模型以及目标对象对应的三维模型均是三维的,对素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,可以使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。通过将目标替换模型映射到二维平面,得到目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,可以使得处理后的图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
本申请又一方面实施例提出了一种图像处理装置,包括:
获取模块,用于获取包括目标对象的深度图像;
构建模块,用于根据所述深度图像中与所述目标对象对应的深度信息,构建所述目标对象对应的三维模型;
融合处理模块,用于将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型;
映射模块,用于将所述目标替换模型映射到二维平面,以生成目标替换图像;
处理模块,用于将所述目标替换图像与所述深度图像中除所述目标对象外的其余部分进行融合处理,得到处理后的图像。
本申请实施例的图像处理装置,通过获取包括目标对象的深度图像,而后根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型,之后将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,最后将目标替换模型映射到二维平面,以生成目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。本申请中,由于素材三维模型以及目标对象对应的三维模型均是三维的,对素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,可以使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。通过将目标替换模型映射到二维平面,得到目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,可以使得处理后的图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
本申请又一方面实施例提出了一种电子设备,包括:深度摄像头、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序;
所述深度摄像头,用于获取包括目标对象的深度图像;
所述处理器执行存储在存储器上的计算机程序时,实现如本申请前述实施例提出的图像处理方法。
本申请又一方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如本申请前述实施例提出的图像处理方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一所提供的图像处理方法的流程示意图;
图2为本申请实施例二所提供的图像处理方法的流程示意图;
图3为本申请实施例三所提供的图像处理方法的流程示意图;
图4为本申请实施例四所提供的图像处理方法的流程示意图;
图5为申请实施例中目标对象对应的三维模型示意图一;
图6本申请实施例中目标对象对应的三维模型示意图二;
图7为本申请实施例五所提供的图像处理方法的流程示意图;
图8为本申请实施例六所提供的图像处理方法的流程示意图;
图9为本申请实施例七所提供的图像处理装置的结构示意图;
图10为本申请实施例八所提供的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的图像处理方法、装置、电子设备及可读存储介质。
图1为本申请实施例一所提供的图像处理方法的流程示意图。
本申请实施例的图像处理方法可以应用于电子设备上具有图像处理功能的应用程序,例如拍图或美图类应用程序。
其中,电子设备可以为手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图1所示,该图像处理方法包括以下步骤:
步骤101,获取包含目标对象的深度图像。
本申请实施例中,目标对象可以是指人、动物、景物等,也可以是指人脸,对此不作限制。
本申请实施例中,深度图像中可以携带目标对象的深度信息。
作为一种可能的实现方式,可以通过摄像组件,采集包含目标对象的深度图像。其中,摄像组件可以为能够获取深度信息的摄像组件,例如为双摄像头、深度摄像头(Red-Green-Blue Depth,简称RGBD)、结构光摄像头/飞行时间(Time Of Flight,简称TOF)摄像头等,此处不一一列举。
步骤102,根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型。
本申请实施例中,在获取包含目标对象的深度图像后,可以根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型。本申请中,目标对象对应的三维模型的构建,是根据深度图像中目标对象以及目标对象对应的深度信息,进行三维构建得到的,而不是简单的获取RGB数据和深度数据。
作为一种可能的实现方式,可以将深度图像中目标对象对应的深度信息与目标对象对应的色彩信息进行融合,得到目标对象对应的三维模型。具体地,可以基于关键点检测技术,从目标对象对应的深度信息中提取关键点,以及从色彩信息中提取目标对象的关键点,而后将从深度信息中提取的关键点和从色彩信息中提取的关键点,进行配准和关键点融合处理,最终根据融合后的关键点,生成目标对象对应的三维模型。其中,关键点为目标对象上显眼的点,或者为关键位置上的点,例如当目标对象为人脸或者动物的脸时,关键点可以为眼角、鼻尖、嘴角等。
作为另一种可能的实现方式,可以基于关键点检测技术,对深度图像进行关键点识别,得到深度图像对应的各第四关键点,其中,各第四关键点为在二维图像中与各第一关键点对应的各点,而后根据各第四关键点的深度信息和各第四关键点在深度图像中的位置,确定与各第四关键点对应的各第一关键点在三维空间中的相对位置,从而可以根据各第一关键点在三维空间中的相对位置,连接相邻的第一关键点,生成由相邻的各第一关键点拼接的局部三维框架。例如,当目标对象为人或动物时,局部可以包括鼻部、唇部、眼部、脸颊等脸部部位。
在生成局部三维框架后,可以根据不同的局部三维框架中包含的相同第一关键点,对不同的局部三维框架进行拼接,得到目标对象对应的三维模型。
步骤103,将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型。
本申请实施例中,素材三维模型可以是标准人脸三维模型、标准动物三维模型、风景名胜三维模型以及各种物体三维模型等等。
作为一种可能的实现方式,电子设备的应用程序中可以存储有素材库,该素材库中存储有不同的素材三维模型。或者,电子设备上的应用程序也可以从服务器上实时下载新的素材三维模型,新下载的素材三维模型可以存储到素材库中。
本申请中,用户可以根据自身的美化需求从素材库中,选择自身喜好的素材三维模型。例如,当目标对象为人脸时,用户在拍照时,可以从电子设备显示屏幕上显示的素材库中,选择一个自己喜欢的明星所对应的明星脸三维模型,作为素材三维模型。
作为另一种可能的实现方式,电子设备可以从素材库中,自动选取素材三维模型。
作为一种示例,可以根据目标对象对应的三维模型与素材库中各素材三维模型间的差异度,确定素材三维模型。例如,当目标对象为人脸时,为了使得最终替换后的人脸图像更接近于当前拍照的用户,从而使得替换后的人脸图像更加自然,可以将与目标对象对应的三维模型差异最小的素材三维模型,作为选择的素材三维模型。
作为另一种示例,可以预先建立用户模型库,该用户模型库中存储了不同用户根据自身喜好选择的素材三维模型。可选地,为了便于确定用户喜好的素材三维模型,可以建立用户标识与喜好的素材三维模型之间的对应关系,其中,用户标识可以为用户的头部三维模型。从而在确定用户标识后,可以根据该用户标识,查询上述对应关系,确定用户喜好的素材三维模型。
具体地,可以根据目标对象对应的三维模型中各第一关键点的相对位置,及用户模型库中与各用户标识对应的三维模型中各第三关键点的相对位置,确定用户标识,从而根据用户标识,以及预先建立的用户标识与素材三维模型之间的对应关系,即可确定用户喜好的素材三维模型。
本申请中,通过确定用户标识,并根据用户标识从用户模型库中确定用户喜好的素材三维模型,从而可以为不同用户选取自身喜好的素材三维模型,可以使得处理后的图像更加符合用户的个性化需求。
本申请实施例中,在确定素材三维模型后,可以将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型。本申请中,由于素材三维模型以及目标对象对应的三维模型均是三维的,对素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,可以使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。
作为一种可能的实现方式,可以基于预设的图像融合矩阵,将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型。
其中,预设的图像融合矩阵为预先设置的,其中,预设的图像融合矩阵可以为目标对象对应的三维模型表面的各像素点对应的权重矩阵,或者,预设的图像融合矩阵可以为素材三维模型表面的各像素点对应的权重矩阵,本申请实施例对此不作限制。
本申请中,当指定预设的图像融合矩阵为目标对象对应的三维模型表面的各像素点对应的权重矩阵,或素材三维模型表面的各像素点对应的权重矩阵中的任意一个时,可以确定另外一个三维模型表面的各像素点对应的权重矩阵。
例如,当目标对象对应的三维模型表面和素材三维模型表面各具有4个像素点时,预设的图像融合矩阵为2*2的矩阵,假设预设的图像融合矩阵为素材三维模型表面的各像素点对应的权重矩阵,且该预设的图像融合矩阵为则目标对象对应的三维模型表面的各像素点对应的权重矩阵为
也就是说,本申请实施例中,在确定预设的图像融合矩阵中各元素的取值后,可以确定与目标对象对应的三维模型表面的各像素点分别对应的第一权重值及素材三维模型表面各像素点分别对应的第二权重值。
仍以上述例子示例,当预设的图像融合矩阵为素材三维模块表面的各像素点对应的权重矩阵时,目标对象对应的三维模型表面的最后一个像素点对应的第一权重值为0.4,而素材三维模型表面的最后一个像素点对应的第二权重值为0.6。
而后,可以根据第一权重值及第二权重值,将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型。
仍以上述例子示例,当目标对象对应的三维模型表面的四个像素点的像素值分别为A1、A2、A3、A4,素材三维模型表面的四个像素点的像素值分别为B1、B2、B3、B4,则融合后的目标替换模型表面的四个像素点的像素值分别为:(0.5*A1+0.5*B1)、(0.6*A2+0.4*B2)、(0.6*A3+0.4*B3)、(0.4*A4+0.6*B4)。
或者,本申请实施例中,还可以根据目标对象对应的三维模型与素材三维模型的匹配度,确定预设的图像融合矩阵中各元素的取值。
可以理解的是,当目标对象对应的三维模型与素材三维模型的匹配度不同时,预设的图像融合矩阵中各元素的取值也是不同的。例如,当任意像素点的匹配度较高时,表明目标对象对应的三维模型与素材三维模型的差异较小,此时,直接利用素材三维模型替换目标对象对应的三维模型时,边缘部分的跳跃性较低,即过渡区域较自然。因此,若预设的图像融合矩阵为素材三维模型表面的各像素点对应的权重矩阵,则可以设置预设的图像融合矩阵中的各元素的值可以全为1,或者,可以将预设的图像融合矩阵的中间区域的大部分元素的取值设置为1,而边缘区域的元素取值设置为变化的,例如,预设的图像融合矩阵可以如下所示:
而当匹配度较低时,表明目标对象对应的三维模型与素材三维模型的差异较大,此时,若直接利用素材三维模型替换目标对象对应的三维模型时,边缘部分的跳跃性较高,即过渡区域较突兀。因此,预设的图像融合矩阵中的各元素的值不能均设置为1,例如,可以将预设的图像融合矩阵的中间区域的小部分元素的取值设置为1。进一步地,为了使得融合后的目标替换模型较为自然,从而避免过渡区域较为突兀,预设的图像融合矩阵的边缘区域的元素取值可以设置为变化的,例如,预设的图像融合矩阵可以如下所示:
当然,也可以使用其他融合算法,将素材三维模型与所述目标对象对应的三维模型进行融合处理,本申请实施例对此不作限制。
步骤104,将目标替换模型映射到二维平面,以生成目标替换图像。
本申请实施例中,在得到目标替换模型后,可以将目标替换模型映射到二维平面,生成目标替换图像。本申请中,将融合后的目标替换模型映射到二维平面,得到目标替换图像,可以使得目标替换图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
步骤105,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。
本申请实施例中,在生成目标替换图像后,可以将目标替换图像与深度图像中除目标图像外的其余部分进行融合处理,即利用目标替换图像替换深度图像中的目标对象,得到处理后的图像。例如,可以基于现有技术中的图像融合技术,对目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,此处不做赘述。
本申请实施例的图像处理方法,通过获取包括目标对象的深度图像,而后根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型,之后将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,最后将目标替换模型映射到二维平面,以生成目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。本申请中,由于素材三维模型以及目标对象对应的三维模型均是三维的,对素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,可以使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。通过将目标替换模型映射到二维平面,得到目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,可以使得处理后的图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
作为一种可能的实现方式,当目标对象为人脸时,参见图2,步骤103具体可以包括以下子步骤:
步骤201,获取素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。
本申请实施例中,素材三维模型可以是标准人脸三维模型、明星脸三维模型、整形专家给出的整形目标模型等。需要说明的是,素材三维模型是人脸的框架,其表面并未覆盖皮肤纹理图。
作为一种可能的实现方式,电子设备的应用程序中可以存储有素材库,该素材库中存储有不同的素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。或者,电子设备上的应用程序也可以从服务器上实时下载新的素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图,新下载的素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图可以存储到素材库中。其中,素材库中存储的每个素材三维模型,与覆盖在该素材三维模型表面的素材皮肤纹理图之间具有对应关系。
本申请中,用户可以根据自身的美化需求从素材库中,选择自身喜好的素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。例如,用户在拍照时,可以从电子设备显示屏幕上显示的素材库中,选择一个自己喜欢的明星所对应的明星脸三维模型,以及覆盖在该明星脸三维模型表面的皮肤纹理图,作为素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。
作为另一种可能的实现方式,电子设备可以从素材库中,自动选取素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。
作为一种示例,可以根据目标对象对应的三维模型与素材库中各素材三维模型间的差异度,确定素材三维模型。例如,为了使得最终替换后的人脸图像更接近于当前拍照的用户,从而使得替换后的人脸图像更加自然,可以将与目标对象对应的三维模型差异最小的素材三维模型,作为选择的素材三维模型。在确定素材三维模型后,可以从素材库中选取与素材三维模型对应的覆盖在素材三维模型表面的素材皮肤纹理图。
作为另一种示例,可以预先建立用户模型库,该用户模型库中存储了不同用户根据自身喜好选择的素材三维模型。可选地,为了便于确定用户喜好的素材三维模型,可以建立用户标识与喜好的素材三维模型之间的对应关系,其中,用户标识可以为用户的头部三维模型。从而在确定用户标识后,可以根据该用户标识,查询上述对应关系,确定用户喜好的素材三维模型。
具体地,可以根据目标对象对应的三维模型中各第一关键点的相对位置,及用户模型库中与各用户标识对应的三维模型中各第三关键点的相对位置,确定用户标识,从而根据用户标识,可以确定人脸图像对应的目标对象,其中,各第一关键点与各第三关键点一一对应。之后,可以根据目标对象的用户标识,以及预先建立的用户标识与素材三维模型之间的对应关系,即可确定用户喜好的素材三维模型,以及覆盖在素材三维模型表面的素材皮肤纹理图。
本申请中,通过确定用户标识,并根据用户标识从用户模型库中确定用户喜好的素材三维模型,从而可以为不同用户选取自身喜好的素材三维模型,可以使得处理后的人脸图像更加符合用户的个性化需求。
步骤202,基于预设的图像融合矩阵,将覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应。
本申请实施例中,覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图,可以根据深度图像和目标对象对应的三维模型生成。具体地,可以将深度图像映射到目标对象对应的三维模型,得到覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图。
可选地,可以获取目标对象对应的三维模型中的多个第一区域,其中,第一区域是以各第一关键点为顶点得到的封闭区域,而后可以根据深度图像中的第四关键点,将深度图像的人脸部分划分为以第四关键点为顶点的多个第二区域,接着可以根据第一关键点与第四关键点之间的对应关系,确定各第二区域对应的第一区域,最后可以对各第二区域内展示的图片内容渲染后,作为局部皮肤纹理贴图至目标对象对应的三维模型中对应的第一区域,得到覆盖目标对象对应的三维模型表面的人脸皮肤纹理图,或者,可以将各第二区域内展示的图片内容,作为局部皮肤纹理贴图至目标对象对应的三维模型中对应的第一区域,而后对贴图后的第一区域对应的画面进行渲染,得到覆盖目标对象对应的三维模型表面的人脸皮肤纹理图,或者,可以在将各第二区域内展示的图片内容,作为局部皮肤纹理贴图至目标对象对应的三维模型中对应的第一区域的过程中,对第一区域已贴图的画面进行渲染,得到覆盖目标对象对应的三维模型表面的人脸皮肤纹理图,对此不作限制。
作为本申请实施例的一种可能的实现方式,预设的图像融合矩阵为预先设置的,其中,预设的图像融合矩阵可以为目标对象对应的三维模型表面的人脸皮肤纹理图中各像素点对应的权重矩阵,或者,预设的图像融合矩阵可以为素材皮肤纹理图中各像素点对应的权重矩阵,本申请实施例对此不作限制。
本申请中,当指定预设的图像融合矩阵为人脸皮肤纹理图中各像素点对应的权重矩阵,或素材皮肤纹理图中各像素点对应的权重矩阵中的任意一个时,可以确定另外一个皮肤纹理图中各像素点对应的权重矩阵。
例如,当目标对象对应的三维模型表面的人脸皮肤纹理图和素材皮肤纹理图中各具有4个像素点时,预设的图像融合矩阵为2*2的矩阵,假设预设的图像融合矩阵为素材皮肤纹理图中各像素点对应的权重矩阵,且该预设的图像融合矩阵为则目标对象对应的三维模型表面的人脸皮肤纹理图中各像素点对应的权重矩阵为
也就是说,本申请实施例中,在确定预设的图像融合矩阵中各元素的取值后,可以确定与人脸皮肤纹理图中各像素点分别对应的第一权重值及素材皮肤纹理图中各像素点分别对应的第二权重值。
仍以上述例子示例,当预设的图像融合矩阵为素材皮肤纹理图中各像素点对应的权重矩阵时,人脸皮肤纹理图中最后一个像素点对应的第一权重值为0.4,而素材皮肤纹理图中最后一个像素点对应的第二权重值为0.6。
而后,可以根据第一权重值及第二权重值,将人脸皮肤纹理图中各像素点对应的皮肤纹理,与素材皮肤纹理图中各像素对应的皮肤纹理进行融合处理。
仍以上述例子示例,当人脸皮肤纹理图中的四个像素点的像素值分别为A1、A2、A3、A4,素材皮肤纹理图中的四个像素点的像素值分别为B1、B2、B3、B4,则融合后的目标皮肤纹理图中的四个像素点的像素值分别为:(0.5*A1+0.5*B1)、(0.6*A2+0.4*B2)、(0.6*A3+0.4*B3)、(0.4*A4+0.6*B4)。
作为本申请实施例的另一种可能的实现方式,由于不同用户的皮肤纹理不同,因此本申请实施例中,还可以根据覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与素材皮肤纹理图的纹理匹配度,确定预设的图像融合矩阵中各元素的取值。
可以理解的是,当覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与素材皮肤纹理图的纹理匹配度不同时,预设的图像融合矩阵中各元素的取值也是不同的。例如,当任意像素点的匹配度较高时,表明人脸皮肤纹理图与素材皮肤纹理图的差异较小,此时可能肤色和皮肤纹理走向均相似,此时,直接利用素材皮肤纹理图替换人脸皮肤纹理图时,边缘部分的跳跃性较低,即过渡区域较自然。因此,若预设的图像融合矩阵为素材皮肤纹理图中各像素点对应的权重矩阵,则可以设置预设的图像融合矩阵中的各元素的值可以全为1,或者,可以将预设的图像融合矩阵的中间区域的大部分元素的取值设置为1,而边缘区域的元素取值设置为变化的,例如,预设的图像融合矩阵可以如下所示:
而当匹配度较低时,表明人脸皮肤纹理图与素材皮肤纹理图的差异较大,此时可能肤色和皮肤纹理走向均不同,此时,若直接利用素材皮肤纹理图替换人脸皮肤纹理图时,边缘部分的跳跃性较高,即过渡区域较突兀。因此,预设的图像融合矩阵中的各元素的值不能均设置为1,例如,可以将预设的图像融合矩阵的中间区域的小部分元素的取值设置为1。进一步地,为了使得融合后的目标皮肤纹理图较为自然,从而避免过渡区域较为突兀,预设的图像融合矩阵的边缘区域的元素取值可以设置为变化的,例如,预设的图像融合矩阵可以如下所示:
在实际使用时,由于不同人脸图像中人脸区域所占面积不同,相应的人脸区域皮肤纹理图中包括的像素点数量也不相同。比如,当用户的额头被刘海遮挡、用户面部佩戴饰物等时,待替换的人脸区域仅为用户的部分脸部,因此,本申请实施例中,还可以在深度图像中包括部分人脸图像时,根据部分人脸图像对应的人脸皮肤纹理图的面积及在人脸中的位置,确定预设的图像融合矩阵中包括的元素数量及各元素的取值。
例如,当部分人脸图像对应的人脸皮肤纹理图的面积较大时,预设的图像融合矩阵可以为100*100的矩阵,而面积较小时,预设的图像融合矩阵可以为20*20的矩阵。进一步地,当部分人脸图像对应的人脸皮肤纹理图的面积不同时,元素的取值也是不同的。例如,当部分人脸图像对应的人脸皮肤纹理图的面积较大时,此时,目标皮肤纹理图的中间大部分区域,可以为素材皮肤纹理图,则预设的图像融合矩阵的中间区域的大部分元素的取值可以设置为1,而目标皮肤纹理图的边缘区域,为覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的素材皮肤纹理图进行融合处理后的皮肤纹理图,则预设的图像融合矩阵的边缘区域的元素取值可以为变化的,例如预设的图像融合矩阵可以为:
而当部分人脸图像对应的人脸皮肤纹理图的面积较小时,预设的图像融合矩阵的中间区域的小部分元素的取值可以设置为1,预设的图像融合矩阵的边缘区域的元素取值可以为变化的,例如预设的图像融合矩阵可以为:
本申请中,由于皮肤纹理图是三维的,对素材皮肤纹理图和人脸皮肤纹理图进行融合处理,可以使得融合后的目标皮肤纹理图更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。
步骤203,将目标皮肤纹理图覆盖在素材三维模型表面,得到目标替换模型。
本申请实施例中,在生成目标皮肤纹理图后,可以将目标皮肤纹理图覆盖在素材三维模型表面,得到目标替换模型。具体地,可以对目标皮肤纹理图进行关键点识别,得到各第五关键点,根据各第五关键点在目标皮肤纹理图中的位置及各第五关键点的深度信息,确定素材三维模型中,与各第五关键点对应的各第二关键点,而后根据各第五关键点和对应的第二关键点,将目标皮肤纹理图覆盖在素材三维模型表面,得到表面覆盖了皮肤纹理的素材三维模型,即目标替换模型。
本申请实施例的图像处理方法,由于皮肤纹理图是三维的,对素材皮肤纹理图和人脸皮肤纹理图进行融合处理,可以使得融合后的目标皮肤纹理图更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。
作为一种可能的实现方式,当目标对象为人脸时,为了提高人脸图像的处理效果,本申请中,可以根据目标对象对应的三维模型,对素材三维模型进行调整。下面结合图3,对上述过程进程详细说明。
图3为本申请实施例三所提供的图像处理方法的流程示意图。
如图3,步骤103具体可以包括以下子步骤:
步骤301,获取素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。
步骤302,基于预设的图像融合矩阵,将覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应。
步骤303,根据目标对象对应的三维模型中各第一关键点间的相对位置,调整素材三维模型中各第二关键点间的相对位置,以获取目标三维模型,其中,各第一关键点与各第二关键点一一对应。
具体地,可以根据目标对象对应的三维模型中各第一关键点间的相对位置,调整素材三维模型中各第二关键点间的相对位置,以获取目标三维模型,其中,各第一关键点与各第二关键点一一对应。从而可以使得调整后的目标三维模型中的各个关键点间的相对位置,与目标对象对应的三维模型中的各个第一关键点间的相对位置一致,从而可以使得最终处理后的人脸图像更加贴近于拍照的用户,改善用户的拍摄体验。
需要说明的是,可能仅需要调整素材三维模型中的一个第二关键点,也可能需要调整素材模型中的多个第二关键点。当需要调整素材三维模型中的多个关键点时,可以仅确定一个初始第二关键点,然后将初始第二关键点的位置调整后,再根据其它各第二关键点与初始第二关键点间的目标位置关系,再调整其它的第二关键点;或者,也可以根据目标对象对应的三维模型确定出所有需要调整的目第二关键点,及各需要调整的第二关键点对应的调整幅度,进而对需要调整的第二关键点进行调整,得到目标三维模型。
具体地,可以将目标对象对应的三维模型中各第一关键点间的相对位置,与素材三维模型中对应的各第二关键点间的相对位置进行比较,将与各第一关键点间的相对位置不匹配的第二关键点确为需要调整的第二关键点,并根据差异确定各需要调整的第二关键点的调整幅度,以使调整后的各第二关键点间的相对位置与目标对象对应的三维模型中对应的第一关键点间的相对位置一致。
比如,目标对象对应的三维模型中的眼眶中有3个关键点,分别为A、B、C,则可以比较素材三维模型中关键点B′与关键点A′之间的相对位置,与目标对象对应的三维模型中关键点B与关键点A的相对位置是否匹配,若不匹配,则可以确定关键点B与关键点A中,至少有一个关键点的位置需要调整。可以进一步再比较关键点B和关键点C间的相对位置,与关键点B′和关键点C′间的相对位置是否匹配,若匹配,则说明关键点A的位置需求调整。
需要说明的是,在实际使用时,还可以根据关键点的位置,设置不同的调整判断阈值,仅当各第二关键点间的相对位置,与各第一关键点间的相对位置的差值超过阈值时,再将第二关键点确定为目标关键点。
另外,还可以确定三维模型中的一个特定关键点为固定点,仅通过比较其它第二关键点与该特定关键点间的相对位置,与目标对象对应的三维模型中各第一关键点与特定关键点间的相对位置,来确定具体的需要进行调整的第二关键点。
比如,鼻尖为三维模型中的特定关键点,那么即可根据素材三维模型中眼眶中的关键点A′与鼻尖的相对位置,与目标对象对应的三维模型中的关键点A与鼻尖的相对位置,来判断A′点是否为需要调整的第二关键点。
在确定需要调整的第二关键点后,可以根据差异确定各需要调整的第二关键点的调整幅度,以使调整后的各第二关键点间的相对位置与目标对象对应的三维模型中对应的第一关键点间的相对位置一致。
步骤304,将目标皮肤纹理图覆盖在目标三维模型表面,得到目标替换模型。
本申请实施例的图像处理方法,根据目标对象对应的三维模型中各第一关键点间的相对位置,调整素材三维模型中各第二关键点间的相对位置,以获取目标三维模型,提高人脸图像的处理效果。
作为一种可能的实现方式,当目标对象为人脸时,为了提升替换后的人脸图像的美化效果,步骤101具体可以包括:从至少两个不同角度,获取至少两张包含目标对象的深度图像。则参见图4,步骤102具体可以包括以下子步骤:
步骤401,对每张深度图像进行关键点识别,得到各第四关键点。
其中,各第四关键点为在二维图像中与各第一关键点对应的各点。
可选地,可以基于人脸关键点检测技术,对每张深度图像进行关键点识别,得到各第四关键点。
步骤402,根据各第四关键点在每张人脸图像中的位置及各第四关键点的深度信息,确定与各第四关键点对应的各第一关键点在三维空间中的相对位置。
本申请实施例中,由于目标对象对应的三维模型是深度图像对应的立体模型,目标对象对应的三维模型中第一关键点和深度图像中的第四关键点是一一对应的关系,针对每一张深度图像,可以根据第四关键点的深度信息和第四关键点在深度图像上的位置,确定第四关键点对应的第一关键点在三维空间中的相对位置。
步骤403,根据各第一关键点在三维空间中的相对位置,生成由相邻的各第一关键点拼接的局部三维框架。
本申请实施例中,在确定第四关键点对应的各第一关键点在在三维空间中的相对位置后,可以连接相邻的第一关键点,生成局部三维框架。其中,局部可以包括鼻部、唇部、眼部、脸颊等脸部部位,局部三维框架例如可以为眼部三维框架、鼻部三维框架、嘴部三维框架等等。
步骤404,根据各局部三维框架中包含的相同第一关键点,将各局部三维框架进行拼接,得到目标对象对应的三维模型。
本实施例中,在确定各局部三维框架后,可以根据各局部三维框架中的重合部分,对不同的局部三维框架进行拼接,得到目标对象对应的三维模型。具体地,可以根据各局部三维框架中包含的相同第一关键点,对各局部三维框架进行拼接,得到目标对象对应的三维模型。
举例而言,可以根据脸颊三维框架与眼部三维框架包含的相同的第一关键点,将脸颊三维框架与眼部三维框架进行拼接,从而根据各局部三维框架中包含的相同第一关键点,将各个局部三维框架进行拼接,可以得到目标对象对应的三维模型。
作为一种示例,参见图5和图6,图5和图6分别为不同的角度获取的两张深度图像所对应的目标对象对应的三维模型示意图。
本申请实施例的图像处理方法,可以实时获取目标对象对应的三维模型,以及获取不同的角度所对应的目标对象对应的三维模型,从而后续步骤中可以对不同角度对应的目标对象对应的三维模型,选取对应的素材三维模型,从而生成不同的目标替换图像,当将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理后,用户可以选择美化效果最好的深度图像,进一步改善了用户的拍摄体验。
需要说明的是,当从不同的角度,获取包含目标对象的深度图像时,利用深度图像生成的目标对象对应的三维模型的当前视角也是不同的,参见图5,当用户正向面对摄像头时,目标对象对应的三维模型的当前视角为正面角度,参见图6,当用户侧面对着摄像头时,目标对象对应的三维模型的当前视角为侧面角度。
实际应用时,可以发现,素材三维模型的视角可能与目标对象对应的三维模型的当前视角不同,例如,素材三维模型的视角为正面角度,而目标对象对应的三维模型的当前视角为侧面角度,此时,若以素材三维模型的视角,将覆盖皮肤纹理图的素材三维模型映射到二维平面,生成目标替换图像后,并将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,则深度图像中的用户的侧面人脸被正面人脸所替换,此时,替换后的人脸图像非常突兀,导致图像处理效果不佳,用户体验较差。因此,本申请中,当目标对象对应的三维模型的当前视角不同时,素材三维模型映射到二维平面时的角度也是不同的。为了使得替换后的人脸图像与用户拍摄的深度图像匹配,使得替换后的图像更加自然与美观,可以识别素材三维模型映射到二维平面时的角度。下面结合图7,对上述过程进行详细说明。
图7为本申请实施例五所提供的图像处理方法的流程示意图。
如图7所示,在当前待处理的深度图像中包括部分人脸图像时,在图1-4所示实施例的基础上,在生成目标替换图像之前,该图像处理方法可以包括以下步骤:
步骤501,根据待处理的深度图像中各第四关键点与目标对象对应的三维模型中各第一关键点的对应关系,确定目标对象对应的三维模型当前的视角。
可选地,可以根据待处理的深度图像中各第四关键点的深度信息,确定目标对象对应的三维模型当前的视角,例如为正面角度、侧面角度、斜侧角度(斜左侧45度、斜右侧45度等等)。
在实际使用时,可以首先根据深度图像中各第四关键点的深度信息,确定各第四关键点在空间中的相对位置关系,进而根据各第四关键点在空间中的相对位置关系,即可确定该各第四关键点为目标对象对应的三维模型中的哪部分区域对应的关键点,进而即可确定目标对象对应的三维模型当前的视角。
举例来说,若根据待处理的深度图像中各第四关键点的深度信息,确定其中三个第四关键点在空间中的相对位置,与目标对象对应的三维模型中右侧嘴唇中的三个关键点的相对位置匹配,且待处理的深度图像中并未包括左侧嘴唇中的三个关键点,从而即可确定当前待处理的深度图像为朝向用户的右侧拍摄的图像,即目标对象对应的三维模型当前的视角为右侧视角。
步骤502,根据目标对象对应的三维模型当前的视角,确定素材三维模型映射到二维平面时的角度。
本申请实施例中,当确定目标对象对应的三维模型当前的视角后,可以根据目标对象对应的三维模型当前的视角,确定素材三维模型映射到二维平面时的角度。例如,若正面视角为0度,左侧45时为+45度,那么当目标对象对应的三维模型当前的视角为正面视角时,则可以确定素材三维模型映射到二维平面时的角度为0度;当目标对象对应的三维模型当前的视角为斜左侧45度时,则可以确定素材三维模型映射到二维平面时的角度可以为45度。
步骤503,将目标皮肤纹理图覆盖在素材三维模型表面,并将目标替换模型根据角度映射到二维平面,以生成目标替换图像。
本申请实施例中,当确定素材三维模型映射到二维平面时的角度时,可以将目标皮肤纹理图覆盖在素材三维模型表面,并将目标替换模型根据角度映射到二维平面。
步骤504,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。
本申请实施例的图像处理方法,可以实现根据目标对象对应的三维模型当前的视角,确定素材三维模型映射到二维平面时的角度,从而根据角度,将目标皮肤纹理图覆盖在素材三维模型表面映射到二维平面,并将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,可以使得替换后的人脸图像与用户拍摄的深度图像匹配,使得替换后的图像更加自然与美观,美化效果更加突出,进一步提升用户的拍摄体验。
需要说明的是,当用户的人脸被刘海遮挡时,或者,用户的面部佩戴饰品时,例如佩戴额饰时,此时,为了节省处理的工作量,提升处理效率,可以仅对非遮挡的人脸图像进行替换处理。下面结合图6,对上述过程进行详细说明。
图8为本申请实施例六所提供的图像处理方法的流程示意图。
如图8所示,在当前待处理的深度图像中包括部分人脸图像时,在图1-7所示实施例的基础上,得到目标替换模型,具体可以包括以下步骤:
步骤601,确定目标对象对应的三维模型中,与待处理的深度图像中各第四关键点对应的各目标第一关键点。
本申请实施例中,本申请实施例中,由于目标对象对应的三维模型是深度图像对应的立体模型,目标对象对应的三维模型中第一关键点和深度图像中的第四关键点是一一对应的关系。当基于人脸关键点检测技术,确定待处理的深度图像中的各第四关键点后,可以根据各第四关键点在待处理的深度图像中的位置及各第四关键点的深度信息,确定目标对象对应的三维模型中,与待处理的深度图像中各第四关键点对应的各目标第一关键点。其中,各目标第一关键点为待处理的深度图像中各未遮挡的第四关键点所对应的第一关键点。
步骤602,从素材三维模型中,获取与各目标第一关键点对应的各目标第二关键点,其中各目标第二关键点在素材三维模型中的位置,分别与各目标第一关键点在目标对象对应的三维模型中的位置匹配。
本申请实施例中,当确定待处理的深度图像中各未遮挡的第四关键点所对应的第一关键点后,本申请中记为目标第一关键点后,可以从素材三维模型中,获取与各目标第一关键点对应的各目标第二关键点。
例如,当待处理的深度图像中的遮挡区域为额头和左眼时,此时,确定的目标第一关键点为人脸区域中除额头和左眼之外的关键点,则各目标第二关键点为素材三维模型中除额头和左眼之外的关键点。
步骤603,连接相邻的各目标第二关键点,以生成目标局部三维框架。
本申请实施例中,可以根据各目标第二关键点在三维空间中的相对位置,生成由相邻的各目标第二关键点拼接的目标局部三维框架。具体地,可以连接相邻的目标第二关键点,生成目标局部三维框架。目标局部三维框架例如可以为眼部三维框架、鼻部三维框架、嘴部三维框架等等。
本申请实施例的图像处理方法,由于只需对人脸图像中未遮挡的区域进行替换处理,可以有效节省处理的工作量,提升处理效率。
本申请实施例中,在生成目标局部三维框架后,可以将目标局部三维框架对应的目标皮肤纹理图,覆盖在目标局部三维框架表面。具体地,可以对目标局部三维框架对应的目标皮肤纹理图进行关键点识别,得到各第五关键点,根据各第五关键点在目标皮肤纹理图中的位置及各第五关键点的深度信息,确定素材三维模型中,与各第五关键点对应的各第二关键点,而后根据各第五关键点和对应的第二关键点,将目标局部三维框架对应的目标皮肤纹理图覆盖在目标局部三维框架表面,得到表面覆盖了皮肤纹理的目标局部三维框架。
之后,可以将覆盖了皮肤纹理的目标局部三维框架映射到二维平面,即可生成目标替换图像。
为了实现上述实施例,本申请还提出一种图像处理装置。
图9为本申请实施例七所提供的图像处理装置的结构示意图。
如图9所示,该图像处理装置100包括:获取模块110、构建模块120、融合处理模块130、映射模块140,以及处理模块150。其中,
获取模块110,用于获取包括目标对象的深度图像。
构建模块120,用于根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型。
融合处理模块130,用于将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型。
作为一种可能的实现方式,若目标对象为人脸,则融合处理模块130,具体用于:获取素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图;基于预设的图像融合矩阵,将覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应;将目标皮肤纹理图覆盖在素材三维模型表面,得到目标替换模型。
作为另一种可能的实现方式,若目标对象为人脸,则融合处理模块130,具体用于:获取素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图;基于预设的图像融合矩阵,将覆盖在目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应;根据目标对象对应的三维模型中各第一关键点间的相对位置,调整素材三维模型中各第二关键点间的相对位置,以获取目标三维模型,其中,各第一关键点与各第二关键点一一对应;将目标皮肤纹理图覆盖在目标三维模型表面,得到目标替换模型。
可选地,融合处理模块130,具体用于:根据目标对象对应的三维模型中各第一关键点的相对位置,及用户模型库中与各用户标识对应的三维模型中各第三关键点的相对位置,确定人脸图像对应的目标对象,其中,各第一关键点与各第三关键点一一对应;根据目标对象的喜好,确定素材三维模型及覆盖在素材三维模型表面的素材皮肤纹理图。
映射模块140,用于将目标替换模型映射到二维平面,以生成目标替换图像。
处理模块150,用于将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。
进一步地,在本申请实施例的一种可能的实现方式中,该图像处理装置100还可以包括:
获取模块110,具体用于:从至少两个不同角度,获取至少两张包含目标对象的深度图像。
构建模块120,具体用于:对每张深度图像进行关键点识别,得到各第四关键点,其中,各第四关键点为在二维图像中与各第一关键点对应的各点;根据各第四关键点在每张深度图像中的位置及各第四关键点的深度信息,确定与各第四关键点对应的各第一关键点在三维空间中的相对位置;根据各第一关键点在三维空间中的相对位置,生成由相邻的各第一关键点拼接的局部三维框架;根据各局部三维框架中包含的相同第一关键点,将各局部三维框架进行拼接,得到目标对象对应的三维模型。
作为一种可能的实现方式,在当前待处理的深度图像中包括部分人脸图像时,该图像处理装置100还可以包括:
第一确定模块,用于在生成目标替换图像之前,根据待处理的深度图像中各第四关键点与目标对象对应的三维模型中各第一关键点的对应关系,确定目标对象对应的三维模型当前的视角,以及根据目标对象对应的三维模型当前的视角,确定素材三维模型映射到二维平面时的角度。
则映射模块140,具体用于将目标替换模型根据角度映射到二维平面,以生成目标替换图像。
作为一种可能的实现方式,在当前待处理的深度图像中包括部分人脸图像时,融合处理模块130,具体用于:确定目标对象对应的三维模型中,与待处理的深度图像中各第四关键点对应的各目标第一关键点;从素材三维模型中,获取与各目标第一关键点对应的各目标第二关键点,其中各目标第二关键点在素材三维模型中的位置,分别与各目标第一关键点在目标对象对应的三维模型中的位置匹配;连接相邻的各目标第二关键点,以生成目标局部三维框架。
作为一种可能的实现方式,该图像处理装置100还可以包括:
第二确定模块,用于在将素材三维模型与目标对象对应的三维模型进行融合处理之前,根据素材三维模型与目标对象对应的三维模型的匹配度,确定预设的图像融合矩阵中各元素的取值。
作为一种可能的实现方式,在当前待处理的深度图像中包括部分人脸图像时,第二确定模块,具体用于根据部分人脸图像对应的人脸皮肤纹理图的面积及在人脸中的位置,确定预设的图像融合矩阵中包括的元素数量及各元素的取值。
本申请实施例的图像处理装置,通过获取包括目标对象的深度图像,而后根据深度图像中与目标对象对应的深度信息,构建目标对象对应的三维模型,之后将素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,最后将目标替换模型映射到二维平面,以生成目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像。本申请中,由于素材三维模型以及目标对象对应的三维模型均是三维的,对素材三维模型与目标对象对应的三维模型进行融合处理,得到目标替换模型,可以使得融合后的目标替换模型更加自然,从而避免替换后的图像的过渡区域较为突兀的情况发生。通过将目标替换模型映射到二维平面,得到目标替换图像,将目标替换图像与深度图像中除目标对象外的其余部分进行融合处理,得到处理后的图像,可以使得处理后的图像更加立体和真实,美化效果更加突出,提升用户的拍摄体验。
为了实现上述实施例,本申请还提出一种电子设备。
图10为本申请实施例八所提供的电子设备的结构示意图。
如图10所示,该电子设备包括:深度摄像头201、存储器202、处理器203及存储在存储器202上并可在处理器203上运行的计算机程序;
深度摄像头201,用于获取包括目标对象的深度图像;
处理器203执行存储在存储器202上的计算机程序时,实现如本申请前述实施例提出的图像处理方法。
为了实现上述实施例,本申请还提出一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如本申请前述实施例提出的图像处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种图像处理方法,其特征在于,包括:
获取包括目标对象的深度图像;
根据所述深度图像中与所述目标对象对应的深度信息,构建所述目标对象对应的三维模型;
将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型;
将所述目标替换模型映射到二维平面,以生成目标替换图像;
将所述目标替换图像与所述深度图像中除所述目标对象外的其余部分进行融合处理,得到处理后的图像。
2.如权利要求1所述的方法,其特征在于,若所述目标对象为人脸,则
所述将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型,包括:
获取素材三维模型及覆盖在所述素材三维模型表面的素材皮肤纹理图;
基于预设的图像融合矩阵,将覆盖在所述目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的所述素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,所述预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应;
将所述目标皮肤纹理图覆盖在所述素材三维模型表面,得到目标替换模型。
3.如权利要求1所述的方法,其特征在于,若所述目标对象为人脸,则
所述得到目标替换模型,包括:
获取素材三维模型及覆盖在所述素材三维模型表面的素材皮肤纹理图;
基于预设的图像融合矩阵,将覆盖在所述目标对象对应的三维模型表面的人脸皮肤纹理图与覆盖在素材三维模型表面的所述素材皮肤纹理图进行融合处理,得到目标皮肤纹理图,其中,所述预设的图像融合矩阵中包括至少两个取值不同的元素,各元素分别与皮肤纹理图中各像素点对应;
根据所述目标对象对应的三维模型中各第一关键点间的相对位置,调整所述素材三维模型中各第二关键点间的相对位置,以获取目标三维模型,其中,所述各第一关键点与所述各第二关键点一一对应;
将所述目标皮肤纹理图覆盖在所述目标三维模型表面,得到目标替换模型。
4.如权利要求2或3所述的方法,其特征在于,所述获取素材三维模型及覆盖在所述素材三维模型表面的素材皮肤纹理图,包括:
根据所述目标对象对应的三维模型中各第一关键点的相对位置,及用户模型库中与各用户标识对应的三维模型中各第三关键点的相对位置,确定所述人脸图像对应的目标对象,其中,所述各第一关键点与所述各第三关键点一一对应;
根据所述目标对象的喜好,确定所述素材三维模型及覆盖在所述素材三维模型表面的素材皮肤纹理图。
5.如权利要求3所述的方法,其特征在于,所述获取包含目标对象的深度图像,包括:
从至少两个不同角度,获取至少两张包含目标对象的深度图像;
所述根据所述深度图像中的人脸图像及所述人脸图像对应的深度信息,构建所述目标对象对应的三维模型,包括:
对每张深度图像进行关键点识别,得到各第四关键点,其中,各第四关键点为在二维图像中与所述各第一关键点对应的各点;
根据所述各第四关键点在每张深度图像中的位置及所述各第四关键点的深度信息,确定与所述各第四关键点对应的各第一关键点在三维空间中的相对位置;
根据所述各第一关键点在三维空间中的相对位置,生成由相邻的各第一关键点拼接的局部三维框架;
根据各局部三维框架中包含的相同第一关键点,将各局部三维框架进行拼接,得到所述目标对象对应的三维模型。
6.如权利要求5所述的方法,其特征在于,当前待处理的深度图像中包括部分人脸图像;
所述生成目标替换图像之前,还包括:
根据所述待处理的深度图像中各第四关键点与所述目标对象对应的三维模型中各第一关键点的对应关系,确定所述目标对象对应的三维模型当前的视角;
根据所述目标对象对应的三维模型当前的视角,确定所述目标三维模型映射到二维平面时的角度;
所述生成目标替换图像,包括:
将所述目标替换模型根据所述角度映射到二维平面,以生成所述目标替换图像。
7.如权利要求5所述的方法,其特征在于,当前待处理的深度图像中包括部分人脸图像;
所述得到目标替换模型,包括:
确定所述目标对象对应的三维模型中,与所述待处理的深度图像中各第四关键点对应的各目标第一关键点;
从所述素材三维模型中,获取与所述各目标第一关键点对应的各目标第二关键点,其中各目标第二关键点在所述素材三维模型中的位置,分别与所述各目标第一关键点在所述目标对象对应的三维模型中的位置匹配;
连接相邻的所述各目标第二关键点,以生成目标局部三维框架。
8.如权利要求1-7任一所述的方法,其特征在于,所述将素材三维模型与所述目标对象对应的三维模型进行融合处理之前,还包括:
根据所述素材三维模型与所述目标对象对应的三维模型的匹配度,确定所述预设的图像融合矩阵中各元素的取值。
9.如权利要求8所述的方法,其特征在于,所述深度图像中包括部分人脸图像;
所述确定所述预设的图像融合矩阵中各元素分别的取值,包括:
根据所述部分人脸图像对应的人脸皮肤纹理图的面积及在人脸中的位置,确定所述预设的图像融合矩阵中包括的元素数量及各元素的取值。
10.一种图像处理装置,其特征在于,所述装置包括:
获取模块,用于获取包括目标对象的深度图像;
构建模块,用于根据所述深度图像中与所述目标对象对应的深度信息,构建所述目标对象对应的三维模型;
融合处理模块,用于将素材三维模型与所述目标对象对应的三维模型进行融合处理,得到目标替换模型;
映射模块,用于将所述目标替换模型映射到二维平面,以生成目标替换图像;
处理模块,用于将所述目标替换图像与所述深度图像中除所述目标对象外的其余部分进行融合处理,得到处理后的图像。
11.一种电子设备,其特征在于,包括:深度摄像头、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序;
所述深度摄像头,用于获取包括目标对象的深度图像;
所述处理器执行存储在存储器上的计算机程序时,实现如权利要求1-9中任一所述的图像处理方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810549498.5A CN108765272B (zh) | 2018-05-31 | 2018-05-31 | 图像处理方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810549498.5A CN108765272B (zh) | 2018-05-31 | 2018-05-31 | 图像处理方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108765272A true CN108765272A (zh) | 2018-11-06 |
CN108765272B CN108765272B (zh) | 2022-07-08 |
Family
ID=64001236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810549498.5A Active CN108765272B (zh) | 2018-05-31 | 2018-05-31 | 图像处理方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108765272B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582811A (zh) * | 2018-12-17 | 2019-04-05 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN109658360A (zh) * | 2018-12-25 | 2019-04-19 | 北京旷视科技有限公司 | 图像处理的方法、装置、电子设备和计算机存储介质 |
CN109675315A (zh) * | 2018-12-27 | 2019-04-26 | 网易(杭州)网络有限公司 | 游戏角色模型的生成方法、装置、处理器及终端 |
CN110232730A (zh) * | 2019-06-03 | 2019-09-13 | 深圳市三维人工智能科技有限公司 | 一种三维人脸模型贴图融合方法和计算机处理设备 |
CN111291218A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 视频融合方法、装置、电子设备及可读存储介质 |
CN111402314A (zh) * | 2019-12-30 | 2020-07-10 | 香港光云科技有限公司 | 材质属性参数获取方法及装置 |
CN111460870A (zh) * | 2019-01-18 | 2020-07-28 | 北京市商汤科技开发有限公司 | 目标的朝向确定方法及装置、电子设备及存储介质 |
CN111724470A (zh) * | 2020-06-30 | 2020-09-29 | 联想(北京)有限公司 | 一种处理方法及电子设备 |
CN111754635A (zh) * | 2020-06-22 | 2020-10-09 | 北京市商汤科技开发有限公司 | 纹理融合方法及装置、电子设备和存储介质 |
CN111754431A (zh) * | 2020-06-17 | 2020-10-09 | 北京百度网讯科技有限公司 | 一种图像区域替换方法、装置、设备及存储介质 |
CN112766215A (zh) * | 2021-01-29 | 2021-05-07 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、电子设备及存储介质 |
CN112785683A (zh) * | 2020-05-07 | 2021-05-11 | 武汉金山办公软件有限公司 | 一种人脸图像调整方法及装置 |
CN113076779A (zh) * | 2020-01-03 | 2021-07-06 | 甄选医美邦(杭州)网络科技有限公司 | 整形模拟匹配方法、系统、可读存储介质和设备 |
WO2021169394A1 (zh) * | 2020-02-25 | 2021-09-02 | 荣耀终端有限公司 | 基于深度的人体图像美化方法及电子设备 |
CN113362434A (zh) * | 2021-05-31 | 2021-09-07 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113793422A (zh) * | 2021-08-13 | 2021-12-14 | 深圳安泰创新科技股份有限公司 | 三维模型的显示控制方法、电子设备及可读存储介质 |
CN115018698A (zh) * | 2022-08-08 | 2022-09-06 | 深圳市联志光电科技有限公司 | 一种用于人机交互的图像处理方法及系统 |
WO2023036239A1 (zh) * | 2021-09-10 | 2023-03-16 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140124572A1 (en) * | 2011-03-31 | 2014-05-08 | King Abdulaziz City For Science And Technology | System and methods for encoding and decoding multi-lingual text in a matrix code symbol |
CN105938627A (zh) * | 2016-04-12 | 2016-09-14 | 湖南拓视觉信息技术有限公司 | 用于人脸虚拟整形的处理方法和系统 |
CN106127743A (zh) * | 2016-06-17 | 2016-11-16 | 武汉大势智慧科技有限公司 | 自动重建二维影像与三维模型准确相对位置的方法及系统 |
CN107481317A (zh) * | 2017-07-31 | 2017-12-15 | 广东欧珀移动通信有限公司 | 人脸3d模型的面部调整方法及其装置 |
CN107527335A (zh) * | 2017-09-11 | 2017-12-29 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子装置和计算机可读存储介质 |
-
2018
- 2018-05-31 CN CN201810549498.5A patent/CN108765272B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140124572A1 (en) * | 2011-03-31 | 2014-05-08 | King Abdulaziz City For Science And Technology | System and methods for encoding and decoding multi-lingual text in a matrix code symbol |
CN105938627A (zh) * | 2016-04-12 | 2016-09-14 | 湖南拓视觉信息技术有限公司 | 用于人脸虚拟整形的处理方法和系统 |
CN106127743A (zh) * | 2016-06-17 | 2016-11-16 | 武汉大势智慧科技有限公司 | 自动重建二维影像与三维模型准确相对位置的方法及系统 |
CN107481317A (zh) * | 2017-07-31 | 2017-12-15 | 广东欧珀移动通信有限公司 | 人脸3d模型的面部调整方法及其装置 |
CN107527335A (zh) * | 2017-09-11 | 2017-12-29 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子装置和计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
HUIBIN LI 等: "Multimodal 2D+3D Facial Expression Recognition with Deep Fusion Convolutional Neural Network", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582811A (zh) * | 2018-12-17 | 2019-04-05 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN109658360B (zh) * | 2018-12-25 | 2021-06-22 | 北京旷视科技有限公司 | 图像处理的方法、装置、电子设备和计算机存储介质 |
CN109658360A (zh) * | 2018-12-25 | 2019-04-19 | 北京旷视科技有限公司 | 图像处理的方法、装置、电子设备和计算机存储介质 |
CN109675315A (zh) * | 2018-12-27 | 2019-04-26 | 网易(杭州)网络有限公司 | 游戏角色模型的生成方法、装置、处理器及终端 |
WO2020133862A1 (zh) * | 2018-12-27 | 2020-07-02 | 网易(杭州)网络有限公司 | 游戏角色模型的生成方法、装置、处理器及终端 |
US11839820B2 (en) | 2018-12-27 | 2023-12-12 | Netease (Hangzhou) Network Co., Ltd. | Method and apparatus for generating game character model, processor, and terminal |
CN111460870A (zh) * | 2019-01-18 | 2020-07-28 | 北京市商汤科技开发有限公司 | 目标的朝向确定方法及装置、电子设备及存储介质 |
CN110232730A (zh) * | 2019-06-03 | 2019-09-13 | 深圳市三维人工智能科技有限公司 | 一种三维人脸模型贴图融合方法和计算机处理设备 |
CN110232730B (zh) * | 2019-06-03 | 2024-01-19 | 深圳市三维人工智能科技有限公司 | 一种三维人脸模型贴图融合方法和计算机处理设备 |
CN111402314A (zh) * | 2019-12-30 | 2020-07-10 | 香港光云科技有限公司 | 材质属性参数获取方法及装置 |
CN113076779A (zh) * | 2020-01-03 | 2021-07-06 | 甄选医美邦(杭州)网络科技有限公司 | 整形模拟匹配方法、系统、可读存储介质和设备 |
CN111291218A (zh) * | 2020-01-20 | 2020-06-16 | 北京百度网讯科技有限公司 | 视频融合方法、装置、电子设备及可读存储介质 |
CN111291218B (zh) * | 2020-01-20 | 2023-09-08 | 北京百度网讯科技有限公司 | 视频融合方法、装置、电子设备及可读存储介质 |
WO2021169394A1 (zh) * | 2020-02-25 | 2021-09-02 | 荣耀终端有限公司 | 基于深度的人体图像美化方法及电子设备 |
CN113382154A (zh) * | 2020-02-25 | 2021-09-10 | 荣耀终端有限公司 | 基于深度的人体图像美化方法及电子设备 |
CN112785683A (zh) * | 2020-05-07 | 2021-05-11 | 武汉金山办公软件有限公司 | 一种人脸图像调整方法及装置 |
CN112785683B (zh) * | 2020-05-07 | 2024-03-19 | 武汉金山办公软件有限公司 | 一种人脸图像调整方法及装置 |
CN111754431B (zh) * | 2020-06-17 | 2023-08-01 | 北京百度网讯科技有限公司 | 一种图像区域替换方法、装置、设备及存储介质 |
CN111754431A (zh) * | 2020-06-17 | 2020-10-09 | 北京百度网讯科技有限公司 | 一种图像区域替换方法、装置、设备及存储介质 |
CN111754635A (zh) * | 2020-06-22 | 2020-10-09 | 北京市商汤科技开发有限公司 | 纹理融合方法及装置、电子设备和存储介质 |
CN111754635B (zh) * | 2020-06-22 | 2022-12-20 | 北京市商汤科技开发有限公司 | 纹理融合方法及装置、电子设备和存储介质 |
CN111724470B (zh) * | 2020-06-30 | 2023-08-18 | 联想(北京)有限公司 | 一种处理方法及电子设备 |
CN111724470A (zh) * | 2020-06-30 | 2020-09-29 | 联想(北京)有限公司 | 一种处理方法及电子设备 |
CN112766215A (zh) * | 2021-01-29 | 2021-05-07 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、电子设备及存储介质 |
CN113362434A (zh) * | 2021-05-31 | 2021-09-07 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113793422A (zh) * | 2021-08-13 | 2021-12-14 | 深圳安泰创新科技股份有限公司 | 三维模型的显示控制方法、电子设备及可读存储介质 |
CN113793422B (zh) * | 2021-08-13 | 2024-02-23 | 深圳安泰创新科技股份有限公司 | 三维模型的显示控制方法、电子设备及可读存储介质 |
WO2023036239A1 (zh) * | 2021-09-10 | 2023-03-16 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、设备及存储介质 |
CN115018698A (zh) * | 2022-08-08 | 2022-09-06 | 深圳市联志光电科技有限公司 | 一种用于人机交互的图像处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108765272B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765272A (zh) | 图像处理方法、装置、电子设备及可读存储介质 | |
US10684467B2 (en) | Image processing for head mounted display devices | |
CN110807836B (zh) | 三维人脸模型的生成方法、装置、设备及介质 | |
CN109410298B (zh) | 一种虚拟模型的制作方法及表情变化方法 | |
US10403036B2 (en) | Rendering glasses shadows | |
CN108876708A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
US6633289B1 (en) | Method and a device for displaying at least part of the human body with a modified appearance thereof | |
CN107146199A (zh) | 一种人脸图像的融合方法、装置及计算设备 | |
CN108305312A (zh) | 3d虚拟形象的生成方法和装置 | |
JP2019510297A (ja) | ユーザの真実の人体モデルへの仮想的な試着 | |
CN108765542A (zh) | 图像渲染方法、电子设备和计算机可读存储介质 | |
Fyffe et al. | Multi‐view stereo on consistent face topology | |
CN108550185A (zh) | 人脸美化处理方法和装置 | |
CN109675315A (zh) | 游戏角色模型的生成方法、装置、处理器及终端 | |
JP2016511888A (ja) | イメージ形成における及びイメージ形成に関する改良 | |
CN111861632B (zh) | 虚拟试妆方法、装置、电子设备及可读存储介质 | |
CN107656611A (zh) | 体感游戏实现方法及装置、终端设备 | |
US20230154101A1 (en) | Techniques for multi-view neural object modeling | |
CN110458924A (zh) | 一种三维脸部模型建立方法、装置和电子设备 | |
CN109191393A (zh) | 基于三维模型的美颜方法 | |
KR20230110787A (ko) | 개인화된 3d 머리 및 얼굴 모델들을 형성하기 위한 방법들 및 시스템들 | |
CN109242760A (zh) | 人脸图像的处理方法、装置和电子设备 | |
CN108765529A (zh) | 视频生成方法和装置 | |
CN108460368A (zh) | 三维图像合成方法、装置及计算机可读存储介质 | |
CN111275648B (zh) | 人脸图像处理方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |