CN111311733A - 三维模型处理方法及装置、处理器、电子设备及存储介质 - Google Patents
三维模型处理方法及装置、处理器、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111311733A CN111311733A CN202010086649.5A CN202010086649A CN111311733A CN 111311733 A CN111311733 A CN 111311733A CN 202010086649 A CN202010086649 A CN 202010086649A CN 111311733 A CN111311733 A CN 111311733A
- Authority
- CN
- China
- Prior art keywords
- adjustment
- face
- dimensional
- face model
- dimensional face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 126
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000006243 chemical reaction Methods 0.000 claims description 110
- 238000000605 extraction Methods 0.000 claims description 32
- 238000013507 mapping Methods 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 description 33
- 210000003205 muscle Anatomy 0.000 description 27
- 210000001061 forehead Anatomy 0.000 description 25
- 238000007493 shaping process Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 13
- 210000001508 eye Anatomy 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 7
- 208000002874 Acne Vulgaris Diseases 0.000 description 6
- 206010000496 acne Diseases 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- NOQGZXFMHARMLW-UHFFFAOYSA-N Daminozide Chemical compound CN(C)NC(=O)CCC(O)=O NOQGZXFMHARMLW-UHFFFAOYSA-N 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 210000000697 sensory organ Anatomy 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002087 whitening effect Effects 0.000 description 2
- 241000220645 Leonotis nepetifolia Species 0.000 description 1
- 235000002245 Penicillium camembertii Nutrition 0.000 description 1
- 206010046865 Vaccinia virus infection Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 208000007089 vaccinia Diseases 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种三维模型处理方法及装置、处理器、电子设备及存储介质。该方法包括:获取携带深度信息的第一调整参数和第一三维人脸模型;依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
Description
技术领域
本申请涉及三维模型处理技术领域,尤其涉及一种三维模型处理方法及装置、处理器、电子设备及存储介质。
背景技术
随着图像处理技术的发展,对图像中的人脸进行整型和美颜(如:瘦脸、磨皮、美白)的应用也越来越广。传统方法通过对二维图像进行形变处理,可达到对二维图像中的人脸进行整型和美颜的效果,但整型效果不佳。
发明内容
本申请提供一种三维模型处理方法及装置、处理器、电子设备及存储介质。
第一方面,提供了一种三维模型处理方法,所述方法包括:
获取携带深度信息的第一调整参数和第一三维人脸模型;
依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
在该方面中,基于第一三维人脸模型中的三维信息对第一三维人脸模型进行形变处理,可实现第一三维人脸模型在深度方向上的形变,获得深度方向上的整型效果(如:隆鼻、垫下巴、增高苹果肌、祛痘)。
结合本申请任一实施方式,所述第一调整参数包括参考调整区域和目标调整幅度,所述依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型,包括:
依据所述参考调整区域从所述第一三维人脸模型中确定目标调整区域;
依据所述目标调整幅度对所述目标调整区域进行形变处理,得到所述第二三维人脸模型。
在该实施方式中,依据参考调整区域确定目标调整区域。依据目标调整幅度对深度方向上的目标调整区域进行形变处理,实现对第一三维人脸模型的形变处理,得到第二三维人脸模型。
结合本申请任一实施方式,所述依据所述目标调整幅度对所述待调整区域进行形变处理,得到所述第二三维人脸模型,包括:
依据映射关系将所述目标调整幅度转换为目标坐标转换参数,所述映射关系用于表征调整幅度与坐标转换参数之间的转换关系;
依据所述目标坐标转换参数对所述目标调整区域中的像素的坐标进行转换,得到所述第二三维人脸模型。
在该实施方式中,依据目标调整幅度确定目标坐标转换参数,依据参考调整区域确定目标区域。依据目标坐标转换参数对目标区域进行调整,可实现对第一三维人脸模型在任意方向(包括水平方向、竖直方向和深度方向)上的形变处理,得到第二三维人脸模型。这样,可通过调整第一调整参数,获得不同的形变效果。
结合本申请任一实施方式,所述获取第一三维人脸模型,包括:
获取第一人脸图像和所述第一人脸图像的深度图像;
依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型。
在该实施方式中,依据第一人脸图像和深度图像得到第一三维人脸模型。
结合本申请任一实施方式,在所述获取携带深度信息的第一调整参数之前,所述方法还包括:
对所述第一人脸图像进行人脸关键点提取处理,得到所述第一人脸图像中的人脸关键点;
依据第一关键点的坐标和第二关键点的坐标,得到参考距离,所述第一关键点和所述第二关键点属于所述人脸关键点;
显示所述参考距离;
所述获取携带深度信息的第一调整参数,包括:
接收依据所述参考距离确定的携带深度信息的第二调整参数,作为所述第一调整参数。
在该实施方式中,依据人脸关键点得到参考距离。显示参考距离,以便用户可依据参考距离合理设置第一调整参数。
结合本申请任一实施方式,所述第一人脸图像包括人脸纹理数据,所述依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型,包括:
依据所述人脸关键点和所述深度图像,得到第三三维人脸模型;
依据所述人脸纹理数据和所述第三三维人脸模型,得到所述第一三维人脸模型。
在该实施方式中,依据人脸关键点和深度图像,得到三维人脸白模(即第三三维人脸模型)。将人脸纹理数据与第三三维人脸模型融合,得到第一三维人脸模型。这样得到的第一三维人脸模型更接近于真实的人脸。
结合本申请任一实施方式,在所述获取携带深度信息的第一调整参数之前,所述方法还包括:
对所述第一人脸图像进行特征提取处理,得到第一特征数据;
所述获取携带深度信息的第一调整参数,包括:
依据所述第一特征数据,确定所述第一人脸图像中的人物属性;
依据所述人物属性,确定所述第一调整参数。
在该实施方式中,通过对第一人脸图像进行特征提取处理,得到第一特征数据。依据第一特征数据得到第一人脸图像的人物属性,进而依据人物属性确定第一调整参数,从而实现由第一终端确定第一调整参数,而不需用户设置第一调整参数,简化了用户的操作流程,提高了操作效率。
结合本申请任一实施方式,所述方法还包括:
获取第二人脸图像,所述第二人脸图像与所述第一人脸图像不同;
对所述第二人脸图像进行特征提取处理,得到第二特征数据;
在所述第一特征数据与所述第二特征数据匹配的情况下,依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域。
结合本申请任一实施方式,所述在所述第一特征数据与所述第二特征数据匹配的情况下,依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域,包括:
在所述第一特征数据与所述第二特征数据匹配的情况下,从所述第二三维人脸模型中确定与所述人脸区域中的目标像素对应的至少一个像素;
依据所述至少一个像素的三维位置信息,确定所述目标像素的二维位置信息;
依据所述二维位置信息,调整所述目标像素的位置。
在该实施方式中,由于第二三维人脸模型通过对第一三维人脸模型进行形变处理得到,而第一三维人脸模型中的点的数量比第二人脸图像中的点的数量多,依据第二三维人脸模型对第二人脸图像的形变处理,可使形变处理后的第二人脸图像中的人脸区域更平滑,形变效果更自然。
第二方面,提供了一种三维模型处理装置,所述装置包括:
获取单元,用于获取携带深度信息的第一调整参数和第一三维人脸模型;
形变处理单元,用于依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
结合本申请任一实施方式,所述第一调整参数包括参考调整区域和深度方向上的目标调整幅度,所述形变处理单元,用于:
依据所述参考调整区域从所述第一三维人脸模型中确定目标调整区域;
依据所述目标调整幅度对所述目标调整区域进行形变处理,得到所述第二三维人脸模型。
结合本申请任一实施方式,所述形变处理单元,用于:
依据映射关系将所述目标调整幅度转换为目标坐标转换参数,所述映射关系用于表征调整幅度与坐标转换参数之间的转换关系;
依据所述目标坐标转换参数对所述目标调整区域中的像素的坐标进行转换,得到所述第二三维人脸模型。
结合本申请任一实施方式,所述获取单元,用于:
获取第一人脸图像和所述第一人脸图像的深度图像;
依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型。
结合本申请任一实施方式,所述装置还包括:
人脸关键点提取处理单元,用于在所述获取携带深度信息的第一调整参数之前,对所述第一人脸图像进行人脸关键点提取处理,得到所述第一人脸图像中的人脸关键点;
处理单元,用于依据第一关键点的坐标和第二关键点的坐标,得到参考距离,所述第一关键点和所述第二关键点属于所述人脸关键点;
显示单元,用于显示所述参考距离;
所述获取单元,用于:
接收依据所述参考距离确定的携带深度信息的第二调整参数,作为所述第一调整参数。
结合本申请任一实施方式,所述第一人脸图像包括人脸纹理数据,所述获取单元,用于:
依据所述人脸关键点和所述深度图像,得到第三三维人脸模型;
依据所述人脸纹理数据和所述第三三维人脸模型,得到所述第一三维人脸模型。
结合本申请任一实施方式,所述装置还包括:
第一特征提取处理单元,用于在所述获取携带深度信息的第一调整参数之前,对所述第一人脸图像进行特征提取处理,得到第一特征数据;
所述获取单元,用于:
依据所述第一特征数据,确定所述第一人脸图像中的人物属性;
依据所述人物属性,确定所述第一调整参数。
结合本申请任一实施方式,所述获取单元,还用于获取第二人脸图像,所述第二人脸图像与所述第一人脸图像不同;
所述装置还包括:
第二特征提取处理单元,用于对所述第二人脸图像进行特征提取处理,得到第二特征数据;
替换单元,用于在所述第一特征数据与所述第二特征数据匹配的情况下,依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域。
结合本申请任一实施方式,所述替换单元,用于:
在所述第一特征数据与所述第二特征数据匹配的情况下,从所述第二三维人脸模型中确定与所述人脸区域中的目标像素对应的至少一个像素;
依据所述至少一个像素的三维位置信息,确定所述目标像素的二维位置信息;
依据所述二维位置信息,调整所述目标像素的位置。
第三方面,提供了一种处理器,所述处理器用于执行如上述第一方面及其任意一种可能实现的方式的方法。
第四方面,提供了一种电子设备,包括:处理器、发送装置、输入装置、输出装置和存储器,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述处理器执行所述计算机指令时,所述电子设备执行如上述第一方面及其任意一种可能实现的方式的方法。
第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被电子设备的处理器执行时,使所述处理器执行如上述第一方面及其任意一种可能实现的方式的方法。
第六方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机程序或指令,当所述计算机程序或指令在计算机上运行时,使得所述计算机执行上述第一方面及其任一种可能的实现方式的方法。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
为了更清楚地说明本申请实施例或背景技术中的技术方案,下面将对本申请实施例或背景技术中所需要使用的附图进行说明。
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本申请实施例提供的一种正中矢状面的示意图;
图2为本申请实施例提供的一种三维模型处理方法的流程示意图;
图3为本申请实施例提供的另一种三维模型处理方法的流程示意图;
图4为本申请实施例提供的一种额头区域的水平面的示意图;
图5为本申请实施例提供的另一种三维模型处理方法的流程示意图;
图6为本申请实施例提供的另一种三维模型处理方法的流程示意图;
图7为本申请实施例提供的一种白模示意图;
图8为本申请实施例提供的另一种三维模型处理方法的流程示意图;
图9为本申请实施例提供的一种三维模型处理装置的结构示意图;
图10为本申请实施例提供的一种三维模型处理装置的硬件结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
随着图像处理技术的发展,对图像中的人脸进行整型(如:瘦脸、磨皮、美白)的应用也越来越广。例如,对人脸图像进行瘦脸处理,使图像中的人脸更好看。又例如,对图像进行处理,使图像中的眼睛更大,进而使图像中的人脸更好看。
传统方法通过对二维图像进行形变处理,可达到对图像中的人脸的整型的效果。但由于二维图像不包含深度信息,传统方法无法实现对图像中的人脸在深度方向进行形变处理,其中,深度方向为在成像设备在采集图像时垂直于成像设备的像平面的方向,进而导致整型效果不佳。为此,本申请实施例提供了一种技术方案,以实现图像对图像中的人脸在深度方向进行形变处理。
本申请实施例提供的技术方案的执行主体为第一终端,其中,第一终端包括:手机、计算机、平板电脑、穿戴式智能设备。
在进行接下来的阐述之前,首先对本申请实施例中的像素坐标系OXYZ进行定义。OXYZ为以三维人脸模型中两眼之间的中点为原点O、构建得到的三维坐标系,其中,OX轴垂直于三维人脸模型的正中矢状面,且指向三维人脸模型的左脸区域。上述正中矢状面为过三维人脸模型的正中线,且将三维人脸模型分为左、右对称的两部分的矢状面。三维人脸模型中的左脸区域和右脸区域的划分可参见图1,在图1所示的三维人脸模型中,正中矢状面将三维人脸模型分为左脸区域和右脸区域。OY轴平行于三维人脸模型的正中矢状面。OZ轴垂直于XOY平面,且OZ轴的方向(下文将OZ轴的方向称为深度方向)与三维人脸模型的面部朝向相同,在本申请实施例中,OX轴的方向为水平方向,轴的方向为竖直方向,OZ轴的方向为深度方向。下文将OX轴上的坐标称为横坐标,将OY轴上的坐标称为纵坐标,将OZ轴上的坐标称为竖坐标。在像素坐标系下,横坐标用于表示三维人脸模型中的像素在三维人脸模型中的列数,纵坐标用于表示三维人脸模型中的像素在三维人脸模型中的行数,竖坐标用于表示三维人脸模型中的像素在三维人脸模型中的深度数,横坐标、纵坐标和竖坐标的单位均可以是像素。例如,假设三维人脸模型的像素a的坐标为(10,30,20),即像素a的横坐标为10个像素,像素a的纵坐标为30个像素,像素a的竖坐标为20个像素,像素a为三维人脸模型中的第10列第30行,且深度数为20的像素。
下面结合本申请实施例中的附图对本申请实施例进行描述。
请参阅图2,图2是本申请实施例(一)提供的一种三维模型处理方法的流程示意图。
201、获取携带深度信息的第一调整参数和第一三维人脸模型。
本申请实施例中,将人脸区域划分为至少一个待调整区域,其中,待调整区域包括:眼睛区域、眉毛区域、鼻子区域、嘴巴区域、耳朵区域、额头区域、面颊区域、下巴区域、苹果肌区域、脸部轮廓区域。
本申请实施例中,第一调整参数携带深度信息,其中,深度信息包括:深度方向上的调整幅度和/或深度方向上的整形效果。
第一调整参数可以包括至少一个待调整区域在深度方向上的调整幅度。例如,第一调整参数为将苹果肌增高3厘米,这里的增高3厘米即为深度方向上的调整幅度。
第一调整参数也可以是整型效果。在第一调整参数为整形效果的情况下,第一调整参数包括深度方向上的整形效果。例如,第一调整参数为丰苹果肌。又例如,第一调整参数为丰苹果肌和瘦脸。
第一调整参数还可以包括:至少一个待调整区域在深度方向上的调整幅度,以及,整形效果。例如,第一调整参数为丰苹果肌和将眼睛拉长2厘米。本申请对第一调整参数的内容不做限定。
可选的,第一调整参数可包括至少一个待调整区域在深度方向上的调整幅度,以及,至少一个待调整区域在水平方向上的调整幅度和/或竖直方向上的调整幅度。例如,第一调整参数可以包括:眼睛区域在水平方向上的调整幅度和苹果肌区域在深度方向上的调整幅度。又例如,第一调整参数可以包括:眼睛区域在竖直方向上的调整幅度和苹果肌区域在深度方向上的调整幅度。再例如,第一调整参数可以包括:眼睛区域在竖直方向上的调整幅度、眼睛区域在水平方向上的调整幅度和苹果肌区域在深度方向上的调整幅度。
本申请实施例中,三维人脸模型(包括第一三维人脸模型,以及下文将要提及的第二三维人脸模型、第三三维人脸模型和参考三维人脸模型)可以是计算机辅助设计(computer aided design,CAD)三维人脸模型,三维人脸模型也可以是三维人脸凸包,三维人脸模型也可以是三维人脸点云。
本申请实施例中,三维人脸模型包含三维位置信息,其中,三维位置信息包括三维人脸模型中的点在像素坐标系下的三维坐标。
获取第一调整参数的方式可以是接收用户通过输入组件输入的第一调整参数,获取第一三维人脸模型的方式也可以是接收用户通过输入组件输入的第一三维人脸模型,其中,输入组件包括:键盘、鼠标、触控屏、触控板和音频输入器等。获取第一调整参数的方式也可以是接收第二终端发送的第一调整参数,获取第一三维人脸模型的方式也可以是接收第二终端发送的第一三维人脸模型,其中,第二终端包括手机、计算机、服务器、平板电脑等。第一三维人脸模型还可以是通过第一终端的摄像头对人脸进行扫描获得。例如,第一终端为手机,使用手机的RGB摄像头对人脸进行拍摄得到第一图像,在拍摄得到第一图像的同时使用飞行时间(time of flight,TOF)摄像头对人脸进行拍摄得到第二图像。基于第一图像和第二图像,得到第一三维人脸模型。
202、依据上述第一调整参数对上述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
本申请实施例中,形变处理包括以下至少一种:调整第一三维人脸模型的形状、调整第一三维人脸模型的大小、对第一三维人脸模型的人脸区域进行美颜处理(如调整人脸区域的肤色)。
在第一调整参数包括待调整区域和调整幅度的情况下,依据调整幅度对第一三维人脸模型中的待调整区域进行形变处理,可得到第二三维人脸模型。例如,第一调整参数携带将苹果肌增高2厘米的信息,即待调整区域为第一三维人脸模型的苹果肌区域,调整幅度为2厘米。可选的,通过调整第一三维人脸模型苹果肌区域中的点的竖坐标可达到将苹果肌区域增高2厘米的效果,得到第二三维人脸模型。
在第一调整参数包括整型效果时,依据整形效果确定第一三维人脸模型中的待调整区域以及待调整区域的调整幅度。依据调整幅度对待调整区域进行形变处理,可得到第二三维人脸模型。例如,第一调整参数为瘦脸和隆鼻。依据第一调整参数可确定待调整区域为脸部轮廓区域和鼻子区域。通过调整脸部轮廓区域的横坐标可达到瘦脸的效果,通过调整鼻子区域的竖坐标可达到隆鼻的效果。又例如,第一调整参数为祛痘。依据第一调整参数可确定待调整区域为痘痘区域。通过调整痘痘的竖坐标可达到祛痘的效果。
在一种对第一三维人脸模型进行形变处理的实现方式中,第一调整参数包括参考调整区域和深度方向上的目标调整幅度(下文将深度方向上的目标调整幅度称为深度方向调整幅度)。依据参考调整区域可从第一三维人脸模型中确定一个待调整区域,作为目标调整区域。依据深度方向调整幅度对目标调整区域进行形变处理,可得到第二三维人脸模型。
可选的,在形变处理为调整第一三维人脸模型的形状和/或调整第一三维人脸模型的情况下,依据深度方向调整幅度确定目标区域中像素的转换参数,依据转换参数对目标区域中的像素的坐标进行转换,实现深度方向上的目标调整幅度的形变处理,得到第二三维人脸模型。可选的,在形变处理对第一三维人脸模型的人脸区域进行美颜处理的情况下,依据深度方向调整幅度确定目标区域中像素的像素值调整参数。依据像素值调整参数调整目标区域中像素的像素值,实现深度方向上的目标幅度的形变处理,得到第二三维人脸模型。
可选的,第一调整参数在包括参考调整区域和深度方向调整幅度的同时,还包括水平方向上的调整幅度(下文将水平方向上的调整幅度称为水平方向调整幅度)和/或竖直方向上的调整幅度(下文将竖直方向上的调整幅度称为竖直方向调整幅度)。在第一调整参数包括:参考调整区域、深度方向调整幅度和水平方向调整幅度的情况下,在依据深度方向调整幅度对目标调整区域进行深度方向的形变处理的同时,依据水平方向调整幅度对目标调整区域进行水平方向的形变处理,可得到第二三维人脸模型。在第一调整参数包括:参考调整区域、深度方向调整幅度和竖直方向调整幅度的情况下,在依据深度方向调整幅度对目标调整区域进行深度方向的形变处理的同时,依据竖直方向调整幅度对目标调整区域进行竖直方向的形变处理,可得到第二三维人脸模型。在第一调整参数包括:参考调整区域、深度方向调整幅度、水平方向调整幅度和竖直方向调整幅度的情况下,在依据深度方向调整幅度对目标调整区域进行深度方向的形变处理的同时,依据水平方向调整幅度对目标调整区域进行水平方向的形变处理,并依据竖直方向调整幅度对目标调整区域进行竖直方向的形变处理,可得到第二三维人脸模型。
由于步骤201获得的第一三维人脸模型中包含点的竖坐标信息,在步骤202中对第一三维人脸模型进行形变处理时,可基于竖坐标信息实现第一三维人脸模型在深度方向上的形变。深度方向上的形变可带来深度方向上的整型效果,如:隆鼻、垫下巴、增高苹果肌。通过对第一三维人脸模型进行形变处理,实现第一三维人脸模型在深度方向上的形变,得到的第二三维人脸模型,即为包含深度方向的整型效果的三维人脸模型。
举例来说,某社交网站的注册流程中需要用户上传自己的三维人脸模型。小红在该社交网站注册时,使用手机的摄像头对自己的脸部进行扫描得到第一三维人脸模型,但小红想通过隆鼻让自己的三维人脸模型更好看。小红可通过向手机输入第一调整参数,实现对第一三维人脸模型的形变处理,得到隆鼻后的三维人脸模型(即第二三维人脸模型)。将第二三维人脸模型上传至该社交网络用于注册。
本实施例基于第一三维人脸模型中的三维信息对第一三维人脸模型进行形变处理,可实现第一三维人脸模型在深度方向上的形变,获得深度方向上的整型效果(如:隆鼻、垫下巴、增高苹果肌、祛痘)。
请参阅图3,图3是本申请实施例(二)提供的另一种三维模型处理方法的流程示意图。
301、依据映射关系将上述目标调整幅度转换为目标坐标转换参数。
本实施例中,第一调整参数包括参考调整区域和目标调整幅度。例如,第一调整参数为将苹果肌增高1厘米,其中,苹果肌区域为参考调整区域,目标调整幅度为1厘米。
本实施例中,映射关系用于表征调整幅度与坐标转换参数之间的转换关系。例如,调整幅度与坐标转换参数之间的转换关系可参见下表:
调整幅度 | 坐标转换参数 |
大于或等于0且小于0.5厘米 | 7个像素 |
大于或等于0.5且小于1厘米 | 13个像素 |
大于或等于1厘米 | 18个像素 |
表1
假设目标调整幅度为0.3厘米,依据表1可知:与目标调整幅度对应的目标坐标转换参数为7个像素。
又例如,假设调整幅度为n,坐标转换参数t满足下式:
t=k×n…公式(1)
其中,k为实数。
可选的,坐标转换参数(包括上述目标坐标转换参数)可以是正数(下文将用“+”表示正数),坐标转换参数也可以是负数(下文将用“-”表示负数),坐标转换参数还可以是0。调整幅度(包括上述目标调整幅度)可以是正数,调整幅度也可以是负数,调整幅度还可以是0。调整幅度还携带调整方向的信息,其中,调整方向包括深度方向。例如,在调整幅度为深度方向调整幅度的情况下,调整方向为深度方向。在依据目标调整幅度的绝对值可确定坐标转换参数的绝对值(如表1所示的映射关系)的同时,还可依据目标调整幅度的正负(即目标调整幅度为正数或负数),确定目标坐标转换参数的正负(即目标坐标转换参数为正数或负数)。
在调整幅度为正数,且调整方向为深度方向的情况下,坐标转换参数为正数。例如,第一调整参数为将苹果肌0.6厘米,则目标调整幅度为+0.6厘米,参考调整区域为苹果肌区域,调整方向为深度方向。目标调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和目标调整幅度的绝对值,确定坐标转换参数的绝对值为13个像素。由于调整方向为深度方向且调整幅度为正数,坐标转换参数为正数。因此,坐标转换参数为+13个像素。
在调整幅度为负数,且调整方向为深度方向的情况下,坐标转换参数为负数。例如,第一调整参数为将苹果肌0.6厘米,则目标调整幅度为-0.6厘米,参考调整区域为苹果肌区域,调整方向为深度方向。目标调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和目标调整幅度的绝对值,确定坐标转换参数的绝对值为13个像素。由于调整方向为深度方向且调整幅度为负数,坐标转换参数为负数。因此,坐标转换参数为-13个像素。
由于第一调整参数在包括深度方向调整幅度的同时,还可包括水平方向调整幅度和/或竖直方向调整幅度,调整方向还包括水平方向、竖直方向。例如,在调整幅度为水平方向调整幅度的情况下,调整方向为水平方向。在第一调整参数包括深度方向调整幅度和水平方向调整幅度的情况下,目标坐标转换参数包括深度方向坐标转换参数和水平方向坐标转换参数。在第一调整参数包括深度方向调整幅度和竖直方向调整幅度的情况下,目标坐标转换参数包括深度方向坐标转换参数和竖直方向坐标转换参数。在第一调整参数包括深度方向调整幅度、水平方向调整幅度和竖直方向调整幅度的情况下,目标坐标转换参数包括深度方向坐标转换参数、水平方向坐标转换参数和竖直方向调整幅度。依据深度方向调整幅度,可确定深度坐标转换参数。依据水平方向调整幅度,可确定水平坐标转换参数的绝对值(如依据表1所示的映射关系确定水平坐标转换参数的绝对值),依据水平调整幅度的正负、水平调整方向和参考调整区域在第一三维人脸模型中的位置,确定水平坐标转换参数的正负,从而确定水平坐标转换参数。依据竖直方向调整幅度,可确定竖直坐标转换参数的绝对值(如依据表1所示的映射关系确定竖直坐标转换参数的绝对值),依据竖直调整幅度的正负、竖直调整方向和参考调整区域在第一三维人脸模型中的位置,确定竖直坐标转换参数的正负,从而确定竖直坐标转换参数。在一种可能实现的方式中,在水平调整幅度为正数,且参考调整区域位于左脸区域的情况下,水平坐标转换参数为正数。例如,第一调整参数包括将左脸外扩0.3厘米,则水平调整幅度为+0.3厘米,参考调整区域为左脸区域,调整方向为水平方向。水平调整幅度的绝对值为0.3厘米,可选的,依据表1所示的映射关系和水平调整幅度的绝对值,确定水平坐标转换参数的绝对值为7个像素。由于参考调整区域位于左脸区域,水平坐标转换参数为正数。因此,水平坐标转换参数为+7个像素。
在水平调整幅度为负数,且参考调整区域位于左脸区域的情况下,水平坐标转换参数为负数。例如,第一调整参数包括将左脸缩小0.3厘米,则水平调整幅度为-0.3厘米,参考调整区域为左脸区域,调整方向为水平方向。水平调整幅度的绝对值为0.3厘米,可选的,依据表1所示的映射关系和水平调整幅度的绝对值,确定水平坐标转换参数的绝对值为7个像素。由于参考调整区域位于左脸区域,水平坐标转换参数为负数。因此,水平坐标转换参数为-7个像素。
在水平调整幅度为正数,且参考调整区域位于右脸区域的情况下,水平坐标转换参数为负数。例如,第一调整参数包括将右脸外扩0.3厘米,则水平调整幅度为+0.3厘米,参考调整区域为右脸区域,调整方向为水平方向。水平调整幅度的绝对值为0.3厘米,可选的,依据表1所示的映射关系和水平调整幅度的绝对值,确定水平坐标转换参数的绝对值为7个像素。由于参考调整区域位于右脸区域,水平坐标转换参数为负数。因此,水平坐标转换参数为-7个像素。
在水平调整幅度为负数,且参考调整区域位于右脸区域的情况下,水平坐标转换参数为正数。例如,第一调整参数包括将右脸缩小0.3厘米,则水平调整幅度为-0.3厘米,参考调整区域为右脸区域,调整方向为水平方向。水平调整幅度的绝对值为0.3厘米,可选的,依据表1所示的映射关系和水平调整幅度的绝对值,确定水平坐标转换参数的绝对值为7个像素。由于参考调整区域位于右脸区域,水平坐标转换参数为正数。因此,水平坐标转换参数为+7个像素。
在竖直调整幅度为正数,且参考调整区域位于上半区域的情况下,竖直坐标转换参数为正数。例如,第一调整参数包括将额头的向上外扩0.6厘米,则竖直调整幅度为+0.6厘米,参考调整区域为额头区域,竖直调整方向为竖直方向。竖直调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和竖直调整幅度的绝对值,确定竖直坐标转换参数的绝对值为13个像素。由于参考调整区域位于上半区域,竖直坐标转换参数为正数。因此,竖直坐标转换参数为+13个像素。
在竖直调整幅度为正数,且参考调整区域位于下半区域的情况下,竖直坐标转换参数为负数。例如,第一调整参数包括将下巴的向下扩0.6厘米,则竖直调整幅度为-0.6厘米,参考调整区域为下巴区域,调整方向为竖直方向。竖直调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和竖直调整幅度的绝对值,确定竖直坐标转换参数的绝对值为13个像素。由于参考调整区域位于下半区域,竖直坐标转换参数为负数。因此,竖直坐标转换参数为-13个像素。
在竖直调整幅度为负数,且参考调整区域位于上半区域的情况下,竖直坐标转换参数为负数。例如,第一调整参数包括将额头缩短0.6厘米,则竖直调整幅度为-0.6厘米,参考调整区域为额头区域,调整方向为竖直方向。竖直调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和竖直调整幅度的绝对值,确定竖直坐标转换参数的绝对值为13个像素。由于参考调整区域位于上半区域,竖直坐标转换参数为负数。因此,竖直坐标转换参数为-13个像素。
在竖直调整幅度为负数,且参考调整区域位于下半区域的情况下,竖直坐标转换参数为正数。例如,第一调整参数包括将下巴拉长0.6厘米,则竖直调整幅度为+0.6厘米,参考调整区域为下巴区域,调整方向为竖直方向。竖直调整幅度的绝对值为0.6厘米,可选的,依据表1所示的映射关系和竖直调整幅度的绝对值,确定竖直坐标转换参数的绝对值为13个像素。由于参考调整区域位于下半区域,竖直坐标转换参数为正数。因此,竖直坐标转换参数为+13个像素。
可选的,在获取第一调整参数之前,可对第一人脸图像进行人脸关键点提取处理,得到第一人脸图像中的人脸关键点。依据人脸关键点中的第一关键点的坐标和人脸关键点中的第二关键点的坐标,得到参考距离。显示该参考距离。这样,用户即可依据自身的脸部参数(如眼睛的长度、眼睛的宽度、脸的长度、脸的宽度、鼻子的高度等等)合理设置第一调整参数。因此,获取第一调整参数可包括:接收依据参考距离确定携带深度信息的第二调整参数,作为第一调整参数。
上述人脸关键点提取处理可通过以下任意一种算法实现:OpenFace、多任务级联卷积神经网络(multi-task cascaded convolutional networks,MTCNN)、调整卷积神经网络(tweaked convolutional neural networks,TCNN)、或任务约束深度卷积神经网络(tasks-constrained deep convolutional network,TCDCN),本申请对实现人脸关键点提取处理的人脸关键点检测算法不做限定。
举例来说,小红将自己的照片作为第一人脸图像输入至第一终端。第一终端通过对第一人脸图像进行人脸关键点提取处理,得到小红的左鼻翼关键点(即为上述第一关键点)的坐标和右鼻翼关键点(即为上述第二关键点)的坐标。依据左鼻翼关键点的坐标和左鼻翼关键点的坐标,可得到小红的鼻子的宽度(即为上述参考距离)。第一终端通过显示屏显示小红的鼻子的宽度,以便小红能通过显示屏获知自己的鼻子的宽度。小红可依据鼻子的宽度,确定鼻子增高的幅度,以使增高后的鼻子自然。小红在确定鼻子增高的幅度的后,可将鼻子增高的幅度作为第二调整参数输入至第一终端,以增高鼻子。第一终端将接收到的第二调整参数作为第一调整参数。
302、依据上述参考调整区域从上述第一三维人脸模型中确定目标调整区域。
本实施例中,可将第一三维人脸模型划分为至少一个待调整区域,待调整区域的划分可参见步骤201,此处将不再赘述。上述参考调整区域即为待调整区域中的一个区域。在一种可能实现的方式中,可将参考调整区域作为目标调整区域。
在另一种可能实现的方式中,为方便后续处理,可通过水平面将待调整区域划分为上子区域和下子区域,和/或,可通过竖直面将待调整区域划分为左子区域和右子区域。水平面的纵坐标为待调整区域中纵坐标的最大值与纵坐标最小值的中值。竖直面的横坐标为待调整区域中纵坐标的最大值与纵坐标最小值的中值。例如,待调整区域为额头区域,额头区域内的最大纵坐标为80,最小纵坐标为20,则水平面的纵坐标为:(80-20)/2+20=50。额头区域内的最大横坐标为100,最小纵坐标为10,竖直面的横坐标为:(100-20)/2+20=60。
由于待调整区域为对称区域,可将待调整区域划分为四个子区域,四个子区域分别为:左子区域、右子区域、上子区域、下子区域,其中,左子区域和右子区域关于待调整区域的中心点对称,上子区域和下子区域关于待调整区域的中心点对称。显然,在调整效果确定的情况下,对不同子区域的调整不同。例如,如图4所示,额头区域的水平面将额头区域划分为上子区域和下子区域。将位于左子区域的额头轮廓线称为左轮廓线,将位于右子区域的额头轮廓线称为右轮廓线。将位于上子区域的额头轮廓线称为上轮廓线,将位于下子区域的额头轮廓线称为下轮廓线。若第一调整参数包括将额头缩短0.6厘米,则可将上轮廓线向竖直方向的反方向移动,使额头区域缩短0.6厘米,也可将下轮廓线向竖直方向移动,使额头区域缩短0.6厘米,还可在将上轮廓线向竖直方向的反方向移动的同时,将下轮廓线向竖直方向移动,使额头区域缩短0.6厘米。
因此,需要依据参考调整区域确定与目标坐标转换参数对应的目标调整区域。
举例来说(例1),第一调整参数包括将额头缩短0.8厘米。可将额头区域的上子区域作为目标调整区域,也可将额头区域的下子区域作为目标调整区域,还可将额头区域的上子区域和下子区域均作为目标调整区域。
由于与不同的目标调整区域对应的目标坐标转换参数不同,因此,在又一种依据映射关系将目标调整幅度转换为目标坐标转换参数的实现方式中,在目标坐标转换参数包括水平坐标转换参数的情况下,依据水平调整幅度的绝对值确定水平坐标转换参数的绝对值。依据水平调整幅度的正负、调整方向、参考调整区域在三维人脸模型中的位置和目标调整区域在参考调整区域中的位置(包括目标调整区域位于上子区域还是下子区域),确定水平坐标转换参数的正负。举例来说(例2),在例1中,若目标调整区域为上子区域,可通过将上轮廓线向竖直方向的反方向移动,即将上轮廓线上的像素的坐标减小,实现将额头缩短0.8厘米的效果。因此,目标坐标转换参数为负。在又一种依据映射关系将目标调整幅度转换为目标坐标转换参数的实现方式中,在目标坐标转换参数包括竖直坐标转换参数的情况下,依据竖直调整幅度的绝对值确定竖直坐标转换参数的绝对值。依据竖直调整幅度的正负、调整方向、参考调整区域在三维人脸模型中的位置和目标调整区域在参考调整区域中的位置(包括目标调整区域位于左子区域还是右子区域),确定竖直坐标转换参数的正负。
需要理解的是,步骤301与步骤302的执行顺序并无先后关系,在实施本申请实施例提供的技术方案过程中,可先执行步骤301再执行步骤302,也可先执行步骤302再执行步骤301,还可同时执行步骤301和步骤302。
303、依据上述目标坐标转换参数对上述目标调整区域中的像素的坐标进行转换,得到第二三维人脸模型。
在一种可能实现的方式中,在第一调整参数包括水平调整幅度和/或竖直调整幅度的情况下,将目标调整区域的轮廓线称为目标轮廓线。将目标轮廓线上的像素的坐标与目标坐标转换参数相加,可实现对第一三维人脸模型的形变处理,得到第二三维人脸模型。例如,在例1中,目标轮廓线(即为上述上轮廓线)上的像素的纵坐标与目标坐标转换参数相加,即可实现将额头缩短0.8厘米(即完成对第一三维人脸模型的形变处理),得到第二三维人脸模型。
在另一种可能实现的方式中,将目标调整区域中的像素的坐标与目标坐标转换参数相加,可实现对第一三维人脸模型的形变处理,得到第二三维人脸模型。例如,第一调整参数为将苹果肌增高0.7厘米。依据步骤201和步骤202确定的目标坐标转换参数为+10个像素,目标区域为苹果肌区域。将苹果肌区域内的像素的竖坐标加上10个像素,可实现对第一三维人脸模型的形变处理,得到第二三维人脸模型。
本实施例依据目标调整幅度确定目标坐标转换参数,依据参考调整区域确定目标区域。依据目标坐标转换参数对目标区域进行调整,可实现对第一三维人脸模型在任意方向(包括水平方向、竖直方向和深度方向)上的形变处理,得到第二三维人脸模型。这样,可通过调整第一调整参数,获得不同的形变效果。
在实施例(二)中,第一调整参数为用户设置的,即实施例(二)提供的技术方案需要通过用户手动设置第一调整参数实现。为此,本申请实施例还提供了一种由第一终端设置第一调整参数的技术方案。
请参阅图5,图5为本申请实施例(三)提供另一种三维模型处理方法的流程示意图。
501、获取第一人脸图像。
本实施例中,第一人脸图像为包含人脸的图像。
获取第一人脸图像的方式可以是接收用户通过输入组件输入的第一人脸图像,其中,输入组件包括:键盘、鼠标、触控屏、触控板和音频输入器等。获取第一人脸图像的方式也可以是接收第二终端发送的第一人脸图像,其中,第二终端包括手机、计算机、平板电脑、服务器等。获取第一人脸图像还可以是第一终端通过摄像头采集获得,例如,第一终端为手机,将通过手机的摄像头拍摄获得的人脸图像作为第一人脸图像。获取第一人脸图像的方式还可以是:从视频流中截取的一帧包含人脸的图像,作为第一人脸图像。本申请对获取第一人脸图像的方式不做限定。
502、对上述第一人脸图像进行特征提取处理,得到第一特征数据。
本实施例中,上述特征提取处理可通过预先训练好的神经网络实现,也可通过特征提取模型实现,本申请对此不做限定。通过对第一人脸图像进行特征提取处理可,得到第一人脸图像的特征数据。第一特征数据包含第一人脸图像的语义信息,该语义信息可用于描述第一人脸图像的内容。
在一些可能的实现方式中,通过多层任意堆叠的卷积层对第一人脸图像逐层进行卷积处理完成对第一人脸图像的特征提取处理,其中,每个卷积层提取出的特征内容及语义信息均不一样,具体表现为,特征提取处理一步步地将第一人脸图像的特征抽象出来,同时也将逐步去除相对次要的特征数据。因此,越到后面提取出的特征数据的尺寸越小,但特征数据中的内容及语义信息越浓缩。通过多层卷积层逐级对第一人脸图像进行卷积处理,并提取相应的特征数据,这样,可在获得第一人脸图像的语义信息的同时,将第一人脸图像尺寸缩小,减小系统的计算量,提高运算速度。
503、依据上述第一特征数据,确定上述第一人脸图像中的人物属性。
本申请实施例中,人物属性可包括:脸型、性别、发型、发色、年龄、人种。可选的,脸型可包括:长形脸、方形脸、圆形脸。性别包括:男、女。发型包括:长发、短发、光头。发色包括:黑色、白色、红色、橙色、黄色、绿色、蓝色、紫色、棕色。年龄包括以下6个年龄段:1~10岁、15~20岁、21~30岁、31~43岁、44~60岁、60岁以上。人种包括:黄色人种、白色人种、黑色人种、棕色人种。
第一特征数据中包含第一人脸图像的语义信息,依据该语义信息可确定第一人脸图像中的人物属性。例如,第一人脸图像a的第一特征数据为b,依据第一特征数据b确定第一人脸图像中的人物属性为:长形脸、女、黑色短发、处于21~30岁之间、黄色人种。
504、依据上述人物属性,确定上述第一调整参数。
由于不同的人脸所需的形变效果不同,在依据第一调整参数对第一三维人脸模型进行形变处理之前,可依据人物属性确定第一调整参数。
在一种可能实现的方式中,依据人物属性,可确定形变效果。例如,若第一人脸图像中的人脸的脸型为方形脸,可通过使太阳穴丰满、使下颌角变宽等方式使调整第一人脸图像中的人脸,使第一人脸图像中的人脸的脸型更接近于标准脸型。若第一人脸图像中的人脸的脸型为长形脸,可通过使太阳穴丰满、使下巴变短等方式使调整第一人脸图像中的人脸,使第一人脸图像中的人脸的脸型更接近于标准脸型。又例如,若第一人脸图像中的人物处于21~30岁,皮肤状态好,因此对第一人脸图像中的人脸的调整应该侧重于面部轮廓以及五官。若第一人脸图像中的人物处于31~43岁,皮肤逐渐衰老,因此对第一人脸图像中的人脸的调整应该侧重于改善皮肤。
在确定形变效果后,可依据形变效果确定第一调整参数。例如,形变效果为使太阳穴丰满,可确定第一调整参数为将太阳穴区域增高1厘米。又例如,形变效果为使下巴变短,可确定第一调整参数为将下巴缩短2厘米。再例如,形变效果为隆鼻,可确定第一调整参数为将鼻子增高1厘米。
本实施例中,通过对第一人脸图像进行特征提取处理,得到第一特征数据。依据第一特征数据得到第一人脸图像的人物属性,进而依据人物属性确定第一调整参数,从而实现由第一终端确定第一调整参数,而不需用户设置第一调整参数,简化了用户的操作流程,提高了操作效率。
请参阅图6,图6是本申请实施例(四)提供的步骤201的一种可能实现的方法的流程示意图。
601、获取第一人脸图像和第一人脸图像的深度图像。
本实施例的执行主体为第一终端。第一人脸图像的深度图像包含第一人脸图像中的像素的深度信息。
获取第一人脸图像的方式可参见步骤501,此处将不再赘述。
获取深度图像的方式可以是通过深度摄像头拍摄获得,其中,深度摄像头可以是以下任意一种:结构光(structured light)摄像头、TOF摄像头、双目立体视觉(binocularstereo vision)摄像头。获取深度图像的方式也可以是接收用户通过输入组件输入的深度图像。获取深度图像的方式还可以是接收第三终端发送的深度图像,其中,第三终端包括手机、计算机、平板电脑、服务器等。本实施例中,第三终端与第二终端可以相同,也可以不同。
在一种可能实现的方式中,第一终端为手机。手机上装载有RGB摄像头和TOF摄像头。手机使用RGB摄像头对人脸进行拍摄获得第一人脸图像。在RGB摄像头拍摄获得第一人脸图像的同时,手机使用TOF摄像头对人脸进行拍摄获得深度图像。
602、依据上述第一人脸图像和上述深度图像,得到上述第一三维人脸模型。
上述第一人脸图像包含像素的二维位置信息(包括上述横坐标信息和纵坐标信息)。深度图像包含像素的深度信息(包括上述竖坐标信息)。将第一人脸图像中的二维位置信息和深度图像中的深度信息融合,可得到第一三维人脸模型。
在一种可能实现的方式中,依据人脸关键点(获取人脸关键点的方式可参见步骤301)可确定以下信息:三维人脸模型的轮廓、五官的轮廓、五官在三维人脸模型中的位置,得到人脸轮廓模型。依据深度图像中的深度信息,可确定人脸轮廓模型中的人脸关键点的深度信息,进而得到第三三维人脸模型。由于第三三维人脸模型中不包含人脸纹理信息,第三三维人脸模型为三维人脸白模(如图7所示,图7为一个三维人脸白模)。将第一人脸图像中人脸纹理数据和第三三维人脸模型融合,可得到具有纹理信息的三维人脸模型,即第一三维人脸模型。
本实施例中,通过RGB摄像头采集得到第一人脸图像,并通过深度摄像头采集得到深度图像。依据第一人脸图像和深度图像得到第一三维人脸模型。由于RGB摄像头和深度摄像头可集成于移动终端(如手机、平板电脑、笔记本电脑),基于本实施例提供的技术方案可实现通过移动终端得到第一三维人脸模型。将本实施例与实施例(一)以及实施例(二)结合,可实现通过移动终端实现得到任意人物的三维人脸模型,并通过移动终端实现对该三维人脸模型的形变处理。
基于实施例(一)、实施例(二)、实施例(三)和实施例(四)提供的技术方案,本申请实施例还提供了几种可能的应用场景。
场景A:随着移动终端的普及,以及互联网技术的快速发展,越来越多的人们使用移动终端进行视频通话。基于本申请实施例提供的技术方案可实现对视频中的人脸的形变处理,以改善视频中的人物的形象。
请参阅图8,图8为本申请实施例提供的一种对视频中的图像进行形变处理的流程示意图。
801、获取第二人脸图像。
本申请实施例中,第二人脸图像可以是视频流中的任意一帧包含人脸的图像。获取第二人脸图像的方式可以是从视频流中截取一帧包含人脸的图像作为第二人脸图像。
802、对上述第二人脸图像进行特征提取处理,得到第二特征数据。
本步骤中的特征提取处理可参见步骤502,此处将不再赘述。
通过对第二人脸图像进行特征提取处理,可得到第二特征数据,其中,第二特征数据包含第二人脸图像的语义信息。
803、在上述第一特征数据与上述第二特征数据匹配的情况下,依据上述第二三维人脸模型,调整上述第二人脸图像中的人脸区域。
本申请实施例中,在第一特征数据与第二特征数据匹配的情况下,表征第一人脸图像中的人物与第二人脸图像中的人物为同一个人。因此,可依据第二三维人脸模型,调整第二人脸图像中的人脸区域,达到对第二人脸图像中的人脸进行形变处理的效果。
在一种确定第一特征数据与第二特征数据是否匹配的实现方式中,将第一特征数据输入至分类器,得到第一结果。将第二特征数据输入至分类器,得到第二结果。第一结果用于表征第一人脸图像中的人物的身份,第二结果用于表征第二人脸图像中的人物的身份。在第一结果与第二结果相同的情况下,确定第一特征数据与第二特征数据匹配。上述分类器可以是以下任意一种:支持向量机(support vector machine,SVM)、决策树分类器、选择树分类器、softmax函数。本申请对分类器的具体形式不做限定。
在另一种确定第一特征数据与第二特征数据是否匹配的实现方式中,计算第一特征数据与第二特征数据之间的相似度,得到结果相似度。在结果相似度大于或等于相似度阈值的情况下,确定第一特征数据与第二特征数据匹配。上述相似度可以是以下任意一种:余弦相似度、瓦瑟斯坦距离(wasserstein metric)、欧式距离(euclidean)、JS散度(jensen–shannon divergence)。本申请对相似度的具体形式不做限定。
由于第二人脸图像为二维图像,第二三维人脸模型为三维图像,依据第二三维人脸模型,调整第二人脸图像中的人脸区域时,需要将第二三维人脸模型中的三维数据转换为二维数据。在一种可能实现的方式中,将第二三维人脸模型中的待调整区域内任意一个区域作为第一目标区域。从第二人脸图像中确定与第一目标区域对应的区域,作为第二目标区域。例如,第一目标区域为第二三维人脸模型中的苹果肌区域,则第二目标区域为第二人脸图像中的苹果肌区域。
由于第一目标区域为三维区域,第二目标区域为二维区域,第一目标区域中的点的数量大于第二目标区域中的像素的数量。这样,第二目标区域中的每一个像素均与第一目标区域中的至少一个像素之间具有参考映射关系。
在一种可能实现的方式中,可通过将第二三维人脸模型投影至第二人脸图像,得到上述参考映射关系。将第一目标区域中的像素称为参考像素,将与参考像素具有参考映射关系的至少一个像素称为参考像素集。依据参考像素集中的至少一个像素的三维位置信息,确定参考像素的位置信息。依据第二目标区域中每个参考像素的位置信息对第二目标区域进行形变处理,实现对第二人脸图像的人脸区域的形变处理。例如,第一目标区域中的像素a、像素b与第二目标区域中的像素c点具有参考映射关系。像素a的横坐标为10,像素a的纵坐标为20,像素a的竖坐标为16,像素b的横坐标为12,像素b的纵坐标为24,像素c的竖轴坐标为20。依据像素a的横坐标和像素b的横坐标可确定像素c的横坐标,可选的,将像素a的横坐标与像素c的横坐标的中值作为像素c的横坐标,即像素c的横坐标为:10+(12-10)/2=11。同理,可依据像素a的纵坐标和像素b的纵坐标确定像素c的纵坐标,依据像素a的竖轴坐标和像素b的竖轴坐标确定像素c的竖坐标。
由于第二三维人脸模型通过对第一三维人脸模型进行形变处理得到,而第一三维人脸模型中的像素的数量比第二人脸图像中的像素的数量多,通过在第二三维人脸模型中的像素与第二人脸图像中的像素之间建立参考映射关系,再依据参考映射关系实现对第二人脸图像的形变处理,可使形变处理后的第二人脸图像中的人脸区域更平滑,形变效果更自然。
在另一种可能实现的方式中,依据第二人脸图像和第二人脸图像的深度图像,得到第四三维人脸模型。依据第二三维人脸模型,对第四三维人脸模型进行形变处理,得到第五三维人脸模型。依据第五三维人脸模型,得到第三人脸图像,其中,第三人脸图像即为调整第二人脸图像中的人脸区域后的图像。例如,假设第二三维人脸模型的鼻子高度比第四三维人脸模型的鼻子高度高0.4厘米,可通过对第四三维人脸模型进行形变处理,增高第四三维人脸模型的鼻子高度,使形变处理后的鼻子高度与第二三维人脸模型的鼻子高度之间的差小于或等于参考阈值,得到第五三维人脸模型。其中,参考阈值可依据用户的需求进行调整。
场景B:由于无法实现对三维人脸模型的形变,在医疗美容机构进行咨询时,患者通常通过语言描述自己的整型需求。这种方式易让医生错误的理解患者的整形需求,进而导致整型效果不佳。基于本申请实施例提供的技术方案,医生可使用移动终端获得患者的三维人脸模型(下文将称为参考三维人脸模型)。患者可通过向移动终端输入调整参数实现对参考三维人脸模型的形变处理,得到形变处理后的参考三维人脸模型。患者进而将形变处理后的参考三维人脸模型作为自身的整型需求。在该过程中,患者可通过更改调整参数,获得不同的形变处理后的参考三维人脸模型,并选择最满意的形变处理后的参考三维人脸模型作为整型需求。
由于本申请实施例提供的技术方案可基于移动终端实现,使用本申请实施例提供的技术方案具有成本低、操作简单、普适性强等优势。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
上述详细阐述了本申请实施例的方法,下面提供了本申请实施例的装置。
请参阅图9,图9为本申请实施例提供的一种三维模型处理装置的结构示意图,该装置1包括:获取单元11、形变处理单元12、人脸关键点提取处理单元13、处理单元14、显示单元15、第一特征提取处理单元16、第二特征提取处理单元17以及替换单元18,其中:
获取单元11,用于获取携带深度信息的第一调整参数和第一三维人脸模型;
形变处理单元12,用于依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
结合本申请任一实施方式,所述第一调整参数包括参考调整区域和深度方向上的目标调整幅度,所述形变处理单元12,用于:
依据所述参考调整区域从所述第一三维人脸模型中确定目标调整区域;
依据所述目标调整幅度对所述目标调整区域进行形变处理,得到所述第二三维人脸模型。
结合本申请任一实施方式,所述形变处理单元12,用于:
依据映射关系将所述目标调整幅度转换为目标坐标转换参数,所述映射关系用于表征调整幅度与坐标转换参数之间的转换关系;
依据所述目标坐标转换参数对所述目标调整区域中的像素的坐标进行转换,得到所述第二三维人脸模型。
结合本申请任一实施方式,所述获取单元11,用于:
获取第一人脸图像和所述第一人脸图像的深度图像;
依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型。
结合本申请任一实施方式,所述装置1还包括:
人脸关键点提取处理单元13,用于在所述获取携带深度信息的第一调整参数之前,对所述第一人脸图像进行人脸关键点提取处理,得到所述第一人脸图像中的人脸关键点;
处理单元14,用于依据第一关键点的坐标和第二关键点的坐标,得到参考距离,所述第一关键点和所述第二关键点属于所述人脸关键点;
显示单元15,用于显示所述参考距离;
所述获取单元11,用于:
接收依据所述参考距离确定的携带深度信息的第二调整参数,作为所述第一调整参数。
结合本申请任一实施方式,所述第一人脸图像包括人脸纹理数据,所述获取单元11,用于:
依据所述人脸关键点和所述深度图像,得到第三三维人脸模型;
依据所述人脸纹理数据和所述第三三维人脸模型,得到所述第一三维人脸模型。
结合本申请任一实施方式,所述装置1还包括:
第一特征提取处理单元16,用于在所述获取携带深度信息的第一调整参数之前,对所述第一人脸图像进行特征提取处理,得到第一特征数据;
所述获取单元11,用于:
依据所述第一特征数据,确定所述第一人脸图像中的人物属性;
依据所述人物属性,确定所述第一调整参数。
结合本申请任一实施方式,所述获取单元11,还用于获取第二人脸图像,所述第二人脸图像与所述第一人脸图像不同;
所述装置1还包括:
第二特征提取处理单元17,用于对所述第二人脸图像进行特征提取处理,得到第二特征数据;
替换单元18,用于在所述第一特征数据与所述第二特征数据匹配的情况下,依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域。
结合本申请任一实施方式,所述替换单元18,用于:
在所述第一特征数据与所述第二特征数据匹配的情况下,从所述第二三维人脸模型中确定与所述人脸区域中的目标像素对应的至少一个像素;
依据所述至少一个像素的三维位置信息,确定所述目标像素的二维位置信息;
依据所述二维位置信息,调整所述目标像素的位置。
本实施例基于第一三维人脸模型中的三维信息对第一三维人脸模型进行形变处理,可实现第一三维人脸模型在深度方向上的形变,获得深度方向上的整型效果(如:隆鼻、垫下巴、增高苹果肌、祛痘)。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
图10为本申请实施例提供的一种三维模型处理装置的硬件结构示意图。该三维模型处理装置2包括处理器21,存储器22,输入装置23,输出装置24。该处理器21、存储器22、输入装置23和输出装置24通过连接器相耦合,该连接器包括各类接口、传输线或总线等等,本申请实施例对此不作限定。应当理解,本申请的各个实施例中,耦合是指通过特定方式的相互联系,包括直接相连或者通过其他设备间接相连,例如可以通过各类接口、传输线、总线等相连。
处理器21可以是一个或多个图形处理器(graphics processing unit,GPU),在处理器21是一个GPU的情况下,该GPU可以是单核GPU,也可以是多核GPU。可选的,处理器21可以是多个GPU构成的处理器组,多个处理器之间通过一个或多个总线彼此耦合。可选的,该处理器还可以为其他类型的处理器等等,本申请实施例不作限定。
存储器22可用于存储计算机程序指令,以及用于执行本申请方案的程序代码在内的各类计算机程序代码。可选地,存储器包括但不限于是随机存储记忆体(random accessmemory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasableprogrammable read only memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CD-ROM),该存储器用于相关指令及数据。
输入装置23用于输入数据和/或信号,以及输出装置24用于输出数据和/或信号。输入装置23和输出装置24可以是独立的器件,也可以是一个整体的器件。
可理解,本申请实施例中,存储器22不仅可用于存储相关指令,还可用于存储相关数据,如该存储器22可用于存储通过输入装置23获取的第一调整参数和第一三维人脸模型,又或者该存储器22还可用于存储通过处理器21得到的第二三维人脸模型等等,本申请实施例对于该存储器中具体所存储的数据不作限定。
可以理解的是,图10仅仅示出了一种三维模型处理装置的简化设计。在实际应用中,三维模型处理装置还可以分别包含必要的其他元件,包含但不限于任意数量的输入/输出装置、处理器、存储器等,而所有可以实现本申请实施例的三维模型处理装置都在本申请的保护范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。所属领域的技术人员还可以清楚地了解到,本申请各个实施例描述各有侧重,为描述的方便和简洁,相同或类似的部分在不同实施例中可能没有赘述,因此,在某一实施例未描述或未详细描述的部分可以参见其他实施例的记载。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者通过所述计算机可读存储介质进行传输。所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(digital subscriberline,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,数字通用光盘(digital versatiledisc,DVD))、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:只读存储器(read-only memory,ROM)或随机存储存储器(random access memory,RAM)、磁碟或者光盘等各种可存储程序代码的介质。
Claims (13)
1.一种三维模型处理方法,其特征在于,所述方法包括:
获取携带深度信息的第一调整参数和第一三维人脸模型;
依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
2.根据权利要求1所述的方法,其特征在于,所述第一调整参数包括参考调整区域和深度方向上的目标调整幅度,所述依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型,包括:
依据所述参考调整区域从所述第一三维人脸模型中确定目标调整区域;
依据所述目标调整幅度对所述目标调整区域进行形变处理,得到所述第二三维人脸模型。
3.根据权利要求2所述的方法,其特征在于,所述依据所述目标调整幅度对所述待调整区域进行形变处理,得到所述第二三维人脸模型,包括:
依据映射关系将所述目标调整幅度转换为目标坐标转换参数,所述映射关系用于表征调整幅度与坐标转换参数之间的转换关系;
依据所述目标坐标转换参数对所述目标调整区域中的像素的坐标进行转换,得到所述第二三维人脸模型。
4.根据权利要求2或3所述的方法,其特征在于,所述获取第一三维人脸模型,包括:
获取第一人脸图像和所述第一人脸图像的深度图像;
依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型。
5.根据权利要求4所述的方法,其特征在于,在所述获取携带深度信息的第一调整参数之前,所述方法还包括:
对所述第一人脸图像进行人脸关键点提取处理,得到所述第一人脸图像中的人脸关键点;
依据第一关键点的坐标和第二关键点的坐标,得到参考距离,所述第一关键点和所述第二关键点属于所述人脸关键点;
显示所述参考距离;
所述获取携带深度信息的第一调整参数,包括:
接收依据所述参考距离确定的携带深度信息的第二调整参数,作为所述第一调整参数。
6.根据权利要求5所述的方法,其特征在于,所述第一人脸图像包括人脸纹理数据,所述依据所述第一人脸图像和所述深度图像,得到所述第一三维人脸模型,包括:
依据所述人脸关键点和所述深度图像,得到第三三维人脸模型;
依据所述人脸纹理数据和所述第三三维人脸模型,得到所述第一三维人脸模型。
7.根据权利要求4所述的方法,其特征在于,在所述获取携带深度信息的第一调整参数之前,所述方法还包括:
对所述第一人脸图像进行特征提取处理,得到第一特征数据;
所述获取携带深度信息的第一调整参数,包括:
依据所述第一特征数据,确定所述第一人脸图像中的人物属性;
依据所述人物属性,确定所述第一调整参数。
8.根据权利要求4至7中任意一项所述的方法,其特征在于,所述方法还包括:
获取第二人脸图像,所述第二人脸图像与所述第一人脸图像不同;
对所述第二人脸图像进行特征提取处理,得到第二特征数据;
在所述第一特征数据与所述第二特征数据匹配的情况下,依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域。
9.根据权利要求8所述的方法,其特征在于,所述依据所述第二三维人脸模型,调整所述第二人脸图像中的人脸区域,包括:
在所述第一特征数据与所述第二特征数据匹配的情况下,从所述第二三维人脸模型中确定与所述人脸区域中的目标像素对应的至少一个像素;
依据所述至少一个像素的三维位置信息,确定所述目标像素的二维位置信息;
依据所述二维位置信息,调整所述目标像素的位置。
10.一种三维模型处理装置,其特征在于,所述装置包括:
获取单元,用于获取携带深度信息的第一调整参数和第一三维人脸模型;
形变处理单元,用于依据所述第一调整参数对所述第一三维人脸模型进行形变处理,得到第二三维人脸模型。
11.一种处理器,其特征在于,所述处理器用于执行如权利要求1至9中任意一项所述的方法。
12.一种电子设备,其特征在于,包括:处理器、发送装置、输入装置、输出装置和存储器,所述存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述处理器执行所述计算机指令时,所述电子设备执行如权利要求1至9中任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被电子设备的处理器执行时,使所述处理器执行权利要求1至9中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086649.5A CN111311733A (zh) | 2020-02-11 | 2020-02-11 | 三维模型处理方法及装置、处理器、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010086649.5A CN111311733A (zh) | 2020-02-11 | 2020-02-11 | 三维模型处理方法及装置、处理器、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111311733A true CN111311733A (zh) | 2020-06-19 |
Family
ID=71161802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010086649.5A Pending CN111311733A (zh) | 2020-02-11 | 2020-02-11 | 三维模型处理方法及装置、处理器、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111311733A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581598A (zh) * | 2020-12-04 | 2021-03-30 | 深圳市慧鲤科技有限公司 | 三维模型构建方法、装置、设备及存储介质 |
CN113427486A (zh) * | 2021-06-18 | 2021-09-24 | 上海非夕机器人科技有限公司 | 机械臂控制方法、装置、计算机设备、存储介质和机械臂 |
CN114049472A (zh) * | 2021-11-15 | 2022-02-15 | 北京百度网讯科技有限公司 | 三维模型调整方法、装置、电子设备、介质 |
CN116704140A (zh) * | 2023-08-08 | 2023-09-05 | 江西求是高等研究院 | 一种人体三维重建方法、系统、计算机及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN108447017A (zh) * | 2018-05-31 | 2018-08-24 | Oppo广东移动通信有限公司 | 人脸虚拟整容方法和装置 |
CN110688948A (zh) * | 2019-09-26 | 2020-01-14 | 北京百度网讯科技有限公司 | 视频中人脸性别变换方法、装置、电子设备和存储介质 |
-
2020
- 2020-02-11 CN CN202010086649.5A patent/CN111311733A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107730445A (zh) * | 2017-10-31 | 2018-02-23 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质和电子设备 |
CN108447017A (zh) * | 2018-05-31 | 2018-08-24 | Oppo广东移动通信有限公司 | 人脸虚拟整容方法和装置 |
CN110688948A (zh) * | 2019-09-26 | 2020-01-14 | 北京百度网讯科技有限公司 | 视频中人脸性别变换方法、装置、电子设备和存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581598A (zh) * | 2020-12-04 | 2021-03-30 | 深圳市慧鲤科技有限公司 | 三维模型构建方法、装置、设备及存储介质 |
CN113427486A (zh) * | 2021-06-18 | 2021-09-24 | 上海非夕机器人科技有限公司 | 机械臂控制方法、装置、计算机设备、存储介质和机械臂 |
CN114049472A (zh) * | 2021-11-15 | 2022-02-15 | 北京百度网讯科技有限公司 | 三维模型调整方法、装置、电子设备、介质 |
CN116704140A (zh) * | 2023-08-08 | 2023-09-05 | 江西求是高等研究院 | 一种人体三维重建方法、系统、计算机及存储介质 |
CN116704140B (zh) * | 2023-08-08 | 2023-10-20 | 江西求是高等研究院 | 一种人体三维重建方法、系统、计算机及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807836B (zh) | 三维人脸模型的生成方法、装置、设备及介质 | |
CN109359538B (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
CN111311733A (zh) | 三维模型处理方法及装置、处理器、电子设备及存储介质 | |
US11043011B2 (en) | Image processing method, apparatus, terminal, and storage medium for fusing images of two objects | |
CN108846793B (zh) | 基于图像风格转换模型的图像处理方法和终端设备 | |
CN111754415B (zh) | 人脸图像处理方法及装置、图像设备及存储介质 | |
CN108012081B (zh) | 智能美颜方法、装置、终端和计算机可读存储介质 | |
US11900557B2 (en) | Three-dimensional face model generation method and apparatus, device, and medium | |
CN110688948B (zh) | 视频中人脸性别变换方法、装置、电子设备和存储介质 | |
US11238569B2 (en) | Image processing method and apparatus, image device, and storage medium | |
WO2021143282A1 (zh) | 三维人脸模型生成方法、装置、计算机设备及存储介质 | |
CN113362263B (zh) | 变换虚拟偶像的形象的方法、设备、介质及程序产品 | |
CN108629339A (zh) | 图像处理方法及相关产品 | |
CN109147012B (zh) | 图像处理方法和装置 | |
US11769286B2 (en) | Beauty processing method, electronic device, and computer-readable storage medium | |
CN110838084A (zh) | 一种图像的风格转移方法、装置、电子设备及存储介质 | |
CN109242760B (zh) | 人脸图像的处理方法、装置和电子设备 | |
CN111597928A (zh) | 三维模型处理方法及装置、电子设备、存储介质 | |
CN113327191A (zh) | 人脸图像合成方法及装置 | |
CN113658035A (zh) | 脸部变换方法、装置、设备、存储介质以及产品 | |
CN111597926A (zh) | 图像处理方法及装置、电子设备及存储介质 | |
CN110321009B (zh) | Ar表情处理方法、装置、设备和存储介质 | |
US20220277586A1 (en) | Modeling method, device, and system for three-dimensional head model, and storage medium | |
CN113920023A (zh) | 图像处理方法及装置、计算机可读介质和电子设备 | |
CN112950641A (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200619 |