CN108876886A - 图像处理方法、装置和计算机设备 - Google Patents
图像处理方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN108876886A CN108876886A CN201710322668.1A CN201710322668A CN108876886A CN 108876886 A CN108876886 A CN 108876886A CN 201710322668 A CN201710322668 A CN 201710322668A CN 108876886 A CN108876886 A CN 108876886A
- Authority
- CN
- China
- Prior art keywords
- head
- image
- texture image
- head model
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 230000001815 facial effect Effects 0.000 claims abstract description 166
- 238000013507 mapping Methods 0.000 claims abstract description 130
- 230000004927 fusion Effects 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 23
- 210000003128 head Anatomy 0.000 description 593
- 238000010586 diagram Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 14
- 239000006185 dispersion Substances 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000035772 mutation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012876 topography Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 108091001599 RGB-10 Proteins 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种图像处理方法、装置和计算机设备,所述方法包括:获取二维面部图像;映射所述二维面部图像为头部纹理图像;获取与三维头部模型对应的头部模型纹理图像;将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配;按照所述头部模型纹理图像中面部区域的位置,将所述头部纹理图像的面部区域拼接到所述头部模型纹理图像中;融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘;将融合得到的所述头部模型纹理图像贴图至所述三维头部模型。本申请提供的方案提高了处理得到的三维头部模型的辨识度。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种图像处理方法、装置和计算机设备。
背景技术
随着计算机技术的发展,虚拟现实以计算机技术为核心,结合相关科学技术,通过计算机创建三维头部模型构建虚拟现实场景来模拟现实世界中的场景。用户可以与虚拟现实场景中的三维头部模型互动来完成交互过程。
传统的图像处理方法大都是基于相同的模型纹理图像贴图得到三维头部模型。但这种方式得到的三维头部模型的辨识度低,在面对包括大量三维头部模型的复杂虚拟现实场景时,按照传统方式贴图得到的三维头部模型已无法满足用户在进行交互过程中的需求。
发明内容
基于此,有必要针对传统的图像处理方法得到的三维头部模型辨识度低的问题,提供一种图像处理方法、装置和计算机设备。
一种图像处理方法,所述方法包括:
获取二维面部图像;
映射所述二维面部图像为头部纹理图像;
获取与三维头部模型对应的头部模型纹理图像;
将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配;
按照所述头部模型纹理图像中面部区域的位置,将所述头部纹理图像的面部区域拼接到所述头部模型纹理图像中;
融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘;
将融合得到的所述头部模型纹理图像贴图至所述三维头部模型。
一种图像处理装置,所述装置包括:
第一获取模块,用于获取二维面部图像;
映射模块,用于映射所述二维面部图像为头部纹理图像;
第二获取模块,用于获取与三维头部模型对应的头部模型纹理图像;
调整模块,用于将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配;
融合模块,用于按照所述头部模型纹理图像中面部区域的位置,将所述头部纹理图像的面部区域拼接到所述头部模型纹理图像中;融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘;
贴图模块,用于将融合得到的所述头部模型纹理图像贴图至所述三维头部模型。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行图像处理方法的步骤。
上述图像处理方法、装置和计算机设备,在获取到二维面部图像后,即可将二维面部图像映射为头部纹理图像,然后将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。而且,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。
附图说明
图1为一个实施例中图像处理方法的应用环境图;
图2为一个实施例中用于实现图像处理方法的计算机设备的内部结构示意图;
图3为一个实施例中图像处理方法的流程示意图;
图4为一个实施例中二维面部图像的二维特征点的示意图;
图5为一个实施例中调整头部纹理图像的亮度至与头部模型纹理图像的亮度相匹配的步骤的流程示意图;
图6为一个实施例中亮度调整原理示意图;
图7为一个实施例中亮度调整前后的图像对比示意图;
图8为一个实施例中将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配的步骤的流程示意图;
图9为一个实施例中像素颜色值调整前后的图像对比示意图;
图10为一个实施例中图像融合的原理示意图;
图11为另一个实施例中图像处理方法的流程示意图;
图12为一个实施例中图像处理装置的结构框图;
图13为另一个实施例中图像处理装置的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中图像处理方法的应用环境图。参照图1,该图像处理方法应用于图像处理系统。图像处理系统包括终端110和服务器120。终端110和服务器120可以通过网络进行通信。终端110具体可以是台式终端或移动终端,移动终端具体可以手机、平板电脑、笔记本电脑等中的至少一种。服务器120具体可以是独立的物理服务器,也可以是物理服务器集群。终端110可以向服务器120发送头部模型纹理图像获取请求、发送二维面部图像等,服务器120可以向终端110发送头部模型纹理图像等。图像形变处理的方法可以在终端或服务器上实施。
图2为一个实施例中计算机设备的内部结构示意图。该计算机设备可以是图1中的终端110或者服务器120。如图2所示,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口和输入装置。其中,计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器实现一种图像处理方法。该处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机可读指令,该计算机可读指令被所述处理器执行时,可使得所述处理器执行一种图像处理方法。网络接口用于与其他计算机设备进行网络通信。输入装置可以是显示屏上覆盖的触摸层,也可以是终端外壳上设置的按键、轨迹球或触控板,也可以是外接的键盘、触控板或鼠标等。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图3所示,在一个实施例中,提供了一种图像处理方法。本实施例主要以该方法应用于上述图2中的计算机设备来举例说明。参照图3,该图像处理方法具体包括如下步骤:
S302,获取二维面部图像。
其中,二维面部图像是指至少包括一个面部区域的二维图像。二维面部图像还可以包括身体的其它部分,比如带有面部区域的半身照片或者带有面部区域的全身照片等。面部区域可以是人脸面部区域或者动物面部区域等。
在一个实施例中,计算机设备具体可以是终端。二维面部图像可以是终端通过摄像头实时拍摄的图像,也可以是终端预先存储的图像,还可以是从服务器实时获取的图像。具体地,终端可获取用户的操控指令,从而根据操控指令采集二维面部图像,其中操控指令可通过按压物理按键、触控操作或者声控等方式触发。
在一个实施例中,计算机设备也可以是服务器。二维面部图像可以是服务器从互联网中实时爬取的图像,也可以是服务器预先存储的图像,还可以是终端实时发送的图像。具体地,终端可以实时采集图像并对采集的图像进行面部检测,若检测到面部则将检测到面部的图像作为二维面部图像上传到服务器。
S304,映射二维面部图像为头部纹理图像。
其中,头部纹理图像是反映头部细节的二维图像。具体地,头部纹理图像可反映头部器官,包括鼻子、耳朵、眉毛或嘴唇等的纹理特征。将头部纹理图像贴图至三维头部模型可得到与二维面部图像相匹配的三维头部模型。
具体地,计算机设备可通过面部检测算法识别二维面部图像中的面部区域。面部检测算法可根据需要自定义,如可为OpenCV中包括的检测函数、IOS、Android系统自带的检测算法或Face++检测算法等。对于任意一张二维面部图像,面部检测算法可以返回图像中是否包含面部区域以及具体的面部区域范围。比如,通过矩形框标识面部区域的位置,如果有多个面部区域则返回多个矩形框。
在一个实施例中,计算机设备在通过面部检测算法识别出二维面部图像中的面部区域后,可对二维面部图像的面部区域的局部图像进行滤波处理,例如:对二维面部图像的面部区域整体、包含眼睛眉毛的局部图像及包含嘴巴的局部图像,分别进行滤波处理,生成相应的纹理图像,再将生成的多个纹理图像去重后再进行组合,得到与二维面部图像相应的头部纹理图像。
在一个实施例中,计算机设备在通过面部检测算法识别出二维面部图像中的面部区域后,可查找将二维面部图像映射至三维头部模型的映射关系以及将三维头部模型映射至头部模型纹理图像的映射关系。计算机设备可再按照查找到的映射关系,将二维面部图像映射为头部纹理图像。
S306,获取与三维头部模型对应的头部模型纹理图像。
其中,头部模型纹理图像是初始三维头部模型所对应的纹理图像。在三维头部模型创建时,即生成了三维头部模型与头部模型纹理图像间的映射关系,根据该映射关系即可将三维头部模型映射为头部模型纹理图像。
在一个实施例中,计算机设备可直接查找与三维头部模型存在对应关系的头部模型纹理图像,获取该头部模型纹理图像。计算机设备也可读取三维头部模型与头部模型纹理图像之间的映射关系,根据该映射关系将三维头部模型映射为头部模型纹理图像。
S308,将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配。
其中,颜色是指人眼对于光的视觉效应。头部模型纹理图像的像素颜色值可通过头部模型纹理图像中包括的像素点的像素颜色值反映。像素点是最小的图像单元。任意一张图像包括至少一个像素点。在本实施例中,像素点的像素颜色值具体可以是按照RGB(REDGREEN BLUE)颜色标准定义的颜色值。RGB颜色标准是目前运用最广的颜色标准之一,是通过对红(R)、绿(G)、蓝(B)三个颜色通道的变化,以及它们相互之间的叠加来得到各式各样的颜色值。
在一个实施例中,计算机设备可读取头部模型纹理图像中包括的像素点的像素颜色值,计算头部模型纹理图像中各像素颜色值的均值。计算机设备可再读取头部纹理图像的面部区域中包括的像素点的像素颜色值,计算头部纹理图像的面部区域中各像素颜色值的均值。计算机设备可再将计算得到的两个均值的差异量作为变化量,将头部模型纹理图像所包括的各像素点的像素颜色值按照该差异量进行变化。
举例说明,假设头部模型纹理图像中各像素颜色值的均值为125,头部纹理图像的面部区域中各像素颜色值的均值为98,则两个均值的差异量为125-98=27。头部模型纹理图像所包括5个像素点,且这5个像素点的像素颜色值分别为111、124、98、135和115。那么将这5个像素点的像素颜色值分别按照该差异量27进行变化后的像素颜色值分别为138、151、125、162和142。
在一个实施例中,计算机设备可分别求取头部模型纹理图像中包括的像素点在三通道的颜色值均值,以及头部纹理图像的面部区域中包括的像素点在三通道的颜色值均值。对于每一个颜色通道,根据头部模型纹理图像中包括的像素点在该通道的颜色值均值,以及头部纹理图像的面部区域中包括的像素点在该通道的颜色值均值,确定头部模型纹理图像的像素颜色值调整前后的平滑映射关系,再根据该平滑映射关系调整头部模型纹理图像的像素颜色值。
在一个实施例中,对于每一个颜色通道,计算机设备可将头部模型纹理图像中包括的像素点在该通道的颜色值均值,以及头部纹理图像的面部区域中包括的像素点在该通道的颜色值均值构成二维点坐标,生成头部模型纹理图像的像素颜色值调整前后的平滑映射关系,该平滑映射关系所表示的曲线经过该二维点坐标。
举例说明,对于红(R)通道,采用RGB10进制表示,像素点红(R)通道的颜色值取值范围为[0,255]。假设头部模型纹理图像中包括的像素点在该通道的颜色值均值R1=153,头部纹理图像的面部区域中包括的像素点在该通道的颜色值均值为R2=169。计算机设备可将头部模型纹理图像中包括的像素点在该通道的颜色值均值,以及头部纹理图像的面部区域中包括的像素点在该通道的颜色值均值构成二维点坐标,该二维点坐标具体为(R1,R2)=(153,169)。计算机设备可以二维点坐标(0,0)、(R1,R2)和(255,255)三点拟合一条平滑的颜色值映射曲线。该颜色值映射曲线具体可以是二次曲线。通过该曲线方程,即可得到头部模型纹理图像中包括的每个像素点在该通道的颜色值Ro,对应到调整后的颜色值Rt的平滑映射关系。
S310,按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中。
在一个实施例中,计算机设备可通过面部检测算法识别头部模型纹理图像中的面部区域。具体地,计算机设备可根据预先设置的面部轮廓参考点,在头部模型纹理图像中定位与面部轮廓参考点相匹配的面部轮廓特征点,再根据定位的面部轮廓特征点确定头部模型纹理图像中面部区域的位置。
计算机设备再根据预先设置的面部轮廓参考点,在头部纹理图像中定位与面部轮廓参考点相匹配的面部轮廓特征点,再根据定位的面部轮廓特征点确定头部纹理图像的面部区域,将确定的头部纹理图像的面部区域拼接到头部模型纹理图像中。
在一个实施例中,计算机设备可在建立三维头部模型时,对与三维头部模型对应的头部模型纹理图像进行面部识别处理,得到头部模型纹理图像中面部区域的位置,生成面部区域所在的掩码图像。该掩码图像为二值掩码图像,包括面部区域和面部区域以外的区域两个部分,通过0和1区分。用于提取头部模型纹理图像中的局部图像。
计算机设备可将头部模型纹理图像与面部区域为0、面部区域以外的区域为1的掩码图像进行相与处理,得到去除面部区域后得到的头部模型纹理图像。再将头部纹理图像与面部区域为1、面部区域以外的区域为0的掩码图像进行相与处理,提取面部区域。计算机设备再将去除面部区域后得到的头部模型纹理图像与从头部纹理图像中提取的面部区域拼接。
S312,融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘。
其中,拼接边缘是头部纹理图像的面部区域,与头部模型纹理图像的面部区域以外区域衔接的部分。拼接边缘包括头部纹理图像的面部区域在拼接处的边缘部分,以及头部模型纹理图像的面部区域以外区域在拼接处的边缘部分。具体地,计算机设备在按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,得到拼接图像后,可对该拼接图像的拼接边缘进行融合处理。
在一个实施例中,计算机设备可利用记录透明度信息的模板图像,对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行叠加。通过模板图像中记录的透明度信息,对拼接边缘包括的像素点进行像素颜色值调整,达到拼接边缘渐变过渡的效果。其中,记录透明度信息的模板图像具体可以是带阿尔法通道的融合掩膜图像。阿尔法通道是一个8位的灰度通道,该通道用256级灰度来记录图像中的透明度信息,定义透明、不透明和半透明区域。
在一个实施例中,计算机设备也可基于梯度金字塔(Gradient Pyramid,GP)分解的图像融合算法,对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合。计算机设备可对头部纹理图像的面部区域建立图像梯度金字塔,并对头部模型纹理图像建立图像梯度金字塔。然后,计算机设备可再对图像梯度金字塔的各分解层分别进行融合处理,得到融合后的图像梯度金字塔。其中,不同的分解层、不同方向细节图像采用不同的融合算子进行融合处理。计算机设备可再对融合后所得梯度金字塔进行图像重构,所得到的重构图像即融合图像。
在一个实施例中,计算机设备还可基于图像散度,对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合。计算机设备可先确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的图像梯度,在根据确定的图像梯度求解图像散度,在求解得到图像散度后,通过头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点的散度对该像素点以及该像素点周围的像素点进行调整。
S314,将融合得到的头部模型纹理图像贴图至三维头部模型。
具体地,计算机设备在融合得到头部模型纹理图像后,将该头部模型纹理图像贴图至三维头部模型,得到与二维面部图像相匹配的三维头部模型。
上述图像处理方法,在获取到二维面部图像后,即可将二维面部图像映射为头部纹理图像,然后将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。而且,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。
在一个实施例中,步骤S304包括:根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像。
具体地,计算机设备可查找将二维面部图像映射至三维头部模型的映射关系以及将三维头部模型映射至头部模型纹理图像的映射关系。计算机设备可再按照查找到的映射关系,将二维面部图像映射为头部纹理图像。
在一个实施例中,根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像,包括:根据二维面部图像与三维头部模型的映射关系,确定二维面部图像包括的像素点在三维头部模型中相应的模型顶点位置;根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置;将像素点映射至相应的像素点位置,生成与二维面部图像对应的头部纹理图像。
具体地,计算机设备在建立三维头部模型时,可对三维头部模型进行特征点标记。特征点具体可以是三维头部模型面部区域的三维特征点。三维特征点可包括面部轮廓基准点、左右眼基准点、鼻子基准点、嘴唇基准点和左右眉基准点等。计算机在对特征点进行标记后,可记录标记出的各特征点相应的三维坐标。
计算机设备可再基于面部检测标记算法对二维面部图像进行特征点标记。特征点具体可以是二维面部图像面部区域的二维特征点。面部检测标记算法可根据需要自定义,如可为ASM(Active Shape Model主动形状模型)算法、AAM(Active Appreance Model主动外观模型)算法或者级联回归算法等。计算机设备可利用训练完成的面部检测标记模型,将二维面部图像输入面部检测标记模型中,得到特征点标记后的二维面部图像,以及各特征点相应的二维坐标。其中,面部检测标记模型以大量标记特征点后的二维面部图像作为训练样本训练得到。
如图4所示为二维面部图像的二维特征点的示意图,二维特征点包含:人脸轮廓基准点,即图中1到9号点,左右眼基准点,即图中10-14号点,15-19号点,鼻子基准点即图中20-26号点,嘴唇基准点即图中27-30号点,左右眉基准点即图中31-32号点,33-34号点等。
计算机设备可基于在三维头部模型上标记的三维特征点,与相应的在二维面部图像上标记的二维特征点,生成二维特征点到三维特征点的特征点映射矩阵。具体地,计算机设备可初始化映射矩阵,构建最小值优化函数。该最小值优化函数用于将三维特征点通过初始化后的映射矩阵后的二维坐标与对应的二维特征点坐标的距离最小化。其中,二维坐标之间的距离可以是欧式距离或者汉明距离等。
举例说明,三维头部模型上标记的三维特征点为V(Vertex1、Vertex2、Vertex3…),相应的二维面部图像上的二维特征点为P(P1、P2、P3…),特征点映射矩阵为M。则最小值优化函数为:min(∑||V*M-P||^2),即优化一个三维坐标到二维坐标的特征点映射矩阵M,使得每一个三维特征点V通过M映射为的二维坐标P1,且P1与三维特征点V在二维面部图像中对应的二维特征点坐标P的欧式距离最小。
计算机设备可用优化得到的特征点映射矩阵估计三维头部模型到二维面部图像的映射关系。
在一个实施例中,计算机设备可对三维头部模型进行区域划分,分别对划分得到的各区域块进行映射。对于每一个区域块,计算机设备可获取区域块的各模型顶点的三维坐标,然后根据二维面部图像与三维头部模型的映射关系,确定各模型顶点在二维面部图像中相应的像素点位置,再根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置。
计算机设备再将各模型顶点在二维面部图像中相应的像素点位置的像素颜色值,映射到模型顶点位置在头部模型纹理图像中相应的像素点位置,再对区域块的各模型顶点在头部模型纹理图像中相应的像素点位置围成的图像区域进行线性插值,得到该图像区域对应的头部纹理图像,再将各区域块对应的头部纹理图像组合得到二维面部图像对应的头部纹理图像。其中,划分得到的区域块可以是三角形,也可以是四边形等多边形。
在一个实施例中,计算机设备将三维头部模型划分为若干三角形区域,遍历划分得到的三角形区域,对遍历至的三角形区域,确定该三角形区域三个顶点的坐标V1、V2和V3。根据二维面部图像与三维头部模型的映射关系,确定V1对应的二维面部图像中的像素点P1,V2对应的二维面部图像中的像素点P2,以及V3对应的二维面部图像中的像素点P3。再根据三维头部模型与头部模型纹理图像的映射关系,确定V1对应的头部模型纹理图像中的像素点T1,V2对应的头部模型纹理图像中的像素点T2,以及V3对应的头部模型纹理图像中的像素点T3。
计算机设备即可将头部模型纹理图像中的像素点T1的颜色值,更新为二维面部图像中的像素点P1的颜色值,将头部模型纹理图像中的像素点T2的颜色值,更新为二维面部图像中的像素点P2的颜色值,将头部模型纹理图像中的像素点T3的颜色值,更新为二维面部图像中的像素点P3的颜色值,得到头部模型纹理图像中T1、T2和T3构成的三角形区域的颜色值,在对该三角形区域中包括的像素点进行线性插值。计算机设备在完成遍历过程后,即可根据二维面部图像生成头部纹理图像。
上述实施例中,根据二维面部图像的像素点与三维头部模型的模型顶点,以及头部模型纹理图像中的像素点位置之间的映射关系,生成头部纹理图像,保障了生成的与二维面部图像对应的头部纹理图像的准确性。
在一个实施例中,该图像处理方法还包括:调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配。
其中,亮度是颜色的一种性质,用来反应颜色的明暗程度。头部纹理图像的亮度反映了头部纹理图像的明暗程度。头部纹理图像的亮度可通过头部纹理图像中包括的像素点的灰度值反映。
具体地,计算机设备可获取头部纹理图像中每个像素点的亮度值,根据获取的各亮度值确定代表头部纹理图像的亮度值。该代表头部纹理图像的亮度值可以是各像素点的亮度值均值,也可以是对应的像素点个数最多的亮度值。比如,头部纹理图像包括5个像素点,对应的亮度值122、122、142、122和112。这五个像素点的亮度值均值为(122+122+132+122+112)/5=124,对应的像素点个数最多的亮度值为122。那么代表头部纹理图像的亮度值可以是124,也可以是122。
计算机设备可再获取头部模型纹理图像中每个像素点的亮度值,根据获取的各亮度值确定代表头部模型纹理图像的亮度值。根据代表头部模型纹理图像的亮度值与代表头部纹理图像的亮度值之间的映射关系,调整头部纹理图像中每个像素点的亮度值,以使头部纹理图像的亮度与头部模型纹理图像的亮度相匹配。
如图5所示,在一个实施例中,调整头部纹理图像的亮度至与头部模型纹理图像的亮度相匹配的步骤具体包括:
S502,获取头部纹理图像中面部区域的第一亮度均值。
具体地,图像的亮度可用像素点的灰度值表示。计算机设备可将头部纹理图像与面部区域为1、面部区域以外的区域为0的掩码图像进行相与处理,确定头部纹理图像中面部区域的范围。计算机设备可再计算头部纹理图像中面部区域所包括的各像素点的灰度值,然后将计算得到的各灰度值求取平均值,作为头部纹理图像中面部区域的第一亮度均值。
其中,彩色图像的灰度值为转化为黑白图像后的像素值,转化的方式可根据需要自定义,一般按加权的方法转换。比如:R通道颜色值,G通道颜色值,B通道颜色值的比为3:6:1。Gray(灰度值)=R(R通道颜色值)*0.3+G(G通道颜色值)*0.6+B(B通道颜色值)*0.1。
S504,获取头部模型纹理图像中面部区域的第二亮度均值。
具体地,计算机设备可将头部模型纹理图像与面部区域为1、面部区域以外的区域为0的掩码图像进行相与处理,确定头部模型纹理图像中面部区域的范围。计算机设备可再计算头部模型纹理图像中面部区域所包括的各像素点的灰度值,然后将计算得到的各灰度值求取平均值,作为头部模型纹理图像中面部区域的第一亮度均值。
S506,根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系。
在一个实施例中,计算机设备可确定第一亮度均值和第二亮度均值的亮度差异量,将该差异量作为平滑映射关系中的变化量。亦即将头部纹理图像中面部区域的像素点的亮度值统一变化该亮度差异量。具体地,计算机设备计算得到的第一亮度均值为T1=123,第二亮度均值T2=136,那么ΔT=T2-T1=13。计算机设备可将头部纹理图像中面部区域的像素点的亮度值统一增加13得到变化后的亮度值。
在一个实施例中,根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系,包括:将第一亮度均值和第二亮度均值构成二维点坐标;生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,平滑映射关系所表示的曲线经过二维点坐标。
具体地,计算机设备可将头部纹理图像中面部区域的第一亮度均值T1和头部模型纹理图像中面部区域的第二亮度均值T2构成二维点坐标为(T1,T2)。计算机设备可以二维点坐标(0,0)、(T1,T2)和(255,255)三点拟合一条平滑的亮度值映射曲线。该亮度值映射曲线具体可以是二次曲线。通过该曲线方程,即可得到头部纹理图像中面部区域包括的每个像素点的亮度值To,对应到调整后的亮度值Tt的平滑映射关系。
图6示出了一个实施例中亮度调整原理示意图。参考图6,该示意图包括曲线610和二维点620。曲线610经过二维点(0,0)、(T1,T2)和(255,255),T1为头部纹理图像中面部区域的第一亮度均值,T2为头部模型纹理图像中面部区域的第二亮度均值。
图7示出了一个实施例中亮度调整前后的图像对比示意图。参考图7,该示意图包括亮度调整前的头部纹理图像710、亮度调整前的头部纹理图像的面部区域720、亮度调整后的头部纹理图像730和亮度调整后的头部纹理图像的面部区域740。对比亮度调整前的头部纹理图像的面部区域720和亮度调整后的头部纹理图像的面部区域740,可以明显看出头部纹理图像的面部区域在调整前后亮度发生了变化。
在本实施例中,以第一亮度均值和第二亮度均值构成二维点坐标为依据生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,保证了图像亮度调整时的一致性和平滑性,且保证了亮度匹配性。
S508,根据平滑映射关系,调整头部纹理图像中面部区域的亮度。
具体地,计算机设备可遍历头部纹理图像中面部区域所包括的各像素点,在遍历时,将遍历至的像素点的亮度值调整为平滑映射关系所指向的亮度值。
上述实施例中,以头部纹理图像中面部区域的第一亮度均值和头部模型纹理图像中面部区域的第二亮度均值的映射关系为依据进行亮度调整,保证了调整后的头部纹理图像中面部区域的亮度与头部模型纹理图像中面部区域的亮度的匹配性。
如图8所示,在一个实施例中,步骤S308具体包括以下步骤:
S802,获取头部纹理图像的面部区域中各像素颜色值的第一均值。
具体地,图像的像素颜色值可用RGB三通道的颜色值表示。计算机设备可将头部纹理图像与面部区域为1、面部区域以外的区域为0的掩码图像进行相与处理,确定头部纹理图像中面部区域的范围。计算机设备可再计算头部纹理图像中面部区域所包括的各像素点的RGB三通道的颜色值,然后对应于各颜色通道将计算得到的相应通道的颜色值求取平均值,作为头部纹理图像中面部区域的在该颜色通道的第一均值。
S804,获取头部模型纹理图像中各像素颜色值的第二均值。
具体地,计算机设备可计算头部模型纹理图像所包括的各像素点的RGB三通道的颜色值,然后对应于各颜色通道将计算得到的相应通道的颜色值求取平均值,作为头部模型纹理图像中面部区域的在该颜色通道的第二均值。
S806,确定第一均值和第二均值的颜色值差异量。
具体地,计算机设备可分别计算头部纹理图像的面部区域中各像素颜色值与头部模型纹理图像中各像素颜色值在三个通道的颜色均值之间的颜色值差异量。
S808,按照颜色值差异量,调整头部模型纹理图像中的各像素颜色值。
具体地,计算机设备可遍历头部模型纹理图像所包括的各像素点,在遍历时,将遍历至的像素点的各颜色通道的颜色值增加相应颜色通道的颜色值差异量。若二维面部图像为二维人脸面部图像,图像的像素颜色值可用于反映人脸肤色。
举例说明,假设头部纹理图像的面部区域中各像素颜色值在R颜色通道的均值为133、在G颜色通道的均值为173、在B颜色通道的均值为103,头部模型纹理图像中各像素颜色值在R颜色通道的均值为123、在G颜色通道的均值为161、在B颜色通道的均值为91。那么头部纹理图像的面部区域中各像素颜色值与头部模型纹理图像中各像素颜色值在R颜色通道的颜色值差异量为133-123=10,在G颜色通道的颜色值差异量为173-161=12,在B颜色通道的颜色值差异量为103-91=12。那么,对头部模型纹理图像中的像素点调整时,若该像素点的三通道的颜色值为(111,95,165),调整后的三通道的颜色值为(111+10,95+12,165+12)=(121,107,177)。
在本实施例中,以头部纹理图像的面部区域中各像素颜色值的第一均值和头部模型纹理图像中各像素颜色值的第二均值的颜色值差异量为依据进行像素颜色值调整,保证了调整后的头部模型纹理图像的像素颜色值与头部纹理图像中面部区域的像素颜色值的匹配性。
图9示出了一个实施例中像素颜色值调整前后的图像对比示意图。参考图9,该示意图包括像素颜色值调整前的头部模型纹理图像910、像素颜色值调整前的头部模型纹理图像的局部区域920、像素颜色值调整后的头部模型纹理图像930和像素颜色值调整后的头部模型纹理图像的局部区域940。对比像素颜色值调整前的头部模型纹理图像的局部区域920和像素颜色值调整后的头部模型纹理图像的局部区域940,可以明显看出头部模型纹理图像的局部区域在调整前后像素颜色值发生了变化。
在一个实施例中,步骤S312包括:根据头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的目标图像梯度;根据目标图像梯度生成的目标图像散度;按照目标图像散度,调整头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点。
具体地,计算机设备可计算头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,将头部纹理图像的面部区域的图像梯度与头部模型纹理图像中面部区域以外的区域的图像梯度组合,作为融合后的头部模型纹理图像的目标图像梯度。
计算机设备可再根据确定的目标图像梯度求取融合后的头部模型纹理图像的目标图像散度,建立头部模型纹理图像包括的像素点融合前后的像素值与该像素点的散度的变化关系。计算机设备再根据头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点融合前的像素值与该像素点的散度,求解该像素点融合后的像素值,从而得到融合后的头部模型纹理图像。
举例说明,计算机建立的头部模型纹理图像包括的像素点融合前后的像素值,与该像素点的散度的变化关系具体可以是:A*x=b。其中,A为头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点的像素值,b为该像素点对应的像素点位置的图像散度,x为该像素点在融合调整后的像素值。
在本实施例中,以图像梯度与图像散度为依据,对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变,保证了融合得到的头部模型纹理图像的融合效果。
图10示出了一个实施例中图像融合的原理示意图。参考图10,该示意图包括头部纹理图像1010、掩码图像1020、头部模型纹理图像1030和融合得到的头部模型纹理图像1040。计算机设备可将掩码图像1020的面部区域置1、面部区域以外的区域置0后,与头部纹理图像1010进行相与处理,提取头部纹理图像面部区域;再将掩码图像1020的面部区域置0、面部区域以外的区域置1后,与头部模型纹理图像1030进行相与处理,去除头部模型纹理图像中面部区域。计算机设备再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,进行图像融合得到头部模型纹理图像1040。
如图11所示,在一个具体的实施例中,图像处理方法包括以下步骤:
S1102,获取二维面部图像。
S1104,根据二维面部图像与三维头部模型的映射关系,确定二维面部图像包括的像素点在三维头部模型中相应的模型顶点位置。
S1106,根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置。
S1108,将像素点映射至相应的像素点位置,生成与二维面部图像对应的头部纹理图像。
S1110,获取与三维头部模型对应的头部模型纹理图像。
S1112,获取头部纹理图像的面部区域中各像素颜色值的第一均值;获取头部模型纹理图像中各像素颜色值的第二均值;确定第一均值和第二均值的颜色值差异量;按照颜色值差异量,调整头部模型纹理图像中的各像素颜色值。
S1114,获取头部纹理图像中面部区域的第一亮度均值;获取头部模型纹理图像中面部区域的第二亮度均值。
S1116,将第一亮度均值和第二亮度均值构成二维点坐标;生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,平滑映射关系所表示的曲线经过二维点坐标,根据平滑映射关系,调整头部纹理图像中面部区域的亮度。
S1118,按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中。
S1120,根据头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的目标图像梯度;根据目标图像梯度生成的目标图像散度;按照目标图像散度,调整头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点。
S1120,将融合得到的头部模型纹理图像贴图至三维头部模型。
S1124,在三维虚拟会话场景中展示经过贴图的三维头部模型;获取会话消息;控制三维头部模型执行与会话消息相对应的动作。
在本实施例中,在将二维面部图像映射为头部纹理图像,并获取三维头部模型所对应的头部模型纹理图像后,先将头部纹理图像中面部区域的亮度调整至与头部模型纹理图像中面部区域的亮度相匹配,将头部模型纹理图像中面部区域的像素颜色值调整至与头部纹理图像中面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将亮度调整后的头部纹理图像的面部区域拼接到像素颜色值调整后的头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。
在三维虚拟会话场景中以三维头部模型执行与会话消息相对应的动作,这样使得其他成员即可快速定位当前发起消息的成员,从而及时进行后续的交互,提高了会话中成员间的交互效率
而且,将头部纹理图像中面部区域的亮度调整至与头部模型纹理图像中面部区域的亮度相匹配,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。该图像处理方法的适用范围广,可适用于面部图像亮度差异大、像素颜色值差异大的二维面部图像。
如图12所示,在一个实施例中,提供了一种图像处理装置1200,包括:第一获取模块1201、映射模块1202、第二获取模块1203、调整模块1204、融合模块1205和贴图模块1206。
第一获取模块1201,用于获取二维面部图像。
映射模块1202,用于映射二维面部图像为头部纹理图像。
第二获取模块1203,用于获取与三维头部模型对应的头部模型纹理图像。
调整模块1204,用于将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配。
融合模块1205,用于按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中;融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘。
贴图模块1206,用于将融合得到的头部模型纹理图像贴图至三维头部模型。
上述图像处理装置1200,在获取到二维面部图像后,即可将二维面部图像映射为头部纹理图像,然后将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。而且,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。
在一个实施例中,映射模块1202还用于根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像。
在本实施例中,通过图像与模型之间的映射关系,生成头部纹理图像,保障了生成二维面部图像对应的头部纹理图像的准确性。
在一个实施例中,映射模块1202还用于根据二维面部图像与三维头部模型的映射关系,确定二维面部图像包括的像素点在三维头部模型中相应的模型顶点位置;根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置;将像素点映射至相应的像素点位置,生成与二维面部图像对应的头部纹理图像。
在本实施例中,根据二维面部图像的像素点与三维头部模型的模型顶点以及头部模型纹理图像中的像素点位置之间的映射关系,生成头部纹理图像,保障了生成二维面部图像对应的头部纹理图像的准确性。
在一个实施例中,调整模块1204还用于调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配。
在本实施例中,提供了对头部纹理图像中面部区域的亮度的调整方式,提供了图像处理方法的适用性,对于亮度差异大的图像也能进行处理。
在一个实施例中,调整模块1204还用于获取头部纹理图像中面部区域的第一亮度均值;获取头部模型纹理图像中面部区域的第二亮度均值;根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系;根据平滑映射关系,调整头部纹理图像中面部区域的亮度。
在本实施例中,以头部纹理图像中面部区域的第一亮度均值和头部模型纹理图像中面部区域的第二亮度均值的映射关系为依据进行亮度调整,保证了调整后的头部纹理图像中面部区域的亮度与头部模型纹理图像中面部区域的亮度的匹配性。
在一个实施例中,调整模块1204还用于将第一亮度均值和第二亮度均值构成二维点坐标;生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,平滑映射关系所表示的曲线经过二维点坐标。
在本实施例中,以第一亮度均值和第二亮度均值构成二维点坐标为依据生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,保证了图像亮度调整时的一致性和平滑性,且保证了亮度匹配性。
在一个实施例中,调整模块1204还用于获取头部纹理图像的面部区域中各像素颜色值的第一均值;获取头部模型纹理图像中各像素颜色值的第二均值;确定第一均值和第二均值的颜色值差异量;按照颜色值差异量,调整头部模型纹理图像中的各像素颜色值。
在本实施例中,以头部纹理图像的面部区域中各像素颜色值的第一均值和头部模型纹理图像中各像素颜色值的第二均值的颜色值差异量为依据进行像素颜色值调整,保证了调整后的头部模型纹理图像的像素颜色值与头部纹理图像中面部区域的像素颜色值的匹配性。
在一个实施例中,融合模块1205还用于根据头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的目标图像梯度;根据目标图像梯度生成的目标图像散度;按照目标图像散度,调整头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点。
在本实施例中,以图像梯度与图像散度为依据,对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变,保证了融合得到的头部模型纹理图像的融合效果。
如图13所示,在一个实施例中,图像处理装置1200还包括:展示模块1207。
展示模块1207,用于在三维虚拟会话场景中展示经过贴图的三维头部模型;获取会话消息;控制三维头部模型执行与会话消息相对应的动作。
在本实施例中,在三维虚拟会话场景中以三维头部模型执行与会话消息相对应的动作,这样使得其他成员即可快速定位当前发起消息的成员,从而及时进行后续的交互,提高了会话中成员间的交互效率。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机可读指令,该计算机可读指令被处理器执行时实现以下步骤:获取二维面部图像;映射二维面部图像为头部纹理图像;获取与三维头部模型对应的头部模型纹理图像;将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配;按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中;融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘;将融合得到的头部模型纹理图像贴图至三维头部模型。
上述计算机可读存储介质上存储的计算机可读指令在被执行时,在获取到二维面部图像后,即可将二维面部图像映射为头部纹理图像,然后将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。而且,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。
在一个实施例中,映射二维面部图像为头部纹理图像,包括:根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像。
在一个实施例中,根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像,包括:根据二维面部图像与三维头部模型的映射关系,确定二维面部图像包括的像素点在三维头部模型中相应的模型顶点位置;根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置;将像素点映射至相应的像素点位置,生成与二维面部图像对应的头部纹理图像。
在一个实施例中,计算机可读指令使得处理器在执行获取与三维头部模型对应的头部模型纹理图像之后,还执行以下步骤:调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配。
在一个实施例中,调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配,包括:获取头部纹理图像中面部区域的第一亮度均值;获取头部模型纹理图像中面部区域的第二亮度均值;根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系;根据平滑映射关系,调整头部纹理图像中面部区域的亮度。
在一个实施例中,根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系,包括:将第一亮度均值和第二亮度均值构成二维点坐标;生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,平滑映射关系所表示的曲线经过二维点坐标。
在一个实施例中,将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配,包括:获取头部纹理图像的面部区域中各像素颜色值的第一均值;获取头部模型纹理图像中各像素颜色值的第二均值;确定第一均值和第二均值的颜色值差异量;按照颜色值差异量,调整头部模型纹理图像中的各像素颜色值。
在一个实施例中,融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘,包括:根据头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的目标图像梯度;根据目标图像梯度生成的目标图像散度;按照目标图像散度,调整头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点。
在一个实施例中,计算机可读指令还使得处理器执行以下步骤:在三维虚拟会话场景中展示经过贴图的三维头部模型;获取会话消息;控制三维头部模型执行与会话消息相对应的动作。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行以下步骤:获取二维面部图像;映射二维面部图像为头部纹理图像;获取与三维头部模型对应的头部模型纹理图像;将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配;按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中;融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘;将融合得到的头部模型纹理图像贴图至三维头部模型。
上述计算机设备,在获取到二维面部图像后,即可将二维面部图像映射为头部纹理图像,然后将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配,再按照头部模型纹理图像中面部区域的位置,将头部纹理图像的面部区域拼接到头部模型纹理图像中,即可初步得到具有辨识度的头部模型纹理图像,再将融合得到的头部模型纹理图像贴图至三维头部模型,即可得到与获取的二维面部图像匹配的三维头部模型,从而大大地提高了处理得到的三维头部模型的辨识度。而且,将头部模型纹理图像的像素颜色值调整至与头部纹理图像的面部区域的像素颜色值相匹配以及对头部纹理图像的面部区域和头部模型纹理图像的拼接边缘进行融合,能够在一定程度上消除了图像拼接造成的边缘突变。
在一个实施例中,映射二维面部图像为头部纹理图像,包括:根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像。
在一个实施例中,根据二维面部图像与三维头部模型的映射关系,以及三维头部模型与头部模型纹理图像的映射关系,生成与二维面部图像对应的头部纹理图像,包括:根据二维面部图像与三维头部模型的映射关系,确定二维面部图像包括的像素点在三维头部模型中相应的模型顶点位置;根据三维头部模型与头部模型纹理图像的映射关系,确定模型顶点位置在头部模型纹理图像中相应的像素点位置;将像素点映射至相应的像素点位置,生成与二维面部图像对应的头部纹理图像。
在一个实施例中,计算机可读指令使得处理器在执行获取与三维头部模型对应的头部模型纹理图像之后,还执行以下步骤:调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配。
在一个实施例中,调整头部纹理图像中面部区域的亮度至与头部模型纹理图像中面部区域的亮度相匹配,包括:获取头部纹理图像中面部区域的第一亮度均值;获取头部模型纹理图像中面部区域的第二亮度均值;根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系;根据平滑映射关系,调整头部纹理图像中面部区域的亮度。
在一个实施例中,根据第一亮度均值和第二亮度均值的映射关系,确定头部纹理图像中面部区域的亮度调整前后的平滑映射关系,包括:将第一亮度均值和第二亮度均值构成二维点坐标;生成头部纹理图像中面部区域的亮度调整前后的平滑映射关系,平滑映射关系所表示的曲线经过二维点坐标。
在一个实施例中,将头部模型纹理图像的像素颜色值,调整至与头部纹理图像的面部区域的像素颜色值相匹配,包括:获取头部纹理图像的面部区域中各像素颜色值的第一均值;获取头部模型纹理图像中各像素颜色值的第二均值;确定第一均值和第二均值的颜色值差异量;按照颜色值差异量,调整头部模型纹理图像中的各像素颜色值。
在一个实施例中,融合头部纹理图像的面部区域和头部模型纹理图像的拼接边缘,包括:根据头部纹理图像的面部区域的图像梯度,以及头部模型纹理图像中面部区域以外的区域的图像梯度,确定头部纹理图像的面部区域和头部模型纹理图像的拼接边缘的目标图像梯度;根据目标图像梯度生成的目标图像散度;按照目标图像散度,调整头部纹理图像的面部区域和头部模型纹理图像的拼接边缘包括的像素点。
在一个实施例中,计算机可读指令还使得处理器执行以下步骤:在三维虚拟会话场景中展示经过贴图的三维头部模型;获取会话消息;控制三维头部模型执行与会话消息相对应的动作。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (20)
1.一种图像处理方法,所述方法包括:
获取二维面部图像;
映射所述二维面部图像为头部纹理图像;
获取与三维头部模型对应的头部模型纹理图像;
将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配;
按照所述头部模型纹理图像中面部区域的位置,将所述头部纹理图像的面部区域拼接到所述头部模型纹理图像中;
融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘;
将融合得到的所述头部模型纹理图像贴图至所述三维头部模型。
2.根据权利要求1所述的方法,其特征在于,所述映射所述二维面部图像为头部纹理图像,包括:
根据所述二维面部图像与三维头部模型的映射关系,以及所述三维头部模型与头部模型纹理图像的映射关系,生成与所述二维面部图像对应的头部纹理图像。
3.根据权利要求2所述的方法,其特征在于,所述根据所述二维面部图像与三维头部模型的映射关系,以及所述三维头部模型与头部模型纹理图像的映射关系,生成与所述二维面部图像对应的头部纹理图像,包括:
根据所述二维面部图像与三维头部模型的映射关系,确定所述二维面部图像包括的像素点在所述三维头部模型中相应的模型顶点位置;
根据所述三维头部模型与头部模型纹理图像的映射关系,确定所述模型顶点位置在所述头部模型纹理图像中相应的像素点位置;
将所述像素点映射至相应的所述像素点位置,生成与所述二维面部图像对应的头部纹理图像。
4.根据权利要求1所述的方法,其特征在于,所述获取与三维头部模型对应的头部模型纹理图像之后,所述方法还包括:
调整所述头部纹理图像中面部区域的亮度至与所述头部模型纹理图像中面部区域的亮度相匹配。
5.根据权利要求4所述的方法,其特征在于,所述调整所述头部纹理图像中面部区域的亮度至与所述头部模型纹理图像中面部区域的亮度相匹配,包括:
获取所述头部纹理图像中面部区域的第一亮度均值;
获取所述头部模型纹理图像中面部区域的第二亮度均值;
根据所述第一亮度均值和所述第二亮度均值的映射关系,确定所述头部纹理图像中面部区域的亮度调整前后的平滑映射关系;
根据所述平滑映射关系,调整所述头部纹理图像中面部区域的亮度。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一亮度均值和所述第二亮度均值的映射关系,确定所述头部纹理图像中面部区域的亮度调整前后的平滑映射关系,包括:
将所述第一亮度均值和所述第二亮度均值构成二维点坐标;
生成所述头部纹理图像中面部区域的亮度调整前后的平滑映射关系,所述平滑映射关系所表示的曲线经过所述二维点坐标。
7.根据权利要求1所述的方法,其特征在于,所述将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配,包括:
获取所述头部纹理图像的面部区域中各像素颜色值的第一均值;
获取所述头部模型纹理图像中各像素颜色值的第二均值;
确定所述第一均值和所述第二均值的颜色值差异量;
按照所述颜色值差异量,调整所述头部模型纹理图像中的各像素颜色值。
8.根据权利要求1所述的方法,其特征在于,所述融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘,包括:
根据所述头部纹理图像的面部区域的图像梯度,以及所述头部模型纹理图像中面部区域以外的区域的图像梯度,确定所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘的目标图像梯度;
根据所述目标图像梯度生成的目标图像散度;
按照所述目标图像散度,调整所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘包括的像素点。
9.根据权利要求1至7中任一项所述的方法,其特征在于,所述方法还包括:
在三维虚拟会话场景中展示经过贴图的所述三维头部模型;
获取会话消息;
控制所述三维头部模型执行与所述会话消息相对应的动作。
10.一种图像处理装置,所述装置包括:
第一获取模块,用于获取二维面部图像;
映射模块,用于映射所述二维面部图像为头部纹理图像;
第二获取模块,用于获取与三维头部模型对应的头部模型纹理图像;
调整模块,用于将所述头部模型纹理图像的像素颜色值,调整至与所述头部纹理图像的面部区域的像素颜色值相匹配;
融合模块,用于按照所述头部模型纹理图像中面部区域的位置,将所述头部纹理图像的面部区域拼接到所述头部模型纹理图像中;融合所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘;
贴图模块,用于将融合得到的所述头部模型纹理图像贴图至所述三维头部模型。
11.根据权利要求10所述的装置,其特征在于,所述映射模块还用于根据所述二维面部图像与三维头部模型的映射关系,以及所述三维头部模型与头部模型纹理图像的映射关系,生成与所述二维面部图像对应的头部纹理图像。
12.根据权利要求11所述的装置,其特征在于,所述映射模块还用于根据所述二维面部图像与三维头部模型的映射关系,确定所述二维面部图像包括的像素点在所述三维头部模型中相应的模型顶点位置;根据所述三维头部模型与头部模型纹理图像的映射关系,确定所述模型顶点位置在所述头部模型纹理图像中相应的像素点位置;将所述像素点映射至相应的所述像素点位置,生成与所述二维面部图像对应的头部纹理图像。
13.根据权利要求10所述的装置,其特征在于,所述调整模块还用于调整所述头部纹理图像中面部区域的亮度至与所述头部模型纹理图像中面部区域的亮度相匹配。
14.根据权利要求13所述的装置,其特征在于,所述调整模块还用于获取所述头部纹理图像中面部区域的第一亮度均值;获取所述头部模型纹理图像中面部区域的第二亮度均值;根据所述第一亮度均值和所述第二亮度均值的映射关系,确定所述头部纹理图像中面部区域的亮度调整前后的平滑映射关系;根据所述平滑映射关系,调整所述头部纹理图像中面部区域的亮度。
15.根据权利要求14所述的装置,其特征在于,所述调整模块还用于将所述第一亮度均值和所述第二亮度均值构成二维点坐标;生成所述头部纹理图像中面部区域的亮度调整前后的平滑映射关系,所述平滑映射关系所表示的曲线经过所述二维点坐标。
16.根据权利要求10所述的装置,其特征在于,所述调整模块还用于获取所述头部纹理图像的面部区域中各像素颜色值的第一均值;获取所述头部模型纹理图像中各像素颜色值的第二均值;确定所述第一均值和所述第二均值的颜色值差异量;按照所述颜色值差异量,调整所述头部模型纹理图像中的各像素颜色值。
17.根据权利要求10所述的装置,其特征在于,所述融合模块还用于根据所述头部纹理图像的面部区域的图像梯度,以及所述头部模型纹理图像中面部区域以外的区域的图像梯度,确定所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘的目标图像梯度;根据所述目标图像梯度生成的目标图像散度;按照所述目标图像散度,调整所述头部纹理图像的面部区域和所述头部模型纹理图像的拼接边缘包括的像素点。
18.根据权利要求10至16中任一项所述的装置,其特征在于,所述装置还包括:
展示模块,用于在三维虚拟会话场景中展示经过贴图的所述三维头部模型;获取会话消息;控制所述三维头部模型执行与所述会话消息相对应的动作。
19.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行权利要求1-8中任一项所述方法的步骤。
20.根据权利要求19所述的计算机设备,其特征在于,所述计算机可读指令被所述处理器执行时,还使得所述处理器执行以下步骤:
在三维虚拟会话场景中展示经过贴图的所述三维头部模型;
获取会话消息;
控制所述三维头部模型执行与所述会话消息相对应的动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710322668.1A CN108876886B (zh) | 2017-05-09 | 2017-05-09 | 图像处理方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710322668.1A CN108876886B (zh) | 2017-05-09 | 2017-05-09 | 图像处理方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108876886A true CN108876886A (zh) | 2018-11-23 |
CN108876886B CN108876886B (zh) | 2021-07-27 |
Family
ID=64287860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710322668.1A Active CN108876886B (zh) | 2017-05-09 | 2017-05-09 | 图像处理方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108876886B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829930A (zh) * | 2019-01-15 | 2019-05-31 | 深圳市云之梦科技有限公司 | 人脸图像处理方法、装置、计算机设备及可读存储介质 |
CN110189248A (zh) * | 2019-05-16 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 图像融合方法及装置、存储介质、电子设备 |
CN110335354A (zh) * | 2019-07-12 | 2019-10-15 | 网易(杭州)网络有限公司 | 一种模块化3d建模的方法和装置 |
CN111260600A (zh) * | 2020-01-21 | 2020-06-09 | 维沃移动通信有限公司 | 一种图像处理方法、电子设备及介质 |
CN111612897A (zh) * | 2020-06-05 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置、设备及可读存储介质 |
CN111862342A (zh) * | 2020-07-16 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 增强现实的纹理处理方法、装置、电子设备及存储介质 |
CN114022528A (zh) * | 2021-11-02 | 2022-02-08 | 广州虎牙科技有限公司 | 图像处理方法和装置、电子设备及存储介质 |
CN114463191A (zh) * | 2021-08-26 | 2022-05-10 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
US20220180597A1 (en) * | 2019-03-12 | 2022-06-09 | Sony Group Corporation | Image processing apparatus, image processing method, and program |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1607551A (zh) * | 2003-08-29 | 2005-04-20 | 三星电子株式会社 | 基于图像的超现实主义三维脸部建模的方法和设备 |
CN101082765A (zh) * | 2006-06-01 | 2007-12-05 | 高宏 | 一种三维人像摄影系统及其实现方法 |
CN101515374A (zh) * | 2008-02-20 | 2009-08-26 | 中国科学院自动化研究所 | 基于图像的个性化真实感虚拟人物造型方法 |
CN101751689A (zh) * | 2009-09-28 | 2010-06-23 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
CN102222363A (zh) * | 2011-07-19 | 2011-10-19 | 杭州实时数码科技有限公司 | 从人脸图像快速构建高精度个性化人脸模型的方法 |
CN102426712A (zh) * | 2011-11-03 | 2012-04-25 | 中国科学院自动化研究所 | 一种基于两幅图像的三维头部建模方法 |
KR101165017B1 (ko) * | 2011-10-31 | 2012-07-13 | (주) 어펙트로닉스 | 3차원 아바타 생성 시스템 및 방법 |
CN103761765A (zh) * | 2013-12-25 | 2014-04-30 | 浙江慧谷信息技术有限公司 | 基于映射边界优化的三维物体模型纹理映射算法 |
CN104952111A (zh) * | 2014-03-31 | 2015-09-30 | 特里库比奇有限公司 | 采用便携式相机获得三维脸部模型的方法和装置 |
WO2016003258A1 (ko) * | 2014-07-04 | 2016-01-07 | 주식회사 인스바이오 | 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법 |
CN105719326A (zh) * | 2016-01-19 | 2016-06-29 | 华中师范大学 | 一种基于单张照片的真实感人脸生成方法 |
CN105957137A (zh) * | 2016-04-20 | 2016-09-21 | 上海交通大学 | 基于纹理映射的三维彩色模型图像处理方法 |
-
2017
- 2017-05-09 CN CN201710322668.1A patent/CN108876886B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1607551A (zh) * | 2003-08-29 | 2005-04-20 | 三星电子株式会社 | 基于图像的超现实主义三维脸部建模的方法和设备 |
CN101082765A (zh) * | 2006-06-01 | 2007-12-05 | 高宏 | 一种三维人像摄影系统及其实现方法 |
CN101515374A (zh) * | 2008-02-20 | 2009-08-26 | 中国科学院自动化研究所 | 基于图像的个性化真实感虚拟人物造型方法 |
CN101751689A (zh) * | 2009-09-28 | 2010-06-23 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
CN102222363A (zh) * | 2011-07-19 | 2011-10-19 | 杭州实时数码科技有限公司 | 从人脸图像快速构建高精度个性化人脸模型的方法 |
KR101165017B1 (ko) * | 2011-10-31 | 2012-07-13 | (주) 어펙트로닉스 | 3차원 아바타 생성 시스템 및 방법 |
CN102426712A (zh) * | 2011-11-03 | 2012-04-25 | 中国科学院自动化研究所 | 一种基于两幅图像的三维头部建模方法 |
CN103761765A (zh) * | 2013-12-25 | 2014-04-30 | 浙江慧谷信息技术有限公司 | 基于映射边界优化的三维物体模型纹理映射算法 |
CN104952111A (zh) * | 2014-03-31 | 2015-09-30 | 特里库比奇有限公司 | 采用便携式相机获得三维脸部模型的方法和装置 |
WO2016003258A1 (ko) * | 2014-07-04 | 2016-01-07 | 주식회사 인스바이오 | 치과 시술 시뮬레이션을 위한 얼굴모델 생성 방법 |
CN105719326A (zh) * | 2016-01-19 | 2016-06-29 | 华中师范大学 | 一种基于单张照片的真实感人脸生成方法 |
CN105957137A (zh) * | 2016-04-20 | 2016-09-21 | 上海交通大学 | 基于纹理映射的三维彩色模型图像处理方法 |
Non-Patent Citations (1)
Title |
---|
杨臻等: "一种自动鲁棒的三维人脸重建方法", 《微计算机信息》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829930A (zh) * | 2019-01-15 | 2019-05-31 | 深圳市云之梦科技有限公司 | 人脸图像处理方法、装置、计算机设备及可读存储介质 |
US20220180597A1 (en) * | 2019-03-12 | 2022-06-09 | Sony Group Corporation | Image processing apparatus, image processing method, and program |
US11798227B2 (en) * | 2019-03-12 | 2023-10-24 | Sony Group Corporation | Image processing apparatus and image processing method |
CN110189248A (zh) * | 2019-05-16 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 图像融合方法及装置、存储介质、电子设备 |
CN110335354A (zh) * | 2019-07-12 | 2019-10-15 | 网易(杭州)网络有限公司 | 一种模块化3d建模的方法和装置 |
CN110335354B (zh) * | 2019-07-12 | 2023-05-05 | 网易(杭州)网络有限公司 | 一种模块化3d建模的方法和装置 |
CN111260600A (zh) * | 2020-01-21 | 2020-06-09 | 维沃移动通信有限公司 | 一种图像处理方法、电子设备及介质 |
CN111260600B (zh) * | 2020-01-21 | 2023-08-22 | 维沃移动通信有限公司 | 一种图像处理方法、电子设备及介质 |
CN111612897A (zh) * | 2020-06-05 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置、设备及可读存储介质 |
CN111612897B (zh) * | 2020-06-05 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置、设备及可读存储介质 |
CN111862342A (zh) * | 2020-07-16 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 增强现实的纹理处理方法、装置、电子设备及存储介质 |
CN114463191A (zh) * | 2021-08-26 | 2022-05-10 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
CN114022528A (zh) * | 2021-11-02 | 2022-02-08 | 广州虎牙科技有限公司 | 图像处理方法和装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN108876886B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108876886A (zh) | 图像处理方法、装置和计算机设备 | |
Zollmann et al. | Image-based ghostings for single layer occlusions in augmented reality | |
Kalkofen et al. | Visualization techniques for augmented reality | |
US11961200B2 (en) | Method and computer program product for producing 3 dimensional model data of a garment | |
Grasset et al. | Image-driven view management for augmented reality browsers | |
WO2019223463A1 (zh) | 图像处理方法、装置、存储介质和计算机设备 | |
JP5299173B2 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
Macedo et al. | Occlusion handling in augmented reality: past, present and future | |
KR20180108709A (ko) | 사용자의 현실적인 신체 모델에 가상으로 옷을 입혀보는 방법 | |
KR20230085931A (ko) | 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템 | |
CN109964254A (zh) | 用于在虚拟视图中渲染对象的方法和系统 | |
KR20230110787A (ko) | 개인화된 3d 머리 및 얼굴 모델들을 형성하기 위한 방법들 및 시스템들 | |
Wang et al. | People as scene probes | |
CN116958344A (zh) | 虚拟形象的动画生成方法、装置、计算机设备及存储介质 | |
CN113870404A (zh) | 一种3d模型的皮肤渲染方法及设备 | |
US10803677B2 (en) | Method and system of automated facial morphing for eyebrow hair and face color detection | |
Wither et al. | Fast annotation and modeling with a single-point laser range finder | |
CN112819741A (zh) | 一种图像融合方法、装置,电子设备及存储介质 | |
CN114066715A (zh) | 图像风格迁移方法、装置、电子设备以及存储介质 | |
CN111107264A (zh) | 图像处理方法、装置、存储介质以及终端 | |
CN116580398A (zh) | 体积渲染中注释标签的动态布局优化 | |
KR20120118462A (ko) | 이미지 기반의 비주얼 헐에서의 오목 표면 모델링 | |
US12080009B2 (en) | Multi-channel high-quality depth estimation system to provide augmented and virtual realty features | |
Arpa et al. | Perceptual 3D rendering based on principles of analytical cubism | |
Eskandari et al. | Diminished reality in architectural and environmental design: Literature review of techniques, applications, and challenges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |