CN107180453B - 人物面部模型的编辑方法及装置 - Google Patents
人物面部模型的编辑方法及装置 Download PDFInfo
- Publication number
- CN107180453B CN107180453B CN201610136300.1A CN201610136300A CN107180453B CN 107180453 B CN107180453 B CN 107180453B CN 201610136300 A CN201610136300 A CN 201610136300A CN 107180453 B CN107180453 B CN 107180453B
- Authority
- CN
- China
- Prior art keywords
- facial
- model
- operated
- character face
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种人物面部模型的编辑方法及装置。其中,该方法包括:检测光标在显示的人物面部模型中的位置,其中,显示的人物面部模型包括多个面部部位;根据位置确定多个面部部位中的待操作面部部位;检测到对待操作面部部位的选中操作;响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;在人物面部模型中显示编辑后的待操作面部部位。本发明解决了由于采用现有的人物面部模型编辑方法所导致的编辑操作的复杂度较高的技术问题。
Description
技术领域
本发明涉及计算机领域,具体而言,涉及一种人物面部模型的编辑方法及装置。
背景技术
目前,在现有的人物面部模型编辑过程中,往往是通过调整控制器中不同的滑块在进度条中的位置来实现的。例如,在编辑人物面部模型中的眼睛部位时,常常需要在与眼睛部位对应的非常长的控制列表中,依次拖动调整不同的滑块在进度条中的位置,从而完成对眼睛部位的全部编辑。这样,玩家不仅要确保光标所选中的是对应的滑块,而且同时还要确认编辑过程中面部的实际变化效果。
也就是说,采用现有的面部模型编辑方式,需要不停地在面部和滑块之间进行切换,不仅用户体验较差,编辑过程不直观,而且编辑操作繁琐,增加了操作复杂度和开发难度。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种人物面部模型的编辑方法及装置,以至少解决由于采用现有的人物面部模型编辑方法所导致的编辑操作的复杂度较高的技术问题。
根据本发明实施例的一个方面,提供了一种人物面部模型的编辑方法,包括:检测光标在显示的人物面部模型中的位置,其中,上述显示的人物面部模型包括多个面部部位;根据上述位置确定上述多个面部部位中的待操作面部部位;检测到对上述待操作面部部位的选中操作;响应获取到的对上述待操作面部部位的编辑操作对上述待操作面部部位进行编辑;在上述人物面部模型中显示编辑后的上述待操作面部部位。
根据本发明实施例的另一方面,还提供了一种人物面部模型的编辑装置,包括:第一检测单元,用于检测光标在显示的人物面部模型中的位置,其中,上述显示的人物面部模型包括多个面部部位;确定单元,用于根据上述位置确定上述多个面部部位中的待操作面部部位;第二检测单元,用于检测到对上述待操作面部部位的选中操作;编辑单元,用于响应获取到的对上述待操作面部部位的编辑操作对上述待操作面部部位进行编辑;第一显示单元,用于在上述人物面部模型中显示编辑后的上述待操作面部部位。
在本发明实施例中,通过根据在终端所显示的人物面部模型中检测到的光标的位置,确定人物面部模型的多个面部部位中的待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑,以在人物面部模型中显示编辑后的待操作面部部位。也就是说,通过检测光标所在的位置,确定在人物面部模型的多个面部部位中所选中的待操作面部部位,以便于对待操作面部部位直接完成编辑过程,而无需在额外的控制列表中拖动对应的滑块,使用户可以对人物面部模型直接进行面部拾取编辑,从而实现简化对人物面部模型的编辑操作,进而克服了在人物面部模型与控制列表中的滑块之间的切换所导致的操作复杂度较高的问题。
进一步,通过对人物面部模型中的面部部位直接进行编辑操作,使用户可以直观地看到显示的编辑操作,实现所见即所得,从而使编辑操作可以更加贴近用户需求,改善了用户体验。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的人物面部模型的编辑方法的应用环境示意图;
图2是根据本发明实施例的一种可选的人物面部模型的编辑方法的流程图;
图3是根据本发明实施例的一种可选的人物面部模型的编辑方法的示意图;
图4是根据本发明实施例的另一种可选的人物面部模型的编辑方法的示意图;
图5是根据本发明实施例的又一种可选的人物面部模型的编辑方法的示意图;
图6是根据本发明实施例的又一种可选的人物面部模型的编辑方法的示意图;
图7是根据本发明实施例的一种可选的人物面部模型的编辑装置的示意图;
图8是根据本发明实施例的一种可选的人物面部模型的编辑终端的示意图;
图9是根据本发明实施例的又一种可选的人物面部模型的编辑方法的示意图;
图10是根据本发明实施例的又一种可选的人物面部模型的编辑方法的示意图;以及
图11是根据本发明实施例的又一种可选的人物面部模型的编辑方法的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种人物面部模型的编辑方法的实施例,上述人物面部模型的编辑方法可以但不限于应用于如图1所示的应用环境中,终端102在通过网络104从服务器106获取到人物面部模型后,检测光标在终端102显示的人物面部模型中的位置,其中,显示的人物面部模型包括多个面部部位;根据上述位置确定多个面部部位中的待操作面部部位;检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;从而实现在人物面部模型中显示编辑后的待操作面部部位。可选地,在本实施例中,上述终端可以包括但不限于以下至少之一:手机、平板电脑、笔记本电脑、PC机。上述只是一种示例,本实施例对此不做任何限定。
根据本发明实施例,提供了一种人物面部模型的编辑方法,如图2所示,该方法包括:
S202,检测光标在显示的人物面部模型中的位置,其中,显示的人物面部模型包括多个面部部位;
S204,根据位置确定多个面部部位中的待操作面部部位;
S206,检测到对待操作面部部位的选中操作;
S208,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;
S210,在人物面部模型中显示编辑后的待操作面部部位。
可选地,在本实施例中,上述人物面部模型的编辑方法可以但不限于应用于终端应用中的人物角色创建过程中,为人物角色编辑对应的人物面部模型。例如,以游戏应用为例,在为玩家创建游戏应用中的人物角色时,可以通过检测光标在所显示的人物面部模型的多个面部部位中所在的位置确定待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的编辑操作进行对应的编辑操作。如图3所示,通过光标所在位置选中人物面部模型中的眉毛部位(如图3左侧所示虚线框),在获取到对该部位的编辑操作(如旋转操作)后,则可以对该眉毛部位进行编辑,并在人物面部模型中显示编辑后的眉毛部位(如图3右侧所示虚线框)。从而实现简化对人物角色的人物面部模型的编辑操作,为玩家快速准确地显示编辑后的人物角色。上述举例仅是一种示例,本实施例中对人物面部模型的编辑方法所适用的终端应用的类型不做任何限定。
需要说明的是,在本实施例中,通过根据在终端所显示的人物面部模型中检测到的光标的位置,确定人物面部模型的多个面部部位中的待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑,以在人物面部模型中显示编辑后的待操作面部部位。也就是说,通过检测光标所在的位置,确定在人物面部模型的多个面部部位中所选中的待操作面部部位,以便于对待操作面部部位直接完成编辑过程,而无需在额外的控制列表中拖动对应的滑块,使用户可以对人物面部模型直接进行面部拾取编辑,从而实现简化对人物面部模型的编辑操作,进而克服了在人物面部模型与控制列表中的滑块之间的切换所导致的操作复杂度较高的问题。进一步,通过对人物面部模型中的面部部位直接进行编辑操作,使用户可以直观地看到显示的编辑操作,实现所见即所得,从而使编辑操作可以更加贴近用户需求,改善了用户体验。
需要说明的是,在本实施例中,上述光标所在位置可以但不限于用于指示鼠标在屏幕上显示的对应位置。
可选地,在本实施例中,检测到对待操作面部部位的选中操作时,可以包括但不限于:对待操作面部部位进行特殊显示。例如将该面部部位高亮显示、或在该面部部位显示阴影等。本实施例中对此不做任何限定。
可选地,在本实施例中,上述编辑可以包括以下至少之一:对待操作面部部位进行移动;对待操作面部部位进行旋转;对待操作面部部位进行放大;对待操作面部部位进行缩小。
可选地,在本实施例中,根据光标所在位置确定多个面部部位中的待操作面部部位包括:
S1,获取该位置上的像素点的颜色值;
S2,确定多个面部部位中与颜色值对应的待操作面部部位。
可选地,在本实施例中,获取位置上的像素点的颜色值可以包括但不限于:获取蒙板贴图中与位置对应的像素点的颜色值,其中,蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位,其中,上述像素点的颜色值可以包括以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
需要说明的是,在本实施例中,贴合在人物面部模型上的蒙板贴图上的每一个蒙板区域分别与人物面部模型上的一个面部部位对应。也就是说,通过光标选中贴合在人物面部模型之上的蒙板贴图上的蒙板区域,就可以实现选中人物面部模型中对应的面部部位,从而实现对人物面部模型上的面部部位的直接编辑,达到简化编辑操作的目的。
例如,在本实施例中,可以但不限于通过以下代码构建蒙板贴图:
其中,maskColor.r用于指示红通道,maskColor.b用于指示蓝通道。
此外,在本实施例中,可以但不限于预先设置蒙板贴图中各个蒙板区域与对应的像素点的颜色值的映射关系。例如,如表1所示人物面部模型中鼻子具体包括6个部位,对每个部位分别设置一个红色颜色值(以R颜色值表示),为了避免误差,例如每个数值之间可以但不限于相差最少10个单位。
表1
表1(续)
也就是说,确定多个面部部位中与颜色值对应的待操作面部部位可以包括但不限于:在获取蒙板贴图中与位置对应的像素点的颜色值后,可以通过查询映射关系获取与该像素点的颜色值对应的蒙板区域,进而获取与该蒙板区域对应的待操作面部部位。
可选地,在本实施例中,可以但不限于使用像素拾取(pixel picking)的面部拾取技术来检测光标在显示的人物面部模型中的位置。其中,Pixel picking是以模型物件为单位的拾取技术,是一种通过检测光标在显示屏幕上选择或点击的某个虚拟物件并与之交互的方法。其中,上述虚拟物件可以但不限于对应人物面部模型中的面部部位。
需要说明的是,在本实施例中,对每个虚拟物件(即面部部位)设置一个标识ID,然后将所有可拾取虚拟物件绘制在一个render target上,ID通过常量寄存器传入。最后通过GetRenderTarget()(即Direct3D里的一个函数)来获取当前光标所在位置的部位的ID。
可选地,在本实施例中,在检测光标在显示的人物面部模型中的位置之前,还可以包括:显示人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
其中,获取人物面部模型的过程可以如下:
面部拾取系统实际上是对贴图色彩敏感的一种拾取方法,实现的核心HLSL代码:
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb=param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1=float4(1.0f,1.0f,0,depth);//magic code marking forfacial mask map
需要说明的是,通过下面代码获取屏幕显示的人物面部模型:
tex2D(FacialMaskSampler,param.uv0);
result.color1=float4(1.0f,1.0f,0,depth);
S2,给屏幕中每个像素都设置一个验证码,通过该验证码验证是否属于人物面部模型。只有符合验证码的像素(等于(1.0,1.0,0)),才会用来按照人物面部模型来处理:
S4,通过检测光标在屏幕上的位置,和屏幕当前分辨率,计算出用户光标所在位置选择的像素。
通过本申请提供的实施例,通过根据在终端所显示的人物面部模型中检测到的光标的位置,确定人物面部模型的多个面部部位中的待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑,以在人物面部模型中显示编辑后的待操作面部部位。也就是说,通过检测光标所在的位置,确定在人物面部模型的多个面部部位中所选中的待操作面部部位,以便于对待操作面部部位直接完成编辑过程,而无需在额外的控制列表中拖动对应的滑块,使用户可以对人物面部模型直接进行面部拾取编辑,从而实现简化对人物面部模型的编辑操作,进而克服了在人物面部模型与控制列表中的滑块之间的切换所导致的操作复杂度较高的问题。
作为一种可选的方案,根据位置确定多个面部部位中的待操作面部部位包括:
S1,获取位置上的像素点的颜色值;
S2,确定多个面部部位中与颜色值对应的待操作面部部位。
可选地,在本实施例中,上述像素点的颜色值可以但不限于蒙板贴图中与光标所在位置对应的像素点的颜色值。其中,上述蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位。
可选地,在本实施例中,上述蒙板贴图中与光标位置对应的像素点的颜色值可以包括但不限于红色通道的颜色值和蓝色通道的颜色值。其中,像素点的颜色值可以包括但不限于以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
需要说明的是,在本实施例中,红色通道的颜色值构成的人物面部可以如图4所示(图像应显示为红色),不同阴影表示不同程度的红色,左斜纹的填充区域的颜色比波点填充区域的颜色更亮,波点填充区域的颜色比横斜纹的填充区域的颜色更亮。蓝色通道的颜色值构成的人物面部可以如图5所示(图像应显示为蓝色)。
可选地,在本实施例中,可以但不限于预先设置蒙板贴图中各个蒙板区域与对应的像素点的颜色值的映射关系。从而实现通过光标所在位置的像素点的颜色值,确定人物面部模型与颜色值对应的蒙板区域,进而确定多个面部部位中的待操作面部部位。
例如,结合表1所示,在获取光标所在位置上的像素点的R颜色值为200时,则通过查找预先设置的映射关系可以确定对应的蒙板区域,进而获取与该蒙板区域对应的待操作面部部位为“鼻梁”。
通过本申请提供的实施例,通过获取到的光标所在位置上的像素点的颜色值,确定多个面部部位中与颜色值对应的待操作面部部位。也就是说,利用与光标所在位置的像素点的颜色值确定待操作面部部位,从而实现直接对人物面部模型中的面部部位进行编辑操作,以达到简化编辑操作的目的。
作为一种可选的方案,获取位置上的像素点的颜色值包括:
S1,获取蒙板贴图中与位置对应的像素点的颜色值,其中,蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位;
其中,像素点的颜色值包括以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
具体结合以下示例进行说明,根据人体解剖学,按照48根骨骼可以影响的肌肉分类,从而得到一个肌肉部位控制列表,并对每个部位设置一个红色颜色值(以R颜色值表示),为了避免误差,每个数值之间相差最少10个单位。进一步根据这些部位在人物面部的分布情况,利用这些部位对应的像素点的颜色值可以得到与人物面部模型对应的蒙板贴图,如表2所示(部分部位):
表2
也就是说,根据上述映射关系中的像素点的颜色值可以绘制与人物面部模型对应的蒙板贴图,该蒙板贴图贴合在人物面部模型之上,蒙板贴图包括的多个蒙板区域与多个面部部位一一对应的。
通过本申请提供的实施例,通过结合贴合在人物面部模型上的蒙板贴图来获取对应的像素点的颜色值,从而实现准确获取光标所在位置上的像素点的颜色值,以便于根据该颜色值获取对应的待操作面部部位。
作为一种可选的方案,在检测光标在显示的人物面部模型中的位置之前,还包括:
S1,显示人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
具体结合以下示例进行说明,在检测光标在显示的人物面部模型中的位置之前,在终端屏幕上显示如图6所示效果的人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
通过本申请提供的实施例,通过在检测光标在显示的人物面部模型中的位置之前,预先显示人物面部模型和生成的蒙板贴图结合后的图像,从而便于在检测光标所在位置时,可以通过蒙板贴图直接快速地获取对应的位置,进而准确获取人物面部模型的多个面部部位中的待操作面部部位,达到提高编辑效率的目的。
作为一种可选的方案,检测到对待操作面部部位的选中操作时,还包括:
S1,在人物面部模型中对待操作面部部位进行高亮显示。
可选地,在本实施例中,检测到对待操作面部部位的选中操作时,可以包括但不限于:对待操作面部部位进行特殊显示。例如将该面部部位高亮显示、或在该面部部位显示阴影等。本实施例中对此不做任何限定。
通过本申请提供的实施例,通过将待操作面部部位进行高亮显示,从而使用户可以直观地看到对人物面部模型中的面部部位所进行的编辑操作,实现所见即所得,从而使编辑操作可以更加贴近用户需求,改善了用户体验。
作为一种可选的方案,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑包括以下至少之一:
1)对待操作面部部位进行移动;
2)对待操作面部部位进行旋转;
3)对待操作面部部位进行放大;
4)对待操作面部部位进行缩小。
可选地,在本实施例中,实现上述编辑的操作方式可以但不限于以下至少之一:点击、拖拽。也就是说,可以通过不同的操作方式的组合以实现对待操作面部部位进行以下至少一种编辑:移动、旋转、放大、缩小。
例如,如图3所示,通过点击选中待操作部位,并进行旋转缩小移动等编辑,就可以实现由图3左侧至图3右侧所示内容的编辑过程。
通过本申请提供的实施例,通过直接在人物面部模型上对待操作面部部位进行不同的编辑,从而达到简化编辑操作,提高编辑效率,克服现有技术中操作复杂度较高的问题。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例2
根据本发明实施例,还提供了一种用于实施上述人物面部模型的编辑方法的人物面部模型的编辑装置,如图7所示,该装置包括:
1)第一检测单元702,用于检测光标在显示的人物面部模型中的位置,其中,显示的人物面部模型包括多个面部部位;
2)确定单元704,用于根据位置确定多个面部部位中的待操作面部部位;
3)第二检测单元706,用于检测到对待操作面部部位的选中操作;
4)编辑单元708,用于响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;
5)第一显示单元710,用于在人物面部模型中显示编辑后的待操作面部部位。
可选地,在本实施例中,上述人物面部模型的编辑装置可以但不限于应用于终端应用中的人物角色创建过程中,为人物角色编辑对应的人物面部模型。例如,以游戏应用为例,在为玩家创建游戏应用中的人物角色时,可以通过检测光标在所显示的人物面部模型的多个面部部位中所在的位置确定待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的编辑操作进行对应的编辑操作。如图3所示,通过光标所在位置选中人物面部模型中的眉毛部位(如图3左侧所示虚线框),在获取到对该部位的编辑操作(如旋转操作)后,则可以对该眉毛部位进行编辑,并在人物面部模型中显示编辑后的眉毛部位(如图3右侧所示虚线框)。从而实现简化对人物角色的人物面部模型的编辑操作,为玩家快速准确地显示编辑后的人物角色。上述举例仅是一种示例,本实施例中对人物面部模型的编辑装置所适用的终端应用的类型不做任何限定。
需要说明的是,在本实施例中,通过根据在终端所显示的人物面部模型中检测到的光标的位置,确定人物面部模型的多个面部部位中的待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑,以在人物面部模型中显示编辑后的待操作面部部位。也就是说,通过检测光标所在的位置,确定在人物面部模型的多个面部部位中所选中的待操作面部部位,以便于对待操作面部部位直接完成编辑过程,而无需在额外的控制列表中拖动对应的滑块,使用户可以对人物面部模型直接进行面部拾取编辑,从而实现简化对人物面部模型的编辑操作,进而克服了在人物面部模型与控制列表中的滑块之间的切换所导致的操作复杂度较高的问题。进一步,通过对人物面部模型中的面部部位直接进行编辑操作,使用户可以直观地看到显示的编辑操作,实现所见即所得,从而使编辑操作可以更加贴近用户需求,改善了用户体验。
需要说明的是,在本实施例中,上述光标所在位置可以但不限于用于指示鼠标在屏幕上显示的对应位置。
可选地,在本实施例中,检测到对待操作面部部位的选中操作时,可以包括但不限于:对待操作面部部位进行特殊显示。例如将该面部部位高亮显示、或在该面部部位显示阴影等。本实施例中对此不做任何限定。
可选地,在本实施例中,上述编辑可以包括以下至少之一:对待操作面部部位进行移动;对待操作面部部位进行旋转;对待操作面部部位进行放大;对待操作面部部位进行缩小。
可选地,在本实施例中,根据光标所在位置确定多个面部部位中的待操作面部部位包括:
S1,获取该位置上的像素点的颜色值;
S2,确定多个面部部位中与颜色值对应的待操作面部部位。
可选地,在本实施例中,获取位置上的像素点的颜色值可以包括但不限于:获取蒙板贴图中与位置对应的像素点的颜色值,其中,蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位,其中,上述像素点的颜色值可以包括以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
需要说明的是,在本实施例中,贴合在人物面部模型上的蒙板贴图上的每一个蒙板区域分别与人物面部模型上的一个面部部位对应。也就是说,通过光标选中贴合在人物面部模型之上的蒙板贴图上的蒙板区域,就可以实现选中人物面部模型中对应的面部部位,从而实现对人物面部模型上的面部部位的直接编辑,达到简化编辑操作的目的。
此外,在本实施例中,可以但不限于预先设置蒙板贴图中各个蒙板区域与对应的像素点的颜色值的映射关系。例如,如表3所示人物面部模型中鼻子具体包括6个部位,对每个部位分别设置一个红色颜色值(以R颜色值表示),为了避免误差,例如每个数值之间可以但不限于相差最少10个单位。
表3
也就是说,确定多个面部部位中与颜色值对应的待操作面部部位可以包括但不限于:在获取蒙板贴图中与位置对应的像素点的RGB颜色值后,可以通过查询映射关系获取与该像素点的颜色值对应的蒙板区域,进而获取与该蒙板区域对应的待操作面部部位。
可选地,在本实施例中,可以但不限于使用像素拾取(pixel picking)的面部拾取技术来检测光标在显示的人物面部模型中的位置。其中,Pixel picking是以模型物件为单位的拾取技术,是一种通过检测光标在显示屏幕上选择或点击的某个虚拟物件并与之交互的方法。其中,上述虚拟物件可以但不限于对应人物面部模型中的面部部位。
需要说明的是,在本实施例中,对每个虚拟物件(即面部部位)设置一个标识ID,然后将所有可拾取虚拟物件绘制在一个render target上,ID通过常量寄存器传入。最后通过GetRenderTarget()(即Direct3D里的一个函数)来获取当前光标所在位置的部位的ID。
可选地,在本实施例中,在检测光标在显示的人物面部模型中的位置之前,还可以包括:显示人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
其中,获取人物面部模型的过程可以如下:
面部拾取系统实际上是对贴图色彩敏感的一种拾取方法,实现的核心HLSL代码:
result.color0=tex2D(FacialMaskSampler,param.uv0);
result.color0.gb=param.uv0.xy;
floatdepth=EncodeFloatToRGBA8(param.homoDepth.x/param.homoDepth.y);
result.color1=float4(1.0f,1.0f,0,depth);//magic code marking forfacial mask map
需要说明的是,通过下面代码获取屏幕显示的人物面部模型:
tex2D(FacialMaskSampler,param.uv0);
result.color1=float4(1.0f,1.0f,0,depth);
S2,给屏幕中每个像素都设置一个验证码,通过该验证码验证是否属于人物面部模型。只有符合验证码的像素(等于(1.0,1.0,0)),才会用来按照人物面部模型来处理:
S4,通过检测光标在屏幕上的位置,和屏幕当前分辨率,计算出用户光标所在位置选择的像素。
通过本申请提供的实施例,通过根据在终端所显示的人物面部模型中检测到的光标的位置,确定人物面部模型的多个面部部位中的待操作面部部位,并在检测到对待操作面部部位的选中操作后,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑,以在人物面部模型中显示编辑后的待操作面部部位。也就是说,通过检测光标所在的位置,确定在人物面部模型的多个面部部位中所选中的待操作面部部位,以便于对待操作面部部位直接完成编辑过程,而无需在额外的控制列表中拖动对应的滑块,使用户可以对人物面部模型直接进行面部拾取编辑,从而实现简化对人物面部模型的编辑操作,进而克服了在人物面部模型与控制列表中的滑块之间的切换所导致的操作复杂度较高的问题。
作为一种可选的方案,确定单元包括:
1)获取模块,用于获取位置上的像素点的颜色值;
2)确定模块,用于确定多个面部部位中与颜色值对应的待操作面部部位。
可选地,在本实施例中,上述像素点的颜色值可以但不限于蒙板贴图中与光标所在位置对应的像素点的颜色值。其中,上述蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位。
可选地,在本实施例中,上述蒙板贴图中与光标位置对应的像素点的颜色值可以包括但不限于红色通道的颜色值和蓝色通道的颜色值。其中,像素点的颜色值可以包括但不限于以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
需要说明的是,在本实施例中,红色通道的颜色值构成的人物面部可以如图4所示(图像应显示为红色),不同阴影表示不同程度的红色,左斜纹的填充区域的颜色比波点填充区域的颜色更亮,波点填充区域的颜色比横斜纹的填充区域的颜色更亮。蓝色通道的颜色值构成的人物面部可以如图5所示(图像应显示为蓝色)。
可选地,在本实施例中,可以但不限于预先设置蒙板贴图中各个蒙板区域与对应的像素点的颜色值的映射关系。从而实现通过光标所在位置的像素点的颜色值,确定人物面部模型与颜色值对应的蒙板区域,进而确定多个面部部位中的待操作面部部位。
例如,结合表3所示,在获取光标所在位置上的像素点的R颜色值为200时,则通过查找预先设置的映射关系可以确定对应的蒙板区域,进而获取与该蒙板区域对应的待操作面部部位为“鼻梁”。
通过本申请提供的实施例,通过获取到的光标所在位置上的像素点的颜色值,确定多个面部部位中与颜色值对应的待操作面部部位。也就是说,利用与光标所在位置的像素点的颜色值确定待操作面部部位,从而实现直接对人物面部模型中的面部部位进行编辑操作,以达到简化编辑操作的目的。
作为一种可选的方案,获取模块包括:
1)获取子模块,用于获取蒙板贴图中与位置对应的像素点的颜色值,其中,蒙板贴图贴合在人物面部模型之上,蒙板贴图包括与多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位;
其中,像素点的颜色值包括以下之一:像素点的红色颜色值、像素点的绿色颜色值、像素点的蓝色颜色值。
具体结合以下示例进行说明,根据人体解剖学,按照48根骨骼可以影响的肌肉分类,从而得到一个肌肉部位控制列表,并对每个部位设置一个红色颜色值(以R颜色值表示),为了避免误差,每个数值之间相差最少10个单位。进一步根据这些部位在人物面部的分布情况,利用这些部位对应的像素点的颜色值可以得到与人物面部模型对应的蒙板贴图,如表4所示(部分部位):
表4
表4(续)
也就是说,根据上述映射关系中的像素点的颜色值可以绘制与人物面部模型对应的蒙板贴图,该蒙板贴图贴合在人物面部模型之上,蒙板贴图包括的多个蒙板区域与多个面部部位一一对应的。
通过本申请提供的实施例,通过结合贴合在人物面部模型上的蒙板贴图来获取对应的像素点的颜色值,从而实现准确获取光标所在位置上的像素点的颜色值,以便于根据该颜色值获取对应的待操作面部部位。
作为一种可选的方案,还包括:
1)第二显示单元,用于在检测光标在显示的人物面部模型中的位置之前,显示人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
具体结合以下示例进行说明,在检测光标在显示的人物面部模型中的位置之前,在终端屏幕上显示如图6所示效果的人物面部模型和生成的蒙板贴图,其中,蒙板贴图被设置为贴合在人物面部模型之上。
通过本申请提供的实施例,通过在检测光标在显示的人物面部模型中的位置之前,预先显示人物面部模型和生成的蒙板贴图结合后的图像,从而便于在检测光标所在位置时,可以通过蒙板贴图直接快速地获取对应的位置,进而准确获取人物面部模型的多个面部部位中的待操作面部部位,达到提高编辑效率的目的。
作为一种可选的方案,还包括:
1)第三显示单元,用于在检测到对待操作面部部位的选中操作时,在人物面部模型中对待操作面部部位进行高亮显示。
可选地,在本实施例中,检测到对待操作面部部位的选中操作时,可以包括但不限于:对待操作面部部位进行特殊显示。例如将该面部部位高亮显示、或在该面部部位显示阴影等。本实施例中对此不做任何限定。
通过本申请提供的实施例,通过将待操作面部部位进行高亮显示,从而使用户可以直观地看到对人物面部模型中的面部部位所进行的编辑操作,实现所见即所得,从而使编辑操作可以更加贴近用户需求,改善了用户体验。
作为一种可选的方案,编辑单元包括以下至少之一:
1)第一编辑模块,用于对待操作面部部位进行移动;
2)第二编辑模块,用于对待操作面部部位进行旋转;
3)第三编辑模块,用于对待操作面部部位进行放大;
4)第四编辑模块,用于对待操作面部部位进行缩小。
可选地,在本实施例中,实现上述编辑的操作方式可以但不限于以下至少之一:点击、拖拽。也就是说,可以通过不同的操作方式的组合以实现对待操作面部部位进行以下至少一种编辑:移动、旋转、放大、缩小。
例如,如图3所示,通过点击选中待操作部位,并进行旋转缩小移动等编辑,就可以实现由图3左侧至图3右侧所示内容的编辑过程。
通过本申请提供的实施例,通过直接在人物面部模型上对待操作面部部位进行不同的编辑,从而达到简化编辑操作,提高编辑效率,克服现有技术中操作复杂度较高的问题。
实施例3
根据本发明实施例,还提供了一种用于实施上述人物面部模型的编辑方法的人物面部模型的编辑终端,如图8所示,该终端包括:
1)通讯接口802,设置为获取人物面部模型,其中,人物面部模型包括多个面部部位;
2)存储器804,与通讯接口802连接,设置为存储人物面部模型;
3)处理器806,与通讯接口802及存储器804连接,设置为检测光标在显示的人物面部模型中的位置;还设置为根据位置确定多个面部部位中的待操作面部部位;还设置为检测到对待操作面部部位的选中操作;还设置为响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;还设置为在人物面部模型中显示编辑后的待操作面部部位。
可选地,本实施例中的具体示例可以参考上述实施例1和实施例2中所描述的示例,本实施例在此不再赘述。
实施例4
本发明实施例提供了用于实施上述人物面部模型的编辑方法的应用场景,该实施例的应用环境与实施例1与实施例2相同,本实施例在此不再赘述。
可选地,在本实施例中,可以但不限于将上述人物面部模型的编辑方法应用于游戏人物面部的化妆过程中,或游戏人物面部的整容过程中。例如,为了使游戏人物面部更加精致美观,通过采用上述实施例中提供的人物面部模型的编辑方法对游戏人物的面部进行编辑,从而达到改善客户端所显示的游戏人物的面部精细度的目的,实现提高用户体验的效果。
作为一种可选的实施例,以应用于游戏人物面部的化妆过程为例。例如,将游戏人物在UV空间中有效的部分裁切出来,并对裁切后的面部区域应用上述编辑方法,以建立不同的人物面部模型,如对裁切后的眼睛部位设计多种样式的眼妆。这样如图9所示,在构造游戏人物的面部形象时,可以在面部基础贴图(如图9右侧所示)上为各个局部部位区域选择不同的妆容替换,例如,对所提供的可替换资源:眼部部位(图9所示为眉毛)的妆容切图(如图9中间所示)进行选择,假设选择了实线框中所示的妆容,则可以得到最终的游戏人物的面部形象,如图9左侧所示。从而使游戏人物的妆容更加多样化,达到丰富游戏人物的角色形象的效果。
获取局部部位区域的切图的具体过程可以如下:
S1,将DiffuseMap、SpecularMap、NormalMap中有效的部分按照2的N次幂的尺寸裁切出来(16*16,32*32,32*64,64*128),并记录好坐标位置;
S2,注册表配置:
mMakeupID="171"(妆容的美术资源ID)
<mTexSizeBias v="512"/><mTexSizeBias v="128"/>(裁切的贴图尺寸)
<mTexSizeBias v="512"<mTexSizeBias v="436"(该贴图在原来尺寸贴图中的指标位置)
具体可以为:
<mFacialMakeupParts mMakeupID=“171”mMakeupID=“EMP_Eyebrow”mSexualType=“1”mDiffuseFilePath=“F_Eyebrow_0001_D.dds”mSpecFilePath=“F_Eyebrow_0001_S.dds”mNormalFilePath=“F_Eyebrow_0001_N.dds”mIconImage=“F_Eyebrow_0001”>
<mTexSizeBias IsStaticArray=“1”ArrayCount=“4”[XlsProp]=“0”>
<mTexSizeBias v=“512”/>
<mTexSizeBias v=“128”/>
<mTexSizeBias v=“512”/>
<mTexSizeBias v=“436”/>
</mTexSizeBias>
</mFacialMakeupParts>
例如,如图10所示,在选择裁切对象为眼部部位(如眉毛)后,对DiffuseMap、SpecularMap、NormalMap中对应的内容进行裁切,将原始尺寸为1024*1024的内容,裁切为裁切尺寸为512*128的内容。
进一步,在经裁切得到各个局部部位区域的不同切图后,构造游戏人物的过程中,可以但不限于通过点击直接选择所需的切图来构造游戏人物面部。如图11所示,对“眼妆”、“唇妆”、“皮肤”等内容的各个切图进行选择替换,以得到所需的面部形象。
需要说明的是,由于现有技术通常采用枯燥且繁杂的滑条方式进行面部编辑,因而,采用本实施例中提供的人物面部的编辑方法,不仅满足游戏应用中不同用户的需求,而且在应用运行的过程中,还可以保证用户在运行流畅的情况下,实现多样化的面部编辑,大大降低了系统消耗,且达到了丰富角色形象的目的。
实施例5
本发明的实施例还提供了一种存储介质。可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
S1,检测光标在显示的人物面部模型中的位置,其中,显示的人物面部模型包括多个面部部位;
S2,根据位置确定多个面部部位中的待操作面部部位;
S3,检测到对待操作面部部位的选中操作;
S4,响应获取到的对待操作面部部位的编辑操作对待操作面部部位进行编辑;
S5,在人物面部模型中显示编辑后的待操作面部部位。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
可选地,本实施例中的具体示例可以参考上述实施例1和实施例2中所描述的示例,本实施例在此不再赘述。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (12)
1.一种人物面部模型的编辑方法,其特征在于,包括:
检测光标在显示的人物面部模型中的位置,其中,所述显示的人物面部模型包括多个面部部位;
根据所述位置确定所述多个面部部位中的待操作面部部位;
检测到对所述待操作面部部位的选中操作并对选中后的所述待操作面部部位进行特殊显示;
响应对所述待操作面部部位执行的编辑操作对所述待操作面部部位进行编辑;
在所述人物面部模型中显示编辑后的所述待操作面部部位;
其中,所述编辑操作包括以下至少之一:点击操作、拖拽操作。
2.根据权利要求1所述的方法,其特征在于,根据所述位置确定所述多个面部部位中的待操作面部部位包括:
获取所述位置上的像素点的颜色值;
确定所述多个面部部位中与所述颜色值对应的所述待操作面部部位。
3.根据权利要求2所述的方法,其特征在于,获取所述位置上的像素点的颜色值包括:
获取蒙板贴图中与所述位置对应的像素点的颜色值,其中,所述蒙板贴图贴合在所述人物面部模型之上,所述蒙板贴图包括与所述多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位;
其中,所述像素点的颜色值包括以下之一:所述像素点的红色颜色值、所述像素点的绿色颜色值、所述像素点的蓝色颜色值。
4.根据权利要求3所述的方法,其特征在于,在检测光标在显示的人物面部模型中的位置之前,还包括:
显示所述人物面部模型和生成的所述蒙板贴图,其中,所述蒙板贴图被设置为贴合在所述人物面部模型之上。
5.根据权利要求1所述的方法,其特征在于,检测到对所述待操作面部部位的选中操作时,还包括:
在所述人物面部模型中对所述待操作面部部位进行高亮显示。
6.根据权利要求1至5中任一项所述的方法,其特征在于,响应获取到的对所述待操作面部部位的编辑操作对所述待操作面部部位进行编辑包括以下至少之一:
对所述待操作面部部位进行移动;
对所述待操作面部部位进行旋转;
对所述待操作面部部位进行放大;
对所述待操作面部部位进行缩小。
7.一种人物面部模型的编辑装置,其特征在于,包括:
第一检测单元,用于检测光标在显示的人物面部模型中的位置,其中,所述显示的人物面部模型包括多个面部部位;
确定单元,用于根据所述位置确定所述多个面部部位中的待操作面部部位;
第二检测单元,用于检测到对所述待操作面部部位的选中操作并对选中后的所述待操作面部部位进行特殊显示;
编辑单元,用于响应对所述待操作面部部位执行的编辑操作对所述待操作面部部位进行编辑;
第一显示单元,用于在所述人物面部模型中显示编辑后的所述待操作面部部位;
其中,所述编辑操作包括以下至少之一:点击操作、拖拽操作。
8.根据权利要求7所述的装置,其特征在于,所述确定单元包括:
获取模块,用于获取所述位置上的像素点的颜色值;
确定模块,用于确定所述多个面部部位中与所述颜色值对应的所述待操作面部部位。
9.根据权利要求8所述的装置,其特征在于,所述获取模块包括:
获取子模块,用于获取蒙板贴图中与所述位置对应的像素点的颜色值,其中,所述蒙板贴图贴合在所述人物面部模型之上,所述蒙板贴图包括与所述多个面部部位一一对应的多个蒙板区域,每个蒙板区域对应一个面部部位;
其中,所述像素点的颜色值包括以下之一:所述像素点的红色颜色值、所述像素点的绿色颜色值、所述像素点的蓝色颜色值。
10.根据权利要求9所述的装置,其特征在于,还包括:
第二显示单元,用于在检测光标在显示的人物面部模型中的位置之前,显示所述人物面部模型和生成的所述蒙板贴图,其中,所述蒙板贴图被设置为贴合在所述人物面部模型之上。
11.根据权利要求7所述的装置,其特征在于,还包括:
第三显示单元,用于在检测到对所述待操作面部部位的选中操作时,在所述人物面部模型中对所述待操作面部部位进行高亮显示。
12.根据权利要求7至11中任一项所述的装置,其特征在于,所述编辑单元包括以下至少之一:
第一编辑模块,用于对所述待操作面部部位进行移动;
第二编辑模块,用于对所述待操作面部部位进行旋转;
第三编辑模块,用于对所述待操作面部部位进行放大;
第四编辑模块,用于对所述待操作面部部位进行缩小。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610136300.1A CN107180453B (zh) | 2016-03-10 | 2016-03-10 | 人物面部模型的编辑方法及装置 |
KR1020187025694A KR102089473B1 (ko) | 2016-03-10 | 2017-03-09 | 안면 모델 편집 방법 및 장치 |
PCT/CN2017/076029 WO2017152848A1 (zh) | 2016-03-10 | 2017-03-09 | 人物面部模型的编辑方法及装置 |
JP2018545644A JP6661780B2 (ja) | 2016-03-10 | 2017-03-09 | 顔モデル編集方法及び装置 |
US16/111,922 US10628984B2 (en) | 2016-03-10 | 2018-08-24 | Facial model editing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610136300.1A CN107180453B (zh) | 2016-03-10 | 2016-03-10 | 人物面部模型的编辑方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107180453A CN107180453A (zh) | 2017-09-19 |
CN107180453B true CN107180453B (zh) | 2019-08-16 |
Family
ID=59788998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610136300.1A Active CN107180453B (zh) | 2016-03-10 | 2016-03-10 | 人物面部模型的编辑方法及装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10628984B2 (zh) |
JP (1) | JP6661780B2 (zh) |
KR (1) | KR102089473B1 (zh) |
CN (1) | CN107180453B (zh) |
WO (1) | WO2017152848A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108579091B (zh) * | 2018-04-27 | 2022-08-05 | 网易(杭州)网络有限公司 | 虚拟场景生成方法、装置、存储介质及电子设备 |
CN109285209B (zh) * | 2018-09-14 | 2023-05-26 | 网易(杭州)网络有限公司 | 游戏角色的面部模型的处理方法、装置、处理器及终端 |
CN110111417B (zh) * | 2019-05-15 | 2021-04-27 | 浙江商汤科技开发有限公司 | 三维局部人体模型的生成方法、装置及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021943A (zh) * | 2007-04-06 | 2007-08-22 | 北京中星微电子有限公司 | 一种图像调整的方法和系统 |
CN102999929A (zh) * | 2012-11-08 | 2013-03-27 | 大连理工大学 | 一种基于三角网格化的人物图像瘦脸处理方法 |
CN103392180A (zh) * | 2011-02-24 | 2013-11-13 | 西门子产品生命周期管理软件公司 | 针对建模对象的整体变形 |
CN104156912A (zh) * | 2014-08-18 | 2014-11-19 | 厦门美图之家科技有限公司 | 一种人像增高的图像处理的方法 |
CN104380339A (zh) * | 2013-04-08 | 2015-02-25 | 松下电器(美国)知识产权公司 | 能够将涂敷了化妆涂料的状态虚拟地再现的图像处理装置、图像处理方法、程序 |
CN104616330A (zh) * | 2015-02-10 | 2015-05-13 | 广州视源电子科技股份有限公司 | 一种图片的生成方法和装置 |
CN105389835A (zh) * | 2014-09-03 | 2016-03-09 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及终端 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5687259A (en) | 1995-03-17 | 1997-11-11 | Virtual Eyes, Incorporated | Aesthetic imaging system |
US6362829B1 (en) * | 1996-03-07 | 2002-03-26 | Agfa Corporation | Method for modifying a digital image |
KR20010056965A (ko) * | 1999-12-17 | 2001-07-04 | 박희완 | 부분 이미지 합성에 의한 인물 캐릭터 생성 방법 |
CN1296872C (zh) * | 2003-11-11 | 2007-01-24 | 易连科技股份有限公司 | 快速建立人脸影像平面模型的方法 |
US7593603B1 (en) * | 2004-11-30 | 2009-09-22 | Adobe Systems Incorporated | Multi-behavior image correction tool |
WO2007128117A1 (en) * | 2006-05-05 | 2007-11-15 | Parham Aarabi | Method. system and computer program product for automatic and semi-automatic modification of digital images of faces |
US20090231356A1 (en) * | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Graphical user interface for selection of options from option groups and methods relating to same |
WO2011120206A1 (en) * | 2010-04-02 | 2011-10-06 | Nokia Corporation | Methods and apparatuses for face detection |
JP2012004719A (ja) * | 2010-06-15 | 2012-01-05 | Nikon Corp | 画像処理装置及びプログラム、並びに電子カメラ |
CN103207745B (zh) * | 2012-01-16 | 2016-04-13 | 上海那里信息科技有限公司 | 虚拟化身交互系统和方法 |
US9747716B1 (en) * | 2013-03-15 | 2017-08-29 | Lucasfilm Entertainment Company Ltd. | Facial animation models |
CN104103090A (zh) * | 2013-04-03 | 2014-10-15 | 北京三星通信技术研究有限公司 | 图像处理方法、个性化人体显示方法及其图像处理系统 |
JP6171635B2 (ja) * | 2013-07-04 | 2017-08-02 | ティアック株式会社 | 編集処理装置及び編集処理プログラム |
KR20170046140A (ko) * | 2014-08-29 | 2017-04-28 | 톰슨 라이센싱 | 얼굴 이미지 편집 방법 및 디바이스 |
CN107924579A (zh) * | 2015-08-14 | 2018-04-17 | 麦特尔有限公司 | 生成个性化3d头部模型或3d身体模型的方法 |
US10417738B2 (en) * | 2017-01-05 | 2019-09-17 | Perfect Corp. | System and method for displaying graphical effects based on determined facial positions |
-
2016
- 2016-03-10 CN CN201610136300.1A patent/CN107180453B/zh active Active
-
2017
- 2017-03-09 KR KR1020187025694A patent/KR102089473B1/ko active IP Right Grant
- 2017-03-09 WO PCT/CN2017/076029 patent/WO2017152848A1/zh active Application Filing
- 2017-03-09 JP JP2018545644A patent/JP6661780B2/ja active Active
-
2018
- 2018-08-24 US US16/111,922 patent/US10628984B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021943A (zh) * | 2007-04-06 | 2007-08-22 | 北京中星微电子有限公司 | 一种图像调整的方法和系统 |
CN103392180A (zh) * | 2011-02-24 | 2013-11-13 | 西门子产品生命周期管理软件公司 | 针对建模对象的整体变形 |
CN102999929A (zh) * | 2012-11-08 | 2013-03-27 | 大连理工大学 | 一种基于三角网格化的人物图像瘦脸处理方法 |
CN104380339A (zh) * | 2013-04-08 | 2015-02-25 | 松下电器(美国)知识产权公司 | 能够将涂敷了化妆涂料的状态虚拟地再现的图像处理装置、图像处理方法、程序 |
CN104156912A (zh) * | 2014-08-18 | 2014-11-19 | 厦门美图之家科技有限公司 | 一种人像增高的图像处理的方法 |
CN105389835A (zh) * | 2014-09-03 | 2016-03-09 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置及终端 |
CN104616330A (zh) * | 2015-02-10 | 2015-05-13 | 广州视源电子科技股份有限公司 | 一种图片的生成方法和装置 |
Non-Patent Citations (1)
Title |
---|
脸萌"拼脸"的时代;王梦燃;《电脑爱好者》;20141231;第2014年卷(第16期);第1-4段、附图 |
Also Published As
Publication number | Publication date |
---|---|
CN107180453A (zh) | 2017-09-19 |
KR20180108799A (ko) | 2018-10-04 |
JP2019512141A (ja) | 2019-05-09 |
KR102089473B1 (ko) | 2020-03-16 |
US10628984B2 (en) | 2020-04-21 |
JP6661780B2 (ja) | 2020-03-11 |
US20180365878A1 (en) | 2018-12-20 |
WO2017152848A1 (zh) | 2017-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102169918B1 (ko) | 인물 얼굴 모델의 표정 애니메이션 생성 방법 및 장치 | |
CN107256555B (zh) | 一种图像处理方法、装置及存储介质 | |
CN103902165B (zh) | 实现菜单背景的方法和装置 | |
CN106060520B (zh) | 一种显示模式切换方法及其装置、智能终端 | |
CN107122175B (zh) | 界面生成方法及装置 | |
CN107180453B (zh) | 人物面部模型的编辑方法及装置 | |
CN108898068A (zh) | 一种人脸图像的处理方法和装置以及计算机可读存储介质 | |
CN109242765A (zh) | 一种人脸图像处理方法、装置和存储介质 | |
CN106110659A (zh) | 游戏账户的处理方法及装置 | |
CN106162303B (zh) | 信息处理方法、信息处理装置及用户设备 | |
KR101398188B1 (ko) | 캐릭터 화장을 제공하는 온라인 게임 제공 방법 및 그 시스템 | |
CN113350793B (zh) | 一种界面元素设置方法、装置、电子设备和存储介质 | |
CN106648056A (zh) | 一种切换移动终端横竖屏显示的方法及装置 | |
CN108304839A (zh) | 一种图像数据处理方法以及装置 | |
EP4268913A1 (en) | Position adjustment method and apparatus for operation controls, and terminal, and storage medium | |
CN109395387A (zh) | 三维模型的显示方法、装置、存储介质及电子装置 | |
CN112184852A (zh) | 基于虚拟成像的辅助绘图方法和装置、存储介质、电子装置 | |
CN109760067B (zh) | 会打纸牌的智能机器人系统以及设备 | |
CN110378336A (zh) | 训练样本中目标物体的语义级标注方法、装置及存储介质 | |
CN104991695B (zh) | 一种信息处理方法及电子设备 | |
CN107770458A (zh) | 一种场景切换的方法及终端设备 | |
JP7417146B2 (ja) | 情報処理装置、及びプログラム | |
CN103839032A (zh) | 一种识别方法及电子设备 | |
CN105893011A (zh) | 应用程序界面显示方法及装置 | |
CN104123063B (zh) | 信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |