CN110136236A - 三维角色的个性化脸部显示方法、装置、设备及存储介质 - Google Patents

三维角色的个性化脸部显示方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN110136236A
CN110136236A CN201910414362.8A CN201910414362A CN110136236A CN 110136236 A CN110136236 A CN 110136236A CN 201910414362 A CN201910414362 A CN 201910414362A CN 110136236 A CN110136236 A CN 110136236A
Authority
CN
China
Prior art keywords
texture
coordinate
target site
target
personalized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910414362.8A
Other languages
English (en)
Other versions
CN110136236B (zh
Inventor
刘绵光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910414362.8A priority Critical patent/CN110136236B/zh
Publication of CN110136236A publication Critical patent/CN110136236A/zh
Priority to PCT/CN2020/088772 priority patent/WO2020233403A1/zh
Priority to EP20809104.1A priority patent/EP3971838A4/en
Priority to US17/345,584 priority patent/US11776197B2/en
Application granted granted Critical
Publication of CN110136236B publication Critical patent/CN110136236B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本申请公开了三维角色的个性化脸部显示方法、装置、设备及存储介质,方法包括:获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。能够解决更换的五官部位增加或者候选样式增加时,纹理图像的数量成倍增加,增加美工人员的工作负担、应用程序包过大的问题。

Description

三维角色的个性化脸部显示方法、装置、设备及存储介质
技术领域
本申请涉及虚拟建模领域,特别涉及三维角色的个性化脸部显示方法、装置、设备及存储介质。
背景技术
在三维网络游戏中,提供有游戏用户对三维角色的脸部进行个性化定制的功能。三维角色的脸部包括:三维人脸模型以及覆盖在三维人脸模型上的一张纹理图像。该个性化定制允许用户对该纹理图像进行自定义设定。
相关技术中的个性化定制方法中,提供了眼睛、嘴巴和眉毛共三个可更换的五官部位,每个五官部位提供了三种候选样式。由美术师事先将所有组合绘制完毕,也即一共3*3*3=27张纹理图像。
当可更换的五官部位增加或者候选样式增加时,纹理图像的数量将会成倍增加,比如为嘴巴部位增加一个新的候选样式时,就需要增加1*3*3=9张纹理图像,不仅美工人员对纹理图像的绘制工作较为繁重,而且导致应用程序的程序包大小和内存占用相当大。
发明内容
本申请实施例提供了三维角色的个性化脸部显示方法、装置、设备及存储介质,能够解决更换的五官部位增加或者候选样式增加时,纹理图像的数量将会成倍增加,不仅美工人员对纹理图像的绘制工作较为繁重,而且导致应用程序的程序包大小和内存占用相当大的问题。技术方案如下:
根据本申请的一个方面,提供了一种三维角色的个性化脸部显示方法,方法包括:获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;
在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;
根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;
在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
根据本申请的另一方面,提供了一种三维角色的个性化脸部显示装置,所述装置包括:
获取模块,用于获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;
绘制模块,用于在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;
确定模块,用于根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;
所述绘制模块,还用于在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
根据本申请的另一方面,提供了一种计算机可读存储介质,计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并执行以实现如实施例的三维角色的个性化脸部显示方法。
根据本申请的另一方面,提供了一种计算机程序产品,计算机程序产品中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并执行以实现如实施例的三维角色的个性化脸部显示方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
通过针对每个目标部位预先绘制好至少两个候选样式纹理,第二客户端在接收到纹理标识后,根据纹理标识在多个候选样式纹理中确定目标样式纹理,将目标样式纹理绘制在个性化脸部模型的目标部位上,通过目标纹理的自由组合实现个性化脸部模型,无需根据候选样式纹理画出个性化脸部模型的所有可能性,既能减少美工人员对纹理图像的绘制工作负担,同时也能避免应用程序的程序包大小和内存占用过大的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的三维角色的个性化脸部显示方法实施环境图;
图2是本申请一个示例性实施例提供的三维角色的个性化脸部显示方法的示意图;
图3是本申请另一个示例性实施例提供的三维角色的个性化脸部显示方法的流程图;
图4是本申请一个示例性实施例提供的三维角色的个性化脸部显示方法中终端界面示意图;
图5是本申请另一个示例性实施例提供的三维角色的个性化脸部显示方法中终端界面示意图;
图6是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的流程图;
图7是本申请一个示例性实施例提供的三维角色的个性化脸部显示方法中每秒传输帧数对比图;
图8是本申请一个示例性实施例提供的三维角色的个性化脸部显示方法中个性化脸部图案示意图;
图9是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的界面示意图;
图10是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的界面示意图;
图11是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的界面示意图;
图12是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的界面示意图;
图13是本申请另一示例性实施例提供的三维角色的个性化脸部显示方法的流程图;
图14是本申请一个实施例提供的三维角色的个性化脸部模型显示装置的框图;
图15是本申请一个实施例提供的一种服务器的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例涉及的若干个名词进行简介:
虚拟环境:是应用程序在终端上运行时显示(或提供)的虚拟环境。该虚拟环境可以是对真实世界的仿真环境,也可以是半仿真半虚构的三维环境,还可以是纯虚构的三维环境。虚拟环境可以是二维虚拟环境、2.5维虚拟环境和三维虚拟环境中的任意一种,下述实施例以虚拟环境是三维虚拟环境来举例说明,但对此不加以限定。可选地,该虚拟环境还用于至少两个三维角色之间的虚拟环境对战。
三维角色:是指在虚拟环境中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物或动漫人物中的至少一种。可选地,当虚拟环境为三维虚拟环境时,三维角色是基于动画骨骼技术创建的三维立体模型。每个三维角色在三维虚拟环境中具有自身的形状和体积,占据三维虚拟环境中的一部分空间。
脸部模型:是三维角色上位于脸部的模型。脸部模型上设置有绘制好的纹理图案,同一脸部模型的不同部位可以配置多种候选样式纹理。
UV坐标:是“u,v纹理贴图坐标”的简称(它和空间模型的X,Y,Z轴是类似的)。u,v纹理贴图坐标定义了候选样式纹理上每个点的位置的信息,这些点与三维模型是相互联系的,用于确定候选样式纹理在三维模型上的位置。
展UV:将三维模型上的各个顶点对应在一个二维平面坐标系内,便于在二维坐标系内对三维模型进行绘制。
图1示出了本申请一个示例性实施例提供的计算机系统100的结构框图。该计算机系统100提供有一个共享的三维虚拟环境,该三维虚拟环境包括多个三维角色。该计算机系统100包括:第一终端120、服务器集群140和第二终端160。
第一终端120通过无线网络或有线网络与服务器集群140相连。第一终端120可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器或膝上型便携计算机中的至少一种。第一终端120安装和运行有第一客户端,该第一客户端中提供有三维虚拟环境,该三维虚拟环境包括多个三维角色。作为本实施例的一个示例,该第一客户端可以是3D游戏应用程序、图像处理程序、头像生成程序、表情管理程序、游戏类程序中的任意一种。示意性的,第一客户端是第一用户使用的客户端,第一客户端中登录有第一用户帐号。该第一帐号具有第一三维角色的控制权限,该第一三维角色的脸部模型支持个性化定制。
第一终端120通过无线网络或有线网络与服务器集群140相连。
服务器集群140包括一台服务器、多台服务器、云计算平台或虚拟化中心中的至少一种。服务器集群140用于为第一终端120和第二终端160提供后台服务。可选地,服务器集群140承担主要计算工作,第一终端120和第二终端160承担次要计算工作;或者,服务器集群140承担次要计算工作,第一终端120和第二终端160承担主要计算工作;或者,服务器集群140、第一终端120和第二终端160三者之间采用分布式计算架构进行协同计算。
可选地,服务器集群140包括:接入服务器141和存储服务器142。接入服务器141用于提供第一终端120和第二终端140的接入服务。存储服务器142用于接收第一终端120发送的第一三维角色的纹理标识。
第二终端160安装和运行有第二客户端。该应用程序可以是3D游戏应用程序。第二终端160是第二用户使用的客户端。该第二客户端中提供有三维虚拟环境,该三维虚拟环境包括多个三维角色。作为本实施例的一个示例,该第二客户端可以是3D游戏应用程序。示意性的,第二客户端是第二用户使用的客户端,第二客户端中登录有第二用户帐号。该第二帐号具有第二三维角色的控制权限,该第二三维角色的脸部模型支持个性化定制。
第一终端120可以泛指多个终端中的一个,第二终端160可以泛指多个终端中的一个,本实施例仅以第一终端120和第二终端160来举例说明。第一终端120和第二终端160的终端类型相同或不同,该客户端类型包括:智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3播放器、MP4播放器或膝上型便携计算机中的至少一种。以下实施例以第一终端120或第二终端140中的至少一种是智能手机、第一帐号和第二帐号在同一三维虚拟环境中举例说明。
本领域技术人员可以知晓,上述终端(或客户端)的数量不做限定。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量,此时上述计算机系统还包括其它终端。本申请实施例对其它终端的数量和设备类型不加以限定。
本申请提供了一种三维角色的个性化脸部显示方案。图2示出了一个示例性实施例提供的三维角色的个性化脸部显示方法的示意图。
脸部模型上包括多个顶点,每个顶点可以对应多组不同UV坐标系的坐标信息,根据该坐标信息确定每个顶点在不同UV坐标系中对应的纹理,不同UV坐标系内的目标样式纹理按照先后顺序依次根据每个顶点的坐标信息映射到脸部模型上,形成由多个纹理组合成的个性化脸部。
示意性的,结合图2,以绘制的个性化脸部包括眼睛、嘴巴、眉毛三个目标部位为例对本方案进行举例说明。在脸部模型上包括多个顶点,图2中在脸部模型上的不同部位选取了具有代表性的顶点,顶点在脸部模型上的所在部位由上到下依次包括:额头、眉毛、眼睛和嘴巴。其中,眉毛、眼睛和嘴巴为目标部位,除目标区域之外包括额头的区域为非目标部位。将非目标部位的纹理绘制在一个UV坐标系内,每个目标部位分别绘制在一个UV坐标系内。示例性的,将非目标部位的纹理(基础UV纹理图像)绘制在第一UV坐标系(UV1)内;将目标部位是眼睛的多个候选样式纹理绘制在第二UV纹理坐标系(UV2)内;将目标部位是嘴巴的多个候选样式纹理绘制在第三UV纹理坐标系(UV3)内;将目标部位是眉毛的多个候选样式纹理绘制在第四UV纹理坐标系(UV4)内。
脸部模型上的每个顶点包含多组UV坐标信息,示例性的,结合图2,额头处的顶点包括的坐标信息包括:该顶点在三维坐标系内的坐标为(1,5,7),在UV1中的坐标为(0.2,0.8),在UV2中的坐标为(-1,-1),在UV3中的坐标为(-1,-1),在UV4中的坐标为(-1,-1);
眼睛处的顶点包括的坐标信息包括:该顶点在三维坐标系内的坐标为(3,4,4),在UV1中的坐标为(0.3,0.6),在UV2中的坐标为(0.2,0.8),在UV3中的坐标为(-1,-1),在UV4中的坐标为(-1,-1);
嘴巴处的顶点包括的坐标信息包括:该顶点在三维坐标系内的坐标为(2,1,2),在UV1中的坐标为(0.2,0.2),在UV2中的坐标为(-1,-1),在UV3中的坐标为(0.2,0.4),在UV4中的坐标为(-1,-1);
眉毛处的顶点包括的坐标信息包括:该顶点在三维坐标系内的坐标为(2,1,2),在UV1中的坐标为(0.5,0.7),在UV2中的坐标为(-1,-1),在UV3中的坐标为(-1,-1),在UV4中的坐标为(0.2,0.3)。
第二客户端在接收到纹理标识后,第二客户端根据纹理标识确定出目标样式纹理,并根据每个顶点内的坐标信息对脸部模型进行绘制。
示例性的,绘制流程包括:第二客户端确定脸部模型上每个顶点对应UV1的坐标信息,根据该坐标信息将第一UV1内的基础UV纹理图像全部映射到脸部模型上。可选地,基础UV纹理图像在目标部位处可以有纹理信息,也可以没有纹理信息。在将UV1内的基础UV纹理图像全部映射到脸部模型上后,第二客户端依次将UV2、UV3和UV4内的目标样式纹理分别映射到对应的脸部模型的目标部位。需要说的是,由于目标样式纹理只在脸部模型的目标部位进行绘制,因此绘制各个目标部位的顺序不做限定。当基础UV纹理图像包括目标部位的纹理时,需要先绘制基础UV纹理图像,再绘制目标样式纹理,若基础UV纹理图像不包括目标部位的纹理,则UV1、UV2、UV3和UV4的绘制不分先后顺序。
由于每个目标部位的目标样式纹理单独绘制在一个UV坐标系内,因此在绘制该坐标系内对应的目标样式纹理时,可将目标部位以外的顶点对应在该UV坐标系内的坐标信息设定为负数,则第二客户端只要将目标纹理信息绘制在坐标信息为正的区域即可保证该目标样式纹理被绘制在了目标部位。
可选地,纹理标识包括坐标偏移数据或缩放数据中的至少一种,结合图2,在候选样式纹理所在的UV坐标系内,包括可视区域,其中坐标偏移数据用于改变可视区域的起始位置,坐标缩放数据用于改变可视范围的大小,根据纹理标识确定出可视范围后,第二客户端将可视范围内的目标样式纹理映射到目标部位,实现脸部模型局部纹理的切换。例如,在应用程序是基于Unity引擎开发的应用程序时,可以通过修改“offset”对应的参数修改可视范围的起始位置,通过“liting”对应的参数修改可视范围的大小。
需要说明的是,理论上讲,目标部位可以是三维角色的任意部位,因此,目标部位不局限于上述几种。
图3示出了一个示例性实施例提供的三维角色的个性化脸部显示方法的流程图。该方法包括以下步骤:
步骤201,第一客户端显示三维角色的个性化脸部的设置界面。
设置界面包括:第一脸部模型的预览画面和n个设置选项。
示意性的,结合图4,图4是本实施例中一个示意性的第一客户端显示的三维角色X脸部的设置界面图。在该设置界面上呈现有三维角色X的个性化定制画面和设置选项,其中,设置选项包括眼睛设置选项101、眉毛设置选项102、嘴巴设置选103项或鼻子设置选项104中的至少一种,每种设置选项中包括多个用于对该设置选项进行设定的候选样式纹理。例如,在眼睛设置选项中,包括多个候选样式纹理,分别为:样式1、样式2、样式3......样式8样式9。
其中,个性化脸部模型是通过修改至少一个设置选项中对应的局部纹理实现的。
步骤202,第一客户端接收在n个设置选项中的候选样式纹理上触发的设置操作。
第一客户端实时记录候选样式纹理对应的纹理标识,并根据该纹理标识实时调整三维角色X在设置界面上呈现的效果。
结合图5,图5是本实施例中示意性的第一客户端在接收到设置操作后呈现的界面图。用户选取眼睛设置选项101中的候选样式纹理中的样式8,对比三维角色X在初始状态时图4中呈现的形象状态,经过个性化定制设置后的三维角色X的眼睛区域有明显变化,即三维角色X的眼睛区域改变为选择的目标样式纹理的样子。
示意性的,第一客户端接收到的设置操作可以对眼睛设置选项101、眉毛设置选项102、嘴巴设置选项103或鼻子设置选项104中的至少一种,其中每个设置选项中包括至少一个候选样式纹理供用户选择。
步骤203,第一客户端根据设置操作生成候选样式纹理对应的纹理标识。
用户在完成个性化脸部的设置后触发确定选项,第一客户端接收到触发确定选项的操作后,根据当前三维角色X的面部数据生成纹理标识。其中,纹理标识用于标识第一脸部模型中目标部位的目标样式纹理。
其中,目标部位是个性化设定功能支持修改的部位。例如,目标部位可以包括眼睛、眉毛、嘴巴等部位。目标样式纹理是其对应的目标部位的多种可选的纹理。
需要说明的是,理论上讲,目标部位可以是三维角色的任意部位,因此,目标部位不局限于上述几种。
步骤204,第一客户端向服务器发送纹理标识。
纹理标识是三维角色脸部模型变化的依据,用于在第二客户端上找到对应的目标部位和目标样式纹理,实现个性化设置三维角色的外貌的目的。
步骤205,服务器接收并存储纹理标识。
服务器接收到第一客户端上传的第一脸部模型的纹理标识后将该纹理标识存储在服务器的内部。
表一
参阅表一,服务器中存储有至少一个客户端中三维角色X对应的纹理标识,且服务器可以向任意一个客户端发送任意一个三维角色的纹理标识。可选地,当三维角色X进入三维角色Y的视野范围内时,服务器向三维角色Y对应的客户端发送三维角色X的纹理标识。示意性的,服务器可以同时存储多个客户端对应的不同目标部位的纹理标识。
步骤206,服务器向第一客户端或第二客户端中的至少一种发送三维角色的个性化脸部模型的纹理标识。
示意性的,当三维角色X进入第二客户端的视野范围内时,服务器向第二服务器发送三维角色X的纹理标识。可选地,第二客户端的数量可以是一个或多个。
当三维角色X对应的第一客户端需要显示三维角色X时,服务器向第一客户端发送三维角色X的纹理标识。例如,当三维角色X在第一客户端的视野范围内,或用户在第一客户端上触发包含三维角色X形象的设置界面时,服务器向第一客户端发送三维角色X的纹理标识,用以使第一客户端根据纹理标识找到对应的目标部位和目标样式纹理,显示个性化定制后的个性化脸部模型。
下文主要以第二客户端显示三维角色的个性化脸部模型来举例说明。对于第一客户端显示三维角色的个性化脸部模型的过程,与第二客户端采用相同或相似的原理,不再赘述。
步骤207,第二客户端获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理。
个性化脸部模型上各个目标部位的候选样式纹理至少包括两种,用户在至少两个候选样式纹理中选定其中一个后,会生成与该目标样式纹理一一对应的纹理标识,第二客户端在接收到该纹理标识后能够准确找到对应的目标样式纹理。
步骤208,第二客户端在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理。
在个性化脸部模型上绘制的基础UV纹理图像的目的是为个性化脸部模型的非目标部位提供纹理。其中,在绘制基础UV纹理图像时可以根据默认纹理绘制目标部位,在后续绘制目标部位时替换或覆盖该目标部位;或者,也可以只绘制目标部位之外的区域,在后续绘制目标部位时将目标样式纹理补充绘制在该目标部位所在的区域。
步骤209,第二客户端根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理。
纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,纹理标识中至少包括能够与目标样式纹理一一对应的标识。
可选地,该标识可以是目标样式纹理所在坐标系内的具体坐标范围,也可以是该目标样式纹理所在坐标系内每个像素的坐标偏移数据或缩放数据中的至少一种。
步骤210,第二客户端在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
第二客户端根据纹理标识确定各个目标部位后,将目标样式纹理映射的脸部模型对应的区域,得到个性化脸部。
综上,本实施例提供的方法,通过针对每个目标部位预先绘制好至少两个候选样式纹理,第二客户端在接收到纹理标识后,根据纹理标识在多个候选样式纹理中确定目标样式纹理,将目标样式纹理绘制在个性化脸部模型的目标部位上,通过目标纹理的自由组合实现个性化脸部模型,无需根据候选样式纹理画出个性化脸部模型的所有可能性,既能减少美工人员对纹理图像的绘制工作负担,同时也能避免应用程序的程序包过大和内存占用过大的问题。
在基于上述实施例的可选实施例中,步骤210可以替代实现成为如下步骤,如图6所示:
步骤210a,第二客户端在个性化脸部模型上确定与目标部位对应的区域。
个性化脸部模型上包括n个目标部位,第i个目标部位对应的UV纹理图像设置在第i个UV坐标系中,在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。例如,个性化脸部模型上包括眼睛、嘴巴、眉毛三个目标部位,每个目标部位分别对应一个UV坐标系中,在该目标部位对应的UV坐标系中绘制有该目标部位的所有候选样式纹理。
在脸部模型上有多个顶点,每个顶点中包括坐标信息,该坐标信息对应多个坐标系中对应的位置。示意性的,第二客户端在绘制眼睛区域时绘制,第二客户端采集脸部模型上每个顶点中眼睛的目标样式纹理所在的坐标系的坐标信息,第二客户端将目标样式纹理绘制在该目标部位。
由于每个目标部位的目标样式纹理单独绘制在一个UV坐标系内,因此在绘制该坐标系内对应的目标样式纹理时,可将目标部位以外的顶点对应在该UV坐标系内的坐标信息设定为负数,则第二客户端只要将目标纹理信息绘制在坐标信息为正的区域即可保证该目标样式纹理被绘制在目标部位。
示意性的,第二客户端获取个性化脸部模型上的顶点在第i个UV坐标系中对应的UV坐标,UV坐标包括U坐标和V坐标;将U坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域;或者,将V坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域。由于在目标区域内的顶点对应的坐标值被设置为正数,因此第二客户端只需要判断该顶点的u坐标或v坐标为正数,即可确定该顶点在目标部位的所在区域,有效减少了第二客户端的判断步骤,提升设备的性能。
结合图7,图7是本申请一个示例性实施例提供的客户度判断顶点的坐标范围方式对性能影响的示意图。图7中的横坐标代表三维角色的数量,纵坐标代表每秒传输帧数,结合图7可知,当三维角色数量为30时,对一个顶点坐标进行一次判断的设备每秒传输帧数超过70,对一个顶点坐标进行四次判断的设备每秒传输帧数约为60;当三维角色数量为50时,对一个顶点坐标进行一次判断的设备每秒传输帧数约为70,对一个顶点坐标进行四次判断的设备每秒传输帧数约为50;当三维角色数量为70时,对一个顶点坐标进行一次判断的设备每秒传输帧数约为40,对一个顶点坐标进行四次判断的设备每秒传输帧数约为30。由此可见,将非目标部位的顶点对应的UV坐标设置为负数,使第二客户端根据正负即可判断该顶点是否处于目标部位,能够有效提高设备每秒传输帧数。
步骤210b,第二客户端使用坐标偏移或坐标缩放中的至少一种将第i个UV坐标系中的可视区域,设置在UV纹理图像的目标样式纹理上。
第二客户端使用坐标偏移将第i个UV坐标系中的可视区域的起始位置,设置在目标样式纹理所在的位置;使用坐标缩放将第i个UV坐标系中的可视区域的区域大小,设置为目标样式纹理的大小。
可选地,纹理标识包括坐标偏移数据或缩放数据中的至少一种,在候选样式纹理所在的UV坐标系内,包括可视区域,第二客户端将可视区域内的纹理绘制到脸部模型上。其中,坐标偏移数据用于改变可视区域的起始位置,坐标缩放数据用于改变可视范围的大小,根据纹理标识确定出可视范围后,第二客户端将可视范围内的目标样式纹理映射到目标部位,实现脸部模型局部纹理的切换。例如,在应用程序是基于Unity引擎开发的应用程序时,可以通过修改“offset”对应的参数修改可视范围的起始位置,通过“liting”对应的参数修改可视范围的大小。由于UV坐标的有效范围为(0,0),(1,0),(1,1),(0,1)所围成的范围内,第二客户端在该UV坐标系内对每个点进行采样时,根据纹理中的偏坐标偏移数据或缩放数据中的至少一种,最终采样范围会确定在目标样式纹理的所在区域。
综上,通过将目标部位的多个候选样式纹理绘制在一个UV坐标系内,根据纹理标识对UV坐标系内的不同候选样式纹理所在的范围进行选择,能够有效减少技术人员在向目标部位映射目标样式纹理时的工作量。
步骤210c,第二客户端在与目标部位对应的区域上,绘制可视区域内的目标样式纹理。
第二客户端获取坐标映射关系,坐标映射关系包括:目标样式纹理上的纹理坐标和目标部位中的顶点之间的映射关系;根据坐标映射关系将可视区域内的目标样式纹理,绘制在个性化脸部模型中与目标部位对应的区域上。
综上所述,本实施例提供的方法,通过将多个目标部位的候选样式纹理绘制在不同的UV坐标系内,第二客户端在绘制个性化脸部时将不同坐标系内的目标样式纹理逐一映射到对应的脸部模型的目标区域,能够有效减少美工人员的工作负担,降低占用第二客户端对应设备的存储空间。同时,在判断目标区域时只需判断一次,能够有效提高设备的性能。
可选地,三维角色的瞳孔设置在基础UV纹理图像上,结合上述实施例,由于该基础UV纹理图像设置在UV1内,在不改变形状,只改变瞳孔区域的颜色时,无需单独为瞳孔设置UV坐标系,只需在基础UV纹理图像上通过单个通道标识眼球,第二客户端改变眼球部分的像素权重混合,即可实现瞳孔变色。示意性的,通道可以选择r通道、g通道以及b通道中的任意一种。
在基础UV纹理图像中的指定颜色通道中存在第一部位的位置标识信息,该部位可以是瞳孔、额头、脸颊等。第二客户端接收到纹理标识后,从基础UV纹理图像中获取第一部位的颜色标识,并根据指定颜色通道中的位置标识信息,确定第一部位对应的像素点;根据颜色标识对第一部位对应的像素点进行变色处理。完成瞳孔颜色的切换。
当采用b通道改变基础UV纹理图像的局部颜色可以采用以下表二中的代码实现:
表二
同理,基础UV纹理图像中的指定颜色通道中存在第二部位的标识信息,该部位可以是瞳孔、额头、脸颊等。第二客户端获取第二部位的样式标识后,根据指定颜色通道中的位置标识信息,确定第二部位对应的像素点,根据样式标识对应的配色信息,对第一部位对应的像素点进行变色处理。完成个性化脸部的图案切换。
改变基础UV纹理图像的局部颜色可以采用以下表三中的代码实现:
表三
综上所述,本实施例通过改变基础UV纹理图像的局部颜色实现个性化脸部的图案和颜色,无需额外增加UV坐标系,减少了第二客户端对应设备的负担。
图8为在基础UV纹理图像上通过改变眼球部分、额头部分的像素权重混合生成的图案效果图,从图8中可见,在基础UV纹理图像上的额头区域和眼睛区域颜色发生了变换。
可选地,由于三维角色的左右眼睛是完全相同的,因此美工人员在眼睛目标部位对应的UV坐标系内只绘制一只眼睛,通过坐标偏移或坐标缩放中的至少一种将该目标样式纹理绘制在另一只眼睛对应的目标部位即可完成两只眼睛的切换。同理,嘴巴的多个候选样式纹理也可以只绘制一半,通过坐标偏移或坐标缩放中的至少一种在脸部模型的目标部位绘制另一半目标样式纹理。该方式能够有效降低美工人员的工作负担。
以下结合图4、图9至图12对上述实施例中的个性化脸部的界面效果进行阐述。图4为设置界面中三维角色的初始化脸部的界面示意图,在眼睛选项101中选择样式5后三维角色的眼睛部位进行了切换,切换后的个性化脸部为图9中展示的状态,可见,在三维角色的其他部位未发生改变,只有眼睛部分被切换成了样式5的状态。继续对眉毛选项102的样式纹理进行选择,选择样式6后,在三维角色的其他部位未发生改变,只有眉毛部分被切换成了样式6的状态,由图10可见,眉毛的宽度表窄了。继续在嘴巴选项中对嘴巴的样式纹理进行选择,选择样式2后,在三维角色的其他部位未发生改变,只有嘴巴部分被切换成了样式2的状态,由图11可见,切换后的嘴巴增加了胡须。继续为三维角色增加纹身,在图12中可见,角色额头部分增加了纹身图案,经过上述的逐步选择,最终展示出的个性化脸部即为图12所展示的样子。
结合图13对本方案进行阐述。定制三维角色的个性化脸部显示方法包括以下步骤:
步骤501,用户根据喜好在第一客户端所呈现的界面上选择第一三维角色的眼睛、嘴巴、眉毛、瞳孔颜色和印花纹身。
步骤502,第一客户端记录用户选择的纹理标识。
步骤503,第一客户端记录纹理标识,将纹理标识上传至服务器。
步骤504,第一客户端对应的三维角色进入三维场景后,或者,第二终端对应的三维角色进入第一终端对应的三维角色的视野范围时服务器向三维场景中的所有三维角色对应的客户端下发纹理标识。
步骤505,第二客户端接收到纹理标识后判断纹理标识是否为零,若为0,则表示第一客户端没有进行个性化设置操作,或个性化设置操作后的第一脸部模型与修改之前的第一脸部模型相比没有数据变化,结束脸部模型的个性化定制流程;
若纹理标识不为0,则表示第一客户端对第一脸部模型进行了个性化设置操作,执行步骤506。
步骤506,第二客户端根据纹理标识进行坐标偏移或坐标缩放中的至少一种。
步骤507,第二客户端切换不同目标部位的目标样式纹理。
上述个步骤实现方式与前述实施例的实现方式相同,请参照前述实施例中的内容,本实施例在此不再赘述。
表四
结合表四,表四是第二客户端在接收到纹理标识后的在脸部模型上生成个性化脸部的示意性程序。
本申请各个实施例提供的三维角色的个性化脸部显示方法,可以应用于安装有支持三维虚拟环境显示的应用程序中,该应用程序安装在终端中,该应用程序是支持三维虚拟环境显示的应用程序,该终端可以是智能手机、平板电脑、个人计算机或便携式计算机等等。比如,该目标应用程序是游戏程序,本申请实施例对此不做限定。
下面结合几个示意性的应用场景,对本申请实施例提供三维角色的个性化脸部显示方法进行说明。
一、手游场景
本申请实施例提供的三维角色的个性化脸部显示方法可以实现成为应用程序中的显示模块。应用程序根据用户对三维角色的个性化定制操作,在显示模块上显示出经用户个性化定制后的三维角色,该三维角色具有个性化定制后的个性化脸部模型。可选地,该个性化定制后的三维角色能够显示表情动画。
二、三维网游场景
在三维网游场景下,本申请实施例提供的三维角色的个性化脸部显示方法可以实现成为游戏程序中的一个个性化定制模块。网游程序根据用户对三维角色的纹理切换操作生成个性化定制后的个性化脸部模型。该个性化定制后的三维角色能够显示表情动画。
当然,上述仅以几种可能的应用场景为例进行示意性说明,本申请实施例提供的方法还可以应用于其他需要三维角色的个性化脸部模型显示的应用场景,例如军事化模拟程序、模拟人生、养成游戏、端游等,本申请实施例并不对具体应用场景进行限定。
图14是本申请一个实施例提供的三维角色的个性化脸部模型的显示装置的框图。该装置包括:
获取模块601,用于获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;绘制模块602,用于在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;确定模块603,用于根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;绘制模块602,还用于在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
确定模块603,还用于在个性化脸部模型上确定与目标部位对应的区域;计算模块604,用于使用坐标偏移或坐标缩放中的至少一种将第i个UV坐标系中的可视区域,设置在UV纹理图像的目标样式纹理上;绘制模块602,还用于在与目标部位对应的区域上,绘制可视区域内的目标样式纹理。
获取模块601,还用于获取个性化脸部模型上的顶点在第i个UV坐标系中对应的UV坐标,UV坐标包括U坐标和V坐标;确定模块603,还用于将U坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域;或者,将V坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域。
计算模块604,还用于使用坐标偏移将第i个UV坐标系中的可视区域的起始位置,设置在目标样式纹理所在的位置;计算模块604,还用于使用坐标缩放将第i个UV坐标系中的可视区域的区域大小,设置为目标样式纹理的大小。
获取模块601,还用于获取坐标映射关系,坐标映射关系包括:目标样式纹理上的纹理坐标和目标部位中的顶点之间的映射关系;绘制模块602,还用于根据坐标映射关系将可视区域内的目标样式纹理,绘制在个性化脸部模型中与目标部位对应的区域上。
获取模块601,还用于获取第一部位的颜色标识;确定模块603,还用于根据指定颜色通道中的位置标识信息,确定第一部位对应的像素点;变色模块605,用于根据颜色标识对第一部位对应的像素点进行变色处理。获取模块601,还用于获取第二部位的样式标识;确定模块603,还用于根据指定颜色通道中的位置标识信息,确定第二部位对应的像素点;变色模块605,还用于根据样式标识对应的配色信息,对第一部位对应的像素点进行变色处理。
图15示出了本申请一个示例性实施例提供的终端1900的结构框图。该终端1900可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1900还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1900包括有:处理器1901和存储器1902。
处理器1901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1901也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1901可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1901所执行以实现本申请中方法实施例提供的三维角色的个性化脸部显示方法。
在一些实施例中,终端1900还可选包括有:外围设备接口1903和至少一个外围设备。处理器1901、存储器1902和外围设备接口1903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1903相连。具体地,外围设备包括:射频电路1904、触摸显示屏1905、摄像头1906、音频电路1907、定位组件1908或电源1909中的至少一种。
外围设备接口1903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1901和存储器1902。在一些实施例中,处理器1901、存储器1902和外围设备接口1903被集成在同一芯片或电路板上;在一些其他实施例中,处理器1901、存储器1902和外围设备接口1903中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1904通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1904将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1904可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网或WiFi(Wireless Fidelity,无线保真)网络中的至少一种。在一些实施例中,射频电路1904还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1905用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1905是触摸显示屏时,显示屏1905还具有采集在显示屏1905的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1901进行处理。此时,显示屏1905还可以用于提供虚拟按钮或虚拟键盘,也称软按钮或软键盘。在一些实施例中,显示屏1905可以为一个,设置终端1900的前面板;在另一些实施例中,显示屏1905可以为至少两个,分别设置在终端1900的不同表面或呈折叠设计;在再一些实施例中,显示屏1905可以是柔性显示屏,设置在终端1900的弯曲表面上或折叠面上。甚至,显示屏1905还可以设置成非矩形的不规则图形,也即异形屏。显示屏1905可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1906用于采集图像或视频。可选地,摄像头组件1906包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1906还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1907可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1901进行处理,或者输入至射频电路1904以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1900的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1901或射频电路1904的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1907还可以包括耳机插孔。
定位组件1908用于定位终端1900的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1908可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1909用于为终端1900中的各个组件进行供电。电源1909可以是交流电、直流电、一次性电池或可充电电池。当电源1909包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1900还包括有一个或多个传感器1910。该一个或多个传感器1910包括但不限于:加速度传感器1911、陀螺仪传感器1912、压力传感器1913、指纹传感器1914、光学传感器1915以及接近传感器1916。
加速度传感器1911可以检测以终端1900建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1911可以用于检测重力加速度在三个坐标轴上的分量。处理器1901可以根据加速度传感器1911采集的重力加速度信号,控制触摸显示屏1905以横向视图或纵向视图进行用户界面的显示。加速度传感器1911还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1912可以检测终端1900的机体方向及转动角度,陀螺仪传感器1912可以与加速度传感器1911协同采集用户对终端1900的3D动作。处理器1901根据陀螺仪传感器1912采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1913可以设置在终端1900的侧边框或触摸显示屏1905的下层中的至少一处。当压力传感器1913设置在终端1900的侧边框时,可以检测用户对终端1900的握持信号,由处理器1901根据压力传感器1913采集的握持信号进行左右手识别或快捷操作。当压力传感器1913设置在触摸显示屏1905的下层时,由处理器1901根据用户对触摸显示屏1905的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件或菜单控件中的至少一种。
指纹传感器1914用于采集用户的指纹,由处理器1901根据指纹传感器1914采集到的指纹识别用户的身份,或者,由指纹传感器1914根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1901授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1914可以被设置终端1900的正面、背面或侧面。当终端1900上设置有物理按键或厂商Logo时,指纹传感器1914可以与物理按键或厂商Logo集成在一起。
光学传感器1915用于采集环境光强度。在一个实施例中,处理器1901可以根据光学传感器1915采集的环境光强度,控制触摸显示屏1905的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1905的显示亮度;当环境光强度较低时,调低触摸显示屏1905的显示亮度。在另一个实施例中,处理器1901还可以根据光学传感器1915采集的环境光强度,动态调整摄像头组件1906的拍摄参数。
接近传感器1916,也称距离传感器,通常设置在终端1900的前面板。接近传感器1916用于采集用户与终端1900的正面之间的距离。在一个实施例中,当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变小时,由处理器1901控制触摸显示屏1905从亮屏状态切换为息屏状态;当接近传感器1916检测到用户与终端1900的正面之间的距离逐渐变大时,由处理器1901控制触摸显示屏1905从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图15中示出的结构并不构成对终端1900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本申请实施例还提供了一种计算机存储介质,该计算机可读存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如上的三维角色的个性化脸部显示方法。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如上的三维角色的个性化脸部显示方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种三维角色的个性化脸部显示方法,其特征在于,方法包括:
获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的纹理坐标UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;
在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;
根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;
在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
2.根据权利要求1的方法,其特征在于,个性化脸部模型上包括n个目标部位,第i个目标部位对应的UV纹理图像设置在第i个UV坐标系中,在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理,包括:
在个性化脸部模型上确定与目标部位对应的区域;
使用坐标偏移或坐标缩放中的至少一种将第i个UV坐标系中的可视区域,设置在UV纹理图像的目标样式纹理上;
在与目标部位对应的区域上,绘制可视区域内的目标样式纹理。
3.根据权利要求2的方法,其特征在于,在个性化脸部模型上确定与目标部位对应的区域,包括:
获取个性化脸部模型上的顶点在第i个UV坐标系中对应的UV坐标,UV坐标包括U坐标和V坐标;
将U坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域;或者,将V坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域。
4.根据权利要求2的方法,其特征在于,使用坐标偏移或坐标缩放中的至少一种将第i个UV坐标系中的可视区域,设置在UV纹理图像的目标样式纹理上,包括:
使用坐标偏移将第i个UV坐标系中的可视区域的起始位置,设置在目标样式纹理所在的位置;
使用坐标缩放将第i个UV坐标系中的可视区域的区域大小,设置为目标样式纹理的大小。
5.根据权利要求2的方法,其特征在于,在与目标部位对应的区域上,绘制可视区域内的目标样式纹理,包括:
获取坐标映射关系,坐标映射关系包括:目标样式纹理上的纹理坐标和目标部位中的顶点之间的映射关系;
根据坐标映射关系将可视区域内的目标样式纹理,绘制在个性化脸部模型中与目标部位对应的区域上。
6.根据权利要求1至5任一的方法,其特征在于,所述目标部位包括:眼睛、嘴巴、眉毛、鼻子、耳朵或发型中的至少一种。
7.根据权利要求1至5任一的方法,其特征在于,基础UV纹理图像中的指定颜色通道中存在第一部位的位置标识信息;
方法还包括:
获取第一部位的颜色标识;
根据指定颜色通道中的位置标识信息,确定第一部位对应的像素点;
根据颜色标识对第一部位对应的像素点进行变色处理。
8.根据权利要求1至5任一的方法,其特征在于,基础UV纹理图像中的指定颜色通道中存在第二部位的标识信息;
方法还包括:
获取第二部位的样式标识;
根据指定颜色通道中的位置标识信息,确定第二部位对应的像素点;
根据样式标识对应的配色信息,对第一部位对应的像素点进行变色处理。
9.一种三维角色的个性化脸部显示装置,其特征在于,所述装置包括:
获取模块,用于获取三维角色的个性化脸部模型的纹理标识,纹理标识用于标识个性化脸部模型上的目标部位的目标样式纹理,目标部位设置有对应的纹理坐标UV纹理图像,UV纹理图像中包括目标部位的至少两个候选样式纹理;
绘制模块,用于在个性化脸部模型上绘制基础UV纹理图像,基础UV纹理图像包括除目标部位之外的其它区域的纹理;
确定模块,用于根据纹理标识在目标部位对应的至少两个候选样式纹理中,确定出目标样式纹理;
所述绘制模块,还用于在个性化脸部模型上与目标部位对应的区域,绘制目标样式纹理。
10.根据权利要求9的装置,其特征在于,所述装置包括:
所述确定模块,还用于在个性化脸部模型上确定与目标部位对应的区域;
计算模块,用于使用坐标偏移或坐标缩放中的至少一种将第i个UV坐标系中的可视区域,设置在UV纹理图像的目标样式纹理上;
所述绘制模块,还用于在与目标部位对应的区域上,绘制可视区域内的目标样式纹理。
11.根据权利要求10的装置,其特征在于,所述装置包括:
所述获取模块,还用于获取个性化脸部模型上的顶点在第i个UV坐标系中对应的UV坐标,UV坐标包括U坐标和V坐标;
所述确定模块,还用于将U坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域;或者,将V坐标大于或等于0的顶点所在的区域,确定为与目标部位对应的区域。
12.根据权利要求10的装置,其特征在于,所述装置包括:
所述计算模块,还用于使用坐标偏移将第i个UV坐标系中的可视区域的起始位置,设置在目标样式纹理所在的位置;
所述计算模块,还用于使用坐标缩放将第i个UV坐标系中的可视区域的区域大小,设置为目标样式纹理的大小。
13.根据权利要求10的装置,其特征在于,所述装置包括:
所述获取模块,还用于获取坐标映射关系,坐标映射关系包括:目标样式纹理上的纹理坐标和目标部位中的顶点之间的映射关系;
所述绘制模块,还用于根据坐标映射关系将可视区域内的目标样式纹理,绘制在个性化脸部模型中与目标部位对应的区域上。
14.一种计算机设备,其特征在于,计算机设备包括处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并执行以实现如权利要求1至8任一的三维角色的个性化脸部显示方法。
15.一种计算机可读存储介质,其特征在于,存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,指令、程序、代码集或指令集由处理器加载并执行以实现如权利要求1至8任一的三维角色的个性化脸部显示方法。
CN201910414362.8A 2019-05-17 2019-05-17 三维角色的个性化脸部显示方法、装置、设备及存储介质 Active CN110136236B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910414362.8A CN110136236B (zh) 2019-05-17 2019-05-17 三维角色的个性化脸部显示方法、装置、设备及存储介质
PCT/CN2020/088772 WO2020233403A1 (zh) 2019-05-17 2020-05-06 三维角色的个性化脸部显示方法、装置、设备及存储介质
EP20809104.1A EP3971838A4 (en) 2019-05-17 2020-05-06 METHOD AND APPARATUS FOR CUSTOMIZED FACE DISPLAY FOR A THREE-DIMENSIONAL CHARACTER AND STORAGE DEVICE AND MEDIA
US17/345,584 US11776197B2 (en) 2019-05-17 2021-06-11 Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910414362.8A CN110136236B (zh) 2019-05-17 2019-05-17 三维角色的个性化脸部显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN110136236A true CN110136236A (zh) 2019-08-16
CN110136236B CN110136236B (zh) 2022-11-29

Family

ID=67575099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910414362.8A Active CN110136236B (zh) 2019-05-17 2019-05-17 三维角色的个性化脸部显示方法、装置、设备及存储介质

Country Status (4)

Country Link
US (1) US11776197B2 (zh)
EP (1) EP3971838A4 (zh)
CN (1) CN110136236B (zh)
WO (1) WO2020233403A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020233403A1 (zh) * 2019-05-17 2020-11-26 腾讯科技(深圳)有限公司 三维角色的个性化脸部显示方法、装置、设备及存储介质
CN112241933A (zh) * 2020-07-15 2021-01-19 北京沃东天骏信息技术有限公司 人脸图像处理方法、装置、存储介质及电子设备
CN113791914A (zh) * 2021-11-17 2021-12-14 腾讯科技(深圳)有限公司 对象处理方法、装置、计算机设备、存储介质及产品
US11789997B2 (en) * 2020-02-21 2023-10-17 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, electronic device, and medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3980881A4 (en) * 2019-06-06 2023-07-12 Bluebeam, Inc. METHODS AND SYSTEMS FOR PROCESSING IMAGES TO PERFORM AUTOMATIC ALIGNMENT OF ELECTRONIC IMAGES

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030171A2 (en) * 2000-10-12 2002-04-18 Erdem Tanju A Facial animation of a personalized 3-d face model using a control mesh
US20100287053A1 (en) * 2007-12-31 2010-11-11 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
CN102157010A (zh) * 2011-05-25 2011-08-17 上海大学 基于分层建模及多体驱动的三维人脸动画实现方法
US20160086387A1 (en) * 2010-04-07 2016-03-24 Apple Inc. Avatar Editing Environment
CN107204036A (zh) * 2016-03-16 2017-09-26 腾讯科技(深圳)有限公司 生成头发图像的方法和装置
CN109584151A (zh) * 2018-11-30 2019-04-05 腾讯科技(深圳)有限公司 人脸美化方法、装置、终端及存储介质
CN109636890A (zh) * 2018-11-29 2019-04-16 北京市商汤科技开发有限公司 纹理融合方法和装置、电子设备、存储介质、产品

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070273711A1 (en) * 2005-11-17 2007-11-29 Maffei Kenneth C 3D graphics system and method
US20080052242A1 (en) * 2006-08-23 2008-02-28 Gofigure! Llc Systems and methods for exchanging graphics between communication devices
WO2011155068A1 (ja) * 2010-06-11 2011-12-15 株式会社アルトロン キャラクタ生成システム、キャラクタ生成方法及びプログラム
US20140078144A1 (en) * 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
CN109603151A (zh) * 2018-12-13 2019-04-12 腾讯科技(深圳)有限公司 虚拟角色的皮肤显示方法、装置及设备
CN109675315B (zh) * 2018-12-27 2021-01-26 网易(杭州)网络有限公司 游戏角色模型的生成方法、装置、处理器及终端
CN110136236B (zh) * 2019-05-17 2022-11-29 腾讯科技(深圳)有限公司 三维角色的个性化脸部显示方法、装置、设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002030171A2 (en) * 2000-10-12 2002-04-18 Erdem Tanju A Facial animation of a personalized 3-d face model using a control mesh
US20100287053A1 (en) * 2007-12-31 2010-11-11 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
US20160086387A1 (en) * 2010-04-07 2016-03-24 Apple Inc. Avatar Editing Environment
CN102157010A (zh) * 2011-05-25 2011-08-17 上海大学 基于分层建模及多体驱动的三维人脸动画实现方法
CN107204036A (zh) * 2016-03-16 2017-09-26 腾讯科技(深圳)有限公司 生成头发图像的方法和装置
CN109636890A (zh) * 2018-11-29 2019-04-16 北京市商汤科技开发有限公司 纹理融合方法和装置、电子设备、存储介质、产品
CN109584151A (zh) * 2018-11-30 2019-04-05 腾讯科技(深圳)有限公司 人脸美化方法、装置、终端及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阳策等: "基于标准肤色的人脸图像纹理合成与三维重建应用", 《计算机系统应用》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020233403A1 (zh) * 2019-05-17 2020-11-26 腾讯科技(深圳)有限公司 三维角色的个性化脸部显示方法、装置、设备及存储介质
US11776197B2 (en) 2019-05-17 2023-10-03 Tencent Technology (Shenzhen) Company Limited Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium
US11789997B2 (en) * 2020-02-21 2023-10-17 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, electronic device, and medium
CN112241933A (zh) * 2020-07-15 2021-01-19 北京沃东天骏信息技术有限公司 人脸图像处理方法、装置、存储介质及电子设备
CN113791914A (zh) * 2021-11-17 2021-12-14 腾讯科技(深圳)有限公司 对象处理方法、装置、计算机设备、存储介质及产品
CN113791914B (zh) * 2021-11-17 2022-03-11 腾讯科技(深圳)有限公司 对象处理方法、装置、计算机设备、存储介质及产品

Also Published As

Publication number Publication date
US20210312696A1 (en) 2021-10-07
WO2020233403A1 (zh) 2020-11-26
EP3971838A1 (en) 2022-03-23
EP3971838A4 (en) 2022-07-27
CN110136236B (zh) 2022-11-29
US11776197B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
JP7206388B2 (ja) 仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム
CN110189340B (zh) 图像分割方法、装置、电子设备及存储介质
US11393154B2 (en) Hair rendering method, device, electronic apparatus, and storage medium
CN109308727B (zh) 虚拟形象模型生成方法、装置及存储介质
CN110136236A (zh) 三维角色的个性化脸部显示方法、装置、设备及存储介质
CN109767487A (zh) 人脸三维重建方法、装置、电子设备及存储介质
CN109978989A (zh) 三维人脸模型生成方法、装置、计算机设备及存储介质
CN109993823A (zh) 阴影渲染方法、装置、终端及存储介质
CN110488977A (zh) 虚拟现实显示方法、装置、系统及存储介质
CN109427083A (zh) 三维虚拟形象的显示方法、装置、终端及存储介质
CN110276840A (zh) 多虚拟角色的控制方法、装置、设备及存储介质
CN109712224A (zh) 虚拟场景的渲染方法、装置及智能设备
CN108256505A (zh) 图像处理方法及装置
CN109947338B (zh) 图像切换显示方法、装置、电子设备及存储介质
WO2022052620A1 (zh) 图像生成方法及电子设备
CN110263617B (zh) 三维人脸模型获取方法及装置
CN112337105B (zh) 虚拟形象生成方法、装置、终端及存储介质
CN109285178A (zh) 图像分割方法、装置及存储介质
CN110135336A (zh) 行人生成模型的训练方法、装置及存储介质
CN110956580B (zh) 图像换脸的方法、装置、计算机设备以及存储介质
CN111723803B (zh) 图像处理方法、装置、设备及存储介质
CN110796083B (zh) 图像显示方法、装置、终端及存储介质
CN109583370A (zh) 人脸结构网格模型建立方法、装置、电子设备及存储介质
CN110393916A (zh) 视角转动的方法、装置、设备及存储介质
CN110290426A (zh) 展示资源的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant