CN114004922B - 骨骼动画显示方法、装置、设备、介质及计算机程序产品 - Google Patents
骨骼动画显示方法、装置、设备、介质及计算机程序产品 Download PDFInfo
- Publication number
- CN114004922B CN114004922B CN202111275097.3A CN202111275097A CN114004922B CN 114004922 B CN114004922 B CN 114004922B CN 202111275097 A CN202111275097 A CN 202111275097A CN 114004922 B CN114004922 B CN 114004922B
- Authority
- CN
- China
- Prior art keywords
- animation
- facial feature
- display
- face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 108
- 210000000988 bone and bone Anatomy 0.000 title claims abstract description 105
- 238000004590 computer program Methods 0.000 title abstract description 9
- 230000001815 facial effect Effects 0.000 claims abstract description 279
- 230000008569 process Effects 0.000 claims abstract description 45
- 230000000694 effects Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 17
- 210000000697 sensory organ Anatomy 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 13
- 230000014509 gene expression Effects 0.000 claims description 8
- 230000007704 transition Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 abstract description 20
- 230000003993 interaction Effects 0.000 abstract description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 30
- 239000000463 material Substances 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 210000001508 eye Anatomy 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 241000272814 Anser sp. Species 0.000 description 2
- 241001506047 Tremella Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 244000245420 ail Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004399 eye closure Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 235000004611 garlic Nutrition 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种骨骼动画显示方法、装置、设备、介质及计算机程序产品,涉及人工智能技术领域。该方法包括:显示表现骨骼动画的第一对象,第一对象的脸部区域包括第一脸部特征;接收图像上传操作,图像上传操作用于上传包含第二对象的目标图像,第二对象的脸部区域包括第二脸部特征;基于目标图像,将第一对象脸部区域的第一脸部特征,替换显示为第二脸部特征;以第二脸部特征显示第一对象表现骨骼动画的过程。即,通过上传包含对应第二脸部特征的目标图像,将第一对象的第一脸部特征替换显示为第二脸部特征表现骨骼动画,丰富骨骼动画显示过程中第一对象脸部变换的元素多样性,同时基于用户自身需求进行脸部特换能够提高人机互动频率。
Description
技术领域
本申请涉及人工智能技术领域,特别涉及一种骨骼动画显示方法、装置、设备、介质及计算机程序产品。
背景技术
骨骼动画是一种模型动画,在骨骼动画中,模型具有由互相连接的骨骼点组成的骨架结构,通过改变骨骼的位置与朝向生成模型相应动画。
在相关技术中,对骨骼动画中的脸部区域进行脸部特征变换通常采用选择预先设定好的候选特征对其进行脸部特征的变换,从而达到“变脸”效果。
然而,上述脸部特征变换的实现过程中,只能从预先设定好的候选特征中进行选取对骨骼动画实现变脸,变换形式单一,动画显示的模式比较固定,使得人机交互频率低,用户体验感较差。
发明内容
本申请实施例提供了一种骨骼动画显示方法、装置、设备、介质及计算机程序产品,能够提高虚骨骼动画脸部元素变换的多样性。所述技术方案如下:
一方面,提供了一种骨骼动画显示方法,所述方法包括:
显示表现骨骼动画的第一对象,所述第一对象的脸部区域包括第一脸部特征,所述骨骼动画为基于所述第一对象对应的骨骼点显示的动画;
接收图像上传操作,所述图像上传操作用于上传包括第二对象的目标图像,所述第二对象的脸部区域包括第二脸部特征;
基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征;
以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程。
另一方面,提供了一种骨骼动画显示装置,所述装置包括:
显示模块,用于显示表现骨骼动画的第一对象,所述第一对象的脸部区域包括第一脸部特征,所述骨骼动画为基于所述第一对象对应的骨骼点显示的动画;
接收模块,用于接收图像上传操作,所述图像上传操作用于上传包括第二对象的目标图像,所述第二对象的脸部区域包括第二脸部特征;
所述显示模块,还用于基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征;
所述显示模块,还用于以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程。
另一方面,提供了一种计算机设备,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现本申请实施例中任一所述的骨骼动画显示方法。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述程序代码由处理器加载并执行以实现本申请实施例中任一所述的终端设备的骨骼动画显示方法。
另一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例中任一所述的骨骼动画显示方法。
本申请的提供的技术方案至少包括以下有益效果:
显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部元素变换的多样性,能够大幅度提高人机互动频率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的相关技术示意图;
图2是本申请一个示例性实施例提供的实施环境的示意图;
图3是本申请一个示例性实施例提供的骨骼动画显示方法的流程图;
图4是本申请另一个示例性实施例提供的骨骼动画显示方法的流程图;
图5是本申请一个示例性实施例提供的触发操作示意图;
图6是本申请一个示例性实施例提供的脸部特征替换过程示意图;
图7是本申请一个示例性实施例提供的骨骼动画显示过程界面示意图;
图8是本申请另一个示例性实施例提供的骨骼动画显示方法的流程图;
图9是本申请一个示例性实施例提供的骨骼动画显示方法的流程图;
图10是本申请一个示例性实施例提供的素材资源界面示意图;
图11是本申请一个示例性实施例提供的骨骼动画显示装置结构图;
图12是本申请另一个示例性实施例提供的骨骼动画显示装置结构图;
图13是本申请一个示例性实施例提供的终端结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例中涉及的名词进行简要介绍:
骨骼动画:属于计算机动画技术中的一种,可分为两部分:一是用于绘制动画模型的蒙皮(Skin),二是用于控制动画进行动作展示的骨架结构,在骨骼动画中,通过改变骨架结构的朝向和位置从而实现蒙皮对应的不同动作,以此展现动画模型对应动画效果。
虚拟对象:是指在虚拟场景中的可活动对象。该可活动对象可以是虚拟人物、虚拟动物、动漫人物中的至少一种。可选地,当虚拟场景为三维虚拟场景时,虚拟对象可以是三维立体模型。每个虚拟对象在三维虚拟场景中具有自身的形状和体积,占据三维虚拟场景中的一部分空间。可选地,虚拟角色是基于三维人体骨骼技术构建的三维角色,该虚拟角色通过穿戴不同的皮肤来实现不同的外在形象。在一些实现方式中,虚拟角色也可以采用2.5维或2维模型来实现,本申请实施例对此不加以限定。
在相关技术中,骨骼动画中对象的特征通常只能单一地从可供选择的候选特征选项中进行选择,从而实现将对象的特征进行变换显示的动画效果,以对象特征为脸部特征为例进行说明,示意性的,请参考图1,其示出了本申请一个示例性实施例提供的相关技术示意图,如图1所示,在宣传场景下,终端上显示宣传活动界面101,宣传活动界面101中包含骨骼动画显示控件102,用户通过对骨骼动画显示控件102进行触发操作,终端显示骨骼动画展示界面103,在骨骼动画展示界面103中包含表现骨骼动画的第一对象104,第一对象104脸部区域对应包括第一脸部特征,在骨骼画面展示界面103中还包含候选脸部特征集合105,候选脸部特征集合105中每个候选脸部特征可作为一个候选选项供用户进行选择,当用户对目标选项106进行触发操作时,终端显示第一对象104脸部区域对应的第一脸部特征替换为目标选项对应的脸部特征进行显示(图中未展示),最终终端显示脸部特征替换完成展示界面107,界面中以目标选项106对应的脸部特征显示第一对象104表现骨骼动画过程。
本申请实施例提供了一种骨骼动画显示方法,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
图2示出了本申请一个示例性实施例提供的实施环境的示意图。示意性的,请参考图2,其示出了本申请一个示例性实施例提供的实施环境的示意图。该实施环境中终端210以及服务器220。其中,终端210以及服务器220之间通过通信网络230进行数据通信,可选的,通信网络230可以是有线网络也可以是无线网络,且该无线网络可以是局域网、城域网以及广域网中的至少一种。
终端210是安装有动画展示功能的应用程序的电子设备。该电子设备可以为智能手机、平板电脑、智能车载设备、智能家居设备、膝上型便携计算机或台式计算机等等。本申请实施例对终端210的具体类型不加以限定。
在一种可能的实施方式中,如图2所示,终端210中运行有具有动画显示功能的应用程序211,在当前应用程序211显示界面中包含表现骨骼动画的第一对象,第一对象脸部区域对应第一脸部特征,当终端210接收到图像上传操作时,获取包括第二对象的目标图像,其中第二对象脸部区域对应第二脸部特征,并向服务器220发送目标图像,服务器220在获取目标图像后,通过图像处理平台对其进行脸部识别,获取目标图像中第二对象脸部区域对应的第二脸部特征,并基于脸部识别结果将终端当前界面上将第一对象脸部区域对应的第一脸部特征替换为第二脸部特征并对其进行数据处理,将包含有替换结果的数据包反馈至终端210,终端210在接收到数据包后对其进行解码处理获取替换结果,最终在终端210以第二脸部特征显示第一对象表现骨骼动画的过程。
在其他可能的实施方式中,骨骼动画相关数据资源也可直接存储在终端210中,终端210可直接获取骨骼动画相关数据资源,本实施例对此不作限定。
服务器220可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。本申请实施例中,服务器220可向终端210提供所需的骨骼动画相关数据资源。
值得注意的是,上述实施例中提到的云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,上述服务器220还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
图3示出了本申请一个示例性实施例提供的骨骼动画显示方法的流程图。该方法可以由服务器或者终端执行,也可以由服务器和终端共同执行,本申请实施例中,以该方法由终端执行为例进行说明,该方法包括如下步骤:
步骤301,显示表现骨骼动画的第一对象。
其中,第一对象的脸部区域包括第一脸部特征,骨骼动画为基于第一对象对应的骨骼点显示的动画。
可选的,在终端运行的具有动画展示功能的应用程序中显示骨骼动画界面,骨骼动画界面中包含至少一个对象。
在一些实施例中,第一对象包含蒙皮及多个骨骼点,第一对象为虚拟对象,如:动漫人物、虚拟人物、虚拟动物等;或者,第一对象为真实人物以动画形式进行展现,在此不做限定。其中,蒙皮指第一对象对应的平面图,骨骼点为随机或者通过设计分布在第一对象对应蒙皮上的可移动点,将这些骨骼点进行连接,可获取第一对象对应的骨架结构,将骨骼点进行平移或旋转,即可生成相应的骨骼动画。
其中,第一对象的脸部区域对应的第一脸部特征,包括五官的表现状态特征,如:微笑、眯眼、皱眉等;或者,包括五官的分布特征,即五官在第一对象脸部区域上的分布位置,在此不做限定。
示意性的,终端界面上展示第一对象的骨骼动画效果,该骨骼动画效果为基于不同骨骼动作串联而成的动画效果,骨骼动作是指将第一对象的各骨骼点进行位置变化从而使其表现出不同的形态动作,其中,界面上展示的第一对象的骨骼动画包括重复动画,即该第一对象在重复展现同一骨骼动画,或者,包括随机骨骼动画,即该第一对象展现多个随机骨骼动画且不存在重复骨骼重画,在此不做限定。
步骤302,接收图像上传操作。
其中,图像上传操作用于上传包括第二对象的目标图像,第二对象的脸部区域包括第二脸部特征。
可选的,图像上传操作为终端当前运行的客户端调用终端中本地图像集合中的目标图像。其中,目标图像中的第二对象包括虚拟对象或真实人物,在此不做限定。
其中,第二对象的脸部区域对应的第一脸部特征,包括五官的表现状态特征,如:微笑、眯眼、皱眉等;或者,包括五官的分布特征,即五官在第一对象脸部区域上的分布位置,在此不做限定。
在一些实施例中,终端接收到来自用户进行的图像上传操作,其中,目标图像的获取方式包括如下几种方式中的至少一种:
1.上传的图像为终端本地相册存储的图像,也即,用户从终端的本地相册中选取已存储的目标图像进行上传;
2.通过终端中的拍摄功能进行图像采集获取图像,也即,用户基于对终端当前界面包含的拍摄控件的触发操作,进行图像采集(包括采集他人图像或者采集用户自身图像)从而得到图像采集结果,将图像采集结果对应的图像进行上传;
3.用户手动绘制图像,也即,当前终端运行的应用程序中包含绘画功能,用户基于对当前骨骼动画显示界面包含的绘画控件的触发操作,进行图像绘制,将图像绘制结果对应的目标图像进行上传;
4.在当前应用程序中包含“捏脸”功能,将通过“捏脸”功能获取图像,也即,当前终端中运行的应用程序中包含自定义图像库,自定义图像库中包含多个种类的对象特征表现形式,如:五官特征表现(如双眼皮、招风耳、丹凤眼、蒜头鼻、微笑唇等)、脸型特征表现(如:鹅蛋脸、圆脸、国字脸等)、发型特征表现、肤色特征表现等,在此不做限定,用户通过在自定义图像库中选择不同的对象特征表现组成一张目标图像进行上传,如:选择“女性”、“皮肤白皙”、“双眼皮”、“高鼻梁”、“薄唇”、“招风耳”和“鹅蛋脸”组成第二对象的外貌,生成包含该第二对象的目标图像进行上传。
值得注意的是,上述对于目标图像的获取方式仅为示意性的举例,本申请实施例中对此不做限定。
可选的,目标图像中包含多个对象,多个对象中包含或者不包含面部特征,当目标图像中包含多个对应具有面部特征的对象时,第二对象的确定方式包括如下方式中至少一种:
1.用户自由选择多个候选对象中的指定对象作为目标图像对应的第二对象;
2.基于多个候选对象对应的脸部特征完整度,将完整度最高的作为第二对象。
值得注意的是,上述第二对象的确定方式仅为示意性的举例,本申请实施例中对此不做限定。
其中,第二对象的脸部区域对应的第二脸部特征,包括五官的表现状态特征,如:嘟嘴、闭眼、皱眉等;或者,包括五官的分布特征,即五官在第二对象脸部区域上的分布位置,在此不做限定。
步骤303,基于目标图像,将第一对象脸部区域的第一脸部特征,替换显示为第二脸部特征。
在一些实施例中,终端中的客户端调用包含第二对象目标图像后,在当前终端中显示第一对象脸部区域的脸部特征变化,也即,将第一对象脸部区域替换表现为第二脸部区域进行显示。
其中,将第一脸部特征替换表现为第二脸部特征包括完全替换或者部分替换,完全替换指将第二脸部特征完整显示在第一对象的脸部区域,部分替换为将第二脸部特征中的部分特征与第一脸部特征中与其对应的部分特征进行替换,值得注意的是,部分替换时需要进行替换的部分为随机的,或者由用户自主选择需要进行替换的区域,在此不做限定。
步骤304,以第二脸部特征显示第一对象表现骨骼动画的过程。
在一些实施例中,基于第一对象的脸部区域替换脸部特征完成,此时当前终端界面上展示脸部区域对应包含第二脸部特征的第一对象,与此同时,第一对象表现有骨骼动画,在进行脸部特征替换前后的骨骼动画相同或者不同,在此不做限定。
综上所述,本申请实施例提供了一种骨骼动画显示方法,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
在一个可选的实施例中,在确定第二对象的过程中还包括对其进行脸部识别的过程,示意性的,请参考图4,其示出了本申请一个示例性提供的骨骼动画显示方法流程图,如图4所示,该方法可以由服务器或者终端执行,也可以由服务器和终端共同执行,本申请实施例中,以该方法由终端执行为例进行说明,该方法包括如下步骤:
步骤401,显示表现骨骼动画的第一对象。
其中,第一对象的脸部区域包括第一脸部特征,骨骼动画为基于第一对象对应的骨骼点显示的动画。
步骤401中关于第一对象的描述已在上述步骤301中进行详细说明,这里不再赘述。
下述步骤4021至步骤4032为本实施例提供的两种不同的目标图像获取方式,本实施例中对目标图像的获取方式仅为示意性举例,本实施例对此不加以限定。
步骤4021,显示目标图像库。
其中,目标图像库中包含候选图像。
可选的,目标图像库为一个预先进行图像采集并存储至少一个候选图像的图像库,用于供用户进行图像选取,目标图像库基于用户的触发操作进行显示,示意性的,请参考图5,其示出了本申请一个示例性实施例提供的触发操作示意图,如图5所示,当前显示图像获取界面501,图像获取界面501包含图片获取控件502,基于用户对图片获取控件502的触发操作,当前终端界面显示目标图像库(未展出)。
在一些实施例中,候选图像中包含一个或者多个候选对象,候选对象脸部区域对应存在脸部特征或者不存在脸部特征,在此不做限定。
步骤4022,响应于接收到对候选图像的触发操作,将被选定的候选图像作为目标图像。
在一些实施例中,当前终端显示目标图像库中的候选图像,每个候选图像对应为一个可选项,用户根据自身需求,对候选图像进行触发操作,触发操作包括点击操作、长按操作、滑屏操作等触发操作中的任意一种,基于用户的触发操作确定被选中的候选图像,将其作为目标图像,显示该目标对象的被选中状态。
步骤4031,响应于对拍摄控件的触发操作,显示图像采集界面。
在一些实施例中,当前终端上显示骨骼动画界面,骨骼动画界面中包含拍摄控件,拍摄控件为用于触发当前终端的图像采集功能,如:拍摄视频或者拍摄照片等,响应于用户对该拍摄控件的触发操作,其触发操作包括点击操作、长按操作、滑屏操作等触发操作中的任意一种,当前终端将显示图像采集界面,用于进行图像采集,界面包括前置拍摄界面或者后置拍摄界面,在此不做限定。
步骤4032,响应于图像采集操作,得到目标图像作为图像采集结果。
响应于当前终端显示图像采集界面,用户基于自身需求进行图像采集操作,包括对人物进行图像采集,或者对动物进行图像采集,或者对动漫人物进行图像采集等,在此不做限定。
响应于图像采集操作,获取图像采集结果,其图像采集结果包括候选视频或者候选图像,当图像采集结果为候选视频时,需要对候选视频进行图像截取,选取候选视频帧中包含第二对象脸部区域的至少一帧视频帧作为目标图像,或者,默认候选视频中的第一帧或者最后一帧视频帧为目标图像;当图像采集结果为候选图像时,可对该候选图像进行图像修改,包括脸部特征调整或肤色调整或脸部比例调整等,在此不做限定。
步骤404,接收图像上传操作。
其中,图像上传操作用于上传包括第二对象的目标图像,第二对象的脸部区域包括第二脸部特征。
基于上述步骤403确定目标图像为用于进行图像上传操作,其上传方式包括如下方式中至少一种:
1.当确定目标图像时,自动将其进行图像上传;
2.当确定目标图像时,当前终端界面上显示上传控件,响应于用户对该上传控件的触发操作,其触发操作包括点击操作、长按操作、滑屏操作等触发操作中的任意一种,将该触发操作作为图像上传操作。
值得注意的是,上述关于上传方式的说明仅为示意性举例,本申请实施例对图像上传的具体方式不做任何限定。
步骤405,对目标图像进行脸部识别,得到第二对象的脸部区域对应的第二脸部特征作为脸部识别结果。
终端获取至少一个目标图像后,对目标图像进行脸部识别,值得注意的是,当获取多个目标图像,需要对多个目标图像分别进行脸部识别,示意性的,脸部识别方式包括如下形式中的至少一种:
1.对目标图像中包含的第二对象进行脸部五官识别,即对第二对象的脸部区域进行识别,确定脸部区域中五官关键点的分布情况,从而获取第二脸部特征;
2.服务器中包含脸部识别模型,将目标图像输入脸部识别模型中进行脸部识别,确定目标图像中包含的第二对象脸部区域的位置,基于该位置获取第二对象脸部区域;
3.服务器中包含脸部特征集合,该脸部特征集合中的候选脸部特征从公开授权使用的图像集中进行获取,设定相似度阈值,将目标图像与该脸部特征集合进行对比,确定脸部特征集合中与目标图像中第二对象脸部区域达到相似度阈值的候选脸部特征,作为第二脸部特征。
值得注意的是,上述关于人脸识别方式的说明仅为示意性举例,本实施例对人脸识别的具体方式不做任何限定。
示意性的,当一张目标图像中包含多个对象时,对多个对象同时或者依次进行人脸识别从而获取每个对象脸部区域对应的脸部特征,用户可根据自身需求从多个对象中选择一个对象作为第二对象,将其脸部区域对应的脸部特征作为第二脸部特征;或者,用户可根据自身需求,从多个对象中选择每个对象脸部区域中部分脸部特征,将其进行组合作为第二脸部特征,如:目标图像中包含对象a和对象b,选择对象a脸部区域中眼睛特征和鼻子特征,并选择对象b脸部区域中嘴巴特征和眉毛特征,将选中的脸部特征组合作为第二脸部特征,在此不做限定。
步骤406,基于脸部识别结果将第一对象脸部区域的第一脸部特征,替换显示为第二脸部特征。
在一些实施例中,示意性的,请参考图6,其示出了本申请一个示例性实施例提供的脸部特征替换过程示意图,如图6所示,当前终端界面上显示包含对应第一脸部特征的第一对象601,当用户对第一对象的脸部特征替换时,通过对终端界面上的上传控件进行触发操作(此时已经通过图像采集或从目标图像库中确定目标图像,图中未展出),上传目标图像,对其进行脸部识别后确定目标图像中第二对象脸部区域对应的第二脸部特征602,将第一对象601脸部区域对应的第一脸部特征替换为第二脸部特征602,并进行显示对应第二脸部特征的第一对象603。可选的,在进行脸部特征替换的过程中,包括将第一脸部特征完全替换为第二脸部特征(如图6中603所示),或者,将第一脸部特征中的部分特征替换为第二脸部特征(图中未展出),在此不做限定。
在一些实施例中,基于脸部识别结果显示脸部替换特效,脸部替换特效用于对第一脸部特征的取消显示和第二脸部特征的显示进行过渡;响应于脸部替换特效显示完毕,显示第一对象脸部区域的第二脸部特征。也即,在对第一对象进行脸部特征替换的过程中,第一对象脸部区域的第一脸部特征逐步消失,第二脸部特征在第一对象的脸部区域逐步替换显示,或者,第一脸部特征完全消失后,第二脸部特征才显示,在此不做限定。
步骤407,接收特征调整操作。
其中,特征调整操作用于对第二脸部特征在第一对象脸部区域的显示参数进行调整。
在一些实施例中,第二脸部特征在第一对象脸部区域的显示参数包括比例、亮度、位置、方向或者角度等参数中至少一种,也即,第一对象脸部区域对应的第一脸部特征替换为第二脸部特征替换完成后,还会对第二脸部特征在第一对象脸部区域中的显示参数进行调整,如:调整第二脸部特征对应的五官在第一对象脸部区域中的位置分布,或者,调整第二脸部特征的尺寸,如:将眼睛放大、鼻子缩小等,或者,调整第二脸部特征的显示亮度,或者,调整第二脸部特征的方向,如:将五官进行左右翻转,使原本向左看的眼睛向右看,或者,调整第二脸部特征位于第一对象脸部区域的角度,如:将嘴顺时针旋转10度,在此不做限定。
可选的,特征调整操作由用户在终端界面上对第二脸部特征进行手动调整(例如,手动调整角度和大小),或者,当前终端界面中包含调整操作选项,如:“旋转角度大小”、“是否进行翻转”“放大比例大小”,用户通过对调整操作选项进行触发操作,或者通过调整操作选项输入调整范围(如:旋转“10度”、眼睛放大“1.5倍”等),从而进行特征调整,在此不做限定。
步骤408,基于特征调整操作调整第二脸部特征的显示状态。
其中,显示状态包括显示位置、显示亮度、显示比例、显示方向、显示角度中的至少一种。
示意性的,显示位置用于指示第二脸部特征在第一对象的脸部区域中的分布情况,显示亮度用于指示第二脸部特征在第一对象的脸部区域中显示的明暗度,显示比例用于指示第二脸部特征在第一对象的脸部区域中显示的面积与在第二对象脸部区域中显示的面积比值,用于描述第二脸部特征的面积范围,显示方向用于指示第二脸部特征中五官的方向,如:眼睛向右看或者向左看等,显示角度用于指示基于在第二脸部特征在第一对象脸部区域中和在第二对象脸部区域中进行显示的偏差值,如:第二脸部特征中的嘴巴在第一对象脸部区域进行显示时相较于在第二对象脸部区域进行显示时顺时针旋转了5度等,在此不做限定。
可选的,响应于特征调整操作完成,在终端界面中显示特征调整后的第一对象,其脸部区域对应有进行特征调整操作后的第二脸部特征。
步骤409,以第二脸部特征显示第一对象表现骨骼动画的过程。
示意性的,请参考图7,其示出了本申请一个示例性实施例提供的骨骼动画显示过程界面示意图,如图7所示,响应于上述操作完成(包括目标图像上传、脸部特征替换和特征调整),当前界面为骨骼动画界面701,界面中包含表现骨骼动画的第一对象702,第一对象702脸部区域对应第二脸部特征703。
综上所述,本申请实施例提供了一种骨骼动画显示方法,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
本实施例中,一方面,通过从目标图像库中选取目标图像或者通过图像采集获取目标图像扩展了用户获取目标图像的途径,另一方面,基于人像识别确定目标图像中第二对象脸部区域的第二脸部特征,提高了特征替换的适配性,且通过特征调整操作使第二脸部特征在第一对象的脸部区域进行展示时,更符合用户的实际需求,提高了人机互动趣味性。
在一个可选的实施例中,还可以对第一对象进行骨骼动画变换,示意性的,请参考图8,其示出了本申请一个示例性实施例提供的骨骼动画显示方法流程图,该方法可以由服务器或者终端执行,也可以由服务器和终端共同执行,本申请实施例中,以该方法由终端执行为例进行说明,该方法包括如下步骤:
步骤801,显示表现第一骨骼动画的第一对象。
可选的,第一骨骼动画为当前终端界面显示的已设动画,或者,用户可对其进行动画调整后显示的骨骼动画,动画调整在后续步骤进行详细说明。
步骤801中第一对象的描述在上述步骤301中已进行详细说明,这里不再赘述。
步骤802,接收图像上传操作。
其中,图像上传操作用于上传包括第二对象的目标图像,第二对象的脸部区域包括第二脸部特征。
步骤802中关于图像上传操作和包括第二对象的目标图像的描写已在上述步骤302中进行详细说明,这里不再赘述。
步骤803,基于目标图像,将第一对象脸部区域的第一脸部特征,替换显示为第二脸部特征。
步骤803中关于目标图像的描写已在上述步骤405中进行详细说明,且关于替换显示的描写已在上述步骤406进行详细说明,这里不再赘述。
步骤804,以第二脸部特征显示第一对象表现第二骨骼动画的过程。
在一些实施例中,第二骨骼动画与第一骨骼动画相同或者不同,这里不做限定。当第一骨骼动画和第二骨骼动画为不同的骨骼动画时,可通过动画控制操作或动画切换操作对其进行骨骼动画变化,也即,接收动画控制操作,动画调整操作用于基于第一对象的骨骼点对第一对象进行动画表现控制;基于动画控制操作控制第一对象表现第二骨骼动画,第一对象的脸部区域包括第二脸部特征;或者,接收动画切换操作,动画切换操作用于将第一骨骼动画切换至第二骨骼动画;基于动画切换操作显示第一对象表现第二骨骼动画的过程,第一对象的脸部区域包括所述第二脸部特征。
可选的,终端通过接受用户对第一对象的动画控制操作,显示第一对象表现第二骨骼动画的过程,同时,第一对象脸部区域对应第二脸部特征,即,用户可通过对第一对象的动画表现进行调整,从而达到控制骨骼动画的效果,示意性的,可以调整第一对象对应骨骼点的活动方式,如:将第一对象放在身体两侧的手臂对应的骨骼点移至第一对象头部上方,实现“举手”动画效果,或者,调整第一对象表现骨骼动画的动作角度,如:将第一对象的摆臂动作幅度“30度”改为“45”度,实现第一对象摆臂幅度增大效果,或者,改变第一对象的骨骼动画表现方向,如:将第一对象头部“向左转”变换为“向右转”,从而确定第一对象对应的第二骨骼动画,或者,改变第一对象的形象,生成新形象对应的第二骨骼动画,如:改变第一对象的发型或者服饰装扮等,调整方式在此不做限定。
可选的,终端通过接受用户对第一对象的动画切换操作,显示第一对象表现第二骨骼动画的过程,同时,第一对象脸部区域对应第二脸部特征,即,显示候选动画集合,候选动画集合中包含至少一个候选骨骼动画选项,至少一个候选骨骼动画选项中包括第二骨骼动画对应的目标选项;接收对目标选项的触发操作作为动画切换操作。示意性的,用户可通过选择候选动画集合中包含的候选骨骼动画作为第二骨骼动画,候选动画集合中包含预先设计好的候选骨骼动画,每个骨骼动画对应一个可选项,用户通过对可选项进行触发操作进行候选动画的选取,终端接收到用户对于某个候选骨骼动画对应的可选项的触发操作,将该可选项作为目标选项,将该目标选项对应的候选骨骼动画作为第二骨骼动画进行展示。
示意性的,当终端接收到多次动画控制操作或者动画切换操作,每一次动画控制操作或者动画切换操作对应产生一个第二骨骼动画,终端界面上将依次显示第二骨骼动画,或者,在终端展示第二骨骼动画的过程中,用户可通过动画控制操作或者动画切换操作将第二骨骼动画进行变换,也即,第一对象在表现骨骼动画的过程中可随时进行动画变换,在此不做限定。
步骤805,响应于目标图像不包含第二脸部特征,显示替换失败结果。
其中,替换失败结果用于指示将第一对象脸部区域的第一脸部特征替换显示失败。
在一些实施例中,替换显示中还包含显示替换失败结果,替换失败的原因包括如下几种情况中至少一种:
1.当存在目标图像中不包含第二脸部特征的情况时,如:在进行脸部识别时识别由于清晰度过低、脸部区域显示不完整等情况时,无法识别到第二对象的脸部区域;
2.存在目标图像中不包含第二对象的情况,因而无法识别到第二脸部特征。
值得注意的是,上述关于替换失败的情况仅为示意性举例,本实施例中对具体替换失败情况不做任何限定。
当脸部特征替换失败时,当前终端界面中将产生提示框,如“该图像无法进行替换”,便于用户重新选择目标图像进行脸部特征替换。
综上所述,本申请实施例提供了一种骨骼动画显示方法,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
本实施例中,通过接受动画控制操作或者动画切换操作对第一对象表现的骨骼动画进行动画变化,丰富了骨骼动画显示元素的多样性,同时也能提高用户的兴趣,增强人机交互的互动性。
在一个可选的实施例中,存在用户上传的目标图像尺寸过大或者过小的问题,因此客户端将用户上传的目标图像进行图像处理后发送至服务器进行后续处理,示意性的,请参考图9,其示出了本申请一个示例性实施例提供的骨骼动画显示方法的流程图,如图9所示,该方法包括如下步骤:
步骤901,加载资源。
在终端运行包含该骨骼动画显示功能的小程序时,终端界面显示的骨骼动画为一个HTML5(Hypertext Markup Language,可扩展标记语言第5版本)界面,客户端需要加载整个HTML5界面所需要用到素材资源,示意性的,请参考图10,其示出了本申请一个示例性实施例提供的素材资源界面示意图,如图10所示,当前为素材资源示意图1000,图中包含骨骼动画所在HTML5界面中的素材资源,包括生成第一对象所需要用到的素材资源,如:发型素材、脸部素材,服饰素材、身体素材等。所有的素材可按照类别均匀分布在素材界面中,或者,随意分布在素材界面中,在此不做限定。
当素材资源加载完毕后,在终端当前界面中显示表现骨骼动画的第一对象。
步骤902,用户选取目标图像。
可选的,当前终端界面中显示选择控件用于进行目标图像的选取,用户可对该选择控件进行触发操作进入选取图像流程。
步骤903,图像采集操作。
当用户触发选择控件后,可选择通过图像采集获取目标图像,通过对界面中的拍摄控件进行触发操作,当前界面上显示图像采集界面,用户通过图像采集操作获取目标图像。
步骤904,图像库选取图像。
当用户触发选择控件后,可选择通过在目标图像库中选择候选图像作为目标图像,即当前界面显示目标图像库,其中包含至少一个已采集完毕的候选图像,每个候选图像对应一个可选项,用户基于自身需求对候选图像对应的可选项进行触发操作,将选中的候选图像作为目标图像。
值得注意的是,步骤903和步骤904为两个并列的方案,在实际运用中选择一种实现即可。
步骤905,对目标图像进行编码处理。
可选的,当终端接收到来自用户的图像上传操作后,由于进行后续处理的图像处理平台对图像尺寸有一定限制,即存在图像处理标准,客户端对上传的目标图像进行编码处理,便于后续处理。
示意性的,根据1080像素和目标图像的图像尺寸,获取图像缩放比例计算结果,其中,获取图像缩放比例后根据图像缩放比例对其进行等比例缩放处理,避免图像出现变形,即:
图像新宽度=图像初始宽度×图像缩放比例
图像新高度=图像初始高度×图像缩放比例
基于图像新宽度和图像新高度生成目标图像对应的调整图像后,对其进行编码处理,在一些实施例中,使用canvas(画布)工具对其进行编码处理,首选,创建一个新画布并根据调整图像对应的宽度和高度设置该新画布的宽度和高度,代码可参考如下:
var canvas=document.createElement(“canvas”);//生成canvas
canvas.width=img.width;
canvas.height=img.height;
其中,代码中的width指宽度,height指高度,img指调整图像,该代码将新画布的宽度和高度与调整图像的宽度与高度设置一致,其次,将调整图像绘制到新画布上,其代码可参考如下:
var ctx=canvas,getContext(“2d”);
ctx.dreamImage(img,0,0,img.width,img.height);
其中,代码中的2d指当前绘制的为2d动画图像。接着,利用画布工具中toDataURL方法,将目标图像进行编码处理,其代码可参考如下:
var base64=canvas.toDataURL(“image/jpeg”,0.9);
其中,base64指将新画布中的图像转换为64编码格式,比例参数设为0.9,即将新画布中的图像尺寸变为原来的90%,得到标准图像,由此用来改变目标图像的质量,使其符合图像处理平台的图像处理标准。值得注意的是,客户端进行编码处理时,当前终端会显示等待界面。
步骤906,发送至图像处理平台。
可选的,将上述经过尺寸调整得到的标准图像发送至图像处理平台进行脸部特征替换。其中,图像处理平台将对标准图像进行脸部识别,确定标准图像中第二对象脸部区域对应的第二脸部特征,如果脸部识别成功,即将第一对象脸部区域对应的第一脸部特征替换为第二脸部特征,如果脸部识别失败,则在终端显示替换失败结果,便于用户重新选取目标图像。在脸部特征替换成功的情况下,如图10所示,第一对象脸部区域对应的第一脸部特征1001为素材资源图中的一个图片贴片,脸部特征替换过程即将第二脸部特征1002对应的图片贴片覆盖在第一脸部特征1001之上,以此完成一次替换过程。值得注意的是,由于图像处理平台对每个开发者账户ID在每1秒中内只能处理10次脸部特征替换请求,因此在服务器端创建了10个开发者账户,并将客户端发送过来的脸部特征替换请求均衡地分配给该10个开发者账户ID,不同的开发者账户ID向图像处理平台发送不同的请求,以避免因用户访问量过多而导致脸部特征替换请求被阻塞中断。
步骤907,解析并加载。
在一些实施例中,当脸部特征替换结果完成后(包括替换失败,即人脸识别失败,或者替换成功),将替换结果对应的数据包发送至客户端,数据包中包括替换结果对应的代码,客户端对其代码进行解析,若解析结果为包含第二脸部特征的素材资源图,则为替换成功,并将该素材资源图进行资源加载,若解析结果为包含第一脸部特征的素材资源图,则为替换失败,当前终端界面显示替换失败结果。
步骤908,渲染骨骼动画。
在一些实施例中,将上述进行资源加载的素材资源图生成的动画图像进行动画渲染,将其生成骨骼动画。
步骤909,生成上场造型。
在一些实施例中,基于上述渲染结果,在终端界面上显示对应有第二脸部特征的第一对象。
步骤910,显示骨骼动画。
在一些实施例中,在当前终端界面中显示表现骨骼动画的第一对象,其中,第一对象的脸部区域对应有第二脸部特征。
综上所述,本申请实施例提供了一种骨骼动画显示方法,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
利用本申请涉及的方案还可以实现仅用小尺寸的脸部特征替换图像(足够覆盖脸部即可),然后实时读取骨骼动画中第一对象对应脸部的坐标和旋转等数据,实时把这些数据应用在脸部特征替换图像上,保证脸部特征替换图像一直盖在第一对象的脸部上,这样就可以不用去修改素材资源图,实现提前渲染,用户可以先体验默认的骨骼动画,等待脸部特征替换结果对应的替换图像返回后就可以覆盖在骨骼动画上实现脸部特征替换;也即不用等待图像处理平台返回数据包,也不用等待数据包加载,用户可以更快的体验到骨骼动画,减少用户在等待中造成流失,提高了人机交互的互动性。
本申请涉及的方案可以带给用户动态的脸部特征替换过程,让用户在观看骨骼动画的过程中看到自己或好友的脸部特征替换效果,模拟用户置身于骨骼动画中,并且在进行脸部特征替换后后依然可以控制骨骼动画。此外,由于只是使用第二脸部特征对应的图像替换了第一脸部特征对应的图片,没有对骨骼动画数据做修改,在骨骼动画显示的过程中不会中断体验,也不会增加骨骼动画资源大小。
图11示出了本申请一个实施例提供的骨骼动画显示装置的框图。该装置具有实现上述方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以包括:
显示模块1110,用于显示表现骨骼动画的第一对象,所述第一对象的脸部区域包括第一脸部特征,所述骨骼动画为基于所述第一对象对应的骨骼点显示的动画;
接收模块1140,用于接收图像上传操作,所述图像上传操作用于上传包括第二对象的目标图像,所述第二对象的脸部区域包括第二脸部特征;
所述显示模块1110,还用于基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征;
所述显示模块1110,还用于以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程。
在一个可选的实施例中,所述显示模块1110,包括:
识别单元1111,用于对所述目标图像进行脸部识别,得到所述第二对象的脸部区域对应的所述第二脸部特征作为所述脸部识别结果;
显示单元1112,用于基于所述脸部识别结果将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征。
在一个可选的实施例中,所述显示单元1112,还用于基于所述脸部识别结果显示脸部替换特效,所述脸部替换特效用于对所述第一脸部特征的取消显示和所述第二脸部特征的显示进行过渡;响应于所述脸部替换特效显示完毕,显示所述第一对象脸部区域的所述第二脸部特征。
在一个可选的实施例中,所述显示单元1112之后,还包括:
接收单元1113,用于接收特征调整操作,所述特征调整操作用于对所述第二脸部特征在所述第一对象脸部区域的显示参数进行调整;
调整单元1114,用于基于所述特征调整操作调整所述第二脸部特征的显示状态;其中,所述显示状态包括显示位置、显示亮度、显示比例、显示方向、显示角度中的至少一种。
在一个可选的实施例中,所述显示模块1110,还用于显示表现第一骨骼动画的所述第一对象;
所述显示模块1110,还用于以所述第二脸部特征显示所述第一对象表现第二骨骼动画的过程。
在一个可选的实施例中,所述显示模块1110,还用于接收动画控制操作,所述动画调整操作用于基于所述第一对象的骨骼点对所述第一对象进行动画表现控制;基于所述动画控制操作控制所述第一对象表现所述第二骨骼动画,所述第一对象的脸部区域包括所述第二脸部特征;或者,接收动画切换操作,所述动画切换操作用于将所述第一骨骼动画切换至所述第二骨骼动画;基于所述动画切换操作显示所述第一对象表现所述第二骨骼动画的过程,所述第一对象的脸部区域包括所述第二脸部特征。
在一个可选的实施例中,所述显示模块1110,还用于显示候选动画集合,所述候选动画集合中包含至少一个候选骨骼动画选项,所述至少一个候选骨骼动画选项中包括所述第二骨骼动画对应的目标选项;接收对所述目标选项的触发操作作为所述动画切换操作。
在一个可选的实施例中,所述接收模块1140之前,还包括:
所述显示模块1110,还用于显示目标图像库,所述目标图像库中包含候选图像;
触发模块1120,用于响应于接收到对所述候选图像的触发操作,将被选定的候选图像作为所述目标图像。
在一个可选的实施例中,所述接收模块1140之前,还包括:
所述显示模块1110,还用于响应于对拍摄控件的触发操作,显示图像采集界面;
获取模块1130,用于响应于图像采集操作,得到所述目标图像作为图像采集结果。
在一个可选的实施例中,所述显示模块1110,还用于响应于所述目标图像不包含第二脸部特征,显示替换失败结果,所述替换失败结果用于指示将所述第一对象脸部区域的所述第一脸部特征替换显示失败。
综上所述,本申请实施例提供了一种骨骼动画显示装置,显示表现骨骼动画的第一对象,第一对象的脸部区域包括有第一脸部特征,接收图像上传操作,上传包含第二对象的目标图像,其中第二对象对应有第二脸部特征,将第一对象脸部区域的第一脸部特征替换为第二脸部特征,实现第一对象脸部区域的特征变换,第一对象以第二脸部特征显示其骨骼动画的表现过程,在骨骼动画中通过将第一对象的脸部特征进行自由变化从而实现基于不同脸部特征表现骨骼动画的方式,增强了骨骼动画中脸部变换的多样性,能够大幅度提高人机互动频率。
需要说明的是:上述实施例提供的骨骼动画显示装置仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的骨骼动画显示装置与骨骼动画显示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图13示出了本申请一个示例性实施例提供的终端1300的结构框图。该终端1300可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group AudioLayer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1300还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1300包括有:处理器1301和存储器1302。
处理器1301可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1301可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1301也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1301可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1302可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1302还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1302中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1301所执行以实现本申请中方法实施例提供的骨骼动画显示方法。
在一些实施例中,终端1300还可选包括有:外围设备接口1303和至少一个外围设备。处理器1301、存储器1302和外围设备接口1303之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1303相连。具体地,外围设备包括:射频电路1304、显示屏1305、摄像头组件1306、音频电路1307、定位组件1308和电源1309中的至少一种。
外围设备接口1303可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1301和存储器1302。在一些实施例中,处理器1301、存储器1302和外围设备接口1303被集成在同一芯片或电路板上;在一些其他实施例中,处理器1301、存储器1302和外围设备接口1303中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1304用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1304通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1304将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选的,射频电路1304包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1304可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1304还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1305用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1305是触摸显示屏时,显示屏1305还具有采集在显示屏1305的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1301进行处理。此时,显示屏1305还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1305可以为一个,设置终端1300的前面板;在另一些实施例中,显示屏1305可以为至少两个,分别设置在终端1300的不同表面或呈折叠设计;在再一些实施例中,显示屏1305可以是柔性显示屏,设置在终端1300的弯曲表面上或折叠面上。甚至,显示屏1305还可以设置成非矩形的不规则图形,也即异形屏。显示屏1305可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1306用于采集图像或视频。可选的,摄像头组件1306包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1306还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1307可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1301进行处理,或者输入至射频电路1304以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1300的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1301或射频电路1304的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1307还可以包括耳机插孔。
定位组件1308用于定位终端1300的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件1308可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源1309用于为终端1300中的各个组件进行供电。电源1309可以是交流电、直流电、一次性电池或可充电电池。当电源1309包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1300还包括有一个或多个传感器1310。该一个或多个传感器1310包括但不限于:加速度传感器1311、陀螺仪传感器1312、压力传感器1313、指纹传感器1314、光学传感器1315以及接近传感器1316。
加速度传感器1311可以检测以终端1300建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1311可以用于检测重力加速度在三个坐标轴上的分量。处理器1301可以根据加速度传感器1311采集的重力加速度信号,控制触摸显示屏1305以横向视图或纵向视图进行用户界面的显示。加速度传感器1311还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1312可以检测终端1300的机体方向及转动角度,陀螺仪传感器1312可以与加速度传感器1311协同采集用户对终端1300的3D动作。处理器1301根据陀螺仪传感器1312采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1313可以设置在终端1300的侧边框和/或触摸显示屏1305的下层。当压力传感器1313设置在终端1300的侧边框时,可以检测用户对终端1300的握持信号,由处理器1301根据压力传感器1313采集的握持信号进行左右手识别或快捷操作。当压力传感器1313设置在触摸显示屏1305的下层时,由处理器1301根据用户对触摸显示屏1305的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1314用于采集用户的指纹,由处理器1301根据指纹传感器1314采集到的指纹识别用户的身份,或者,由指纹传感器1314根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1301授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1314可以被设置终端1300的正面、背面或侧面。当终端1300上设置有物理按键或厂商Logo时,指纹传感器1314可以与物理按键或厂商Logo集成在一起。
光学传感器1315用于采集环境光强度。在一个实施例中,处理器1301可以根据光学传感器1315采集的环境光强度,控制触摸显示屏1305的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1305的显示亮度;当环境光强度较低时,调低触摸显示屏1305的显示亮度。在另一个实施例中,处理器1301还可以根据光学传感器1315采集的环境光强度,动态调整摄像头组件1306的拍摄参数。
接近传感器1316,也称距离传感器,通常设置在终端1500的前面板。接近传感器1316用于采集用户与终端1300的正面之间的距离。在一个实施例中,当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变小时,由处理器1301控制触摸显示屏1305从亮屏状态切换为息屏状态;当接近传感器1316检测到用户与终端1300的正面之间的距离逐渐变大时,由处理器1301控制触摸显示屏1305从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图13中示出的结构并不构成对终端1300的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,该计算机可读存储介质可以是上述实施例中的存储器中所包含的计算机可读存储介质;也可以是单独存在,未装配入终端中的计算机可读存储介质。该计算机可读存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述实施例中任一所述的基于骨骼动画显示方法。
可选的,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、固态硬盘(SSD,Solid State Drives)或光盘等。其中,随机存取记忆体可以包括电阻式随机存取记忆体(ReRAM,Resistance RandomAccess Memory)和动态随机存取存储器(DRAM,Dynamic Random Access Memory)。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种骨骼动画显示方法,其特征在于,所述方法包括:
在终端运行应用程序的情况下,显示表现骨骼动画的第一对象,所述第一对象的脸部区域包括第一脸部特征,所述骨骼动画为基于所述第一对象对应的骨骼点显示的动画;
在所述应用程序中包含绘画功能的情况下,显示绘画控件;
响应于接收到对所述绘画控件的触发操作,对目标图像进行图像绘制,得到所述目标图像的图像绘制结果,所述目标图像中包括第二对象,所述第二对象的脸部区域包括第二脸部特征;
接收图像上传操作,所述图像上传操作用于上传包括所述第二对象的所述目标图像;
基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征;
接收特征调整操作,所述特征调整操作用于对所述第二脸部特征在所述第一对象脸部区域的显示参数进行调整;
基于所述特征调整操作调整所述第二脸部特征的显示状态;其中,所述显示状态包括显示位置、显示亮度、显示比例、显示方向、显示角度中的至少一种,其中,所述显示位置用于指示所述第二脸部特征在所述第一对象的脸部区域中的分布情况,所述显示亮度用于指示所述第二脸部特征在所述第一对象的脸部区域中显示的明暗度,所述显示比例用于指示所述第二脸部特征在所述脸部区域中显示的面积范围,所述显示方向用于指示所述第二脸部特征中五官的方向,所述显示角度用于指示所述第二脸部特征在所述第一对象的脸部区域中和在所述第二对象的脸部区域中显示的角度偏差;
以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程。
2.根据权利要求1所述的方法,其特征在于,所述基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征,包括:
对所述目标图像进行脸部识别,得到所述第二对象的脸部区域对应的所述第二脸部特征作为所述脸部识别结果;
基于所述脸部识别结果将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征。
3.根据权利要求2所述的方法,其特征在于,所述基于所述脸部识别结果将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征,包括:
基于所述脸部识别结果显示脸部替换特效,所述脸部替换特效用于对所述第一脸部特征的取消显示和所述第二脸部特征的显示进行过渡;
响应于所述脸部替换特效显示完毕,显示所述第一对象脸部区域的所述第二脸部特征。
4.根据权利要求1至3任一所述的方法,其特征在于,所述显示表现骨骼动画的第一对象,包括:
显示表现第一骨骼动画的所述第一对象;
所述以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程,包括:
以所述第二脸部特征显示所述第一对象表现第二骨骼动画的过程。
5.根据权利要求4所述的方法,其特征在于,所述以所述第二脸部特征显示所述第一对象表现第二骨骼动画的过程,包括:
接收动画控制操作,所述动画调整操作用于基于所述第一对象的骨骼点对所述第一对象进行动画表现控制;基于所述动画控制操作控制所述第一对象表现所述第二骨骼动画,所述第一对象的脸部区域包括所述第二脸部特征;
或者,
接收动画切换操作,所述动画切换操作用于将所述第一骨骼动画切换至所述第二骨骼动画;基于所述动画切换操作显示所述第一对象表现所述第二骨骼动画的过程,所述第一对象的脸部区域包括所述第二脸部特征。
6.根据权利要求5所述的方法,其特征在于,所述接收动画切换操作,包括:
显示候选动画集合,所述候选动画集合中包含至少一个候选骨骼动画选项,所述至少一个候选骨骼动画选项中包括所述第二骨骼动画对应的目标选项;
接收对所述目标选项的触发操作作为所述动画切换操作。
7.根据权利要求1至3任一所述的方法,其特征在于,所述接收图像上传操作之前,还包括:
显示目标图像库,所述目标图像库中包含候选图像;
响应于接收到对所述候选图像的触发操作,将被选定的候选图像作为所述目标图像。
8.一种骨骼动画显示装置,其特征在于,所述装置包括:
显示模块,用于在终端运行应用程序的情况下,显示表现骨骼动画的第一对象,所述第一对象的脸部区域包括第一脸部特征,所述骨骼动画为基于所述第一对象对应的骨骼点显示的动画;
接收模块,用于在所述应用程序中包含绘画功能的情况下,显示绘画控件;
响应于接收到对所述绘画控件的触发操作,对目标图像进行图像绘制,得到所述目标图像的图像绘制结果,所述目标图像中包括第二对象,所述第二对象的脸部区域包括第二脸部特征;接收图像上传操作,所述图像上传操作用于上传包括所述第二对象的所述目标图像;
所述显示模块,还用于基于所述目标图像,将所述第一对象脸部区域的所述第一脸部特征,替换显示为所述第二脸部特征;
所述接收模块,还用于接收特征调整操作,所述特征调整操作用于对所述第二脸部特征在所述第一对象脸部区域的显示参数进行调整;
所述显示模块,还用于基于所述特征调整操作调整所述第二脸部特征的显示状态;其中,所述显示状态包括显示位置、显示亮度、显示比例、显示方向、显示角度中的至少一种,其中,所述显示位置用于指示所述第二脸部特征在所述第一对象的脸部区域中的分布情况,所述显示亮度用于指示所述第二脸部特征在所述第一对象的脸部区域中显示的明暗度,所述显示比例用于指示所述第二脸部特征在所述脸部区域中显示的面积范围,所述显示方向用于指示所述第二脸部特征中五官的方向,所述显示角度用于指示所述第二脸部特征在所述第一对象的脸部区域中和在所述第二对象的脸部区域中显示的角度偏差;
所述显示模块,还用于以所述第二脸部特征显示所述第一对象表现所述骨骼动画的过程。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如权利要求1至7任一所述的骨骼动画显示方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述程序代码由处理器加载并执行以实现如权利要求1至7任一所述的骨骼动画显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111275097.3A CN114004922B (zh) | 2021-10-29 | 2021-10-29 | 骨骼动画显示方法、装置、设备、介质及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111275097.3A CN114004922B (zh) | 2021-10-29 | 2021-10-29 | 骨骼动画显示方法、装置、设备、介质及计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114004922A CN114004922A (zh) | 2022-02-01 |
CN114004922B true CN114004922B (zh) | 2023-11-24 |
Family
ID=79925445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111275097.3A Active CN114004922B (zh) | 2021-10-29 | 2021-10-29 | 骨骼动画显示方法、装置、设备、介质及计算机程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114004922B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051392A (zh) * | 2006-04-04 | 2007-10-10 | 罗技欧洲公司 | 实时的自动面部特征替换 |
CN103065348A (zh) * | 2012-12-27 | 2013-04-24 | 江苏太奇通软件有限公司 | 基于骨骼动作库的二维动画自动生成方法 |
CN104156993A (zh) * | 2014-07-18 | 2014-11-19 | 小米科技有限责任公司 | 一种切换图片中人脸图像的方法及装置 |
CN106534757A (zh) * | 2016-11-22 | 2017-03-22 | 北京金山安全软件有限公司 | 人脸交换方法、装置、主播终端及观众终端 |
CN108762906A (zh) * | 2018-05-25 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 场景切换方法、装置、电子设备以及可读存储介质 |
CN109151340A (zh) * | 2018-08-24 | 2019-01-04 | 太平洋未来科技(深圳)有限公司 | 视频处理方法、装置及电子设备 |
CN109395390A (zh) * | 2018-10-26 | 2019-03-01 | 网易(杭州)网络有限公司 | 游戏角色脸部模型的处理方法、装置、处理器及终端 |
CN109559362A (zh) * | 2018-11-23 | 2019-04-02 | 广东智媒云图科技股份有限公司 | 一种图像主体脸部替换方法及装置 |
CN110956580A (zh) * | 2019-11-28 | 2020-04-03 | 广州华多网络科技有限公司 | 图像换脸的方法、装置、计算机设备以及存储介质 |
CN112184863A (zh) * | 2020-10-21 | 2021-01-05 | 网易(杭州)网络有限公司 | 一种动画数据的处理方法和装置 |
CN112843701A (zh) * | 2021-03-09 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 可穿戴元素的替换方法、装置、终端及存储介质 |
CN112927332A (zh) * | 2021-04-02 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 骨骼动画更新方法、装置、设备及存储介质 |
CN112973118A (zh) * | 2021-04-15 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 骨骼动画的展示方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10636218B2 (en) * | 2018-09-24 | 2020-04-28 | Universal City Studios Llc | Augmented reality for an amusement ride |
-
2021
- 2021-10-29 CN CN202111275097.3A patent/CN114004922B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101051392A (zh) * | 2006-04-04 | 2007-10-10 | 罗技欧洲公司 | 实时的自动面部特征替换 |
CN103065348A (zh) * | 2012-12-27 | 2013-04-24 | 江苏太奇通软件有限公司 | 基于骨骼动作库的二维动画自动生成方法 |
CN104156993A (zh) * | 2014-07-18 | 2014-11-19 | 小米科技有限责任公司 | 一种切换图片中人脸图像的方法及装置 |
CN106534757A (zh) * | 2016-11-22 | 2017-03-22 | 北京金山安全软件有限公司 | 人脸交换方法、装置、主播终端及观众终端 |
CN108762906A (zh) * | 2018-05-25 | 2018-11-06 | 腾讯科技(深圳)有限公司 | 场景切换方法、装置、电子设备以及可读存储介质 |
CN109151340A (zh) * | 2018-08-24 | 2019-01-04 | 太平洋未来科技(深圳)有限公司 | 视频处理方法、装置及电子设备 |
CN109395390A (zh) * | 2018-10-26 | 2019-03-01 | 网易(杭州)网络有限公司 | 游戏角色脸部模型的处理方法、装置、处理器及终端 |
CN109559362A (zh) * | 2018-11-23 | 2019-04-02 | 广东智媒云图科技股份有限公司 | 一种图像主体脸部替换方法及装置 |
CN110956580A (zh) * | 2019-11-28 | 2020-04-03 | 广州华多网络科技有限公司 | 图像换脸的方法、装置、计算机设备以及存储介质 |
CN112184863A (zh) * | 2020-10-21 | 2021-01-05 | 网易(杭州)网络有限公司 | 一种动画数据的处理方法和装置 |
CN112843701A (zh) * | 2021-03-09 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 可穿戴元素的替换方法、装置、终端及存储介质 |
CN112927332A (zh) * | 2021-04-02 | 2021-06-08 | 腾讯科技(深圳)有限公司 | 骨骼动画更新方法、装置、设备及存储介质 |
CN112973118A (zh) * | 2021-04-15 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 骨骼动画的展示方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
Physically based model for interactive skeletal animation;Ake Lerttriluck etal.;《2012 Ninth International Conference on Computer Science and Software Engineering (JCSSE)》;全文 * |
基于虚拟现实技术( VR) 的动画交互性设计分析;吴磊;《信息技术》(第第7期期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114004922A (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978989B (zh) | 三维人脸模型生成方法、装置、计算机设备及存储介质 | |
US20230377189A1 (en) | Mirror-based augmented reality experience | |
US20230154121A1 (en) | Side-by-side character animation from realtime 3d body motion capture | |
CN111726536A (zh) | 视频生成方法、装置、存储介质及计算机设备 | |
CN112287852B (zh) | 人脸图像的处理方法、显示方法、装置及设备 | |
CN112328091B (zh) | 弹幕显示方法、装置、终端及存储介质 | |
CN111541907A (zh) | 物品显示方法、装置、设备及存储介质 | |
CN112337105B (zh) | 虚拟形象生成方法、装置、终端及存储介质 | |
CN112148404B (zh) | 头像生成方法、装置、设备以及存储介质 | |
US11997422B2 (en) | Real-time video communication interface with haptic feedback response | |
US11989348B2 (en) | Media content items with haptic feedback augmentations | |
US20240184372A1 (en) | Virtual reality communication interface with haptic feedback response | |
US20220317774A1 (en) | Real-time communication interface with haptic and audio feedback response | |
US20220317775A1 (en) | Virtual reality communication interface with haptic feedback response | |
WO2022147158A1 (en) | Communication interface with haptic feedback response | |
WO2022212175A1 (en) | Interface with haptic and audio feedback response | |
WO2022147449A1 (en) | Electronic communication interface with haptic feedback response | |
CN113609358B (zh) | 内容分享方法、装置、电子设备以及存储介质 | |
CN113194329B (zh) | 直播互动方法、装置、终端及存储介质 | |
CN114004922B (zh) | 骨骼动画显示方法、装置、设备、介质及计算机程序产品 | |
US11922587B2 (en) | Dynamic augmented reality experience | |
US11935442B1 (en) | Controlling brightness based on eye tracking | |
US20220377309A1 (en) | Hardware encoder for stereo stitching | |
US20220373791A1 (en) | Automatic media capture using biometric sensor data | |
US20220210336A1 (en) | Selector input device to transmit media content items |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |