CN110517339B - 一种基于人工智能的动画形象驱动方法和装置 - Google Patents
一种基于人工智能的动画形象驱动方法和装置 Download PDFInfo
- Publication number
- CN110517339B CN110517339B CN201910816780.XA CN201910816780A CN110517339B CN 110517339 B CN110517339 B CN 110517339B CN 201910816780 A CN201910816780 A CN 201910816780A CN 110517339 B CN110517339 B CN 110517339B
- Authority
- CN
- China
- Prior art keywords
- expression
- image
- base
- driving
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000013473 artificial intelligence Methods 0.000 title abstract description 39
- 230000014509 gene expression Effects 0.000 claims abstract description 691
- 238000013507 mapping Methods 0.000 claims abstract description 114
- 241000406668 Loxodonta cyclotis Species 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 26
- 238000004422 calculation algorithm Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 238000009826 distribution Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例公开了一种基于人工智能的动画形象驱动方法,当一个动画形象具有对应的捏脸基,一个动画形象不具有对应的捏脸基时,可以将具有捏脸基的作为驱动方形象,不具有捏脸基的作为被驱动方形象。获取驱动方形象对应的表情基和被驱动方形象对应的表情基,根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系,根据该映射关系,使用驱动方形象已知的表情参数以及前述映射关系,对被驱动方形象进行驱动,以使得被驱动方形象做出该已知的表情参数所标识的实际表情。由此,不用处理得到新动画形象对应的捏脸基,就可以通过其他动画形象的已知表情参数直接来驱动该新动画形象,加快了新动画形象的推出速度。
Description
技术领域
本申请涉及数据处理领域,特别是涉及一种基于人工智能的动画形象驱动方法和装置。
背景技术
目前,人机交互已经比较常见,用户可以通过与动画形象的交互。针对一段任意的语音,驱动网络可以驱动一个动画形象做出该段语音对应的口型。在这一场景下,动画形象的存在能极大地增强真实感,提升表现力,带给用户更加沉浸式的体验。动画形象可以通过多种方式得到,例如由设计师手工设计。
在通过驱动网络驱动动画形象时,往往需要该动画形象具有对应的表情基和捏脸基。表情基由代表不同表情的可变形网络组成,每一个可变形网络均由该动画形象的3D模型在不同表情下变化而成,捏脸基由代表不同脸型的可变形网络组成,每一个可变形网络均为相对平均脸型变化较大的脸,捏脸基中的脸需要与该动画形象相关。
针对一些新创作出的动画形象,设计师可以手工设计动画形象的3D网格,由于表情基具有严格的语义信息,比如控制闭眼、闭嘴等,因此表情基可以很方便的通过设计师手工建模得到。然而,捏脸基本身由大量脸部数据通过主成分分析而分解得到,没有明确的语义信息,且与模型的网格顶点关联不准确,难以通过手工设计得到。导致只能通过复杂的数据处理确定出对应的捏脸基,延缓了新动画形象的推出。
发明内容
为了解决上述技术问题,本申请提供了一种基于人工智能的动画形象驱动方法和装置,不用处理得到新动画形象对应的捏脸基,就可以通过其他动画形象的已知表情参数直接来驱动该新动画形象,加快了新动画形象的推出速度。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例提供一种基于人工智能的动画形象驱动方法,所述方法包括:
获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系;
根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
第二方面,本申请实施例提供一种基于人工智能的动画形象驱动装置,所述装置包括获取单元、确定单元和驱动单元:
所述获取单元,用于获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
所述确定单元,用于根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系;
所述驱动单元,用于根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
第三方面,本申请实施例提供一种动画形象驱动方法,所述方法包括:
获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系;
根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
第四方面,本申请实施例提供一种动画形象驱动装置,所述装置包括获取单元、确定单元和驱动单元:
所述获取单元,用于获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
所述确定单元,用于根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系;
所述驱动单元,用于根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
第五方面,本申请实施例提供一种设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面或第三方面所述的方法。
第六方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面或第三方面所述的方法。
由上述技术方案可以看出,当一个动画形象具有对应的捏脸基,一个动画形象不具有对应的捏脸基时,可以将具有捏脸基的作为驱动方形象,不具有捏脸基的作为被驱动方形象。由于驱动方形象对应的表情参数与被驱动方形象对应的表情参数应具有映射关系,故若确定出该映射关系,便可以利用驱动方形象对应的表情参数直接驱动被驱动方形象,即使被驱动方形象不具有捏脸基。由于驱动方形象对应的实际表情参数可以驱动被驱动方形象做出实际表情,该实际表情参数可以体现该实际表情与其表情基的不同维度下的相关程度,即被驱动方形象对应的实际表情参数也可以体现被驱动方形象的实际表情与其表情基的不同维度下的相关程度,故基于上述表情参数与表情基间的关联关系,可以根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系,根据该映射关系,使用驱动方形象已知的表情参数以及前述映射关系,对被驱动方形象进行驱动,以使得被驱动方形象做出该已知的表情参数所标识的实际表情。由此,不用处理得到新动画形象对应的捏脸基,就可以通过其他动画形象的已知表情参数直接来驱动该新动画形象,加快了新动画形象的推出速度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于人工智能的动画形象驱动方法的应用场景示意图;
图2为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图3为本申请实施例提供的3DMM库M的各个维度分布和意义的示例图;
图4为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图5为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图6为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图7为本申请实施例提供的驱动动画形象的效果图;
图8为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图9为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图10为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图11为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图12a为本申请实施例提供的一种基于人工智能的动画形象驱动方法的流程图;
图12b为本申请实施例提供的一种基于人工智能的动画形象驱动装置的结构图;
图13a为本申请实施例提供的一种基于人工智能的动画形象驱动装置的结构图;
图13b为本申请实施例提供的一种设备的结构图;
图14为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
相关技术针对一些新创作出的动画形象,通常可以由设计师手工设计动画形象的3D网格,例如设计师可以通过手工建模得到表情基。然而,由于捏脸基没有明确的语义信息,且与模型的网格顶点关联不准确,难以通过手工设计得到。
另外,由于不同动画形象的3D网格的顶点拓扑(例如包括顶点的数目和顶点间的三角拓扑)、表情基的维数可能有所不同,利用具有捏脸基的动画形象在特定表情基下的表情参数,一般难以直接驱动另一个动画形象的表情基。因此,为了驱动另一动画形象的表情基,推出新动画形象,只能通过复杂的数据处理确定出对应的捏脸基,延缓了新动画形象的推出。
为此,本申请实施例提供一种基于人工智能的动画形象驱动方法,该方法可以实现不同动画形象的表情基之间的表情参数的迁移,即当一个动画形象具有对应的捏脸基,一个动画形象不具有对应的捏脸基时,将具有捏脸基的动画形象作为驱动方形象,不具有捏脸基的动画形象作为被驱动方形象,确定出驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系,从而不用处理得到被驱动方形象对应的捏脸基,使用驱动方形象已知的表情参数以及前述映射关系,就可以对被驱动方形象进行驱动。
需要强调的是,本申请实施例所提供的动画形象驱动方法是基于人工智能实现的,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
在本申请实施例中,主要涉及的人工智能技术包括计算机视觉(图像)等方向。
例如可以涉及计算机视觉(Computer Vision)中的视频处理(videoprocessing)、视频语义理解(video semantic understanding,VSU)、人脸识别(facerecognition)等。视频语义理解中包括目标识别(target recognition)、目标检测与定位(target detection/localization)等;人脸识别中包括人脸3D重建(Face 3DReconstruction)、人脸检测(Face Detection)、人脸跟踪(Face Tracking)等。
本申请实施例提供的基于人工智能的动画形象驱动方法可以应用于具有动画形象建立能力的处理设备上,该处理设备可以是终端设备,也可以是服务器。
该处理设备可以具有实施计算机视觉技术的能力。在本申请实施例中,处理设备通过实施上述计算机视觉技术,可以实现根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系,从而可以根据该映射关系,使用驱动方形象已知的表情参数以及前述映射关系,对被驱动方形象进行驱动,快速推出新动画形象等功能。
其中,若处理设备是终端设备,则终端设备可以是智能终端、计算机、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑等。
若该处理设备是服务器,则服务器可以为独立服务器,也可以为集群服务器。当服务器实施该基于人工智能的动画形象驱动方法时,服务器可以根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系,使用驱动方形象已知的表情参数以及前述映射关系,对被驱动方形象进行驱动,得到新动画形象,并将新动画形象在终端设备上的显示、推出。
需要说明的是,本申请实施例提供的基于人工智能的动画形象驱动方法可以应用到驱动手工设计的动画形象的应用场景,例如新闻播报、天气预报、游戏解说以及游戏场景中虚拟游戏人物等,还能用于利用动画形象承担私人化的服务的场景,例如心理医生,虚拟助手等面向个人的一对一服务。在这些场景下,利用本申请实施例提供的方法不用处理得到动画形象对应的捏脸基,便可以对动画形象进行驱动。
为了便于理解本申请的技术方案,下面结合实际应用场景对本申请实施例提供的基于人工智能的动画形象驱动方法进行介绍。
参见图1,图1为本申请实施例提供的基于人工智能的动画形象驱动方法的应用场景示意图。该应用场景以处理设备为终端设备为例进行介绍,该应用场景中包括终端设备101,终端设备101可以获取驱动方形象对应的表情基和被驱动方形象对应的表情基。其中,驱动方形象是指具有表情基和捏脸基的动画形象,被驱动方形象是指具有表情基但不具有捏脸基的动画形象。
由于驱动方形象对应的表情参数与被驱动方形象对应的表情参数应具有映射关系,若可以确定出该映射关系,便可以利用驱动方形象对应的表情参数直接驱动被驱动方形象,即使被驱动方形象不具有捏脸基。其中,表情参数的一种表现形式可以是系数,例如可以是具有某一维数的向量;映射关系可以是线性映射关系,也可以是非线性映射关系,本实施例对此不做限定。
由于驱动方形象对应的实际表情参数可以驱动被驱动方形象做出实际表情,该实际表情参数可以体现该实际表情与其表情基的不同维度下的相关程度,同理,被驱动方形象对应的实际表情参数也可以体现被驱动方形象的实际表情与其表情基的不同维度下的相关程度,故基于上述表情参数与表情基间的关联关系,终端设备101可以根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。
由于终端设备101可以根据该映射关系和驱动方形象对应的表情参数计算得到被驱动方形象对应的表情参数,计算得到的被驱动方形象的表情参数与被驱动方形象的表情基维数相同,从而利用计算得到的被驱动方形象的表情参数可以驱动被驱动方形象做出表情。故,终端设备101根据驱动方形象对应的表情参数和该映射关系可以直接驱动被驱动方形象。其中
接下来,将结合附图对本申请实施例提供的基于人工智能的动画形象驱动方法进行详细介绍。参见图2,所述方法包括:
S201、获取驱动方形象对应的表情基和被驱动方形象对应的表情基。
在一些动画形象中,有些动画形象为已经推出的动画形象,具有表情基和捏脸基,而有些动画形象是新动画形象,仅具有表情基而不具有捏脸基。在本实施例中,驱动方形象具有对应的捏脸基,为具有捏脸基的动画形象,被驱动方形象不具有对应的捏脸基,为不具有捏脸基的动画形象。
需要说明的是,本申请实施例中的动画形象可以为模型库中的模型,也可以是通过模型库中模型的线性组合得到的。该模型库可以是人脸3D可变形模型(3DMM)库,也可以是其他模型库,本实施对此不做限定。动画形象例如驱动方形象和被驱动方形象可以是一个3D网格。
以3DMM库为例,3DMM库由大量高精度脸部数据通过主成分分析方法(PrincipalComponent Analysis,PCA)得到,描述了高维脸型和表情相对平均脸的主要变化,也可以描述纹理信息。
一般来说,3DMM库描述一个无表情的脸型时,可以通过mu+∑(Pfacei-mu)*αi得到。其中,mu是自然表情下的平均脸,Pfacei是第i个脸型主成分分量,αi就是各个脸型主成分分量的权重,也就是捏脸参数。
假设3DMM库中的动画形象对应的网格可以通过M表示,即通过M表示3DMM库中的脸型、表情和顶点之间的关系,M是一个[m×n×d]的三维矩阵,其中每一维分别为网格的顶点坐标(m)、脸型主成分(n)、表情主成分(d)。3DMM库M的各个维度分布和意义如图3所示。由于m表示xyz三个坐标的值,所以网格的顶点数为m/3,记作v。如果确定了动画形象的脸型或者表情,那么M可以是一个二维矩阵。
在本申请实施例中,不考虑3DMM库中的纹理维度,假设动画形象的驱动为F,则:
其中,M为动画形象的网格,α为捏脸参数,β为表情参数;d为表情基中表情网格的个数,n为捏脸基中捏脸网格的个数,Mk,j,i为具有第i个表情网格、第j个捏脸网格的第k个网格,αj为一组捏脸参数中的第j维,表示第j个脸型主成分分量的权重,βi为一组表情参数中的第i维,表示第i个表情主成分分量的权重。
其中,确定捏脸参数的过程为捏脸算法,确定表情参数的过程为捏表情算法。捏脸参数用于与捏脸基做线性组合得到对应的脸型,例如存在一个包括50个捏脸网格(属于可变形网格,例如blendshape)的捏脸基,该捏脸基对应的捏脸参数为一个50维的向量,每一维可以标识该捏脸参数所对应脸型与一个捏脸网格的相关程度。捏脸基所包括的捏脸网格分别代表不同脸型,每一个捏脸网格均为相对平均脸变化较大的脸部形象,是大量的脸通过PCA分解之后的得到的不同维度的脸型主成分,且同一个捏脸基中不同捏脸网格对应的顶点序号保持一致。
表情参数用于与表情基做线性组合得到对应的表情,例如存在一个包括50个(相当于维数为50)表情网格(属于可变形网格,例如blendshape)的表情基,该表情基对应的表情参数为一个50维的向量,每一维可以标识该表情参数所对应表情与一个表情网格的相关程度。表情基所包括的表情网格分别代表不同表情,每一个表情网格均由同一个3D模型在不同表情下变化而成,同一个表情基中不同表情网格对应的顶点序号保持一致。
针对前述的可变形网格,单个网格可以通过预定义形状变形,得到任意数量网格。
S202、根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。
基于本实施例的方法,通过表情参数间的映射关系,利用驱动方形象的表情参数驱动被驱动方形象的场景中,捏脸基保持不变,即脸型固定,只有表情基需要调节。
为此,基于上述公式(1)动画形象的驱动还可以表示为:
其中,Mk为固定脸型的动画形象的驱动,Mk,i为第i个表情网格,βi为第i个表情网格对应的表情参数,n为表情基中表情网格的个数。
若动画形象a具有表情基和捏脸基,动画形象b具有表情基但不具有捏脸基,动画形象a已经通过捏表情算法得到一些表情参数,在这种情况下,动画形象a可以作为驱动方形象,动画形象b可以作为被驱动方形象。通过表情参数和表情基的线性组合,可以得到动画形象a的驱动:
同理,动画形象b的驱动为:
由于驱动方形象对应的表情参数与被驱动方形象对应的表情参数应具有映射关系,驱动方形象对应的表情参数与被驱动方形象对应的表情参数间的映射关系可以通过函数f()表示,则通过驱动方形象对应的表情参数计算被驱动方形象对应的表情参数的公式如下:
βb=f(βa) (5)
其中,βb为被驱动方形象对应的表情参数,βa为驱动方形象对应的表情参数,f()表示驱动方形象对应的表情参数与被驱动方形象对应的表情参数间的映射关系。
故,若确定出该映射关系,结合公式(4)和(5),便可以利用驱动方形象(动画形象a)对应的表情参数直接驱动被驱动方形象(动画形象b)。
由于驱动方形象对应的实际表情参数可以驱动被驱动方形象做出实际表情,该实际表情参数可以体现该实际表情与其表情基的不同维度下的相关程度,即被驱动方形象对应的实际表情参数也可以体现被驱动方形象的实际表情与其表情基的不同维度下的相关程度,故基于上述表情参数与表情基间的关联关系,可以根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系。
S203、根据驱动方形象对应的表情参数和映射关系驱动被驱动方形象。
继续以上述动画形象a和动画形象b为例,若该映射关系为线性关系,则上述公式(5)可以表示为:
βb=f*βa (6)
其中,βb为被驱动方形象对应的表情参数,βa为驱动方形象对应的表情参数,f表示驱动方形象对应的表情参数与被驱动方形象对应的表情参数间的映射关系。
在确定出驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系f后,便可以结合公式(6)计算动画形象b的表情参数βb。βa的维数与动画形象b的表情基维数不同,而通过映射关系得到的βb的维数与动画形象b的表情基维数相同,可以驱动动画形象b做出表情,故,利用βb通过公式(5)驱动动画形象b,即实现无需确定动画形象b的捏脸基,便可以利用动画形象a对应的表情参数βa直接驱动动画形象b。
需要说明的是,本申请实施例提供的动画形象驱动方法,不仅可以适用于不同动画形象所对应的表情基(针对脸部)之间的迁移,即利用驱动方形象对应的表情参数直接驱动被驱动方形象做出表情,例如口型、微笑、哭等。本申请实施例提供的动画形象驱动方法还可以适用于迁移其他对象,例如肢体动作等,即利用驱动方形象对应的动作参数直接驱动被驱动方形象做出动作。
由上述技术方案可以看出,当一个动画形象具有对应的捏脸基,一个动画形象不具有对应的捏脸基时,可以将具有捏脸基的作为驱动方形象,不具有捏脸基的作为被驱动方形象。由于驱动方形象对应的表情参数与被驱动方形象对应的表情参数应具有映射关系,故若确定出该映射关系,便可以利用驱动方形象对应的表情参数直接驱动被驱动方形象,即使被驱动方形象不具有捏脸基。由于驱动方形象对应的实际表情参数可以驱动被驱动方形象做出实际表情,该实际表情参数可以体现该实际表情与其表情基的不同维度下的相关程度,即被驱动方形象对应的实际表情参数也可以体现被驱动方形象的实际表情与其表情基的不同维度下的相关程度,故基于上述表情参数与表情基间的关联关系,可以根据驱动方形象对应的表情基和被驱动方形象对应的表情基,确定出表情参数间的映射关系,根据该映射关系,使用驱动方形象已知的表情参数以及前述映射关系,对被驱动方形象进行驱动,以使得被驱动方形象做出该已知的表情参数所标识的实际表情。由此,不用处理得到新动画形象对应的捏脸基,就可以通过其他动画形象的已知表情参数直接来驱动该新动画形象,加快了新动画形象的推出速度。
接下来,将针对S202详细介绍如何确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。其中,接下来的实施例中主要以映射关系为线性映射关系进行介绍。
本实施例主要提供确定映射关系的两类方法,第一类方法的思路是根据一个已知的表情参数例如第一表情参数,确定出另一个表情参数例如第二表情参数,由于第一表情参数和第二表情参数之间具有映射关系,从而根据第一表情参数和第二表情参数求解映射关系。第二类方法的思路是基于解析表达式的映射关系确定方法,由于驱动方形象的表情基和被驱动方形象的表情基之间通过转换可以得到完全相同的点云数据,基于点云数据之间的等式关系求解映射关系。
第一类方法的流程图可以参见图4所示。第一表情参数为用于驱动表情基的维数为第一维数的表情参数,第一表情基的维数为第一维数,利用第一表情参数驱动第一形象对应的表情基,从而根据第一表情参数和第一形象对应的第一表情基确定目标网格。该目标网格具有目标顶点拓扑,用于标识做出第一表情参数所对应表情时的第一形象。获取具有目标顶点拓扑的第一形象对应的目标表情基,目标表情基的维数为第二维数,目标表情基为根据第二形象所对应的第二表情基确定的。之后,根据目标网格和目标表情基,确定第一形象对应的第二表情参数,第二表情参数用于体现第一形象相对于目标网格的表情变化程度。根据第一表情参数和第二表情参数,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。其中,左边虚线框标注的为目标网格的确定过程,右边虚线框标注的是目标表情基的确定过程。
需要说明的是,第一形象和第二形象中一个具有对应捏脸基,另一个不具有对应捏脸基,驱动方形象为第一形象和第二形象中具有对应捏脸基的形象,被驱动方形象为第一形象和第二形象中不具有对应捏脸基的形象。
基于图4对应的实施例,本申请实施例提供多种确定目标网格的方式,确定目标网格的方式不同。可以理解的是,若目标顶点拓扑为第二表情基对应的第二顶点拓扑,由于第一表情基对应的是第一顶点拓扑,那么通常情况下,利用第一表情参数驱动第一表情基得到的网格应该具有第一顶点拓扑。当第一顶点拓扑与第二顶点拓扑不相同时,为了得到具有第二顶点拓扑的目标网格,需要将具有第一顶点拓扑的网格转换成具有第二顶点拓扑的目标网格。
其中,本申请实施例所提到的顶点拓扑例如第一顶点拓扑、第二顶点拓扑、目标顶点拓扑可以为网格中的部分顶点拓扑,该部分顶点拓扑为驱动动画形象所涉及到的顶点拓扑。例如,动画形象为头部,驱动动画形象做出脸部表情时,所涉及的顶点拓扑为表示头部的网格中脸部所对应的顶点拓扑。
为此,在一种可能的实现方式中,参见图5所示,确定目标网格的方式可以是根据第一表情参数和第一形象所对应的第一表情基确定初始网格,由于初始网格具有第一表情基对应的第一顶点拓扑,故,可以根据第一顶点拓扑和第二顶点拓扑的对应关系(correspondence),生成目标网格。
在这种情况下,确定目标表情基的一种方式可以是从第一表情基中确定无表情的第一形象对应的无表情网格,并从第二表情基中确定无表情的第二形象对应的无表情网格,然后,根据第一形象对应的无表情网格和第二形象对应的无表情网格,确定调整网格,调整网格具有第二顶点拓扑,用于标识处于无表情时的第一形象。由于调整网格和第二表情基中的网格形变关系是已知的,故,根据调整网格和第二表情基中的网格形变关系,可以生成目标表情基。该网格形变关系可以体现表情基中的有表情网格相对于无表情网格的形变关系。
其中,顶点拓扑与动画形象具有一定关系,但是二者之间并非强相关的关系,即动画形象相同,顶点拓扑一定相同,但是顶点拓扑相同,动画形象可以不同(例如对顶点拓扑进行形变)。确定调整网格的具体方式可以是将第二形象对应的无表情网格通过捏脸算法贴到第一形象对应的无表情网格上,捏脸算法例如可以采用nricp算法,从而得到一个新的网格即调整网格。当然,除了使用nricp算法,还可以采用其他捏脸算法,本实施例对此不做限定。
当第一顶点拓扑与第二顶点拓扑相同时,那么,利用第一表情参数驱动第一表情基得到的网格即目标网格,而非初始网格,无需经过上述将初始网格转换成目标网格的步骤。
需要说明的是,在第一形象对应的第二表情参数和第一形象对应的已有的大量表情参数具有相同的数据分布时,通过图5对应实施例所提供的方法可以较为准确的确定出目标网格和目标表情基,进而准确的确定出映射关系,从而根据映射关系和驱动方形象的表情参数较好的驱动被驱动形象。
然而,在一些情况下,通过图5对应实施例确定出的第一形象对应的第二表情参数与第一形象对应的已有的大量表情参数不一定具有相同的数据分布,为了避免由于二者的数据分布不同,而无法准确的确定出映射关系,进而在利用驱动方形象对应的表情参数驱动被驱动方形象时造成表达不到位,无法映射出正确表情等等问题,本申请实施例还提供另一种确定目标网格的方式。
参见图6所示,在该方式中,从第二形象对应的第二表情基中确定无表情的第二形象对应的无表情网格,根据第二形象对应的无表情网格和第一形象所对应的第一表情基,确定具有第二顶点拓扑的第一形象对应的调整表情基,调整表情基的维数为第一维数。利用第一表情参数驱动调整表情基,从而根据第一表情参数和调整表情基,确定目标网格。在这种情况下,目标表情基的确定方式可以是从调整表情基中确定无表情的第一形象对应的无表情网格,根据第一形象对应的无表情网格和第二表情基中的网格形变关系,生成目标表情基。
其中,确定调整表情基的方式可以是通过捏脸算法,将第二形象对应的无表情网格贴到第一表情基中每一个表情网格上,从而得到新的表情基例如调整表情基。这是一种非刚性配准方法,捏脸算法例如可以是nricp算法。
通过图6对应实施例所提供的方法,避免了由于数据分布不同而无法准确的确定出映射关系的问题,使得映射质量有明显提升。
图7示出了基于图5和图6对应实施例所提供的方法驱动动画形象的效果图。其中,左侧为基于图5对应实施例所提供的方法驱动动画形象的效果图,右侧为基于图6对应实施例所提供的方法驱动动画形象的效果图。可见,右侧的效果图中嘴唇周围皱纹更少,更像正常说话的口型。
需要说明的是,图5和图6中目标网格的确定方式可以相互替换,同理,图5和图6中目标表情基的确定方式也是可以相互替换的。
在使用第一类方法的情况下,根据第一表情参数和第二表情参数,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系的方式可以是:获取多对第一表情参数和第二表情参数,然后,根据多个第一表情参数构成的第一矩阵和多个第二表情参数构成的第二矩阵,确定映射关系。
可以理解的是,在图5和图6对应的任一实施例中,第一形象和第二形象中一个具有对应捏脸基,另一个不具有对应捏脸基。其中,若第一形象不具有对应捏脸基,则第二形象具有对应捏脸基,第一表情参数为随机表情参数。或者,若第一形象具有对应捏脸基,则第二形象不具有对应捏脸基。基于图5和图6对应的实施例,针对第一形象和第二形象具有捏脸基的情况的不同,对动画形象驱动方法进行介绍。
若图5对应的实施例中第一形象不具有对应捏脸基,第二形象具有对应捏脸基,第一表情参数为随机表情参数,则驱动方形象为第二形象,被驱动方形象为第一形象。驱动方形象为动画形象a,被驱动方形象为动画形象b,第一表情参数为随机表情参数Bb,其样子为Fb,顶点拓扑为第一顶点拓扑Tb,维数为Nb,换言之,该随机表情参数Bb能直接驱动第一表情基Eb,第一表情基Eb的样子为Fb,顶点拓扑为第一顶点拓扑Tb,维数为第一维数Nb。动画形象a的第二表情基Ea,其样子为Fa,顶点拓扑为第二顶点拓扑Ta,维数为第二维数Na,已有大量用于驱动第二表情基Ea的表情参数Ba。其中,Fa不等于Fb,Ta不等于Tb,Na不等于Nb。
在这种情况下,图5对应的实施例的具体实现方式可以参见图8所示。利用随机表情参数Bb直接驱动第一表情基Eb得到初始网格,计作Meshmid,其样子为Fb,顶点拓扑为第一顶点拓扑Tb。随后,通过第一顶点拓扑和第二顶点拓扑的对应关系,将Meshmid变成目标网格,其顶点拓扑为第二顶点拓扑(目标顶点拓扑)Ta,样子保持为Fb,目标网格记作Meshc。通过nricp算法将从第二表情基Ea中确定出的无表情网格贴到从第一表情基Eb中确定出的无表情网格上,通过寻找空间最近点的方法,得到点对的关系,从而得到调整网格,记作Newb,其样子为Fb,顶点网格为第二顶点拓扑Ta。再者,需要得到一组新的表情基例如目标表情基Ea’,目标表情基Ea’的样子为Fb,顶点拓扑为第二顶点拓扑Ta,维数为Na。由于调整网格Newb和第二表情基Ea中各个维度的表情相对自然表情(无表情)的网格形变关系是已知的,故,可以根据调整网格Newb和第二表情基Ea中的网格形变关系从Newb中形变出目标表情基Ea’。由此,就可以使用目标表情基Ea’,通过捏表情算法捏出目标网格Meshc,同时得到了维数为Na的第二表情参数Ba’。
由此,一组Bb和Ba’的映射关系就建立了。当随机生成大量第一表情参数Bb时,就可以产生大量对应的第二表情参数Ba’。假设第一表情参数Bb和第二表情参数Ba’的个数分别是L个,L个第一表情参数Bb构成第一矩阵,L个第二表情参数Ba’构成第二矩阵,分别记作BB和BA’。有:
BA′=[L×Na],BB=[L×Nb] (7)
本方案第一表情参数和第二表情参数之间满足线性映射关系例如公式(6)所示,则映射关系的确定公式可以为:
f=BB*inv(BA′) (8)
其中,f为映射关系,BB为第一矩阵,BA′为第二矩阵,inv为矩阵求逆运算。
在得到映射关系f后,由于已有大量的Ba,Ba和Ba’对应的表情基的维数都是Na,每一维数的语义信息一样,所以Ba和Ba’可以等价。由此,对于任意一组Ba,可以得到对应的Bb=f*Ba,从而根据表情参数Ba得到表情参数Bb,以便驱动动画形象b。
若图5对应的实施例中第一形象具有对应捏脸基,第二形象不具有对应捏脸基,则驱动方形象为第一形象,被驱动方形象为第二形象。驱动方形象为动画形象a,被驱动方形象为动画形象b,第一表情参数为表情参数Ba,其样子为Fa,顶点拓扑为第一顶点拓扑Ta,维数为Na,换言之,该表情参数Ba能直接驱动第一表情基Ea,第一表情基Ea的样子为Fa,顶点拓扑为第一顶点拓扑Ta,维数为第一维数Na。动画形象b的第二表情基Eb,其样子为Fb,顶点拓扑为第二顶点拓扑Tb,维数为第二维数Nb,已有大量用于驱动第一表情基Ea的表情参数Ba。其中,Fa不等于Fb,Ta不等于Tb,Na不等于Nb。
在这种情况下,图5对应的实施例的具体实现方式可以参见图9所示。利用表情参数Ba直接驱动第一表情基Ea得到初始网格,计作Meshmid,其样子为Fa,顶点拓扑为第一顶点拓扑Ta。随后,通过第一顶点拓扑和第二顶点拓扑的对应关系,将Meshmid变成目标网格,其顶点拓扑为第二顶点拓扑(目标顶点拓扑)Tb,样子保持为Fa,目标网格记作Meshc。通过nricp算法将从第二表情基Eb中确定出的无表情网格贴到从第一表情基Ea中确定出的无表情网格上,通过寻找空间最近点的方法,得到点对的关系,从而得到调整网格,记作Newb,其样子为Fa,顶点拓扑为第二顶点拓扑Tb。再者,需要得到一组新的表情基例如目标表情基Eb’,目标表情基Eb’的样子为Fa,顶点拓扑为第二顶点拓扑Tb,维数为Nb。由于调整网格Newb和第二表情基Eb中的网格形变关系是已知的,故,可以根据调整网格Newb和第二表情基Eb中的网格形变关系从Newb中形变出目标表情基Eb’。由此,就可以使用目标表情基Eb’,通过捏表情算法捏出目标网格Meshc,同时得到了维数为Nb的第二表情参数Bb。
利用已有的大量第一表情参数Ba就可以产生大量对应的第二表情参数Bb。同理可以利用上述公式(7)和(8)的方法确定第一表情参数和第二表情参数的映射关系。
由此,对于任意一组Ba,可以得到对应的Bb=f*Ba,从而根据表情参数Ba得到表情参数Bb,以便驱动动画形象b。
若图6对应的实施例中第一形象具有对应捏脸基,第二形象不具有对应捏脸基,则驱动方形象为第一形象,被驱动方形象为第二形象。驱动方形象为动画形象a,被驱动方形象为动画形象b,第一表情参数为表情参数Ba,其样子为Fa,顶点拓扑为第一顶点拓扑Ta,维数为Na,换言之,该表情参数Ba能直接驱动第一表情基Ea。动画形象b的第二表情基Eb,其样子为Fb,顶点拓扑为第二顶点拓扑Tb,维数为第二维数Nb,已有大量用于驱动第一表情基Ea的表情参数Ba。其中,Fa不等于Fb,Ta不等于Tb,Na不等于Nb。
在这种情况下,图6对应的实施例的具体实现方式可以参见图10所示。若目标顶点拓扑为第二顶点拓扑Tb,首先构造顶点拓扑为第二顶点拓扑Tb的调整表情基Ea’,并且保证该调整表情基Ea’可以被第一表情参数Ba驱动。构造调整表情基Ea’的方式可以包括多种,第一种方式可以是通过捏脸算法例如nricp算法,将从第二表情基Eb中确定出的无表情网格贴到第一表情基Ea中每一个表情网格上,得到调整表情基Ea’。第二种方式可以是通过捏脸算法将从第二表情基Eb中确定出的无表情网格贴到第一表情基Ea中的无表情网格上,得到一个顶点拓扑和Eb中网格一样,样子为Fa的无表情网格,然后再根据Ea中各个表情网格相对于无表情网格的形变,将上述得到的样子为Fa、顶点拓扑为Tb的无表情网格做变化,从而得到调整表情基Ea’,保证了贴图时Ea和Eb中顶点对之间的对应关系是唯一的。调整表情基Ea’的样子为Fa,顶点拓扑为第二顶点拓扑Tb,维数为第一维数Na。
由于第一表情参数Ba可以直接驱动第一表情基Ea,而调整表情基Ea’与第一表情基Ea的维数相同,且每一维的语义信息相同,故,可以直接利用第一表情参数Ba驱动调整表情基Ea’,得到目标网格。目标网格的样子为Fa,顶点拓扑为第二顶点拓扑Tb,目标网格记作Meshc。
为了根据目标网格和目标表情基确定出维数为第二维数Nb的第二表情参数Bb,需要构造出样子为Fa,顶点拓扑为第二顶点拓扑Tb,维数为Nb的目标表情基。故,从调整表情基Ea’中确定无表情的第一形象对应的无表情网格,根据第一形象对应的无表情网格和第二表情基中的网格形变关系,生成目标表情基Eb’,目标表情基Eb’的样子为Fa,顶点拓扑为第二顶点拓扑Tb,维数为Nb。由此,就可以使用目标表情基Eb’,通过捏表情算法捏出目标网格Meshc,同时得到了维数为Nb的第二表情参数Bb。
利用已有的大量第一表情参数Ba就可以产生大量对应的第二表情参数Bb。同理可以利用上述公式(7)和(8)的方法确定第一表情参数和第二表情参数的映射关系。
由此,对于任意一组Ba,可以得到对应的Bb=f*Ba,从而根据表情参数Ba得到表情参数Bb,以便驱动动画形象b。
若图6对应的实施例中第一形象不具有对应捏脸基,第二形象具有对应捏脸基,第一表情参数为随机表情参数,则驱动方形象为第二形象,被驱动方形象为第一形象。驱动方形象为动画形象a,被驱动方形象为动画形象b,第一表情参数为随机表情参数Bb,其样子为Fb,顶点拓扑为第一顶点拓扑Tb,维数为Nb,换言之,该随机表情参数Bb能直接驱动第一表情基Eb,第一表情基Eb的样子为Fb,顶点拓扑为第一顶点拓扑Tb,维数为第一维数Nb。动画形象a的第二表情基Ea,其样子为Fa,顶点拓扑为第二顶点拓扑Ta,维数为第二维数Na,已有大量用于驱动第二表情基Ea的表情参数Ba。其中,Fa不等于Fb,Ta不等于Tb,Na不等于Nb。
在这种情况下,图6对应的实施例的具体实现方式可以参见图11所示。若目标顶点拓扑为第二顶点拓扑Ta,首先构造顶点拓扑为第二顶点拓扑Ta的调整表情基Eb’,并且保证该调整表情基Eb’可以被第一表情参数Bb驱动。构造调整表情基Eb’的方式可以包括多种,第一种方式可以是通过捏脸算法例如nricp算法,将从第二表情基Ea中确定出的无表情网格贴到第一表情基Eb中每一个表情网格上,得到调整表情基Eb’。第二种方式可以是通过捏脸算法将从第二表情基Ea中确定出的无表情网格贴到第一表情基Eb中的无表情网格上,得到一个顶点拓扑和Ea中网格一样,样子为Fb的无表情网格,然后再根据Eb中各个表情网格相对于无表情网格的形变,将上述得到的样子为Fb、顶点拓扑为Ta的无表情网格做变化,从而得到调整表情基Eb’,保证了贴图时Ea和Eb中顶点对之间的对应关系是唯一的。调整表情基Eb’的样子为Fb,顶点拓扑为第二顶点拓扑Ta,维数为第一维数Nb。
由于第一表情参数Bb可以直接驱动第一表情基Eb,而调整表情基Eb’与第一表情基Eb的维数相同,且每一维的语义信息相同,故,可以直接利用第一表情参数Bb驱动调整表情基Eb’,得到目标网格。目标网格的样子为Fb,顶点拓扑为第二顶点拓扑Ta,目标网格记作Meshc。
为了根据目标网格和目标表情基确定出维数为第二维数Na的第二表情参数Ba’,需要构造出样子为Fb,顶点拓扑为第二顶点拓扑Ta,维数为Na的目标表情基。故,从调整表情基Eb’中确定无表情的第一形象对应的无表情网格,根据第一形象对应的无表情网格和第二表情基中的网格形变关系,生成目标表情基Ea’,目标表情基Ea’的样子为Fb,顶点拓扑为第二顶点拓扑Ta,维数为Na。由此,就可以使用目标表情基Ea’,通过捏表情算法捏出目标网格Meshc,同时得到了维数为Na的第二表情参数Ba’。
当随机生成大量第一表情参数Bb时,就可以产生大量对应的第二表情参数Ba’。同理可以利用上述公式(7)和(8)的方法确定第一表情参数和第二表情参数的映射关系。
在得到映射关系f后,由于已有大量的Ba,Ba和Ba’对应的表情基的维数都是Na,每一维数的语义信息一样,所以Ba和Ba’可以等价。由此,对于任意一组Ba,可以得到对应的Bb=f*Ba,从而根据表情参数Ba得到表情参数Bb,以便驱动动画形象b。
前述介绍的第一类方法主要是基于采样得到的已有第一表情参数确定出第二表情参数,进而确定第一表情参数和第二表情参数的映射关系。为了避免由于采样不均而造成第二表情参数分布补全的问题,本申请实施例还提供了第二类方法,第二类方法的实现方式可以是根据驱动方对象对应的表情基和表情参数,确定驱动方形象对应的第一点云数据;以及,根据被驱动方形象对应的表情基和表情参数,确定被驱动方形象对应的第二点云数据。第一点云数据经过转换可以得到第二点云数据,或者第二点云数据经过转换可以得到第一点云数据,若确定出第一点云数据和第二点云数据的转换参数,便可以根据第一点云数据、第二点云数据和转换参数,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。其中,转换例如可以包括旋转、平移、缩放等。转换参数用于标识将第二点云数据转换为第一点云数据的转换关系。
接下来,对确定点云数据(例如第一点云数据和第二点云数据)的原理进行介绍。
若无表情的动画形象为mu,表情基为E,表情基E的维数为n,则B是n*1的向量,E是表情基矩阵,则对于给定的n维参数B可以得到点云数据R:
R=mu+E*B (9)
若驱动方形象的表情基Ea,驱动方形象的表情参数为Ba,无表情的驱动方形象为mua,被驱动方形象的表情基Eb,被驱动方形象的表情参数为Bb,无表情的驱动方形象为mub,则第一点云数据Ra=mua+Ea*Ba,第二点云数据Rb=mub+Eb*Bb。
可以理解的是,在本实施例可以通过多种方法确定转换参数,例如可以通过最近点迭代算法(Iterative Closest Point,ICP)计算出转换参数,转换参数可以表示为:
trans=|sR sT| (10)
其中,trans为转换参数,s表示缩放,R表示旋转,T表示平移。
以利用转换参数将第一点云数据转换成第二点云数据为例,介绍根据第一点云数据、第二点云数据和转换参数,确定驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。
利用转换参数处理的第一点云数据与第二点云数据完全相同,则利用转换参数处理的第一点云数据与第二点云数据具有如下关系:
mub+Eb*Bb=trans*(mua+Ea*Ba) (11)
由于trans主要对表情基起作用,故,公式(11)可以变化为
mub+Eb*Bb=mua+Ec*Bc (12)
其中,Ec为利用trans对表情基Ea处理后得到的新表情基。由于trans主要对表情基起作用,并不会影响表情参数,所以Bc=Ba。同时,在公式(12)的基础上,由于两套表情基长得一摸一样,无表情的形象也一摸一样,故mub=mua。由此公式(12)可以进一步化简为:
Eb*Bb=Ec*Ba (13)
由于本实施例的目的是确定驱动方形象对应的表情参数Ba和被驱动方形象对应的表情参数Bb间的映射关系f,目的是使Bb=f*Ba,则结合公式(13)可以得到f=Eb -1*Ec。
第二类方法在数学上误差更小,得到的f是一个解析解,而非采样的解,避免了采样造成的分布不全的问题。
另外,该方法中计算结果f只取决于表情基,由于原始的点云数据可能分布不均匀,可以通过降采样mesh,得到均匀的点inliner构成表情基,可以得到的效果。同时也可以控制使用的部分(比如只用嘴巴或者眼睛的点),这样可以准确的控制动画形象中所需驱动的部分,避免不重要部分造成的干扰(比如脸颊等等)。
在本实施例中,除了可以驱动动画形象的脸部外,还可以驱动动画形象的各种结构。应理解,被驱动的各种结构是动画形象的一个可形变组成部分,以动画形象是人为例,由于人的手、脚等可以发生形变(例如弯曲),则被驱动的结构可以是手、脚等。
为此,本申请实施例提供一种动画形象驱动方法,参见图12a,所述方法包括:
S1201、获取驱动方形象对应的形变基和被驱动方形象对应的形变基。
其中,驱动方形象具有对应的结构基,被驱动方形象不具有对应的结构基;结构基用于标识所对应形象的结构特征,形变基用于标识所对应形象的形变特征。以所对应形象是手为例,结构基可以体现手指长度、手指粗细、手掌宽度和厚度、手指的位置等结构特征;形变基可以体现手指的弯曲程度等形变特征。当然,若所对应形象是脸部,结构基即为前述实施例提到的捏脸基,形变基即表情基。
S1202、根据驱动方形象对应的形变基和被驱动方形象对应的形变基,确定驱动方形象对应的形变参数和被驱动方形象对应的形变参数间的映射关系。
其中,形变参数用于标识所对应形象的外形变化程度。以所对应形象是手为例,形变参数体现手指的弯曲程度等。当然,若所对应形象是脸部,形变参数即为前述实施例提到的表情参数。
S1203、根据驱动方形象对应的形变参数和映射关系驱动被驱动方形象。
本实施例各个步骤的具体实现方式可以参照图2对应实施例的实现方式,此处不再赘述。
接下来,将结合实际应用场景对本申请实施例提供的基于人工智能的动画形象驱动方法进行介绍。
在该应用场景中,假设动画形象用于拜年,已有动画形象a,动画形象a具有捏脸基,动画形象a的表情基Ea,其样子为Fa,顶点拓扑为Ta,维数为Na;若在新的一年,希望推出新的动画形象b用于拜年,动画形象b的表情基Eb,其样子为Fb,顶点拓扑为Tb,维数为Nb。其中,Fa不等于Fb,Ta不等于Tb,Na不等于Nb。
若动画形象a的表情参数Ba已知,为了加快动画形象b的推出速度,可以将已知表情参数Ba的动画形象a作为驱动方形象,动画形象b作为被驱动方,根据驱动方形象对应的表情基Ea和被驱动方形象对应的表情基Eb,确定驱动方形象对应的表情参数Ba和被驱动方形象对应的表情参数Bb间的映射关系。这样,当已知驱动方形象的表情参数Ba时,不用处理得到动画形象b对应的捏脸基,就可以通过已知表情参数Ba和映射关系确定被驱动方形象对应的表情参数Bb,从而驱动该新动画形象,加快了动画形象b的推出速度。
基于前述实施例提供的方法,本实施例还提供一种基于人工智能的动画形象驱动装置。参见图12b,所述装置包括获取单元1201、确定单元1202和驱动单元1203:
所述获取单元1201,用于获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
所述确定单元1202,用于根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系;
所述驱动单元1203,用于根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
在一种可能的实现方式中,所述驱动方形象为第一形象和第二形象中具有对应捏脸基的形象,所述被驱动方形象为第一形象和第二形象中不具有对应捏脸基的形象;所述确定单元1202,用于:
根据第一表情参数和所述第一形象对应的第一表情基确定目标网格;所述第一表情参数为用于驱动表情基的维数为第一维数的表情参数,所述第一表情基的维数为所述第一维数,所述目标网格具有目标顶点拓扑,用于标识做出所述第一表情参数所对应表情时的所述第一形象;
获取具有所述目标顶点拓扑的所述第一形象对应的目标表情基,所述目标表情基的维数为第二维数;所述目标表情基为根据所述第二形象所对应的第二表情基确定的;
根据所述目标网格和所述目标表情基,确定所述第一形象对应的第二表情参数,所述第二表情参数用于体现所述第一形象相对于所述目标网格的表情变化程度;
根据所述第一表情参数和第二表情参数,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系。
在一种可能的实现方式中,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述确定单元1202,还用于:
根据第一表情参数和所述第一形象所对应的第一表情基确定初始网格,所述初始网格具有所述第一表情基对应的第一顶点拓扑;
根据第一顶点拓扑和第二顶点拓扑的对应关系,生成所述目标网格;
以及,用于:
从所述第一表情基中确定无表情的所述第一形象对应的无表情基,并从所述第二表情基中确定无表情的所述第二形象对应的无表情基;
根据所述第一形象对应的无表情基和所述第二形象对应的无表情基,确定调整网格,所述调整网格具有第二顶点拓扑,用于标识处于无表情时的第一形象;
根据所述调整网格和所述第二表情基中的网格形变关系,生成所述目标表情基。
在一种可能的实现方式中,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述确定单元1202,还用于:
从第二形象对应的第二表情中基确定无表情的所述第二形象对应的无表情基;
根据所述第二形象对应的无表情基和所述第一形象所对应的第一表情基,确定具有第二顶点拓扑的所述第一形象对应的调整表情基,所述调整表情基的维数为第一维数;
根据所述第一表情参数和所述调整表情基,确定所述目标网格;
以及,用于:
从所述调整表情基中确定无表情的所述第一形象对应的无表情基;
根据所述第一形象对应的无表情基和所述第二表情基中的网格形变关系,生成所述目标表情基。
在一种可能的实现方式中,所述第一形象不具有对应捏脸基,所述第二形象具有对应捏脸基;所述第一表情参数为随机表情参数;或者,
所述第一形象具有对应捏脸基,所述第二形象不具有对应捏脸基。
在一种可能的实现方式中,所述确定单元1202,还用于:
获取多对所述第一表情参数和所述第二表情参数;
根据多个所述第一表情参数构成的第一矩阵和多个所述第二表情参数构成的第二矩阵,确定所述映射关系。
在一种可能的实现方式中,所述确定单元1202,用于:
根据所述驱动方对象对应的表情基和表情参数,确定所述驱动方形象对应的第一点云数据;
根据所述被驱动方形象对应的表情基和表情参数,确定所述被驱动方形象对应的第二点云数据;
确定所述第一点云数据和第二点云数据的转换参数,所述转换参数用于标识所述第二点云数据与所述第一点云数据之间的转换关系;
根据所述第一点云数据、所述第二点云数据和所述转换参数,确定所述驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。
本实施例还提供一种基于人工智能的动画形象驱动装置。参见图13a,所述装置包括获取单元1301、确定单元1302和驱动单元1303:
所述获取单元1301,用于获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
所述确定单元1302,用于根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系;
所述驱动单元1303,用于根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
本申请实施例还提供了一种设备,该设备可以基于人工智能驱动动画形象。下面结合附图对该设备进行介绍。请参见图13b所示,本申请实施例提供了一种的设备1300,该设备1300还可以是终端设备,该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,简称PDA)、销售终端(Point of Sales,简称POS)、车载电脑等任意智能终端,以终端设备为手机为例:
图13b示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图13b,手机包括:射频(Radio Frequency,简称RF)电路1310、存储器1320、输入单元1330、显示单元1340、传感器1350、音频电路1360、无线保真(wireless fidelity,简称WiFi)模块1370、处理器1380、以及电源1390等部件。本领域技术人员可以理解,图13b中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图13b对手机的各个构成部件进行具体的介绍:
RF电路1310可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器1380处理;另外,将设计上行的数据发送给基站。通常,RF电路1310包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,简称LNA)、双工器等。此外,RF电路1310还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,简称GSM)、通用分组无线服务(GeneralPacket Radio Service,简称GPRS)、码分多址(Code Division Multiple Access,简称CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
存储器1320可用于存储软件程序以及模块,处理器1380通过运行存储在存储器1320的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器1320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元1330可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元1330可包括触控面板1331以及其他输入设备1332。触控面板1331,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板1331上或在触控面板1331附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板1331可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1380,并能接收处理器1380发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板1331。除了触控面板1331,输入单元1330还可以包括其他输入设备1332。具体地,其他输入设备1332可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元1340可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元1340可包括显示面板1341,可选的,可以采用液晶显示器(LiquidCrystal Display,简称LCD)、有机发光二极管(Organic Light-Emitting Diode,简称OLED)等形式来配置显示面板1341。进一步的,触控面板1331可覆盖显示面板1341,当触控面板1331检测到在其上或附近的触摸操作后,传送给处理器1380以确定触摸事件的类型,随后处理器1380根据触摸事件的类型在显示面板1341上提供相应的视觉输出。虽然在图13b中,触控面板1331与显示面板1341是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板1331与显示面板1341集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器1350,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板1341的亮度,接近传感器可在手机移动到耳边时,关闭显示面板1341和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路1360、扬声器1361,传声器1362可提供用户与手机之间的音频接口。音频电路1360可将接收到的音频数据转换后的电信号,传输到扬声器1361,由扬声器1361转换为声音信号输出;另一方面,传声器1362将收集的声音信号转换为电信号,由音频电路1360接收后转换为音频数据,再将音频数据输出处理器1380处理后,经RF电路1310以发送给比如另一手机,或者将音频数据输出至存储器1320以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块1370可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图13b示出了WiFi模块1370,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器1380是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器1320内的软件程序和/或模块,以及调用存储在存储器1320内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器1380可包括一个或多个处理单元;优选的,处理器1380可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1380中。
手机还包括给各个部件供电的电源1390(比如电池),优选的,电源可以通过电源管理系统与处理器1380逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本实施例中,该终端设备所包括的处理器1380还具有以下功能:
获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系;
根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
或,
获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系;
根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
本申请实施例还提供服务器,请参见图14所示,图14为本申请实施例提供的服务器1400的结构图,服务器1400可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)1422(例如,一个或一个以上处理器)和存储器1432,一个或一个以上存储应用程序1442或数据1444的存储介质1430(例如一个或一个以上海量存储设备)。其中,存储器1432和存储介质1430可以是短暂存储或持久存储。存储在存储介质1430的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1422可以设置为与存储介质1430通信,在服务器1400上执行存储介质1430中的一系列指令操作。
服务器1400还可以包括一个或一个以上电源1426,一个或一个以上有线或无线网络接口1450,一个或一个以上输入输出接口1458,和/或,一个或一个以上操作系统1441,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图14所示的服务器结构。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述各个实施例所述的基于人工智能的动画形象驱动方法。
本申请实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述各个实施例所述的基于人工智能的动画形象驱动方法。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (15)
1.一种动画形象驱动方法,其特征在于,所述方法包括:
获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系,其中包括:根据第一表情参数确定第二表情参数,根据所述第一表情参数和所述第二表情参数确定映射关系,或,将驱动方形象的表情基和被驱动方形象的表情基通过转换得到点云数据,基于所述点云数据的等式关系确定映射关系,所述第一表情参数为用于驱动表情基的维数为第一维数的表情参数,所述第二表情参数用于体现第一形象相对于目标网格的表情变化程度,所述目标网格是根据第一表情参数和第一形象对应的第一表情基确定的,所述目标网格具有目标顶点拓扑,所述目标网格用于标识做出第一表情参数所对应的表情时的第一形象,所述第一表情基的维数为第一维数;
根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
2.根据权利要求1所述的方法,其特征在于,所述驱动方形象为第一形象和第二形象中具有对应捏脸基的形象,所述被驱动方形象为第一形象和第二形象中不具有对应捏脸基的形象;所述根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系,包括:
根据第一表情参数和所述第一形象对应的第一表情基确定目标网格;
获取具有所述目标顶点拓扑的所述第一形象对应的目标表情基,所述目标表情基的维数为第二维数;所述目标表情基为根据所述第二形象所对应的第二表情基确定的;
根据所述目标网格和所述目标表情基,确定所述第一形象对应的第二表情参数;
根据所述第一表情参数和第二表情参数,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系。
3.根据权利要求2所述的方法,其特征在于,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述根据第一表情参数和所述第一形象对应的第一表情基确定目标网格,包括:
根据第一表情参数和所述第一形象所对应的第一表情基确定初始网格,所述初始网格具有所述第一表情基对应的第一顶点拓扑;
根据第一顶点拓扑和第二顶点拓扑的对应关系,生成所述目标网格;
所述获取具有所述目标顶点拓扑的所述第一形象对应的目标表情基,包括:
从所述第一表情基中确定无表情的所述第一形象对应的无表情网格,并从所述第二表情基中确定无表情的所述第二形象对应的无表情网格;
根据所述第一形象对应的无表情网格和所述第二形象对应的无表情网格,确定调整网格,所述调整网格具有第二顶点拓扑,用于标识处于无表情时的第一形象;
根据所述调整网格和所述第二表情基中的网格形变关系,生成所述目标表情基。
4.根据权利要求2所述的方法,其特征在于,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述根据第一表情参数和所述第一形象对应的第一表情基确定目标网格,包括:
从第二形象对应的第二表情基中确定无表情的所述第二形象对应的无表情网格;
根据所述第二形象对应的无表情网格和所述第一形象所对应的第一表情基,确定具有第二顶点拓扑的所述第一形象对应的调整表情基,所述调整表情基的维数为第一维数;
根据所述第一表情参数和所述调整表情基,确定所述目标网格;
所述获取具有所述目标顶点拓扑的所述第一形象对应的目标表情基,包括:
从所述调整表情基中确定无表情的所述第一形象对应的无表情网格;
根据所述第一形象对应的无表情网格和所述第二表情基中的网格形变关系,生成所述目标表情基。
5.根据权利要求3或4所述的方法,其特征在于,所述第一形象不具有对应捏脸基,所述第二形象具有对应捏脸基;所述第一表情参数为随机表情参数;或者,
所述第一形象具有对应捏脸基,所述第二形象不具有对应捏脸基。
6.根据权利要求2-4任意一项所述的方法,其特征在于,所述根据所述第一表情参数和第二表情参数,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系,包括:
获取多对所述第一表情参数和所述第二表情参数;
根据多个所述第一表情参数构成的第一矩阵和多个所述第二表情参数构成的第二矩阵,确定所述映射关系。
7.根据权利要求1所述的方法,其特征在于,所述根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系,包括:
根据所述驱动方对象对应的表情基和表情参数,确定所述驱动方形象对应的第一点云数据;
根据所述被驱动方形象对应的表情基和表情参数,确定所述被驱动方形象对应的第二点云数据;
确定所述第一点云数据和第二点云数据的转换参数,所述转换参数用于标识所述第二点云数据与所述第一点云数据之间的转换关系;
根据所述第一点云数据、所述第二点云数据和所述转换参数,确定所述驱动方形象对应的表情参数和被驱动方形象对应的表情参数间的映射关系。
8.一种动画形象驱动方法,其特征在于,所述方法包括:
获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系,其中包括:根据第一形变参数确定第二形变参数,根据所述第一形变参数和所述第二形变参数确定映射关系,或,将驱动方形象的形变基和被驱动方形象的形变基通过转换得到点云数据,基于所述点云数据的等式关系确定映射关系;
根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
9.一种动画形象驱动装置,其特征在于,所述装置包括获取单元、确定单元和驱动单元:
所述获取单元,用于获取驱动方形象对应的表情基和被驱动方形象对应的表情基,所述驱动方形象具有对应的捏脸基,所述被驱动方形象不具有对应的捏脸基;
所述确定单元,用于根据所述驱动方形象对应的表情基和所述被驱动方形象对应的表情基,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系,其中包括:根据第一表情参数确定第二表情参数,根据所述第一表情参数和所述第二表情参数确定映射关系,或,将驱动方形象的表情基和被驱动方形象的表情基通过转换得到点云数据,基于所述点云数据的等式关系确定映射关系,所述第一表情参数为用于驱动表情基的维数为第一维数的表情参数,所述第二表情参数用于体现第一形象相对于目标网格的表情变化程度,所述目标网格是根据第一表情参数和第一形象对应的第一表情基确定的,所述目标网格具有目标顶点拓扑,所述目标网格用于标识做出第一表情参数所对应的表情时的第一形象,所述第一表情基的维数为第一维数;
所述驱动单元,用于根据所述驱动方形象对应的表情参数和所述映射关系驱动所述被驱动方形象。
10.根据权利要求9所述的装置,其特征在于,所述驱动方形象为第一形象和第二形象中具有对应捏脸基的形象,所述被驱动方形象为第一形象和第二形象中不具有对应捏脸基的形象;所述确定单元,用于:
根据第一表情参数和所述第一形象对应的第一表情基确定目标网格;
获取具有所述目标顶点拓扑的所述第一形象对应的目标表情基,所述目标表情基的维数为第二维数;所述目标表情基为根据所述第二形象所对应的第二表情基确定的;
根据所述目标网格和所述目标表情基,确定所述第一形象对应的第二表情参数;
根据所述第一表情参数和第二表情参数,确定所述驱动方形象对应的表情参数和所述被驱动方形象对应的表情参数间的映射关系。
11.根据权利要求10所述的装置,其特征在于,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述确定单元,还用于:
根据第一表情参数和所述第一形象所对应的第一表情基确定初始网格,所述初始网格具有所述第一表情基对应的第一顶点拓扑;
根据第一顶点拓扑和第二顶点拓扑的对应关系,生成所述目标网格;
以及,用于:
从所述第一表情基中确定无表情的所述第一形象对应的无表情基,并从所述第二表情基中确定无表情的所述第二形象对应的无表情基;
根据所述第一形象对应的无表情基和所述第二形象对应的无表情基,确定调整网格,所述调整网格具有第二顶点拓扑,用于标识处于无表情时的第一形象;
根据所述调整网格和所述第二表情基中的网格形变关系,生成所述目标表情基。
12.根据权利要求10所述的装置,其特征在于,所述目标顶点拓扑为所述第二表情基对应的第二顶点拓扑,所述确定单元,还用于:
从第二形象对应的第二表情中基确定无表情的所述第二形象对应的无表情基;
根据所述第二形象对应的无表情基和所述第一形象所对应的第一表情基,确定具有第二顶点拓扑的所述第一形象对应的调整表情基,所述调整表情基的维数为第一维数;
根据所述第一表情参数和所述调整表情基,确定所述目标网格;
以及,用于:
从所述调整表情基中确定无表情的所述第一形象对应的无表情基;
根据所述第一形象对应的无表情基和所述第二表情基中的网格形变关系,生成所述目标表情基。
13.一种动画形象驱动装置,其特征在于,所述装置包括获取单元、确定单元和驱动单元:
所述获取单元,用于获取驱动方形象对应的形变基和被驱动方形象对应的形变基,所述驱动方形象具有对应的结构基,所述被驱动方形象不具有对应的结构基;所述结构基用于标识所对应形象的结构特征,所述形变基用于标识所对应形象的形变特征;
所述确定单元,用于根据所述驱动方形象对应的形变基和所述被驱动方形象对应的形变基,确定所述驱动方形象对应的形变参数和所述被驱动方形象对应的形变参数间的映射关系,其中包括:根据第一形变参数确定第二形变参数,根据所述第一形变参数和所述第二形变参数确定映射关系,或,将驱动方形象的形变基和被驱动方形象的形变基通过转换得到点云数据,基于所述点云数据的等式关系确定映射关系;
所述驱动单元,用于根据所述驱动方形象对应的形变参数和所述映射关系驱动所述被驱动方形象。
14.一种计算机设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-8任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-8任一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910816780.XA CN110517339B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的动画形象驱动方法和装置 |
JP2021560989A JP7307194B2 (ja) | 2019-08-30 | 2020-07-30 | 動画キャラクターの駆動方法並びにその、装置、機器及びコンピュータプログラム |
KR1020217029446A KR102645506B1 (ko) | 2019-08-30 | 2020-07-30 | 인공 지능에 기반한 애니메이션 이미지 구동 방법 및 장치 |
EP20857359.2A EP3923244A4 (en) | 2019-08-30 | 2020-07-30 | METHOD AND DEVICE FOR CONTROLLING ANIMATED IMAGES BASED ON ARTIFICIAL INTELLIGENCE |
PCT/CN2020/105673 WO2021036665A1 (zh) | 2019-08-30 | 2020-07-30 | 一种基于人工智能的动画形象驱动方法和装置 |
US17/486,641 US11941737B2 (en) | 2019-08-30 | 2021-09-27 | Artificial intelligence-based animation character control and drive method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910816780.XA CN110517339B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的动画形象驱动方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110517339A CN110517339A (zh) | 2019-11-29 |
CN110517339B true CN110517339B (zh) | 2021-05-25 |
Family
ID=68629598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910816780.XA Active CN110517339B (zh) | 2019-08-30 | 2019-08-30 | 一种基于人工智能的动画形象驱动方法和装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11941737B2 (zh) |
EP (1) | EP3923244A4 (zh) |
JP (1) | JP7307194B2 (zh) |
KR (1) | KR102645506B1 (zh) |
CN (1) | CN110517339B (zh) |
WO (1) | WO2021036665A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110517339B (zh) * | 2019-08-30 | 2021-05-25 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和装置 |
CN113792705B (zh) * | 2021-09-30 | 2024-04-23 | 北京跳悦智能科技有限公司 | 一种视频表情迁移方法及系统、计算机设备 |
CN114708636A (zh) * | 2022-04-01 | 2022-07-05 | 成都市谛视科技有限公司 | 一种密集人脸网格表情驱动方法、装置及介质 |
CN114693845A (zh) * | 2022-04-08 | 2022-07-01 | Oppo广东移动通信有限公司 | 风格化对象的驱动方法及装置、介质和电子设备 |
CN115393488B (zh) * | 2022-10-28 | 2023-03-03 | 北京百度网讯科技有限公司 | 虚拟人物表情的驱动方法、装置、电子设备和存储介质 |
KR102636217B1 (ko) * | 2023-04-14 | 2024-02-14 | 고려대학교산학협력단 | 가중 국소변환을 이용한 3차원 데이터 증강 방법 및 이를 위한 장치 |
CN116485959B (zh) * | 2023-04-17 | 2024-07-23 | 北京优酷科技有限公司 | 动画模型的控制方法、表情的添加方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001043345A (ja) * | 1999-07-28 | 2001-02-16 | Mitsubishi Electric Corp | 表情認識装置、およびそれを用いた投薬制御システム、覚醒レベル評価システム、回復評価システム |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN106709975A (zh) * | 2017-01-11 | 2017-05-24 | 山东财经大学 | 一种交互式三维人脸表情动画编辑方法、系统及扩展方法 |
CN107633542A (zh) * | 2016-07-19 | 2018-01-26 | 珠海金山网络游戏科技有限公司 | 一种捏脸编辑和动画附加融合方法和系统 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN109493403A (zh) * | 2018-11-13 | 2019-03-19 | 北京中科嘉宁科技有限公司 | 一种基于运动单元表情映射实现人脸动画的方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6950104B1 (en) | 2000-08-30 | 2005-09-27 | Microsoft Corporation | Methods and systems for animating facial features, and methods and systems for expression transformation |
JP2002298155A (ja) | 2001-03-29 | 2002-10-11 | Hic:Kk | 感情による3dコンピュータグラフィックス表情モデル形成システム |
US9747495B2 (en) * | 2012-03-06 | 2017-08-29 | Adobe Systems Incorporated | Systems and methods for creating and distributing modifiable animated video messages |
US9799096B1 (en) * | 2014-07-08 | 2017-10-24 | Carnegie Mellon University | System and method for processing video to provide facial de-identification |
CN105528805A (zh) * | 2015-12-25 | 2016-04-27 | 苏州丽多数字科技有限公司 | 一种虚拟人脸动画合成方法 |
FR3053509B1 (fr) | 2016-06-30 | 2019-08-16 | Fittingbox | Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe |
CN108876879B (zh) * | 2017-05-12 | 2022-06-14 | 腾讯科技(深圳)有限公司 | 人脸动画实现的方法、装置、计算机设备及存储介质 |
US10860838B1 (en) * | 2018-01-16 | 2020-12-08 | Electronic Arts Inc. | Universal facial expression translation and character rendering system |
EP3759693A4 (en) * | 2018-02-27 | 2021-11-24 | Magic Leap, Inc. | MESH PAIRING FOR VIRTUAL AVATARS |
US10198845B1 (en) * | 2018-05-29 | 2019-02-05 | LoomAi, Inc. | Methods and systems for animating facial expressions |
US10896535B2 (en) * | 2018-08-13 | 2021-01-19 | Pinscreen, Inc. | Real-time avatars using dynamic textures |
US11151362B2 (en) * | 2018-08-30 | 2021-10-19 | FaceValue B.V. | System and method for first impression analysis and face morphing by adjusting facial landmarks using faces scored for plural perceptive traits |
CN109961496B (zh) * | 2019-02-22 | 2022-10-28 | 厦门美图宜肤科技有限公司 | 表情驱动方法及表情驱动装置 |
CN110517339B (zh) * | 2019-08-30 | 2021-05-25 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和装置 |
US11475608B2 (en) * | 2019-09-26 | 2022-10-18 | Apple Inc. | Face image generation with pose and expression control |
US11393149B2 (en) * | 2020-07-02 | 2022-07-19 | Unity Technologies Sf | Generating an animation rig for use in animating a computer-generated character based on facial scans of an actor and a muscle model |
US11977979B2 (en) * | 2021-07-23 | 2024-05-07 | Qualcomm Incorporated | Adaptive bounding for three-dimensional morphable models |
-
2019
- 2019-08-30 CN CN201910816780.XA patent/CN110517339B/zh active Active
-
2020
- 2020-07-30 JP JP2021560989A patent/JP7307194B2/ja active Active
- 2020-07-30 WO PCT/CN2020/105673 patent/WO2021036665A1/zh unknown
- 2020-07-30 KR KR1020217029446A patent/KR102645506B1/ko active IP Right Grant
- 2020-07-30 EP EP20857359.2A patent/EP3923244A4/en active Pending
-
2021
- 2021-09-27 US US17/486,641 patent/US11941737B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001043345A (ja) * | 1999-07-28 | 2001-02-16 | Mitsubishi Electric Corp | 表情認識装置、およびそれを用いた投薬制御システム、覚醒レベル評価システム、回復評価システム |
CN104217454A (zh) * | 2014-08-21 | 2014-12-17 | 中国科学院计算技术研究所 | 一种视频驱动的人脸动画生成方法 |
CN107633542A (zh) * | 2016-07-19 | 2018-01-26 | 珠海金山网络游戏科技有限公司 | 一种捏脸编辑和动画附加融合方法和系统 |
CN106709975A (zh) * | 2017-01-11 | 2017-05-24 | 山东财经大学 | 一种交互式三维人脸表情动画编辑方法、系统及扩展方法 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN109493403A (zh) * | 2018-11-13 | 2019-03-19 | 北京中科嘉宁科技有限公司 | 一种基于运动单元表情映射实现人脸动画的方法 |
Non-Patent Citations (2)
Title |
---|
A dynamic facial expression database for quantitative analysis of facial paralysis;Yuta Kihara 等;《2011 6th International Conference on Computer Sciences and Convergence Information Technology (ICCIT)》;20121004;第949-952页 * |
基于深度学习与传统机器学习的人脸表情识别综述;王信 等;《应用科技》;20180228;第45卷(第1期);第65-72页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021036665A1 (zh) | 2021-03-04 |
KR20210126697A (ko) | 2021-10-20 |
US20220012930A1 (en) | 2022-01-13 |
JP2022528999A (ja) | 2022-06-16 |
CN110517339A (zh) | 2019-11-29 |
EP3923244A1 (en) | 2021-12-15 |
KR102645506B1 (ko) | 2024-03-07 |
JP7307194B2 (ja) | 2023-07-11 |
US11941737B2 (en) | 2024-03-26 |
EP3923244A4 (en) | 2022-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517339B (zh) | 一种基于人工智能的动画形象驱动方法和装置 | |
US11605193B2 (en) | Artificial intelligence-based animation character drive method and related apparatus | |
CN111652121B (zh) | 一种表情迁移模型的训练方法、表情迁移的方法及装置 | |
CN110162799B (zh) | 模型训练方法、机器翻译方法以及相关装置和设备 | |
EP3989166A1 (en) | Artificial intelligence-based image region recognition method and apparatus, and model training method and apparatus | |
US11356619B2 (en) | Video synthesis method, model training method, device, and storage medium | |
EP3992845A1 (en) | Action identification method based on artificial intelligence and related apparatus | |
CN109918684B (zh) | 模型训练方法、翻译方法、相关装置、设备及存储介质 | |
CN110517340B (zh) | 一种基于人工智能的脸部模型确定方法和装置 | |
CN108184050B (zh) | 一种拍照方法、移动终端 | |
CN111383309B (zh) | 一种骨骼动画驱动方法、装置及存储介质 | |
US20210152751A1 (en) | Model training method, media information synthesis method, and related apparatuses | |
CN111209423B (zh) | 一种基于电子相册的图像管理方法、装置以及存储介质 | |
CN111225237B (zh) | 一种视频的音画匹配方法、相关装置以及存储介质 | |
CN111556337B (zh) | 一种媒体内容植入方法、模型训练方法以及相关装置 | |
CN113709385A (zh) | 一种视频处理方法及装置、计算机设备和存储介质 | |
CN111914106B (zh) | 纹理与法线库构建方法、纹理与法线图生成方法及装置 | |
CN109544241A (zh) | 一种点击率预估模型的构建方法、点击率预估方法和装置 | |
CN115578542A (zh) | 三维模型的处理方法、装置、设备及计算机可读存储介质 | |
CN112948273B (zh) | 一种游戏资源的测试方法、相关装置、设备及存储介质 | |
CN112037315A (zh) | 一种局部描述子的生成方法、模型生成的方法及装置 | |
CN113559500B (zh) | 动作数据的生成方法、装置、电子设备及存储介质 | |
CN112911356B (zh) | 一种虚拟现实vr视频的播放方法及相关设备 | |
CN118015158A (zh) | 表情模型生成方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |