CN111145322B - 用于驱动虚拟形象的方法、设备和计算机可读存储介质 - Google Patents

用于驱动虚拟形象的方法、设备和计算机可读存储介质 Download PDF

Info

Publication number
CN111145322B
CN111145322B CN201911368464.7A CN201911368464A CN111145322B CN 111145322 B CN111145322 B CN 111145322B CN 201911368464 A CN201911368464 A CN 201911368464A CN 111145322 B CN111145322 B CN 111145322B
Authority
CN
China
Prior art keywords
driving
data
sequence
mouth shape
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911368464.7A
Other languages
English (en)
Other versions
CN111145322A (zh
Inventor
胡瑛皓
李锋
王震
杨洋
白贞泉
万化
张琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Pudong Development Bank Co Ltd
Original Assignee
Shanghai Pudong Development Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Pudong Development Bank Co Ltd filed Critical Shanghai Pudong Development Bank Co Ltd
Priority to CN201911368464.7A priority Critical patent/CN111145322B/zh
Publication of CN111145322A publication Critical patent/CN111145322A/zh
Application granted granted Critical
Publication of CN111145322B publication Critical patent/CN111145322B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开的实施例提供了用于驱动虚拟形象的方法、设备和计算机可读存储介质。该方法包括:接收用于指示虚拟形象的待表达内容的输入,输入包括文字输入和语音输入中的至少一种;基于输入,生成口型驱动序列;以及生成表情驱动序列,表情驱动序列与待表达内容所对应的口型类型相关联;融合口型驱动序列和表情驱动序列,以生成用于驱动虚拟形象的面部驱动数据。本公开的实施例能够利用语音驱动虚拟形象的面部自然生动地变化。

Description

用于驱动虚拟形象的方法、设备和计算机可读存储介质
技术领域
本公开涉及人机交互,更具体地,涉及用于驱动虚拟形象的方法、设备、计算机可读存储介质。
背景技术
随着虚拟现实(Virtual Reality)技术的发展,越来越多的虚拟形象被应用在不同的场景。传统的驱动虚拟形象的方案例如是:通过脸部追踪技术来实现虚拟形象的表情逼真。然而,基于脸部追踪技术的驱动虚拟形象的方案通常需要在被模仿者脸上粘上多个追踪器。随着被模仿者面部表情的变化,追踪器的位置数据会相应发生变动,然后通过光学系统追踪并基于追踪器的位置数据来构建表情变化近似值,之后进行建模和优化以生成虚拟形象的表情数据。
在传统的、基于脸部追踪技术的驱动虚拟形象的方案需要花费较大的时间和成本。而且无法实现利用语音驱动虚拟形象的面部自然生动地变化。
发明内容
本公开提供一种用于驱动虚拟形象的方法和设备,能够实现利用语音驱动虚拟形象的面部自然生动地变化。
根据本公开的第一方面,提供了一种用于驱动虚拟形象的方法。该方法包括:接收用于指示虚拟形象的待表达内容的输入,输入包括文字输入和语音输入中的至少一种;基于输入,生成口型驱动序列;以及生成表情驱动序列,表情驱动序列与待表达内容所对应的口型类型相关联;融合口型驱动序列和表情驱动序列,以生成用于驱动虚拟形象的面部驱动数据。本公开的实施例能够生成与虚拟形象的待表达内容相匹配的生动自然的虚拟形象动画。
根据本发明的第二方面,还提供一种电子设备。该设备包括:存储器,被配置为存储一个或多个程序;处理单元,耦合至存储器并且被配置为执行一个或多个程序使系统执行根据本公开的第一方面的方法。
根据本公开的第三方面,提供了一种非瞬态计算机可读存储介质。该非瞬态计算机可读存储介质上存储有机器可执行指令,机器可执行指令在被执行时使机器执行根据本公开的第一方面的方法。
提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或主要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了根据本公开的实施例的用于驱动虚拟形象的系统100的架构图;
图2示出了根据本公开的实施例的用于驱动虚拟形象的方法200的流程图;
图3示出了根据本公开的实施例的用于指示语音对齐过程的示意图;
图4示出了根据本公开的实施例的用于生成口型驱动序列的方法400的流程图;
图5示出了根据本公开的实施例的用于平滑口型驱动序列的方法500的流程图;
图6示出了根据本公开的实施例的用于合成口型驱动序列的方法600的流程图;
图7示出了根据本公开的实施例的用于口型类型分类的方法700的流程图;
图8示出了根据本公开的实施例的口型张合程度时序示意图;
图9示出了根据本公开的实施例的仿生驱动方法900;
图10示意性示出了适于用来实现本公开实施例的电子设备1000的框图;以及
图11示意性示出了根据本公开的实施例的与表情相关的深度学习模型的训练数据的示意图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
在本公开的实施例的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实施例”或“该实施例”应当理解为“至少一个实施例”。术语“第一”、“第二”等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上文所描述的,在传统的驱动虚拟形象的方案中,需要在被模仿者脸上粘上多个追踪器。然后让光学系统追踪并基于追踪器的位置数据来构建表情变化近似值,进而通过建模和优化来生成虚拟形象的表情数据。传统的驱动虚拟形象的方案不仅需要花费较大的时间和成本,而且,无法实现利用语音驱动虚拟形象的面部自然生动地变化,不利于虚拟形象更为生动展示与交互。另外,也无法实现虚拟形象基于即时性的信息进行人机交互。
为了至少部分地解决上述问题以及其他潜在问题中的一个或者多个,本公开的示例实施例提出了一种用于驱动虚拟形象的方案。在该方案中,接收用于指示虚拟形象的待表达内容的输入,输入包括文字输入和语音输入中的至少一种;基于输入,生成口型驱动序列;以及生成表情驱动序列,表情驱动序列与待表达内容所对应的口型类型相关联;融合口型驱动序列和表情驱动序列,以生成用于驱动虚拟形象的面部驱动数据。本公开的实施例能够生成与虚拟形象的待表达内容相匹配的生动自然的虚拟形象动画。
在上述方案中,通过融合基于语音和/或文字输入所确定口型驱动序列和与待表达内容的口型类型相关的表情驱动序列来生成面部驱动数据,以用于驱动虚拟形象的,本公开能够实现利用语音驱动虚拟形象的面部自然生动地变化。而且,所生成的虚拟形象114的动画能够与虚拟形象的待表达内容相匹配,且更为生动自然。
图1示出了根据本公开的实施例的用于驱动虚拟形象的系统100的架构图。如图1所示,系统100包括设备110、用户终端120、第三方设备140和142。设备110、第三方设备140和142和用户终端120通过网络160、基站142进行数据交互。
设备110例如是可以与交互对象(例如用户122)进行交互的电子设备。设备110例如而不限于是计算机、服务器。设备110可以具有一个或多个处理单元,包括诸如GPU、FPGA和ASIC等的专用处理单元以及诸如CPU的通用处理单元。另外,在设备110上也可以运行着一个或多个虚拟机。
在一些实施例中,设备110例如是基于三维虚拟形象114进行交互的人机交互金融服务系统,其例如包括:未示出的输入采集装置、输出装置、网络应用防护系统、控制单元、音视频渲染单元和安全监控单元等。
输入采集装置例如可以获取声音、视觉、触控、文字、位置及其用户登录的其余信息中的一项或多项。在一些实施例中,输入采集装置例如包括:用于获取用户122的视频图像的摄像装置、用于拾取用户122的语音输入的声音拾取器、用于接收用户122触控输入的鼠标、用于接收触敏显示器114上的触控输入的触敏元件、用于接收用户文字输入的键盘或按键等。输出装置用于输出与用户122交互的语音输出、三维动画虚拟形象114、文字、图标、图表、背景图像、短信、二维码中的一项或多项。
控制单元用于生成用来驱动虚拟形象的驱动数据。在一些实施例中,控制单元至少包括面部驱动单元、骨骼驱动单元、场景单元、粒子单元和道具单元等。面部驱动单元例如采用3D引擎中的MorphTarget技术设置对应的驱动面部元素(BlendShape/Muscle)。肢体及眼球运动例如采用蓝图(BluePrint)技术,通过绑定相应的骨骼,然后实现骨骼驱动。面部驱动单元例如至少包括:口型驱动模块、表情协同模块。在一些实施例中,控制单元还包括仿生驱动模块。
口型驱动模块用于基于所接收的用于指示待表达内容的语音输入和/或文字输入,利用算法,生成口型驱动序列,用以驱动虚拟形象的嘴部动作。
表情协同模块用于生成与待表达内容对应的口型类型相关联的表情驱动序列,以驱动虚拟形象的面部的多个子区域的运动与协同。在一些实施例中,表情驱动序列用于驱动以下多个子区域中的至少一项:嘴部(例如包括嘴唇、嘴角、牙齿、舌头、下巴、鼻翼)、脸颊、苹果肌、额头和眼部(例如包括眼球、睫毛、上下眼睑、眉毛及其周围区域)。通过表情驱动序列驱动上述多个子区域的运动与协同,可以使得虚拟形象所展现出与待表达的内容的口型相融合的多种表情。例如,虚拟形象可以展现从微笑表情状态到平静表情状态的变化范围内的任意幅度的表情。在一些实施例中,利用0.0代表平静表情状态,1.0代表微笑表情状态。本公开的表情协同方案可以实现从平静(0.0)到微笑(1.0)范围内任意幅度的表情驱动。
仿生驱动模块用于生成仿生驱动数据,以便使得虚拟形象更为真实与自然。在一些实施例中,仿生驱动数据独立于口型驱动序列和表情驱动序列,又不会产生面部驱动冲突。仿生驱动数据例如用于驱动虚拟形象的底层生理性运动。在一些实施例中,仿生驱动数据例如包括:眼球扫视数据、眨眼数据、用于使虚拟形象的面部非对称地动作的非对称驱动信息、以及使得虚拟形象进行晃动的晃动数据中的一种或者几种。
图2示出了根据本公开的实施例的用于驱动虚拟形象的方法200的流程图。应当理解,方法200例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法200还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框202处,设备110可以接收用于指示虚拟形象114的待表达内容的输入,输入包括文字输入和语音输入中的至少一种。
在一些实施例中,用于指示虚拟形象114待表达内容的输入可以直接由设备110获取(例如直接经由网络160获取文字输入);也可以是由设备110基于用户122的语音或者文字输入而生成的应答语音输入。该文字输入例如是“你好,我是小浦”。上述语音输入格式不限。设备110可接收wav或mp3等通用语音格式。
在框204处,设备110可以基于输入,生成口型驱动序列。
为了生成口型驱动序列,设备110可以将所接收的文字输入转换为TTS语音。如果设备110仅接收到文字输入,可以调用语音转换API,以生成对应的语音TTS语音,该TTS语音为与所接收的文字输入对应的对应语音。在一些实施例中,设备110也可以直接接收与所接收的文字输入对应的对应语音。该对应语音例如是人所发出的真实声音。
然后,设备110将文字输入和对应语音(如经转换的TTS语音)进行语音文字对齐,以生成语音文字对齐信息。在一些实施例中,设备110也可以直接接收事先计算好的关于文字输入和语音输入的语音文字对齐信息。
关于生成语音文字对齐信息的方式,在一些实施例中,设备110可以通过线性预测编码(Linear Predictive Coding,LPC)或者Mel spectrum方式,提取对应语音的声学特征。然后,设备110可以基于声学特征和文字输入,生成语音文字对齐信息,语音文字对齐信息至少指示文字输入中的每个字的开始时间和结束时间。例如,设备110可以基于统计的机器学习模型、深度学习模型以及通用文字音标字典,来动态匹配与对应语音对应的文字输入的中每个字(也可以是词组)的位置。例如,图3示出了根据本公开的实施例的用于指示语音对齐过程的示意图。如图3所示,310指示对应语音的声音波形图,该声音波形图的对应文字输入为“是美国进口多于出口,贸易出现逆差”。312指示与对应声音波形对齐的文字,例如“美国”。314指示一个或多个空格“sp”。
以下进一步通过表一来示意经由动态匹配的、对应语音(如TTS语音)对应的文字输入“你好,我是小浦”中每个字的开始时间和结束时间。
表一
文字 开始时间(秒) 结束时间(秒)
0.12 0.25
0.25 0.40
0.61 0.75
0.75 0.92
0.92 1.03
1.03 1.25
在获得语音文字对齐信息之后,设备110可以基于输入和语音文字对齐信息,生成口型驱动序列。在一些实施例中,该口型驱动序列的主体的格式例如为(BlendShape/Muscle面部驱动单元)多维数据。该多维数据例如是每秒有100帧的数据(100fps),每帧数据由一个多维的向量表示。下文将结合图4进一步说明生成口型驱动序列的方式,在此,不再赘述。
在一些实施例中,设备110在生成口型驱动序列的过程中还包括:针对口型驱动序列的平滑操作和针对口型驱动序列的优化操作。
关于针对口型驱动序列的平滑操作,在一些实施例中,设备110主要是通过在基于语音对齐信息所合成的口型驱动序列之间拼接过渡口型驱动序列的方式来主要解决不同口型之间的衔接问题。下文将结合图5和6分别说明口型序列的平滑或合成操作,在此,不再赘述。
关于针对口型驱动序列的优化操作,在一些实施例中,在虚拟形象的口型驱动序列生成后,设备110还对一些非常邻近的口型位置进行序列优化。例如,待表达内容“委~员会”中的“委”和“员”两个邻近字的口型位置中间有空隙,当位置差异小于0.5秒,则保留2个邻近字之间的口型,而不是在“委”和“员”邻近字的口型位置空隙期间直接使得虚拟形象的嘴部闭合。通过采用上述手段,本公开能够极大地减少虚拟形象的口型抖动。
在框206处,设备110生成表情驱动序列,表情驱动序列与待表达内容所对应的口型类型相关联。经研究发现,在表达过程中,口型与表情有较为明显的联动特征。以下结合公式(1)来说明表情多维数据与口型之间的关系。
Ft=et+vt+othert (1)
在上述公式(1)中,Ft代表t时间点的面部驱动数据(其例如是包括多维向量的面部驱动序列),et代表t时间点的表情驱动多维向量。vt代表口型驱动序列(例如是口型驱动多维向量)。othert代表t时间点的其他与面部驱动相关的多维向量。
研究表表明,表情驱动多维向量et与口型类型密切相关。在一些实施例中,设备110可以利用深度学习模型动态生成与口型类型相匹配的表情驱动序列;然后针对表情驱动序列进行平滑,最终可以做到表情驱动与口型驱动的协同。以下具体说明设备110生成表情驱动序列的各个动作或操作。
为了生成表情驱动数据,在一些实施例中,设备110可以首先确定文字输入中的每个字所对应的口型类型。关于口型类型,在一些实施例中,口型例如被划分为8种主要类型。例如,当前所确定的口型类型例如是口型类型k。下文将结合图7和图8说明确定口型类型的方式。在此,不再赘述。
然后,设备110将所确定的口型类型(例如是口型类型k)和随机数输入深度学习模型,以便生成多维表情数据,深度学习模经由多个表情驱动样本训练。随机数用于填充所构建的空间。通过基于随机数和口型类型生成多维表情数据,能够使得虚拟形象的表情存在变化,更为生动与逼真。
关于上述与表情相关的深度学习模型,在一些实施例中,其可以是一个经训练的条件生成模型(CGAN,Conditional Generative Adversarial Networks)。该与表情相关的深度学习模型的训练数据例如是:N×T的二维矩阵以及口型类型k。其中,N×T的二维矩阵是表情多维向量与时序结合而生成的。将其转换为如图11所示的图像的形式。图11中示意了两个不同状态的用于条件生成模型训练的图像1110和1112。图11示意性示出了根据本公开的实施例的与表情相关的深度学习模型的训练数据的示意图,在示意图中,横向为时间,纵向表示表情向量的不同维度。每一个维度的表情向量会涉及时间范围。因此,如图11所示,每一个维度的表情向量被标识为长条图形。该与表情相关的深度学习模型的输出数据是:与口型类型对应的带时序的表情驱动多维向量该表情多维向量/>例如具有固定长度。可以针对具有固定长度与口型类型对应的表情多维向量/>进行拉伸或者缩放,以便与口型驱动序列vt进行融合。在一些实施方式中,条件生成模型为条件生成式对抗网络模型。条件生成式对抗网络包括生成器(Generator)和判别器(Descriminator)。其通过引入监督信息用来指导训练生成器(Generator)。CGAN中的价值函数换成了条件概率。该条件为口型类型。
之后,设备110基于语音对齐信息,将所生成的多维表情数据进行拼接,以生成表情驱动序列。在针对所生成的多维表情数据进行拼接时,设备110可以基于前后时间点的多维表情数据的关系以进行平滑。在一些实施例中,将所生成的多维表情数据和过渡表情数据进行拼接,以生成表情驱动序列,其中过渡表情数据例如是基于针对多维表情数据进行线性插值以便进行平滑而生成的。以下结合公式(2)来说明针对多维表情数据进行平滑的方式。
在上述公式(2)中,代表t时间点与口型类型对应的带时序的多维表情向量。/>代表t时间点经平滑的表情驱动数据,5代表窗口宽度。该t时间点经平滑的表情向量/>例如是基于与t时间点相邻的5个时间点的多维表情向量的平均值而生成的。通过采用上述手段,虚拟形象的表情更为自然。
在框208处,设备110融合口型驱动序列和表情驱动序列,以生成用于驱动虚拟形象的面部驱动数据。以下结合公式(3)来说明融合口型驱动序列和表情驱动序列的方式。
在上述公式(3)中,代表t时间点与口型类型对应的带时序的多维表情数据。/>代表t时间点经平滑的表情驱动数据。vt代表t时间点口型驱动序列。othert代表其他与面部驱动相关的多维向量。例如,othert包括而不限于仿生驱动数据等。
在上述方案中,通过融合基于语音和/或文字输入所确定口型驱动序列和与待表达内容的口型类型相关的表情驱动序列来生成面部驱动数据,以用于驱动虚拟形象的,本公开能够实现利用语音驱动虚拟形象的面部自然生动地变化。而且,所生成的虚拟形象的动画能够与虚拟形象的待表达内容相匹配,且更为生动自然。
图4示出了根据本公开的实施例的用于生成口型驱动序列的方法400的流程图。应当理解,方法400例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法400还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框402处,设备110基于文字输入、语音文字对齐信息和口型数据模板,生成与输入对应的口型多维数据,语音文字对齐信息是经由针对文字输入和对应语音进行对齐而生成的,对应语音是由文字输入转换而生成的或者是被接收的,例如不限于TTS语音。
在一些实施例中,口型数据模板例如是从预先录制的训练数据中所提取的(保留与口型表达相关的维度)。例如,训练数据中包括“你好”的口型驱动数据。设备110可以基于语音文字对齐信息中指示的每个文字的开始和结束时间,提取训练数据中与“你好”所对应口型驱动数据,然后经由下采样降到25fps后进行保存,以作为口型数据的模板。由于预先录制的训练数据例如是100fps,通过对训练数据进行下采样。例如,将100fps的训练数据经由下采样降到25fps。
在框404处,设备110基于对应语音的时长,针对口型多维数据进行缩放,以生成口型驱动序列。
在一些实施例中,缩放算法可以涉及两个维度,例如是在时间维度上进行缩放,和/或在口型动作幅度上进行缩放。在一些实施例中,对口型驱动序列进行缩放包括以下至少一项:基于时间,对口型驱动序列进行缩放,以及基于口型动作幅度,对口型驱动序列进行缩放。在一些实施例中,可以通过内插值方法来实现针对口型驱动序列的缩放,也可以选用线性或者二次、高次方法来实现针对口型驱动序列的缩放。
在上述方案中,通过采用下采样的手段,一方面使得输出的表情驱动序列符合输出数据的标准;另一方面通过利用100fps的训练数据训练25fps的输出数据,有利于使得经丰富信息训练的输出数据更为精致。通过针对口型驱动序列进行缩放使得虚拟形象的口型与所表达文字更为匹配与同步。
如前文描述,设备110可以针对所生成的口型驱动序列进行平滑操作和优化操作。以下将结合图5来说明基于简单带权重来平滑口型驱动序列的方法,以及结合图6来说明基于深度神经网络模型来平滑口型驱动序列的方法。
图5示出了根据本公开的实施例的用于平滑口型驱动序列的方法500的流程图。应当理解,方法500例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法500还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
经研究发现,虚拟形象114的每一个口型动作对应一口型驱动序列。在基于虚拟形象114的待表达内容的输入(该待表达内容的输入例如是“你好,我是小浦”),生成多个口型驱动序列。由于不同口型所表达的内容不一致,例如,“你~好”这两个相邻的字在口型大小、位置都存在差异,因此有必要通过生成过渡口型来衔接相邻的两个口型来避免虚拟形象114的口型错位情况。
在框502处,设备110获取用于与前一口型对应的第一口型驱动序列和用于与后一口型对应的第二口型驱动序列。在一些实施例中,前一口型与第二口型在时序上相邻近。
在框504处,设备110对第一口型驱动序列和第二口型驱动序列进行平滑,以生成过渡口型驱动序列。
关于对第一口型驱动序列和第二口型驱动序列进行平滑的方式可以包括多种。在一些实施例中,可以基于简单带权重的平滑方法对第一口型驱动序列和第二口型驱动序列进行平滑。以下结合公式(4)来说明基于简单带权重的平滑算法来生成过渡口型驱动序列的方式。
v1t*(1-βi)+v2i (4)
在上述公式(4)中,v1t代表第一口型驱动序列,具体例如是v1这一口型序列在t时间点的多维向量。v2t代表第二口型驱动序列,具体例如是v2这一口型序列在t时间点的多维向量。βi表示距离过渡点第i个位置所对应的平滑系数。基于上述公式(4)可以生成用于衔接v1这一口型序列和v2这一口型序列的过渡口型驱动序列。
在框506处,设备110在第一口型驱动序列和第二口型驱动序列之间,拼接过渡口型驱动序列。在一些实施例中,过渡口型驱动序列所对应的过渡区域长度会根据口型作适当调整。在一些实施例中,其中所生成的过渡口型驱动序列的长度与以下至少一项相关联:第一口型驱动序列的持续时间;以及第一口型驱动序列和第二口型驱动序列之间的时间间隔。。
在上述方案中,通过基于简单带权重的平滑算法的生成过渡口型驱动序列用以衔接相邻的口型驱动序列,本公开能够以比较简单、快速的方式避免虚拟形象114的口型错位。
在一些实施例中,设备110还可以基于深度神经网络的平滑方法来预测过渡口型驱动序列,以用于拼接口型驱动序列。图6示出了根据本公开的实施例的用于合成口型驱动序列的方法600的流程图。应当理解,方法600例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法600还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框602处,设备110可以获取与采样窗口之前的口型对应的前口型驱动序列和与采样窗口之后的口型对应的后口型驱动序列。
在框604处,设备110基于前口型驱动序列和后口型驱动序列,经由深度神经网络模型,预测与采样窗口对应的过渡口型驱动序列,深度神经网络模型经由多个口型驱动数据样本训练。
以下结合公式(5)来说明基于深度神经网络的平滑方法来生成过渡口型驱动序列的方式。
在上述公式(5)中,v1t代表用于驱动采样窗口之前的口型的前口型驱动序列,具体例如是v1这一口型序列在t时间点的多维向量值。代表与采样窗口相对应的过渡口型驱动序列,其是基于深度学习模型预测出来的中间口型序列在t时间点的多维向量值。βi代表距离过渡口型点第i个位置所对应的平滑系数。基于上述公式(5)可以预测用于衔接v1这一口型序列和/>这一口型序列的过渡口型驱动序列。
在一些实施例中,基于深度学习模型预测出来的中间口型序列例如可以基于以下公式(6)所示的深度学习模型进行预测。
在上述公式(6)中,vt-2、vt-1、vt+1、vt+2分别代表用于驱动采样窗口周围口型的多个周围口型驱动序列,即v这一口型序列分别在t-2、t-1、t+1和t+2时间点的多维向量值。深度学习模型的训练数据例如是:基于所录制面部表情数据生成与口型相关的多维数据。以该多维数据作为深度学习模型训练数据。训练数据例如是每秒有100帧数据,每帧数据例如由一个多维的向量表示。然后对多维序列进行窗口采样。通过收集采样窗口周围口型的口型驱动序列来预测中间口型的数据驱动序列,以计算出其中的非线性变化。
在框606处,基于前口型驱动序列、后口型驱动序列和所预测的过渡口型驱动序列,合成口型驱动序列。
在上述方案中,通过采用基于深度神经网络模型的方法来预测过渡口型驱动序列用以衔接采样窗口的口型驱动序列,本公开能够使得虚拟形象的口型动作体现出更为逼真,不存在突兀的变化。
图7示出了根据本公开的实施例的用于口型类型分类的方法700的流程图。应当理解,方法700例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法700还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
经研究发现,在表述过程中,不同口型本身带有其时序和空间(张合程度)的特征。
在框702处,设备110基于多个口型的嘴角宽度的位置信息和时序数据,生成分别对应于多个口型的多个口型时序数据集,嘴角宽度的位置信息是基于对应口型的面部关键点的检测数据而生成的。
在框704处,设备110通过线性差值,使得多个口型时序数据集的时长一致。通过使得口型时序数据集的时长一致,可以避免因为语速而导致的口型类型确定的误差。
在框706处,设备110对多个口型时序数据集进行聚类,以确定多个口型的口型类型。
图8示出了根据本公开的实施例的口型张合程度时序示意图。如图所示,图8中包括多个口型张合程度时序示意子图。每个口型张合程度时序示意子图例如是基于对应口型的口型时序数据集(w,t)的可视化。每个示意子图的横坐标指示时序数据t,纵坐标指示嘴角宽度的位置信息w(例如嘴的张合程度)。例如,图8第一行的5个口型张合程度时序示意子图分别指示发音“a”、“ai”、“an”、“ang”和“ao”时的对应口型张合程度随时间的变化情况。其中,810指示发音“ao”时的对应口型张合程度随时间的变化情况。812指示发音“ao”时的口型张合程度变化曲线。在该口型张合程度变化曲线上选取预定时间间隔的多个特征点,然后确定多个特征的口型张合程度的变化规律。例如确定开始点822、第一中间点824、第二中间点826、结束点828四个特征点的口型张合程度的变化规律例如是“大小大大”。设备110可以基于不同口型的口型张合程度变化曲线的特征点的口型张合程度的变化规律的相似程度,来对不同口型进行分类。
在一些实施例中,方法200还包括仿生驱动方法900。
图9示出了根据本公开的实施例的仿生驱动方法900。应当理解,方法600例如可以在图10所描述的电子设备1000处执行。也可以在图1所描述的设备110处执行。应当理解,方法900还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框902处,设备110基于仿生模型,生成仿生驱动数据,仿生驱动数据用于驱动虚拟形象进行类生理的随机性动作。
关于仿生驱动数据,在一些实施例中,其例如包括以下至少一项:眼球扫视数据;眨眼数据(眨眼数据例如包括关于单次眨眼数据、多次连续眨眼数据和半眨眼数据中的至少一种眨眼数据的频率信息和分布信息);用于使虚拟形象的面部非对称地动作的非对称驱动信息;以及使得虚拟形象进行晃动的晃动数据。非对称驱动信息例如用于使得虚拟形象的左右眼球扫视的时机和幅度不一致,或者使得虚拟形象的左右嘴角的开合程度不一致,或者使得虚拟形象的左右眼眨眼的时机或者程度不一致。半眨眼数据例如是用于驱动虚拟形象进行非完全性眨眼动作的驱动数据。通过利用非对称驱动信息,可以使得虚拟形象的表情更为自然与逼真。
在一些实施例中,仿生模型的形成方式例如包括:获取实际录制视频在预定时间间隔内所采集的类生理的随机性动作的频率信息、分布信息和随机性动作类型中的至少一项;以及基于频率信息、分布信息和随机性动作类型中的至少一项,构建随机性动作发生器,以用于生成关于类生理的随机性动作的发生概率,发生概率与时间和随机性动作类型相关联,发生概率用于在面部驱动数据上叠加仿生驱动数据。
例如,设备110获取实际录制视频在预定时间间隔内所采集的类生理的随机性动作(例如的眨眼和眼球运动)的发生频次、发生位置和随机性动作类型,然后,基于该发生频次、发生位置和随机性动作类型数据进行统计建模,通过均值μ,构建相应的正态分布。以下结合公式(7)来说明类生理的随机性动作的概率密度函数。
在上述公式(7)中,X代表关于类生理的随机性动作的随机变量。均值μ代表位置参数,方差σ代表分布的幅度。
在一些实施例中,设备110基于在预定时间间隔内发生类生理的随机性动作发生的频次和随机性动作类型,确定与时间和随机性动作类型相关联的随机性动作的发生概率。例如,设备110生成一个随机性动作的发生器,用于产生在各时间点上发生不同类型的随机性动作(例如眼球扫视、眨眼、非对称驱动、晃动)的发生概率,以便后续基于发生概率在面部驱动数据上叠加仿生驱动数据。
在框904处,设备110融合面部驱动数据和仿生驱动数据。例如,设备110基于随机性动作的发生器的发生概率在面部驱动数据上叠加仿生驱动数据于发生概率。使得虚拟形象可以随机地进行眼睛扫视、眨动、身体晃动等动作。通过采用上述手段,本公开的虚拟形象更为真实自然与逼真。
图10示意性示出了适于用来实现本公开实施例的电子设备1000的框图。设备1000可以用于实现图1的驱动虚拟形象设备110。如图所示,设备1000包括中央处理单元(CPU)1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序指令或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序指令,来执行各种适当的动作和处理。在RAM1003中,还可存储设备1000操作所需的各种程序和数据。CPU 1001、ROM 1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元1001执行上文所描述的各个方法和处理,例如执行方法200至700。例如,在一些实施例中,方法200至700可被实现为计算机软件程序,其被存储于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由CPU1001执行时,可以执行上文描述的方法200至700的一个或多个操作。备选地,在其他实施例中,CPU 1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法200至700的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
以上仅为本公开的可选实施例,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等效替换、改进等,均应包含在本公开的保护范围之内。

Claims (9)

1.一种用于驱动虚拟形象的方法,包括:
接收用于指示虚拟形象的待表达内容的输入,所述输入包括文字输入和语音输入中的至少一种;
基于所述输入,生成口型驱动序列;以及
生成表情驱动序列,所述表情驱动序列与所述待表达内容所对应的口型类型相关联;
融合所述口型驱动序列和所述表情驱动序列,以生成用于驱动所述虚拟形象的面部驱动数据;
基于仿生模型,生成仿生驱动数据,所述仿生驱动数据用于驱动所述虚拟形象进行类生理的随机性动作;以及融合所述面部驱动数据和所述仿生驱动数据;其中仿生模型的生成方式包括:构建随机性动作发生器,以用于生成关于所述类生理的随机性动作的发生概率,所述发生概率与时间和所述随机性动作类型相关联,以及所述发生概率用于在所述面部驱动数据上叠加所述仿生驱动数据;
生成口型驱动序列包括:获取与采样窗口之前的口型对应的前口型驱动序列和与采样窗口之后的口型对应的后口型驱动序列;基于所述前口型驱动序列和所述后口型驱动序列,经由深度神经网络模型,预测与所述采样窗口对应的过渡口型驱动序列,所述深度神经网络模型经由多个口型驱动数据样本训练;以及基于所述前口型驱动序列、所述后口型驱动序列和所预测的过渡口型驱动序列,合成所述口型驱动序列;
生成所述表情驱动序列包括:确定所述文字输入中的每个字所对应的口型类型;将所确定的口型类型和随机数输入深度学习模型,以便生成多维表情数据,所述深度学习模经由多个表情驱动样本训练;以及基于所述语音文字对齐信息,将所生成的多维表情数据进行拼接,以生成所述表情驱动序列;
其中所述口型类型的分类包括:基于多个口型的嘴角宽度的位置信息和时序数据,生成分别对应于所述多个口型的多个口型时序数据集,所述嘴角宽度的位置信息是基于对应口型的面部关键点的检测数据而生成的;通过线性差值,使得所述多个口型时序数据集的时长一致;对所述多个口型时序数据集进行聚类,以确定所述多个口型的口型类型。
2. 根据权利要求1所述的方法,其中生成口型驱动序列包括:
获取与所接收的文字输入对应的对应语音,所述对应语音是由所述文字输入转换而生成的或者是被接收的;将所述文字输入和对应语音进行语音文字对齐,以生成语音文字对齐信息;以及
基于所述输入和所述语音文字对齐信息,生成所述口型驱动序列。
3.根据权利要求2所述的方法,其中生成语音文字对齐信息包括:
提取所述对应语音的声学特征;
基于所述声学特征和所述文字输入,生成所述语音文字对齐信息,所述语音文字对齐信息至少指示所述文字输入中的每个字的开始时间和结束时间。
4. 根据权利要求1所述的方法,其中生成口型驱动序列包括:
基于所述文字输入、语音文字对齐信息和口型数据模板,生成与所述输入对应的口型多维数据,所述语音文字对齐信息是经由针对所述文字输入和对应语音进行语音文字对齐而生成的,所述对应语音是由所述文字输入转换而生成的或者是被接收的;以及
基于所述对应语音的时长,针对所述口型多维数据进行缩放,以生成所述口型驱动序列。
5.根据权利要求1所述的方法,其中仿生驱动数据包括以下至少一项:
眼球扫视数据;
眨眼数据;
非对称驱动信息,用于使所述虚拟形象的面部被非对称地驱动;以及
晃动数据,用于使得所述虚拟形象进行晃动。
6.根据权利要求5所述的方法,其中所述眨眼数据包括关于单次眨眼数据、多次连续眨眼数据和半眨眼数据中的至少一种眨眼数据的频率信息和分布信息。
7.根据权利要求1所述的方法,其中构建所述随机性动作发生器包括:
获取实际录制视频在预定时间间隔内所采集的类生理的随机性动作的频率信息、分布信息和随机性动作类型中的至少一项;
基于所述频率信息、所述分布信息和所述随机性动作类型中的至少一项,构建所述随机性动作发生器。
8.一种电子设备,包括:
存储器,被配置为存储一个或多个程序;
处理单元,耦合至所述存储器并且被配置为执行所述一个或多个程序使所述设备执行根据权利要求1-7中任一所述的方法的步骤。
9.一种非瞬态计算机可读存储介质,其上存储有机器可执行指令,所述机器可执行指令在被执行时使机器执行根据权利要求1-7中任一项所述的方法的步骤。
CN201911368464.7A 2019-12-26 2019-12-26 用于驱动虚拟形象的方法、设备和计算机可读存储介质 Active CN111145322B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911368464.7A CN111145322B (zh) 2019-12-26 2019-12-26 用于驱动虚拟形象的方法、设备和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911368464.7A CN111145322B (zh) 2019-12-26 2019-12-26 用于驱动虚拟形象的方法、设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111145322A CN111145322A (zh) 2020-05-12
CN111145322B true CN111145322B (zh) 2024-01-19

Family

ID=70520515

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911368464.7A Active CN111145322B (zh) 2019-12-26 2019-12-26 用于驱动虚拟形象的方法、设备和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111145322B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460785B (zh) * 2020-03-31 2023-02-28 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113689530B (zh) * 2020-05-18 2023-10-20 北京搜狗科技发展有限公司 一种驱动数字人的方法、装置及电子设备
CN111833418B (zh) * 2020-07-14 2024-03-29 北京百度网讯科技有限公司 动画交互方法、装置、设备以及存储介质
CN111968205A (zh) * 2020-07-31 2020-11-20 深圳市木愚科技有限公司 一种仿生三维模型的驱动方法和系统
CN112184859B (zh) * 2020-09-01 2023-10-03 魔珐(上海)信息科技有限公司 端到端的虚拟对象动画生成方法及装置、存储介质、终端
CN112182194A (zh) * 2020-10-21 2021-01-05 南京创维信息技术研究院有限公司 电视虚拟形象情绪动作表达方法、系统和可读存储介质
CN112328085A (zh) * 2020-11-12 2021-02-05 广州博冠信息科技有限公司 虚拟角色的控制方法、装置、存储介质与电子设备
CN112652041B (zh) * 2020-12-18 2024-04-02 北京大米科技有限公司 虚拟形象的生成方法、装置、存储介质及电子设备
CN112752118B (zh) * 2020-12-29 2023-06-27 北京字节跳动网络技术有限公司 视频生成方法、装置、设备及存储介质
CN113256821B (zh) * 2021-06-02 2022-02-01 北京世纪好未来教育科技有限公司 一种三维虚拟形象唇形生成方法、装置及电子设备
CN113538636B (zh) * 2021-09-15 2022-07-01 中国传媒大学 一种虚拟对象的控制方法、装置、电子设备及介质
CN113760101B (zh) * 2021-09-23 2023-04-18 北京字跳网络技术有限公司 一种虚拟角色控制方法、装置、计算机设备以及存储介质
CN114937104A (zh) * 2022-06-24 2022-08-23 北京有竹居网络技术有限公司 虚拟对象面部信息生成方法、装置和电子设备
CN116112761B (zh) * 2023-04-12 2023-06-27 海马云(天津)信息技术有限公司 生成虚拟形象视频的方法及装置、电子设备和存储介质
CN116468826B (zh) * 2023-06-16 2023-10-27 北京百度网讯科技有限公司 表情生成模型的训练方法、表情生成的方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036387A (ja) * 2001-07-24 2003-02-07 Omron Corp サーバ、端末、助言システム、プログラム、プログラムを記録したコンピュータ読み取り可能な記録媒体、出力媒体及び助言方法
US6552729B1 (en) * 1999-01-08 2003-04-22 California Institute Of Technology Automatic generation of animation of synthetic characters
CN101751692A (zh) * 2009-12-24 2010-06-23 四川大学 语音驱动唇形动画的方法
CN103218842A (zh) * 2013-03-12 2013-07-24 西南交通大学 一种语音同步驱动三维人脸口型与面部姿势动画的方法
CN104615983A (zh) * 2015-01-28 2015-05-13 中国科学院自动化研究所 基于递归神经网络和人体骨架运动序列的行为识别方法
CN108538308A (zh) * 2018-01-09 2018-09-14 网易(杭州)网络有限公司 基于语音的口型和/或表情模拟方法及装置
CN109377540A (zh) * 2018-09-30 2019-02-22 网易(杭州)网络有限公司 面部动画的合成方法、装置、存储介质、处理器及终端
CN109801349A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种声音驱动的三维动画角色实时表情生成方法和系统
CN110189394A (zh) * 2019-05-14 2019-08-30 北京字节跳动网络技术有限公司 口型生成方法、装置及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0915016D0 (en) * 2009-08-28 2009-09-30 Digimania Ltd Animation of characters

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6552729B1 (en) * 1999-01-08 2003-04-22 California Institute Of Technology Automatic generation of animation of synthetic characters
JP2003036387A (ja) * 2001-07-24 2003-02-07 Omron Corp サーバ、端末、助言システム、プログラム、プログラムを記録したコンピュータ読み取り可能な記録媒体、出力媒体及び助言方法
CN101751692A (zh) * 2009-12-24 2010-06-23 四川大学 语音驱动唇形动画的方法
CN103218842A (zh) * 2013-03-12 2013-07-24 西南交通大学 一种语音同步驱动三维人脸口型与面部姿势动画的方法
CN104615983A (zh) * 2015-01-28 2015-05-13 中国科学院自动化研究所 基于递归神经网络和人体骨架运动序列的行为识别方法
CN108538308A (zh) * 2018-01-09 2018-09-14 网易(杭州)网络有限公司 基于语音的口型和/或表情模拟方法及装置
CN109377540A (zh) * 2018-09-30 2019-02-22 网易(杭州)网络有限公司 面部动画的合成方法、装置、存储介质、处理器及终端
CN109801349A (zh) * 2018-12-19 2019-05-24 武汉西山艺创文化有限公司 一种声音驱动的三维动画角色实时表情生成方法和系统
CN110189394A (zh) * 2019-05-14 2019-08-30 北京字节跳动网络技术有限公司 口型生成方法、装置及电子设备

Also Published As

Publication number Publication date
CN111145322A (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
CN111145322B (zh) 用于驱动虚拟形象的方法、设备和计算机可读存储介质
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
US20230316643A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
US8224652B2 (en) Speech and text driven HMM-based body animation synthesis
Mattheyses et al. Audiovisual speech synthesis: An overview of the state-of-the-art
CN111145282B (zh) 虚拟形象合成方法、装置、电子设备和存储介质
Chuang et al. Mood swings: expressive speech animation
US9361722B2 (en) Synthetic audiovisual storyteller
Le et al. Live speech driven head-and-eye motion generators
US20120130717A1 (en) Real-time Animation for an Expressive Avatar
Pham et al. End-to-end learning for 3d facial animation from speech
Tian et al. Audio2face: Generating speech/face animation from single audio with attention-based bidirectional lstm networks
KR20210124312A (ko) 인터랙티브 대상의 구동 방법, 장치, 디바이스 및 기록 매체
WO2023284435A1 (zh) 生成动画的方法及装置
CN114357135A (zh) 交互方法、交互装置、电子设备以及存储介质
CN113077537A (zh) 一种视频生成方法、存储介质及设备
Rebol et al. Passing a non-verbal turing test: Evaluating gesture animations generated from speech
KR20110081364A (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Ding et al. Speech-driven eyebrow motion synthesis with contextual markovian models
Čereković et al. Multimodal behavior realization for embodied conversational agents
EP4152269B1 (en) Method and apparatus of training model, device, and medium
US11756250B2 (en) Three-dimensional face animation from speech
CN114898018A (zh) 数字对象的动画生成方法、装置、电子设备及存储介质
CN113362432B (zh) 一种面部动画生成方法及装置
Verma et al. Animating expressive faces across languages

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant