CN107481303A - 一种实时动画生成方法及系统 - Google Patents
一种实时动画生成方法及系统 Download PDFInfo
- Publication number
- CN107481303A CN107481303A CN201710665438.5A CN201710665438A CN107481303A CN 107481303 A CN107481303 A CN 107481303A CN 201710665438 A CN201710665438 A CN 201710665438A CN 107481303 A CN107481303 A CN 107481303A
- Authority
- CN
- China
- Prior art keywords
- data
- action
- variable
- action data
- animation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提出了一种实时动画生成方法,包括如下步骤:定义与运动对象相关的变量集;采集所述对象动作信息并生成第一动作数据;采集所述第一动作数据中的至少部分数据;根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;基于所述第二动作数据合成动画。本申请的动画生成方法通过对原始动作数据进行再采集,并按照预先定义的全局变量集对采集到的数据进行处理,从而得到符合动画合成需求的目标数据,极大的降低了合成器的工作量以及合成过程中的数据传输量,同时提高了合成器的性能,屏蔽了原始数据和原始采集设备的差异性,这种改进对于动画合成,尤其是实时的动画合成是十分有利的。
Description
技术领域
本申请涉及动画领域,尤其是涉及实时动画生成领域。
背景技术
传统的实时动画生成系统主要包括动作捕捉外设(最常见的包括固定于演员身体各个部位上的Marker,以及与其配合的信号接收装置)、动作捕捉软件,动作捕捉软件处理相应的数据并生成相应格式的数据,这种格式往往都是厂商定义的数据格式,一方面,这些数据格式与实时动画的用户需求、播放器/合成器的需求之间存在一定差别,需要针对设备进行特定的处理,导致各种合成器都需要做大量的额外工作才能进行动画合成,另一方面,这种原始数据中包含很多对于生成特定动画来说所不需要的数据,还包括由于某些因素造成的不必要的、重复的数据传输。这写因素对于需要实时生成动画的这种场景而言都是十分不利的。因此本领域需要一种改进的实时动画生成技术。
发明内容
为了解决上述问题,本申请提出了一种实时动画生成方法,包括如下步骤:
定义与运动对象相关的变量集;
采集所述对象动作信息并生成第一动作数据;
采集所述第一动作数据中的至少部分数据;
根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;
基于所述第二动作数据合成动画。
优选地,所述定义与运动对象相关的变量集的步骤,具体包括:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量;
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
优选地,所述采集对象动作信息并生成第一动作数据的步骤,具体包括至少以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;
采集运动对象脸部至少部分部位上的表情信息。
优选地,所述根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据,具体包括:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。
优选地,所述采集所述第一动作数据中的至少部分数据,具体包括:
去除第一动作数据中与至少部分动作信息相关的数据。
优选地,所述采集所述第一动作数据中的至少部分数据,具体包括:
对所述第一动作数据进行时序采样的步骤。
另一方面,本申请还提出了一种实时动画生成系统,包括:
变量集预设模块,配置为定义与运动对象相关的变量集;
第一采集模块,配置为采集所述对象动作信息并生成第一动作数据;
第二采集模块,配置为采集所述第一动作数据中的至少部分数据;
数据处理模块,配置为根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;
动画合成模块,配置为基于所述第二动作数据合成动画。
优选地,所述变量集预设模块,进一步配置为:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量;
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
优选地,所述第一采集模块,进一步至少配置为以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;
采集运动对象脸部至少部分部位上的表情信息。
优选地,所述数据处理模块,进一步配置为:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。
优选地,所述第一采集模块,进一步配置为,
去除第一动作数据中与至少部分动作信息相关的数据。
优选地,所述第一采集模块,进一步配置为,
对所述第一动作数据进行时序采样。
同时,本申请还提出一种虚拟现实/增强现实/混合现实成像方法,其使用如本申请所述的实时动画生成方法。
同时,本申请还提出一种虚拟现实/增强现实/混合现实成像系统,其使用如本申请所述的实时动画生成系统。
本申请的动画生成方法通过对原始动作数据进行再采集,并按照预先定义的全局变量集对采集到的数据进行处理,从而得到符合动画合成需求的目标数据,极大的降低了合成器的工作量以及合成过程中的数据传输量,同时提高了合成器的性能,屏蔽了原始数据和原始采集设备的差异性,这种改进对于动画合成,尤其是实时的动画合成是十分有利的。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种实时动画生成方法的流程示意图;
图2为本申请实施例提供的一种实时动画生成系统的结构示意图。
具体实施方式
本申请实施例提供一种实时动画生成方法、一种实时动画生成系统、以及一种虚拟现实/增强现实/混合现实成像方法及成像系统。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
如图1所示,本申请提出了一种实时动画生成方法,包括如下步骤:
S101,定义与运动对象相关的变量集。运动对象例如可以是人,或者动物,设置是车辆或者其他具有局部或者整体移动属性的对象。所述的运动对象以人为例,在该步骤中,对人各个活动部位进行划分,例如首先将人划分为躯干、手部、脚部、以及脸部,甚至毛发,然后对各个大体部分做进一步的划分,例如将躯干分为左大腿、左小腿、右大腿、右小腿、左肩、右肩、左大臂、左小臂、右大臂、右小臂等等,这种划分一方面取决于人体能够主动或者被动地产生活动的关节或者部位,另一方面取还决于在动画合成时所需要的动作信息,这些在合成动画时能够变化的数据的集合作为全局定义的变量集。表1中以人物脸部为例展示了本申请定义的变量集。
表1
在表1中,以部分变量为例,变量“EyeBlink_L”表征了左眼眨眼动作信息,变量“EyeBlink_R”表征了右眼眨眼动作信息。
如步骤S102所示,采集所述对象动作信息并生成第一动作数据。采集的过程包括使用各种动作捕捉厂商提供的动作捕捉外设以及相应的动作捕捉软件获取的动作数据。根据厂商及设备类型的不同,获取的动作数据内容和格式各有不同,例如可能是包含文本格式的动作信息。这种动作数据可以认为是原始的动作数据,通常,这种原始动作数据中在动画合成器中还需要对时间戳进行处理,同时这种数据中还可能包括一些用户合成动画所不需要的数据(例如,某些融合形状blend shapes,以及一些由于抖动等因素造成的重复数据)。
如步骤S103所示,采集所述第一动作数据中的至少部分数据。该采集过程可以是根据合成所需要的数据类型对第一动作数据进行采样,还可以是按照动画录制的频率对所述的第一动作数据进行采样,由于动画录制的频率可能是与第一动作数据(例如动作捕捉外设的采样频率)不同,当两者采样频率不同时,为了满足录制需求,在该步骤中对第一动作数据进行类似于抽帧的采样。
如步骤S104所示,根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据。由于预先定义了作为全局变量的变量集,在采集所述第一动作数据中的所述至少部分数据后,可以对这部分数据进行格式的转换,这种转换能够作为针对不同的原始数据的一种标准化过程,这种标准化的数据使得合成器更容易地将这些数据合成为动画,在转换的过程中可以将这些数据(尤其是文本格式的信息)转换为二进制数据,结合原始数据的时间戳和录制的时间戳形成数据串流,当然,不同种类的数据之间可能存在不同步的情况,这时需要在播放器中进行同步处理,数据同步的过程在此不作赘述。
如S105所示,基于所述第二动作数据合成动画。由于通过前面的处理,所述的第二动作数据是一种按照预定规则和变量格式的数据形式,是一种被标准化的数据,基于所述第二动作数据合成动画比基于原始数据或者第一动作数据合成动画具有更强的通用性,传输的数据也更少。
优选地,所述定义与运动对象相关的变量集的步骤,具体包括:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量。所述的运动物体可以是车辆、移动道具、机器人等,所述的生物可以是人、动物等。
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
优选地,所述采集对象动作信息并生成第一动作数据的步骤,具体包括至少以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;采集运动对象脸部至少部分部位上的表情信息。采集的手段可以包括机械的或者电子的传感器,或者其他能够获取相关信号的信号发射和接收装置。
优选地,所述根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据,具体包括:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。这种预定格式可以是通过控制器与负责对所述第一数据进行采集的采集器之间的相应通信协议确定。
优选地,所述采集所述第一动作数据中的至少部分数据,具体包括:
去除第一动作数据中与至少部分动作信息相关的数据。因为通过厂商提供的动作捕捉外设和软件获取的第一动作数据中可能有部分是合成动画时不需要的,例如第一动作数据中可能包含一些形状融合的数据,这种数据同样也在一定程度上反映了对象的动作信息,但是这部分动作信息是否在动画合成过程进行使用是根据实际情况而定的,当合成器不需要这部分数据时,在采集所述第一动作数据中的至少部分数据的过程中可以去除这部分数据,从而减少数据传输和处理的规模。另一方面,在采集第一数据时还有可能存在由于抖动和其他原因造成的不必要的或者重复的数据,将这些不必要的或者重复的数据去除,同样可以提高数据传输的效率。
优选地,所述采集所述第一动作数据中的至少部分数据,具体包括:
对所述第一动作数据进行时序采样的步骤。采集所述第一动作数据的动作捕捉外设和动作捕捉软件具有相应的采样频率,而录制动画同样具有相应的频率,两者的频率并不一定完全相同,当两者频率不同时,尤其是录制动画的频率低于采集第一动作数据的采样频率时,需要按照录制频率对第一动作数据进行采样,即抽帧操作。
另一方面,本申请还提出了一种实时动画生成系统,包括:
变量集预设模块201,配置为定义与运动对象相关的变量集;
第一采集模块202,配置为采集所述对象动作信息并生成第一动作数据;
第二采集模块203,配置为采集所述第一动作数据中的至少部分数据;
数据处理模块204,配置为根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;
动画合成模块205,配置为基于所述第二动作数据合成动画。
优选地,所述变量集预设模块201,进一步配置为:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量;
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
优选地,所述第一采集模块202,进一步至少配置为以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;
采集运动对象脸部至少部分部位上的表情信息。
优选地,所述数据处理模块204,进一步配置为:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。
优选地,所述第一采集模块202,进一步配置为,
去除第一动作数据中与至少部分动作信息相关的数据。
优选地,所述第一采集模块201,进一步配置为,
对所述第一动作数据进行时序采样。
同时,本申请还提出一种虚拟现实/增强现实/混合现实成像方法,其使用如本申请所述的实时动画生成方法。
同时,本申请还提出一种虚拟现实/增强现实/混合现实成像系统,其使用如本申请所述的实时动画生成系统。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (14)
1.一种实时动画生成方法,其特征在于,包括如下步骤:
定义与运动对象相关的变量集;
采集所述对象动作信息并生成第一动作数据;
采集所述第一动作数据中的至少部分数据;
根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;
基于所述第二动作数据合成动画。
2.根据权利要求1所述的方法,其特征在于,所述定义与运动对象相关的变量集的步骤,具体包括:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量;
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
3.根据权利要求1所述的方法,其特征在于,所述采集对象动作信息并生成第一动作数据的步骤,具体包括至少以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;
采集运动对象脸部至少部分部位上的表情信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据,具体包括:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。
5.根据权利要求1所述的方法,其特征在于,所述采集所述第一动作数据中的至少部分数据,具体包括:
去除第一动作数据中与至少部分动作信息相关的数据。
6.根据权利要求1所述的方法,其特征在于,所述采集所述第一动作数据中的至少部分数据,具体包括:
对所述第一动作数据进行时序采样的步骤。
7.一种实时动画生成系统,其特征在于,包括:
变量集预设模块,配置为定义与运动对象相关的变量集;
第一采集模块,配置为采集所述对象动作信息并生成第一动作数据;
第二采集模块,配置为采集所述第一动作数据中的至少部分数据;
数据处理模块,配置为根据所述变量集和采集到的所述第一动作数据中的所述至少部分数据生成第二动作数据;
动画合成模块,配置为基于所述第二动作数据合成动画。
8.根据权利要求7所述的系统,其特征在于,所述变量集预设模块,进一步配置为:
定义与环境中的运动物体相关的变量,和/或与环境中的生物相关的变量;
所述与环境中的生物相关的变量包括躯干变量、手部变量、脚部变量、和/或脸部变量。
9.根据权利要求7所述的系统,其特征在于,所述第一采集模块,进一步至少配置为以下之一:
采集运动对象至少部分部位上的位置、角度、速度、和/或加速度;
采集运动对象脸部至少部分部位上的表情信息。
10.根据权利要求7所述的系统,其特征在于,所述数据处理模块,进一步配置为:
按照预定的封装格式将采集到的所述第一动作数据中的所述至少部分数据进行封装。
11.根据权利要求7所述的系统,其特征在于,所述第一采集模块,进一步配置为,
去除第一动作数据中与至少部分动作信息相关的数据。
12.根据权利要求7所述的系统,其特征在于,所述第一采集模块,进一步配置为,
对所述第一动作数据进行时序采样。
13.一种虚拟现实/增强现实/混合现实成像方法,其特征在于,使用如权利要求1-5中任意一项所述的实时动画生成方法。
14.一种虚拟现实/增强现实/混合现实成像系统,其特征在于,包括如权利要求6-12中任意一项所述的实时动画生成系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710665438.5A CN107481303B (zh) | 2017-08-07 | 2017-08-07 | 一种实时动画生成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710665438.5A CN107481303B (zh) | 2017-08-07 | 2017-08-07 | 一种实时动画生成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107481303A true CN107481303A (zh) | 2017-12-15 |
CN107481303B CN107481303B (zh) | 2020-11-13 |
Family
ID=60597011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710665438.5A Active CN107481303B (zh) | 2017-08-07 | 2017-08-07 | 一种实时动画生成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107481303B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874136A (zh) * | 2018-06-13 | 2018-11-23 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN111298433A (zh) * | 2020-02-10 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种动画视频处理方法、装置、电子设备及存储介质 |
CN112402981A (zh) * | 2020-11-11 | 2021-02-26 | 完美世界(北京)软件科技发展有限公司 | 游戏场景的控制方法和装置、存储介质和电子设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477703A (zh) * | 2008-10-11 | 2009-07-08 | 大连大学 | 基于语义模型的运动捕捉数据直接驱动的人体动画方法 |
CN102156613A (zh) * | 2011-03-29 | 2011-08-17 | 汉王科技股份有限公司 | 演示文稿的显示方法及装置 |
US8928674B1 (en) * | 2007-01-16 | 2015-01-06 | Lucasfilm Entertainment Company Ltd. | Combining multiple session content for animation libraries |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104883557A (zh) * | 2015-05-27 | 2015-09-02 | 世优(北京)科技有限公司 | 实时全息投影方法、装置及系统 |
CN106228119A (zh) * | 2016-07-13 | 2016-12-14 | 天远三维(天津)科技有限公司 | 一种表情捕捉及动画自动生成系统和方法 |
-
2017
- 2017-08-07 CN CN201710665438.5A patent/CN107481303B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8928674B1 (en) * | 2007-01-16 | 2015-01-06 | Lucasfilm Entertainment Company Ltd. | Combining multiple session content for animation libraries |
CN101477703A (zh) * | 2008-10-11 | 2009-07-08 | 大连大学 | 基于语义模型的运动捕捉数据直接驱动的人体动画方法 |
CN102156613A (zh) * | 2011-03-29 | 2011-08-17 | 汉王科技股份有限公司 | 演示文稿的显示方法及装置 |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104883557A (zh) * | 2015-05-27 | 2015-09-02 | 世优(北京)科技有限公司 | 实时全息投影方法、装置及系统 |
CN106228119A (zh) * | 2016-07-13 | 2016-12-14 | 天远三维(天津)科技有限公司 | 一种表情捕捉及动画自动生成系统和方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874136A (zh) * | 2018-06-13 | 2018-11-23 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN108874136B (zh) * | 2018-06-13 | 2022-02-18 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN111298433A (zh) * | 2020-02-10 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 一种动画视频处理方法、装置、电子设备及存储介质 |
CN111298433B (zh) * | 2020-02-10 | 2022-07-29 | 腾讯科技(深圳)有限公司 | 一种动画视频处理方法、装置、电子设备及存储介质 |
CN112402981A (zh) * | 2020-11-11 | 2021-02-26 | 完美世界(北京)软件科技发展有限公司 | 游戏场景的控制方法和装置、存储介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107481303B (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107481303A (zh) | 一种实时动画生成方法及系统 | |
CN104699247B (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
Molet et al. | A real time anatomical converter for human motion capture | |
WO2023119557A1 (ja) | アバター表示装置、アバター生成装置及びプログラム | |
CN110728739B (zh) | 一种基于视频流的虚拟人控制与交互方法 | |
CN104820418B (zh) | 一种针对机械臂的嵌入式视觉系统及其使用方法 | |
WO2023109753A1 (zh) | 虚拟角色的动画生成方法及装置、存储介质、终端 | |
CN101256655A (zh) | 真实人体三维立体虚拟试衣系统 | |
CN108986190A (zh) | 一种基于三维动画中非人形角色的虚拟主播的方法和系统 | |
CN106959753A (zh) | 基于运动想象脑‑机接口的无人机虚拟控制方法及系统 | |
CN106251387A (zh) | 一种基于动作捕捉的成像系统 | |
CN105739703A (zh) | 面向无线头戴显示设备的虚拟现实体感交互系统及方法 | |
CN106598211A (zh) | 一种基于多摄像头的可穿戴式头盔的手势交互系统及识别方法 | |
CN111610861A (zh) | 跨平台交互方法、ar装置及服务器和vr装置及服务器 | |
CN111203876A (zh) | 一种医用机械臂远程控制方法 | |
CN107961531B (zh) | 一种基于动作捕捉服饰的虚拟社交系统及其工作方法 | |
CN115797519A (zh) | 虚拟角色ik实时重定向方法及相关设备 | |
CN114974506B (zh) | 人体姿态数据处理方法及系统 | |
CN106504063B (zh) | 一种虚拟头发试戴视频展示系统 | |
CN105710856A (zh) | 远程体感控制机器人 | |
CN113407031B (zh) | Vr交互方法、系统、移动终端及计算机可读存储介质 | |
JP2670663B2 (ja) | 像の実時間認識合成装置 | |
CN110515466B (zh) | 一种基于虚拟现实场景的动作捕捉系统 | |
CN103186767A (zh) | 一种基于手机识别的聊天表情生成方法 | |
CN110456912A (zh) | 一种基于沉浸式体验的交互系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246950 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |