CN104616336B - 一种动画构建方法及装置 - Google Patents

一种动画构建方法及装置 Download PDF

Info

Publication number
CN104616336B
CN104616336B CN201510088508.6A CN201510088508A CN104616336B CN 104616336 B CN104616336 B CN 104616336B CN 201510088508 A CN201510088508 A CN 201510088508A CN 104616336 B CN104616336 B CN 104616336B
Authority
CN
China
Prior art keywords
default
dynamic element
animation
time point
element model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510088508.6A
Other languages
English (en)
Other versions
CN104616336A (zh
Inventor
杨璐
严建峰
刘志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Yisi Network Technology Co ltd
Original Assignee
Suzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University filed Critical Suzhou University
Priority to CN201510088508.6A priority Critical patent/CN104616336B/zh
Publication of CN104616336A publication Critical patent/CN104616336A/zh
Application granted granted Critical
Publication of CN104616336B publication Critical patent/CN104616336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请提供了一种动画构建方法及装置,所述方法包括:Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件;以及,按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像;以及,将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势;以及,按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列。采用本申请提供的方法构建动画减少了工作量,加快了构建速度,提高了工作效率,且降低了成本。

Description

一种动画构建方法及装置
技术领域
本申请涉及动画构建领域,特别涉及一种动画构建方法及装置。
背景技术
动画是通过把人物的表情、动作、变化等分解后画成许多动作瞬间的画幅,再用摄影机连续拍摄成一系列画面,给视觉造成连续变化的图画。目前,动画技术广泛应用于影视、广告、工业设计、建筑设计、规划设计、多媒体制作、游戏、辅助教学、军事,以及工程可视化等领域。
传统动画开发技术需要根据动画脚本绘制每一帧画面图稿,具体需要大量动画开发人员采用计算机技术逐帧绘制或手工逐帧绘制。但是逐帧绘制画面图稿的方式,工作量大,动画构建速度慢,导致工作效率低且动画开发成本开销大,并且绘制出来的动画中动态元素(如动画中可运动的人物、动物或物体)的动作也较为僵硬。
发明内容
为解决上述技术问题,本申请实施例提供一种动画构建方法及装置,以达到减少工作量,加快构建速度,提高工作效率,且降低成本的目的,技术方案如下:
一种动画构建方法,包括:
Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;以及,
按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,所述预设动作序列语句由计算机根据预设动画脚本生成;以及,
将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻;以及,
按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
优选的,所述将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势的过程,包括:
将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图;
其中,所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成;
将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
优选的,在所述按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像的同时,还包括:
所述Kinect设备捕捉所述开发人员按照预设语音语句所发出的语音,并将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音。
一种动画构建方法,包括:
计算机向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;以及,
向开发人员呈现预设动作序列语句,其中,所述预设动作序列语句由所述计算机根据预设动画脚本生成;以及,
接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列,所述预设动态元素模型的连贯姿势序列的生成过程具体为:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,以及将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,以及按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列;以及,
将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
优选的,所述预设动作序列语句的生成过程,包括:
将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;
对所述预设动作序列进行文字描述,得到所述预设动作序列语句。
一种动画构建装置,包括:
存储单元,用于接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;
捕捉记录单元,用于按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,所述预设动作序列语句由计算机根据预设动画脚本生成;
第一确定单元,用于将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻;
组合单元,用于按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
优选的,所述第一确定单元包括:
转换子单元,用于将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图,所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成;
确定子单元,用于将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
优选的,还包括:
捕捉单元,用于捕捉所述开发人员按照预设语音语句所发出的语音;
第二确定单元,用于将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音。
一种动画构建装置,包括:
发送单元,用于向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;
呈现单元,用于向开发人员呈现预设动作序列语句,其中,所述预设动作序列语句由所述计算机根据预设动画脚本生成;
接收单元,用于接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列,所述预设动态元素模型的连贯姿势序列的生成过程具体为:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,以及将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,以及按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列;
处理单元,用于将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
优选的,还包括:
第一生成单元,用于将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;
第二生成单元,用于对所述预设动作序列进行文字描述,得到所述预设动作序列语句。
与现有技术相比,本申请的有益效果为:
在本申请中,通过Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件;以及,按照预设频率捕捉并记录开发人员按照预设动作序列执行动作时的每个预设身体部分的动作位置;以及,将各个动作捕捉时间点各自的各个预设身体部分的动作位置作为所述预设动作元素模型的相应的动态元素部件的动作位置,得到所述动态元素模型在各个动作捕捉时间点的姿势,所述动作捕捉时间点为上述按照预设频率捕捉开发人员的每个预设身体部分的动作位置的时刻;以及,按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,实现了预设动态元素模型的连贯姿势序列的自动生成。
由于Kinect设备可以自动生成预设动态元素模型的连贯姿势序列(即预设动态元素模型的动作部分),因而预设动态元素模型的连贯姿势序列不需要开发人员使用计算机技术逐帧绘制或手工逐帧绘制,开发人员只需要绘制静态背景,相比于预设动态元素模型的连贯姿势序列和静态背景均需要开发人员使用计算机技术逐帧绘制或手工逐帧绘制,减少了工作量,加快了构建速度,提高了工作效率。采用本申请提供的方法构建动画的成本主要是开发人员按照预设动作序列语句执行动作的人工成本、Kinect设备成本和Kinect设备中软件开发成本,由于Kinect设备为已有设备,价格相对较低,而且Kinect设备及Kinect设备中的软件可以长期使用,因此在长期开发动画时构建速度快,工作效率高的特点使得成本开销仍然得到了减少。
进一步的,由于通过Kinect设备捕捉开发人员的真实动作,将真实影像的动作位置作为预设动态元素模型的动作位置,相比于使用计算机技术绘制或手工绘制的动作,较为流畅逼真。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的动画构建方法的一种流程图;
图2是本申请提供的动画构建方法的一种子流程图;
图3是本申请提供的预设骨骼模型的一种示意图;
图4是本申请提供的动画构建方法的另一种流程图;
图5是本申请提供的动画构建装置的一种逻辑结构示意图;
图6是本申请提供的动画构建装置的另一种逻辑结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
在本实施例中,示出了本申请提供的动画构建方法,请参见图1,其示出了本申请提供的动画构建方法的一种流程图,可以包括以下步骤:
步骤S11:Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件。
所述预设动态元素模型为动画中可以运动的元素的模型,具体是指动画中预设动态元素的完整动画造型。
在本实施例中,可以运动的元素具体可以包括:动画中可运动的人物、动物或物体。如运动的元素具体为动画中可运动的人物、动物或物体时,预设动态元素模型即动画中可运动的人物、动物或物体的完整动画造型。以预设动态元素为人物为例,人物模型包括虚拟人物整体的细节,如体形、发型、肤色、五官和着装等。
预设动态元素模型是由计算机生成的,以动画脚本为依据。具体的生成方式可以包括:由动画绘图软件完成;或扫描真实人物、动物或物体的形象,并调节体形、发型、肤色、五官、着装等参数进行美化;或,来源于网络资源,例如在体感形象商店中进行购买(收费或免费)。
预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,需要符合导入Kinect设备的格式以及参数要求。
其中,Kinect是微软于2010年对XBOX 360体感周边外设发布的技术,它是一种3D体感摄影机,同时导入了即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能。
步骤S12:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像。
在本实施例中,Kinect设备通过摄像头和内置的骨骼追踪技术捕捉并记录开发人员按照预设动作序列语句执行动作时的影像。
其中,所述预设动作序列语句由计算机根据预设动画脚本生成,具体的生成过程为:将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;对所述预设动作序列进行文字描述,得到所述预设动作序列语句。例如,预设动画脚本中规定在“1分20秒-1分22秒进行人物XX挥手的动作或在5分30秒-5分45秒时间段内进行人物YY奔跑的动作,则计算机将预设动画脚本中的人物XX挥手的动作或人物YY奔跑的动作抽取出来,与相应的时间结合,得到相应的预设动作序列,然后对预设动作序列进行文字描述,得到“1分20秒-1分22秒:人物XX挥手”或“5分30秒-5分45秒:人物YY奔跑”的预设动作序列语句。
步骤S13:所述Kinect设备将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
所述Kinect设备将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,使得预设动态元素模型与开发人员在同一个动作捕捉时间点的姿势保持一致,实现了预设动态元素模型在某个时间点的姿势的构建。
所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻。
现举例对动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻进行说明,例如预设频率为24帧/秒即按照24帧/秒的频率捕捉动作,则每秒内有24个动作捕捉时间点。在以24帧/秒的频率捕捉动作时,Kinect设备每秒可以获得24个动作捕捉时间点对应的24个动作。
预设关键部位的个数是预先设定好的。
现举例对将任意一个动作捕捉时间点对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置进行说明。例如,预设动态元素模型包括七个动态元素部件,分别为头部件、脚部件、脚踝部件、膝部件、手部件、手腕部件和手肘部件,预设关键部位同样为七个,分别为头部位、脚部位、脚踝部位、膝部位、手部位、手腕部位、手肘部位,则将该动作捕捉时间点对应的影像中头部位的动作位置作为头部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中脚部位的动作位置作为脚部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中脚踝部位的动作位置作为脚踝部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中膝部位的动作位置作为膝部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中手部位的动作位置作为手部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中手腕部位的动作位置作为手腕部件在该动作捕捉时间点的动作位置;将该动作捕捉时间点对应的影像中手肘部位的动作位置作为手肘部件在该动作捕捉时间点的动作位置。
步骤S14:按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
计算机对所述初步动画进行后期处理具体可以为:配音配乐和时间轴同步等。
在本申请中,通过Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件;以及,按照预设频率捕捉并记录开发人员按照预设动作序列执行动作时的每个预设身体部分的动作位置;以及,将各个动作捕捉时间点各自的各个预设身体部分的动作位置作为所述预设动作元素模型的相应的动态元素部件的动作位置,得到所述动态元素模型在各个动作捕捉时间点的姿势,所述动作捕捉时间点为上述按照预设频率捕捉开发人员的每个预设身体部分的动作位置的时刻;以及,按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,实现了预设动态元素模型的连贯姿势序列的自动生成。
由于Kinect设备可以自动生成预设动态元素模型的连贯姿势序列(即预设动态元素模型的动作部分),因而预设动态元素模型的连贯姿势序列不需要开发人员使用计算机技术逐帧绘制或手工逐帧绘制,开发人员只需要绘制静态背景,相比于预设动态元素模型的连贯姿势序列和静态背景均需要开发人员使用计算机技术逐帧绘制或手工逐帧绘制,减少了工作量,加快了构建速度,提高了工作效率。采用本申请提供的方法构建动画的成本主要是开发人员按照预设动作序列语句执行动作的人工成本、Kinect设备成本和Kinect设备中软件开发成本,由于Kinect设备为已有设备,价格相对较低,而且Kinect设备及Kinect设备中的软件可以长期使用,因此在长期开发动画时构建速度快,工作效率高的特点使得成本开销仍然得到了减少。
进一步的,由于通过Kinect设备捕捉开发人员的真实动作,将真实影像的动作位置作为预设动态元素模型的动作位置,相比于使用计算机技术绘制或手工绘制的动作,较为流畅逼真。
在本实施例中,步骤S13即所述Kinect设备将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势的具体过程请参见图2,可以包括以下步骤:
步骤S21:将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图。
所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成。
在本实施例中,将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图的转换过程为已有技术,在此不再赘述。但是,预设骨骼模型是要针对需要构建的动画中预设动态元素模型而构建的。不同类型的预设动态元素模型一般对应不同的预设骨骼模型。目前,Kinect设备中内置的骨骼模型为人体模型,因此使用Kinect设备完成人物的动作构建比较简单。
在预设动态元素模型为人物模型时,预设骨骼模型即为针对人物的骨骼模型。针对人物的骨骼模型具体可以由20个关节点连接组成,分别为头关节点、右手关节点、右腕关节点、右肘关节点、右肩关键点、肩关节中心、左肩关节点、左肘关节点、左腕关节点、左手关节点、脊椎关节点、髋关节中心、右髋关节点、右膝关节点、右踝关节点、右脚关节点、左髋关节点、左膝关节点、左踝关节点和左脚关节点,如图3所示。
在预设动态元素模型为动物模型时,预设骨骼模型即为针对动物的骨骼模型。针对动物的骨骼模型具体包括的关节点可以以相应的动物来定义。
在预设动态元素模型为物体模型时,预设骨骼模型即为针对物体的骨骼模型。针对物体的骨骼模型具体包括的关节点可以以相应的物体来定义。
在本实施例中,可以在Kinect设备中同时内置多种预设骨骼模型即针对人物的骨骼模型、针对动物的骨骼模型和针对物体的骨骼模型。在对相应的动画形象(人物、动物或物体)的连贯姿势序列进行构建时,可以调用相应的骨骼模型。
步骤S22:将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
在实施例一中,在所述按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像的同时,还可以包括:
所述Kinect设备捕捉所述开发人员按照预设语音语句所发出的语音,并将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音。
Kinect设备将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音可以为计算机进行后期配音提供便利。
实施例二
请参见图4,其示出的是本申请提供的动画构建方法的另一种流程图,其中,本实施例是从计算机角度阐述动画构建方法的具体过程,可以包括以下步骤:
步骤S41:计算机向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件。
所述预设动态元素模型为动画中可以运动的元素的模型。
步骤S42:所述计算机向开发人员呈现预设动作序列语句。
其中,所述预设动作序列语句由所述计算机根据预设动画脚本生成。
所述预设动作序列语句的具体生成过程为:将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;对所述预设动作序列进行文字描述,得到所述预设动作序列语句。例如,预设动画脚本中规定在“1分20秒-1分22秒进行人物XX挥手的动作或在5分30秒-5分45秒时间段内进行人物YY奔跑的动作,则计算机将预设动画脚本中的人物XX挥手的动作或人物YY奔跑的动作抽取出来,与相应的时间结合,得到相应的预设动作序列,然后对预设动作序列进行文字描述,得到“1分20秒-1分22秒:人物XX挥手”或“5分30秒-5分45秒:人物YY奔跑”的预设动作序列语句。
步骤S43:所述计算机接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列。
所述预设动态元素模型的连贯姿势序列的生成过程可以参见实施例一中的步骤S12至步骤S14,在此不再赘述。
步骤S44:所述计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
计算机对所述初步动画进行后期处理具体为:配音配乐和时间轴同步等。
实施例三
与实施例一示出的动画构建方法相对应,本实施例提供了一种动画构建装置,请参见图5,动画构建装置包括:存储单元51、捕捉记录单元52、第一确定单元53和组合单元54。
存储单元51,用于接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型。
捕捉记录单元52,用于按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,所述预设动作序列语句由计算机根据预设动画脚本生成。
第一确定单元53,用于将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻。
组合单元54,用于按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
在本实施例总,第一确定单元53具体可以包括:转换子单元和确定子单元。其中:
转换子单元,用于将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图,所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成。
确定子单元,用于将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
在本实施例中,动画构建装置除了图5示出的具体结构还可以包括:捕捉单元和第二确定单元。
捕捉单元,用于捕捉所述开发人员按照预设语音语句所发出的语音。
第二确定单元,用于将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音。
在本实施例中,动画构建装置可以由Kinect设备实现。
实施例四
与实施例二示出的动画构建方法相对应,本实施例提供了一种动画构建装置,请参见图6,动画构建装置包括:发送单元61、呈现单元62、接收单元63和处理单元64。
发送单元61,用于向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型。
呈现单元62,用于向开发人员呈现预设动作序列语句,其中,所述预设动作序列语句由所述计算机根据预设动画脚本生成。
接收单元63,用于接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列,所述预设动态元素模型的连贯姿势序列的生成过程具体为:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,以及将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,以及按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列。
处理单元64,用于将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
在本实施例中,图6示出的动画构建装置还可以包括:第一生成单元和第二生成单元。
第一生成单元,用于将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列。
第二生成单元,用于对所述预设动作序列进行文字描述,得到所述预设动作序列语句。
在本实施例中,动画构建装置可以由计算机实现。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
以上对本申请所提供的一种动画构建方法及装置进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (8)

1.一种动画构建方法,其特征在于,包括:
Kinect设备接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;以及,
按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,并捕捉所述开发人员按照预设语音语句所发出的语音,并将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音,所述预设动作序列语句由计算机根据预设动画脚本生成;以及,
将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻;以及,
按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
2.根据权利要求1所述的方法,其特征在于,所述将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势的过程,包括:
将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图;
其中,所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成;
将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
3.一种动画构建方法,其特征在于,包括:
计算机向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;以及,
向开发人员呈现预设动作序列语句,其中,所述预设动作序列语句由所述计算机根据预设动画脚本生成;以及,
接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列,所述预设动态元素模型的连贯姿势序列的生成过程具体为:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,并捕捉所述开发人员按照预设语音语句所发出的语音,并将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音,以及将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,以及按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列;以及,
将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
4.根据权利要求3所述的方法,其特征在于,所述预设动作序列语句的生成过程,包括:
将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;
对所述预设动作序列进行文字描述,得到所述预设动作序列语句。
5.一种动画构建装置,其特征在于,包括:
存储单元,用于接收并存储计算机发送的预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;
捕捉记录单元,用于按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,所述预设动作序列语句由计算机根据预设动画脚本生成;
捕捉单元,用于捕捉所述开发人员按照预设语音语句所发出的语音;
第二确定单元,用于将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音;
第一确定单元,用于将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,所述预设关键部位的个数和所述动态元素部件的个数相同,所述动作捕捉时间点为所述按照预设频率捕捉开发人员按照预设动作序列语句执行动作时的影像的时刻;
组合单元,用于按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列,以使计算机将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
6.根据权利要求5所述的装置,其特征在于,所述第一确定单元包括:
转换子单元,用于将各个动作捕捉时间点各自对应的影像分别转换为符合预设骨骼模型的骨骼图,所述预设骨骼模型的各个预设关节分别与所述影像中的预设关键部位一一对应,所述骨骼图中各个关节的动作位置与所述影像中各个预设关键部位的动作位置一致,所述预设骨骼模型由预设个数的关节点连接组成;
确定子单元,用于将各个骨骼图各自的各个关节的动作位置分别作为相应的动态元素部件在各个动作捕捉时间点的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势。
7.一种动画构建装置,其特征在于,包括:
发送单元,用于向Kinect设备发送预设动态元素模型和将所述预设动态元素模型分解后得到的各个动态元素部件,所述预设动态元素模型为动画中可以运动的元素的模型;
呈现单元,用于向开发人员呈现预设动作序列语句,其中,所述预设动作序列语句由计算机根据预设动画脚本生成;
接收单元,用于接收所述Kinect设备发送的所述预设动态元素模型的连贯姿势序列,所述预设动态元素模型的连贯姿势序列的生成过程具体为:所述Kinect设备按照预设频率捕捉并记录开发人员按照预设动作序列语句执行动作时的影像,并捕捉所述开发人员按照预设语音语句所发出的语音,并将捕捉到的语音作为所述预设动态元素模型在相应动作捕捉时间点的语音,以及将各个动作捕捉时间点各自对应的影像中各个预设关键部位的动作位置分别作为相应的动态元素部件的动作位置,得到所述预设动态元素模型在各个动作捕捉时间点的姿势,以及按时间顺序将各个动作捕捉时间点的姿势组合形成所述预设动态元素模型的连贯姿势序列;
处理单元,用于将所述预设动态元素模型的连贯姿势序列与静态背景结合,形成初步动画,并对所述初步动画进行后期处理,完成动画构建。
8.根据权利要求7所述的装置,其特征在于,还包括:
第一生成单元,用于将所述预设动画脚本中的动作部分抽取出来,并将抽取出来的动作部分与相应的时间结合,得到预设动作序列;
第二生成单元,用于对所述预设动作序列进行文字描述,得到所述预设动作序列语句。
CN201510088508.6A 2015-02-26 2015-02-26 一种动画构建方法及装置 Active CN104616336B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510088508.6A CN104616336B (zh) 2015-02-26 2015-02-26 一种动画构建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510088508.6A CN104616336B (zh) 2015-02-26 2015-02-26 一种动画构建方法及装置

Publications (2)

Publication Number Publication Date
CN104616336A CN104616336A (zh) 2015-05-13
CN104616336B true CN104616336B (zh) 2018-05-01

Family

ID=53150769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510088508.6A Active CN104616336B (zh) 2015-02-26 2015-02-26 一种动画构建方法及装置

Country Status (1)

Country Link
CN (1) CN104616336B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027643B (zh) * 2015-06-26 2021-11-02 英特尔公司 用于可穿戴计算设备的基于微运动的输入姿势控制的方法、设备和装置
CN107481303B (zh) * 2017-08-07 2020-11-13 东方联合动画有限公司 一种实时动画生成方法及系统
CN111240777B (zh) * 2019-12-31 2023-09-12 Oppo广东移动通信有限公司 动态壁纸生成方法、装置、存储介质及电子设备
CN112509101A (zh) * 2020-12-21 2021-03-16 深圳市前海手绘科技文化有限公司 一种动画视频中多个动态人物素材实现动作过渡的方法
CN113741689B (zh) * 2021-08-20 2024-01-19 苏州创捷传媒展览股份有限公司 一种基于Kinect人体轮廓识别交互的展示系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN103258078A (zh) * 2013-04-02 2013-08-21 上海交通大学 融合Kinect设备和Delmia环境的人机交互虚拟装配系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140023214A1 (en) * 2012-07-17 2014-01-23 Starkey Laboratories, Inc. Method and apparatus for an input device for hearing aid modification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN103258078A (zh) * 2013-04-02 2013-08-21 上海交通大学 融合Kinect设备和Delmia环境的人机交互虚拟装配系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Kinect交互技术在工业设计中的开发研究;罗凯;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20140615(第6期);第18-19页,第28-41页、图3-2 *
基于Kinect的实时人体动画合成及重定向技术研究;马庆;《中国优秀硕士学位论文全文数据库 信息科技辑》;20130615(第6期);第47-55页、图5-2,5-4至5-8 *
基于Kinect的虚拟人物动作仿真研究;尚华强;《中国优秀硕士学位论文全文数据库 信息科技辑》;20131215(第S2期);第44-59页 *

Also Published As

Publication number Publication date
CN104616336A (zh) 2015-05-13

Similar Documents

Publication Publication Date Title
CN104616336B (zh) 一种动画构建方法及装置
CN111833418B (zh) 动画交互方法、装置、设备以及存储介质
CN107274464A (zh) 一种实时交互3d动画的方法、装置和系统
CN107274466A (zh) 一种实时全身动作捕捉的方法、装置和系统
CN109920283A (zh) 一种仿真沙盘系统
CN107185245B (zh) 一种基于slam技术的虚实同步显示方法及系统
Ping et al. Computer facial animation: A review
CN111445561B (zh) 虚拟对象的处理方法、装置、设备及存储介质
WO2018006369A1 (zh) 一种同步语音及虚拟动作的方法、系统及机器人
CN204406327U (zh) 基于三维体感摄影机的肢体康复模拟仿真训练系统
CN108668050A (zh) 基于虚拟现实的视频拍摄方法和装置
WO2022051460A1 (en) 3d asset generation from 2d images
Hartholt et al. Ubiquitous virtual humans: A multi-platform framework for embodied ai agents in xr
CN110503707A (zh) 一种真人动作捕捉实时动画系统及其方法
CN109120990A (zh) 直播方法、装置和存储介质
Gachery et al. Designing MPEG-4 facial animation tables for web applications
WO2024012007A1 (zh) 一种动画数据生成方法、装置及相关产品
Pazour et al. Virtual reality conferencing
US20230120883A1 (en) Inferred skeletal structure for practical 3d assets
CN114900738A (zh) 一种观影互动方法、装置及计算机可读存储介质
CN115223224A (zh) 数字人说话视频生成方法、系统、终端设备及介质
Thalmann The virtual human as a multimodal interface
Hou et al. Real-time markerless facial motion capture of personalized 3D real human research
Van Wyk Virtual human modelling and animation for real-time sign language visualisation
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210608

Address after: 215000 No.20 yaogengshang, Fangnian Village (17), Huangdai Town, Xiangcheng District, Suzhou City, Jiangsu Province

Patentee after: Chen Long

Address before: 215123 No. 199 benevolence Road, Suzhou Industrial Park, Jiangsu, China

Patentee before: Suzhou University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210621

Address after: Room 51-56, room 817-818, block a, building 1, Yangchenghu international science and Technology Pioneer Park, 116 Chengyang Road, Chengyang street, Xiangcheng economic and Technological Development Zone, Suzhou City, Jiangsu Province, 215000 (cluster registration)

Patentee after: Suzhou Yisi Network Technology Co.,Ltd.

Address before: 215000 No.20 yaogengshang, Fangnian Village (17), Huangdai Town, Xiangcheng District, Suzhou City, Jiangsu Province

Patentee before: Chen Long

TR01 Transfer of patent right