CN107274466A - 一种实时全身动作捕捉的方法、装置和系统 - Google Patents
一种实时全身动作捕捉的方法、装置和系统 Download PDFInfo
- Publication number
- CN107274466A CN107274466A CN201710400134.6A CN201710400134A CN107274466A CN 107274466 A CN107274466 A CN 107274466A CN 201710400134 A CN201710400134 A CN 201710400134A CN 107274466 A CN107274466 A CN 107274466A
- Authority
- CN
- China
- Prior art keywords
- real
- actor model
- actor
- role
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种全身动作捕捉的方法、装置和系统。方法包括以下步骤:A、创建虚拟的3D角色,并导入至图形引擎,生成角色模型;B、通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;C、将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制。装置包括对应于所述方法各个步骤的模块。系统包括:捕捉装置,用于实时捕捉真实演员的肢体动作和/或面部表情;图形引擎,用于生成和处理3D角色模型,运算3D角色模型的物理动力学动作,转换动画视频输出至视频传播软件;以及应用程序,用于执行上述方法。
Description
技术领域
本发明涉及动画合成技术领域,尤其涉及一种实时全身动作捕捉的方法、装置和系统。
背景技术
近年来,显卡的性能得到了极大的发展,使用计算机显卡进行实时渲染成为了可能,根据实时渲染的实时交互动画,有着所见即所得的好处,而且观众将不再使单方面的观看渲染好的动画,而是可以实时和动画进行交互。实时动画在教育、游戏、影视、商业领域有着新的前景和需求。
发明内容
本发明通过提供一种实时全身动作捕捉的方法、装置和系统,以弥补了上述需求方面的空白。
本发明采用的技术方案一方面为一种实时全身动作捕捉的方法,包括以下步骤:A、创建虚拟的3D角色,并导入至图形引擎,生成角色模型;B、通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;C、将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制;其中,所述动作信息包括肢体动作和/或面部表情。
进一步,其中所述步骤A包括:根据原画资料,为所述虚拟的3D角色配置人设特性数据,人设特性数据包含职业信息、性格信息或人物背景特性,并且为所述角色模型配置贴图、材质和3D动画骨骼。
进一步,其中所述步骤A还包括:将所述角色模型及其匹配的3D动画骨骼导入至所述图形引擎中运算骨骼动画。
进一步,其中所述步骤B包括:捕捉所述演员的肢体动作和/或面部表情,转换为与所述3D角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作和/或面部表情与所述角色模型动画的肢体动作和/或面部表情能够实时同步。
进一步,其中所述步骤B还包括:提取所述演员的骨骼模型,然后导入至所述图形引擎中,以匹配所述角色模型的3D动画骨骼;根据该骨骼模型来实时捕捉和转换演员的肢体动作数据,将实时捕捉的肢体动作数据生成动作控制指令,通过所述图形引擎生成相应的角色模型的动作姿态;在角色模型的动作姿态之间运算生成肢体动画。
进一步,其中所述步骤B还包括:提取所述演员的面部骨骼,然后导入至所述图形引擎中,以匹配所述角色模型的面部骨骼蒙皮;根据该面部骨骼来实时捕捉和转换演员的面部动作数据,将实时捕捉的面部动作数据生成面部表情控制指令,通过所述图形引擎生成相应的角色模型的面部表情形状;在角色模型相应面部位置的面部表情形状之间运算生成面部表情动画过渡。
进一步,其中所述步骤C包括:加入音乐,允许通过客户端后台的控制面板进行控制。
本发明技术方案的第二方面为一种实时全身动作捕捉的装置,包括:第一模块,用于创建虚拟的3D角色,并导入至图形引擎,生成角色模型;第二模块,用于通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;第三模块,将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制;其中,所述动作信息包括肢体动作和/或面部表情。
进一步,所述第一模块还包括捕捉模块,用于:捕捉所述演员的肢体动作和/或面部表情,转换为与所述3D角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作和/或面部表情与所述角色模型动画的肢体动作和/或面部表情能够实时同步。
本发明技术方案的第三方面为一种实时全身动作捕捉的系统,包括:捕捉装置,用于实时捕捉真实演员的肢体动作和/或面部表情;图形引擎,用于生成和处理3D角色模型,运算3D角色模型的物理动力学动作,转换动画视频输出至视频传播软件;以及应用程序。该应用程序用于执行以下步骤:创建虚拟的3D角色,并导入至图形引擎,生成角色模型;实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制。
本发明的有益效果为:1)解决了以前3D动画只是纯CG动画,无法实时交互的问题;2)解决了以前3D动画手调动作很假,很做作的问题;3)解决了以前3D动画画面很粗糙的问题;4)解决了以前3D动画多为预渲染,制作成本高,周期长的问题;5)解决了以前3D动画中,无法实现真实的物理动力学的问题;6)解决了以前3D动画技术中,场景简单单调的问题;7)解决了以前3D动画技术中,无法对灯光和镜头进行实时控制的问题;8)解决了以前的3D动画,面部表情僵硬的问题。
附图说明
图1为根据本发明的实施例的实时全身动作捕捉的方法的流程图;
图2为根据本发明的实施例中的角色模型制作过程的示意图;
图3为根据本发明的实施例中的角色骨骼制作过程的示意图;
图4为根据本发明的实施例中的角色动力学模型配置过程的示意图;
图5为根据本发明的实施例中的制作实时交互动画过程的示意图;
图6为根据本发明的实施例中的实时全身动作捕捉的系统的框图;
图7为根据本发明的具体实施例中的角色模型制作过程的示意图;
图8为根据本发明的具体实施例中的角色动力学模型配置过程的示意图;
图9为根据本发明的一个具体实施例中的实时捕捉真实的演员全身动作信息的示意图;
图10为根据本发明的另一个具体实施例中的实时捕捉真实的演员全身动作信息然后关联和控制所述角色模型的示意图;
图11为根据本发明的具体实施例中的动画画面以及特效生成的示意图。
具体实施方式
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。
在下文中,还将参照附图更详细地解释本发明。在所有附图中,相同的附图标记表示相同的特征。
参照图1所示的实时全身动作捕捉的方法的流程图。该方法包括以下主要步骤:A、创建虚拟的3D角色,并导入至图形引擎,生成角色模型;B、通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;C、将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制;其中,所述动作信息包括肢体动作和/或面部表情。
如图2所示,在主步骤A中包含角色模型制作过程:
S201,根据原画资料制作3D角色,为所述虚拟的3D角色配置人设特性数据。人设特性数据包含职业信息、性格信息或人物背景特性。
S202,进行角色的初步3D建模。根据实际情况,可以在步骤S204中继续进一步修改,以符合3D角色人设要求,或者满足新修改的要求。
S203,为所述角色模型配置贴图、材质。
3D角色的身体和头发,衣服,使用了物理动力学方面的技术,格按照物理规律移动,体现重力、引力、反作用力、加速度等物理特性。
如图3所示,在主步骤A中包含角色骨骼制作过程:
S301、制作角色的3D动画骨骼;
S302、为所述动画骨骼模型绑定和制作权重。
这里的骨骼动画采用的动作捕捉技术为了能形象的描述真实人体的运动。所有的骨骼模型存储在动作模块数据库中。
如图4所示,在主步骤A中还包含角色动力学模型配置过程:
S401、分析动力学模型物体,比如3D角色模型的身体、头发和衣服。这些物体可以使用物理动力学方面的技术,按照物理规律移动。
S402、为所述模型配置动力学参数和动力学应用。
S403、将角色模型及其匹配的3D动画骨骼导入至图形引擎中,引导所设的动力学模型物体进行预演动作。根据实际所需,还可以在步骤S404中调整动力学配置和修改动力学模型物体。优选地,所述图形引擎可以采用先进的次世代游戏3D引擎,与其它的3D图形引擎不同,这里采用的3D引擎不需要第三方软件的支持就能处理物理效果、声音及动画。
进一步,其中所述步骤B包括:捕捉所述演员的肢体动作和/或面部表情,转换为与所述3D角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作和/或面部表情与所述角色模型动画的肢体动作和/或面部表情能够实时同步。为了让捕捉到的动作数据来驱动三维人体模型,需要将模型与捕捉到的动作数据结合,实现与模型的匹配,从而驱动模型的运动。最后是模型与捕捉数据匹配,以及让模型能跟着捕捉下来的动作数据动起来。
进一步,在主步骤C中包含灯光和后期制作过程:为场景制作灯光或照明效果;对灯光或照明效果进行构建计算,根据角色模型的位置和环境光进行匹配。
如图5所示,进行实时交互动画的过程如下:
S501、设置一名演员,为其调整动捕设备,以捕捉其肢体动作、面部表情和声音。演员可以根据事先策划的台词和剧本,进行动作测试和表情测试。这里,需要对演员的声音进行处理,转换为符合所述3D角色人设的音色。比如,可以将录制演员的声音音调修改。还可以预先选用声优预先录制该角色的基本发音,然后将演员的声音识别出文字,然后再用预先录制该角色的基本发音组合出角色的发音。
S502、与图形引擎进行联调。将捕捉所述演员的肢体动作、面部表情和声音转换为与所述3D角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作、面部表情和声音与所述角色模型动画的肢体动作、面部表情和声音能够实时同步。如果遇到问题,则返回步骤S501调整动捕设备。
S503、导入场景和灯光文件。用于在虚拟现实的物体附近展现光影效果。优选地,可以预先配置场景参数和灯光参数,然后实时地计算摄影机影像的位置及角度,并配置到所述虚拟的3D角色中,以进行交互。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作-根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
进一步,该方法可以在可操作地连接至合适的断层摄影数据扫描装置的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
具体地参照图6-10,本发明通过一种实时全身动作捕捉的系统,以实施上述方法。该系统包括应用程序60、图形引擎61、模型创建平台62、动捕装置63、面部表情捕捉器64、摄像设备65、灯光系统66和特效生成模块67。动捕装置63用于实时捕捉真实演员的肢体动作。面部表情捕捉器64用于捕捉真实演员的面部表情。图形引擎61用于生成和处理3D角色模型,运算3D角色模型的物理动力学动作,转换动画视频输出至视频传播软件。特效生成模块67,可以整合用于协调场景,增加特效。应用程序60,用于:通过模型创建平台62创建虚拟的3D角色,并导入至图形引擎61,生成角色模型;通过动捕装置63、面部表情捕捉器64和录音设备实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;以及将所述角色模型合成至动画场景,然后实时与直播平台对接,生成直播画面。
下面通过图7-11进一步描述本发明的优选实施例。
根据本发明的系统首先提供模型创建平台,使用户可以依照原画和人设绘制用于动画合成的虚拟3D角色1,如图7左边所示。生成角色模型时需要处理各种肢体子模型、头发、衣物,然后配色、贴图和配置材质。接着对3D角色模型的细节进行调整,使其尽可能达到原设中的神韵。然后制作该3D角色1对应的虚拟角色骨骼2,绑定到3D模型上,并调整权重,使其有尽可能真实的人类的肌肉感觉。这和骨骼动画的原理类似,由于骨骼系统与模型是相互独立的,为了让骨骼能驱动模型产生合理的变形运动。把模型与骨骼进行关联,发生关系叫绑定。骨骼以蒙皮控制器为中介,来控制模型的各个面。每个关节对模型的影响范围通过权重来控制和调节。如果想要改变每个关节的影响模型表面的范围,那么可以通过多次改变权重来实现。蒙皮简单地说就是:把模型上的点,匹配到骨骼上,然后用骨骼的运动带动模型运动。优选地,同样还可以采用骨骼蒙皮的方式来制作3D角色的面部表情10,这种方法更灵活,可以轻松实现多种表情。首先为面部模型创建骨骼,例如可以对眉毛、眼皮、脸颊、鼻子、嘴唇、下颚分别创建好骨骼。一侧骨骼创建好后,镜像给另一侧,需要注意的是要有一根主骨骼,这样在刷权重时更方便一些。第二步,依次选择骨骼,然后加选模型,进行蒙皮。然后对骨骼做好动画,以便完成各种表情。
此外,还可以设置3D角色的身体和头发、衣服的物理运动参数。如图8所示,为3D角色1的头发11、领带12、裙13配置摆动参数,例如在风吹的环境下,这些物体可以按照物理运动规律摆动。
然后,将上述动画角色的3D模型、骨骼以及相应的配置参数导入图形引擎。
如图9所示,使一名真实的演员戴上面部表情捕捉器64,然后穿传动捕装置63(比如是Mocap动捕服装)捕捉演员的肢体运动。该运动捕捉技术涉及尺寸测量、物理空间里物体的定位及方位测定等方面可以由计算机直接理解处理的数据。在运动物体的关键部位设置跟踪器,由Motion capture系统捕捉跟踪器位置,再经过计算机处理后得到三维空间坐标的数据。当数据被计算机识别后,可以应用在动画。
这里可以采用现有的面部表情实时动捕技术(如业内的Face Moca、Kinect等)来实施。这里采用的真实面部表情实时动捕技术,无需任何标记点或油漆标志进行面部标定;可以跟踪和分析嘴唇、眉毛、眼睛和眼珠等肌肉运动并生成表情动画,虚拟角色与真实演员进行实时表情联动。
动捕装置63和面部表情捕捉器64采集的数据传输到图形引擎61,从而关联控制动画角色的3D模型。如图9中,演员右手摆出“剪刀手”动作和表演卖萌表情后,图形引擎可以运算出面部特征和肢体骨骼特征,然后匹配到动画角色的3D模型,控制该3D模型做出相应的动作。图11中的卖萌表情可以触发“闪光”特效。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或者惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。
Claims (10)
1.一种实时全身动作捕捉的方法,其特征在于,包括以下步骤:
A、创建虚拟的3D角色,并导入至图形引擎,生成角色模型;
B、通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;
C、将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制;
其中,所述动作信息包括肢体动作和/或面部表情。
2.根据权利要求1所述的实时全身动作捕捉的方法,其中所述步骤A包括:
根据原画资料,为所述虚拟的3D角色配置人设特性数据,人设特性数据包含职业信息、性格信息或人物背景特性,并且为所述角色模型配置贴图、材质和角色动画骨骼。
3.根据权利要求2所述的实时全身动作捕捉的方法,其中所述步骤A还包括:
将所述角色模型及其匹配的角色动画骨骼导入至所述图形引擎中运算骨骼动画。
4.根据权利要求1所述的实时全身动作捕捉的方法,其中所述步骤B包括:
捕捉所述演员的肢体动作和/或面部表情,转换为与所述角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作和/或面部表情与所述角色模型动画的肢体动作和/或面部表情能够实时同步。
5.根据权利要求4所述的实时全身动作捕捉的方法,其中所述步骤B还包括:
提取所述演员的骨骼模型,然后导入至所述图形引擎中,以匹配所述角色模型的角色动画骨骼;
根据该骨骼模型来实时捕捉和转换演员的肢体动作数据,将实时捕捉的肢体动作数据生成动作控制指令,通过所述图形引擎生成相应的角色模型的动作姿态;
在角色模型的动作姿态之间运算生成肢体动画。
6.根据权利要求4所述的实时全身动作捕捉的方法,其中所述步骤B还包括:
提取所述演员的面部骨骼,然后导入至所述图形引擎中,以匹配所述角色模型的面部骨骼蒙皮;
根据该面部骨骼来实时捕捉和转换演员的面部动作数据,将实时捕捉的面部动作数据生成面部表情控制指令,通过所述图形引擎生成相应的角色模型的面部表情形状;
在角色模型相应面部位置的面部表情形状之间运算生成面部表情动画过渡。
7.根据权利要求1所述的实时全身动作捕捉的方法,其中所述步骤C包括:
加入音乐,允许通过客户端后台的控制面板进行控制。
8.一种实时全身动作捕捉的装置,其特征在于,包括:
第一模块,用于创建虚拟的3D角色,并导入至图形引擎,得到角色模型;
第二模块,用于通过视频和/或穿戴设备来实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;
第三模块,将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制;
其中,所述动作信息包括肢体动作和/或面部表情。
9.根据权利要求8所述的实时全身动作捕捉的装置,所述第一模块还包括捕捉模块,用于:
捕捉所述演员的肢体动作和/或面部表情,转换为与所述3D角色的人设特性关联的肢体动作数据、面部动作数据和角色混音数据,然后关联至图形引擎中的相应的角色模型,并且配置所述演员的肢体动作和/或面部表情与所述角色模型动画的肢体动作和/或面部表情能够实时同步。
10.一种实时全身动作捕捉的系统,其特征在于,包括:
捕捉装置,用于实时捕捉真实演员的肢体动作和/或面部表情;
图形引擎,用于生成和处理3D角色模型,运算3D角色模型的物理动力学动作,转换动画视频输出至视频传播软件;以及
应用程序,该应用程序用于执行以下步骤:
创建虚拟的3D角色,并导入至图形引擎,得到角色模型;
实时捕捉真实的演员动作信息,然后关联和控制所述角色模型;
将所述角色模型合成至动画场景,根据该动画场景的环境参数为角色模型配置物理动力学参数,然后通过客户端后台的控制面板进行动画场景控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710400134.6A CN107274466A (zh) | 2017-05-31 | 2017-05-31 | 一种实时全身动作捕捉的方法、装置和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710400134.6A CN107274466A (zh) | 2017-05-31 | 2017-05-31 | 一种实时全身动作捕捉的方法、装置和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107274466A true CN107274466A (zh) | 2017-10-20 |
Family
ID=60065698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710400134.6A Pending CN107274466A (zh) | 2017-05-31 | 2017-05-31 | 一种实时全身动作捕捉的方法、装置和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107274466A (zh) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107197385A (zh) * | 2017-05-31 | 2017-09-22 | 珠海金山网络游戏科技有限公司 | 一种实时虚拟偶像直播方法及系统 |
CN108108026A (zh) * | 2018-01-18 | 2018-06-01 | 珠海金山网络游戏科技有限公司 | 一种vr虚拟现实动作捕捉系统和动作捕捉方法 |
CN108198234A (zh) * | 2018-01-12 | 2018-06-22 | 北京蜜枝科技有限公司 | 可实时互动的虚拟角色生成系统及方法 |
CN108288300A (zh) * | 2018-01-12 | 2018-07-17 | 北京蜜枝科技有限公司 | 人体动作捕捉与骨骼数据映射系统及其方法 |
CN108416255A (zh) * | 2018-01-18 | 2018-08-17 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108564643A (zh) * | 2018-03-16 | 2018-09-21 | 中国科学院自动化研究所 | 基于ue引擎的表演捕捉系统 |
CN108961368A (zh) * | 2018-06-21 | 2018-12-07 | 珠海金山网络游戏科技有限公司 | 三维动画环境中实时直播综艺节目的方法和系统 |
CN108961376A (zh) * | 2018-06-21 | 2018-12-07 | 珠海金山网络游戏科技有限公司 | 虚拟偶像直播中实时绘制三维场景的方法及系统 |
CN108986189A (zh) * | 2018-06-21 | 2018-12-11 | 珠海金山网络游戏科技有限公司 | 基于三维动画中实时多人动作捕捉并直播的方法和系统 |
CN109360257A (zh) * | 2018-08-24 | 2019-02-19 | 广州云图动漫设计股份有限公司 | 一种能够进行实物类比的三维动画制作方法 |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN109740476A (zh) * | 2018-12-25 | 2019-05-10 | 北京琳云信息科技有限责任公司 | 即时通讯方法、装置和服务器 |
CN109753151A (zh) * | 2018-12-19 | 2019-05-14 | 武汉西山艺创文化有限公司 | 基于kincet和面部摄像头的动作捕捉方法和系统 |
CN109841196A (zh) * | 2018-12-24 | 2019-06-04 | 武汉西山艺创文化有限公司 | 一种基于透明液晶显示屏的虚拟偶像演播系统 |
CN109859327A (zh) * | 2019-02-20 | 2019-06-07 | 中山市嘉游动漫科技有限公司 | 一种结合虚拟与现实的动画场景构建方法及装置 |
CN110379259A (zh) * | 2019-08-07 | 2019-10-25 | 泉州师范学院 | 基于动作捕捉的演员培训方法 |
CN110503707A (zh) * | 2019-07-31 | 2019-11-26 | 北京毛毛虫森林文化科技有限公司 | 一种真人动作捕捉实时动画系统及其方法 |
CN110570498A (zh) * | 2019-08-30 | 2019-12-13 | 常熟理工学院 | 一种影视动画轨迹跟踪捕捉系统 |
WO2020034738A1 (zh) * | 2018-08-16 | 2020-02-20 | Oppo广东移动通信有限公司 | 三维模型的处理方法、装置、电子设备及可读存储介质 |
CN111009022A (zh) * | 2019-12-27 | 2020-04-14 | 珠海金山网络游戏科技有限公司 | 一种模型动画生成的方法和装置 |
CN111147873A (zh) * | 2019-12-19 | 2020-05-12 | 武汉西山艺创文化有限公司 | 基于5g通信的虚拟形象直播方法及系统 |
CN111179389A (zh) * | 2019-12-26 | 2020-05-19 | 武汉西山艺创文化有限公司 | 三维即时演算动画制作装置及方法 |
CN111182319A (zh) * | 2019-12-26 | 2020-05-19 | 武汉西山艺创文化有限公司 | 基于5g通讯的无线三维虚拟偶像直播装置及方法 |
WO2020176045A1 (en) * | 2019-02-27 | 2020-09-03 | Celenk Ulas | Interactive artificial intelligence controlled education system. |
CN111744200A (zh) * | 2019-03-27 | 2020-10-09 | 电子技术公司 | 由图像或视频数据生成虚拟角色 |
CN111968207A (zh) * | 2020-09-25 | 2020-11-20 | 魔珐(上海)信息科技有限公司 | 动画生成方法、装置、系统及存储介质 |
CN111970535A (zh) * | 2020-09-25 | 2020-11-20 | 魔珐(上海)信息科技有限公司 | 虚拟直播方法、装置、系统及存储介质 |
CN112215930A (zh) * | 2020-10-19 | 2021-01-12 | 珠海金山网络游戏科技有限公司 | 一种数据处理方法与装置 |
CN113393561A (zh) * | 2021-05-26 | 2021-09-14 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
CN113473159A (zh) * | 2020-03-11 | 2021-10-01 | 广州虎牙科技有限公司 | 数字人直播方法、装置、直播管理设备及可读存储介质 |
WO2023236656A1 (zh) * | 2022-06-07 | 2023-12-14 | 腾讯科技(深圳)有限公司 | 互动画面的渲染方法、装置、设备、存储介质及程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104658038A (zh) * | 2015-03-12 | 2015-05-27 | 南京梦宇三维技术有限公司 | 基于动作捕捉的三维数字内容智能制作方法及制作系统 |
CN104715500A (zh) * | 2015-03-26 | 2015-06-17 | 金陵科技学院 | 一种基于三维动画设计的3d动画制作开发系统 |
WO2015162158A1 (en) * | 2014-04-22 | 2015-10-29 | Université Libre de Bruxelles | Human motion tracking |
CN105225262A (zh) * | 2015-10-23 | 2016-01-06 | 深圳华侨城文化旅游科技股份有限公司 | 一种动态捕捉3d数据处理方法及其3d模型 |
CN105354872A (zh) * | 2015-11-04 | 2016-02-24 | 深圳墨麟科技股份有限公司 | 一种基于3d网页游戏的渲染引擎、实现方法及制作工具 |
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
-
2017
- 2017-05-31 CN CN201710400134.6A patent/CN107274466A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015162158A1 (en) * | 2014-04-22 | 2015-10-29 | Université Libre de Bruxelles | Human motion tracking |
CN104658038A (zh) * | 2015-03-12 | 2015-05-27 | 南京梦宇三维技术有限公司 | 基于动作捕捉的三维数字内容智能制作方法及制作系统 |
CN104715500A (zh) * | 2015-03-26 | 2015-06-17 | 金陵科技学院 | 一种基于三维动画设计的3d动画制作开发系统 |
CN105225262A (zh) * | 2015-10-23 | 2016-01-06 | 深圳华侨城文化旅游科技股份有限公司 | 一种动态捕捉3d数据处理方法及其3d模型 |
CN105354872A (zh) * | 2015-11-04 | 2016-02-24 | 深圳墨麟科技股份有限公司 | 一种基于3d网页游戏的渲染引擎、实现方法及制作工具 |
CN105654537A (zh) * | 2015-12-30 | 2016-06-08 | 中国科学院自动化研究所 | 一种实现与虚拟角色实时互动的表情克隆方法及装置 |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107197385A (zh) * | 2017-05-31 | 2017-09-22 | 珠海金山网络游戏科技有限公司 | 一种实时虚拟偶像直播方法及系统 |
CN108198234B (zh) * | 2018-01-12 | 2021-06-25 | 北京蜜枝科技有限公司 | 可实时互动的虚拟角色生成系统及方法 |
CN108198234A (zh) * | 2018-01-12 | 2018-06-22 | 北京蜜枝科技有限公司 | 可实时互动的虚拟角色生成系统及方法 |
CN108288300A (zh) * | 2018-01-12 | 2018-07-17 | 北京蜜枝科技有限公司 | 人体动作捕捉与骨骼数据映射系统及其方法 |
CN108108026A (zh) * | 2018-01-18 | 2018-06-01 | 珠海金山网络游戏科技有限公司 | 一种vr虚拟现实动作捕捉系统和动作捕捉方法 |
CN108416255A (zh) * | 2018-01-18 | 2018-08-17 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108416255B (zh) * | 2018-01-18 | 2021-02-02 | 珠海金山网络游戏科技有限公司 | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 |
CN108564643A (zh) * | 2018-03-16 | 2018-09-21 | 中国科学院自动化研究所 | 基于ue引擎的表演捕捉系统 |
CN108986189B (zh) * | 2018-06-21 | 2023-12-19 | 武汉金山世游科技有限公司 | 基于三维动画中实时多人动作捕捉并直播的方法和系统 |
CN108961368A (zh) * | 2018-06-21 | 2018-12-07 | 珠海金山网络游戏科技有限公司 | 三维动画环境中实时直播综艺节目的方法和系统 |
CN108961376A (zh) * | 2018-06-21 | 2018-12-07 | 珠海金山网络游戏科技有限公司 | 虚拟偶像直播中实时绘制三维场景的方法及系统 |
CN108986189A (zh) * | 2018-06-21 | 2018-12-11 | 珠海金山网络游戏科技有限公司 | 基于三维动画中实时多人动作捕捉并直播的方法和系统 |
WO2020034738A1 (zh) * | 2018-08-16 | 2020-02-20 | Oppo广东移动通信有限公司 | 三维模型的处理方法、装置、电子设备及可读存储介质 |
CN109360257B (zh) * | 2018-08-24 | 2022-07-15 | 广州云图动漫设计有限公司 | 一种能够进行实物类比的三维动画制作方法 |
CN109360257A (zh) * | 2018-08-24 | 2019-02-19 | 广州云图动漫设计股份有限公司 | 一种能够进行实物类比的三维动画制作方法 |
CN109407826A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 球类运动模拟方法、装置、存储介质及电子设备 |
CN109753151A (zh) * | 2018-12-19 | 2019-05-14 | 武汉西山艺创文化有限公司 | 基于kincet和面部摄像头的动作捕捉方法和系统 |
CN109753151B (zh) * | 2018-12-19 | 2022-05-24 | 武汉西山艺创文化有限公司 | 基于kincet和面部摄像头的动作捕捉方法和系统 |
CN109841196A (zh) * | 2018-12-24 | 2019-06-04 | 武汉西山艺创文化有限公司 | 一种基于透明液晶显示屏的虚拟偶像演播系统 |
CN109841196B (zh) * | 2018-12-24 | 2021-09-28 | 武汉西山艺创文化有限公司 | 一种基于透明液晶显示屏的虚拟偶像演播系统 |
CN109740476A (zh) * | 2018-12-25 | 2019-05-10 | 北京琳云信息科技有限责任公司 | 即时通讯方法、装置和服务器 |
CN109859327A (zh) * | 2019-02-20 | 2019-06-07 | 中山市嘉游动漫科技有限公司 | 一种结合虚拟与现实的动画场景构建方法及装置 |
WO2020176045A1 (en) * | 2019-02-27 | 2020-09-03 | Celenk Ulas | Interactive artificial intelligence controlled education system. |
CN111744200A (zh) * | 2019-03-27 | 2020-10-09 | 电子技术公司 | 由图像或视频数据生成虚拟角色 |
CN110503707A (zh) * | 2019-07-31 | 2019-11-26 | 北京毛毛虫森林文化科技有限公司 | 一种真人动作捕捉实时动画系统及其方法 |
CN110379259B (zh) * | 2019-08-07 | 2024-01-26 | 泉州师范学院 | 基于动作捕捉的演员培训方法 |
CN110379259A (zh) * | 2019-08-07 | 2019-10-25 | 泉州师范学院 | 基于动作捕捉的演员培训方法 |
CN110570498A (zh) * | 2019-08-30 | 2019-12-13 | 常熟理工学院 | 一种影视动画轨迹跟踪捕捉系统 |
CN111147873A (zh) * | 2019-12-19 | 2020-05-12 | 武汉西山艺创文化有限公司 | 基于5g通信的虚拟形象直播方法及系统 |
CN111182319A (zh) * | 2019-12-26 | 2020-05-19 | 武汉西山艺创文化有限公司 | 基于5g通讯的无线三维虚拟偶像直播装置及方法 |
CN111179389B (zh) * | 2019-12-26 | 2024-04-19 | 武汉西山艺创文化有限公司 | 三维即时演算动画制作装置及方法 |
CN111179389A (zh) * | 2019-12-26 | 2020-05-19 | 武汉西山艺创文化有限公司 | 三维即时演算动画制作装置及方法 |
CN111009022B (zh) * | 2019-12-27 | 2023-06-30 | 珠海金山数字网络科技有限公司 | 一种模型动画生成的方法和装置 |
CN111009022A (zh) * | 2019-12-27 | 2020-04-14 | 珠海金山网络游戏科技有限公司 | 一种模型动画生成的方法和装置 |
CN113473159B (zh) * | 2020-03-11 | 2023-08-18 | 广州虎牙科技有限公司 | 数字人直播方法、装置、直播管理设备及可读存储介质 |
CN113473159A (zh) * | 2020-03-11 | 2021-10-01 | 广州虎牙科技有限公司 | 数字人直播方法、装置、直播管理设备及可读存储介质 |
CN111970535A (zh) * | 2020-09-25 | 2020-11-20 | 魔珐(上海)信息科技有限公司 | 虚拟直播方法、装置、系统及存储介质 |
CN111968207A (zh) * | 2020-09-25 | 2020-11-20 | 魔珐(上海)信息科技有限公司 | 动画生成方法、装置、系统及存储介质 |
CN111968207B (zh) * | 2020-09-25 | 2021-10-29 | 魔珐(上海)信息科技有限公司 | 动画生成方法、装置、系统及存储介质 |
CN111970535B (zh) * | 2020-09-25 | 2021-08-31 | 魔珐(上海)信息科技有限公司 | 虚拟直播方法、装置、系统及存储介质 |
US11785267B1 (en) | 2020-09-25 | 2023-10-10 | Mofa (Shanghai) Information Technology Co., Ltd. | Virtual livestreaming method, apparatus, system, and storage medium |
US11893670B2 (en) | 2020-09-25 | 2024-02-06 | Mofa (Shanghai) Information Technology Co., Ltd. | Animation generation method, apparatus and system, and storage medium |
CN112215930A (zh) * | 2020-10-19 | 2021-01-12 | 珠海金山网络游戏科技有限公司 | 一种数据处理方法与装置 |
CN113393561A (zh) * | 2021-05-26 | 2021-09-14 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
CN113393561B (zh) * | 2021-05-26 | 2024-06-21 | 完美世界(北京)软件科技发展有限公司 | 虚拟角色的肢体动作表情包生成方法、装置及存储介质 |
WO2023236656A1 (zh) * | 2022-06-07 | 2023-12-14 | 腾讯科技(深圳)有限公司 | 互动画面的渲染方法、装置、设备、存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274466A (zh) | 一种实时全身动作捕捉的方法、装置和系统 | |
CN107274464A (zh) | 一种实时交互3d动画的方法、装置和系统 | |
CN107277599A (zh) | 一种虚拟现实的直播方法、装置和系统 | |
US11282255B2 (en) | Generating textured polygon strip hair from strand-based hair for a virtual character | |
CN110163054B (zh) | 一种人脸三维图像生成方法和装置 | |
Shapiro | Building a character animation system | |
US11557076B2 (en) | Computer generated hair groom transfer tool | |
US7804997B2 (en) | Method and system for a three dimensional facial recognition system | |
Thiebaux et al. | Smartbody: Behavior realization for embodied conversational agents | |
CN110599573B (zh) | 一种基于单目相机的人脸实时交互动画的实现方法 | |
CN107197385A (zh) | 一种实时虚拟偶像直播方法及系统 | |
CN107274465A (zh) | 一种虚拟现实的主播方法、装置和系统 | |
CN108986189A (zh) | 基于三维动画中实时多人动作捕捉并直播的方法和系统 | |
CN108986190A (zh) | 一种基于三维动画中非人形角色的虚拟主播的方法和系统 | |
CN112734946B (zh) | 一种声乐表演教学方法及系统 | |
WO2015112376A1 (en) | Animated delivery of electronic messages | |
Wu et al. | Establishment virtual maintenance environment based on VIRTOOLS to effectively enhance the sense of immersion of teaching equipment | |
CN107248185A (zh) | 一种虚拟仿真偶像实时直播方法及系统 | |
Li et al. | A survey of computer facial animation techniques | |
CN115631287A (zh) | 一种虚拟舞台人物数字化展现系统 | |
Fu et al. | Real-time multimodal human–avatar interaction | |
Villagrasa et al. | Face! 3d facial animation system based on facs | |
CN108416255B (zh) | 基于三维动画中角色实时面部表情动画捕捉的系统和方法 | |
Basori et al. | Emotional facial expression based on action units and facial muscle | |
CN108198234B (zh) | 可实时互动的虚拟角色生成系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171020 |
|
RJ01 | Rejection of invention patent application after publication |