CN110650354B - 虚拟动漫角色直播方法、系统、设备及存储介质 - Google Patents
虚拟动漫角色直播方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN110650354B CN110650354B CN201910966696.6A CN201910966696A CN110650354B CN 110650354 B CN110650354 B CN 110650354B CN 201910966696 A CN201910966696 A CN 201910966696A CN 110650354 B CN110650354 B CN 110650354B
- Authority
- CN
- China
- Prior art keywords
- information
- expression
- cartoon character
- motion
- actor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种虚拟动漫角色直播方法、系统、设备及存储介质,其中,所述方法包括如下步骤:捕捉演员的动作信息;捕捉演员的表情信息;捕捉演员的声音信息;将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出。其有益效果是,改变了传统基本只能由真人进行直播的方式,也解决的传统的虚拟动漫角色只能进行少数固定几个动作的不足之处,同时本发明还公开了相应的虚拟动漫角色直播系统、设备及存储介质。
Description
技术领域
本发明涉及动画直播技术领域,尤其涉及一种虚拟动漫角色直播方法及装置、设备及存储介质。
背景技术
随着电子娱乐产业和网络传输技术的发展,视频直播作为一种全新的网上娱乐方式,越来越受到年轻观众的青睐。当前较为主流的通常为各种真人主播,包括游戏、演唱等主播。当前也开始有一些网络公司尝试利用新技术,创造一些虚拟动漫角色进行直播,以满足不同人群的喜好。
传统的虚拟动漫角色直播都是采取录播的模式,极个别的采取了动作捕捉实时直播的模型,但是都基本无法做到三维动画的同步直播。
采用虚拟动漫角色并以三维动画的方式进行视频直播的技术门槛非常高。目前,三维动画的制作仍然需要耗费创作人员相当的精力。对于一般的三维动画,除了创建相关的动画场景和设计人物模型外(人物模型可以是人类的形态或者是非人类的形态),还需要设置人物模型的相应动作。为了实现虚拟主播与观众的实时交流互动,创作人员往往预先为人物模型设计多套常用的简单动作(例如摆手、摇头和微笑等),并在进行虚拟主播的过程中由演员根据现场情景选择恰当的动作以实现与观众的实时交流互动。
然而,由于为人物模型预先设计的动作只能是几套常规的简单动作,因此在进行虚拟主播的过程中往往只能上述几套简单动作的重复组合,而且动作与动作之间无法自然地过渡,容易让观众感到机械单调,降低了与观众的互动性。尤其当人物模型是非人类形态时,虽然其可对一些年幼观众产生较大的吸引例,但是由于其本身的非真实性,所以让观众更容易地感到单调重复。
当前,北京某公司的方案是:
UCM-2Pro动捕服共设17个传感器,能够同时追踪24个不同的身体环节的动作,追踪部位包括双脚、小腿、膝盖、腹部、双手、手肘以及肩膀等。设备采用充电宝供电从而实现了无限续航,无线追踪范围室内是50米,室外是150米。UCF-2Pro面捕头盔最大的特点便是其是无标记点式面部动作捕捉系统。拍摄速度60帧/秒(fps),能够捕捉唇部动作、眨眼动作,以及演员面部的抽动和抖动。
国内市面上大部分身体动捕设备都是封装了荷兰Xsens惯性动捕或者国产诺伊腾系统;表情捕捉采用法国dynamiXYZ动捕系统或者美国的faceware系统。但是其缺点是硬件和软件全进口,价格高,二次封装价格更加昂贵;关键实时效果一般,掉帧,表情错位严重,部署麻烦,操作步骤较多,准备时间长。
造成上述缺点的原因是:面捕基于较旧的RGB摄像头和旧的opencv面部视觉算法,实时效果不理想,对光线要求非常高,环境稍有变化就会丢失追踪目标。捕捉前每个演员都需要建立专门的表情库,每次换人都需要重新建立,需要1-2个小时的预设处理,非常的不方便。
发明内容
为了至少解决现有的技术问题。
本发明创造性的提供了一种虚拟动漫角色直播方法及系统、设备及存储介质能够解决上述技术问题当中的至少一个或多个。
一种虚拟动漫角色直播方法,其中,所述方法包括如下步骤:
捕捉演员的动作信息;
捕捉演员的表情信息;
捕捉演员的声音信息;
将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;
将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出。
其有益效果是,通过将演员的动作信息、表情信息、声音信息捕捉过来,并与虚拟动漫角色进行相应的融合后,再以视频直播的形式进行输出,从而改变了传统基本只能由真人进行直播的方式,也解决的传统的虚拟动漫角色只能进行少数固定几个动作的不足之处,虚拟动漫角色可以跟随演员的动作进行相应动作,进行各种动作和表情的展示。从而可以大大提高虚拟动漫角色的仿真性,增强对观众的吸引性。
在一些实施方式中,捕捉演员的动作信息的具体方法为:
动捕演员穿戴六个无线六轴运动跟踪器;
分别通过连接装置固定在双足,双手,腰部,头部;
在Valve Lighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据;
将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉。
其有益效果是,通过连接装置固定在双足,双手,腰部,头部的六轴运动跟踪器,可以精确的采集到演员的空间位置数据,从而实现动作信息的捕捉,捕捉的精确高。
在一些实施方式中,在Valve Lighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据的具体方法为:
Valve Lighthouse的控制器上安装有多个光敏传感器;
在基站的LED闪光之后,光敏传感器能够测量出X轴激光和Y轴激光分别到达传感器的时间,所述时间为X轴和Y轴激光转到相应传感器的角度的时间;
通过传感器相对于基站的X轴和Y轴的角度;以及分布在控制器上的光敏传感器的位置,根据各个传感器的位置差,计算出六个无线六轴运动跟踪器的空间位置数据。
在一些实施方式中,将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉的方法为:
通过六轴运动跟踪器把信息输入到orion动捕软件的反向动力学IK上,根据设定好的人体骨骼的空间活动范围,还原出正确的人体运动动画,实现演员动作信息的捕捉。
在一些实施方式中,捕捉演员的表情信息的具体方法为:
利用iPhone X手机的前置的原深感摄像头将肉眼不可见的光点投影到人脸,再根据红外镜头接收到的反射光点,计算得到人脸深度图,再利用RGB摄像头拍摄的2D人脸结合计算的深度人脸图,处理得到3D人脸;
将3D人脸信息导入苹果的ARKit套件进行如下处理:
ARKit套件提供与用户脸部的大小、形状、拓扑和当前面部表情相匹配的3D网格模型;
ARKit套件使用混合形状为3D网格模型设置动画,使用此混合形状来控制3D资源的动画参数,从而创建一个跟随演员真实面部动作和表情的三维角色模型;
RGB摄像头捕捉多个特征标记并且驱动三维角色模型,匹配还原出准确的演员表情信息。
在一些实施方式中,将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情的具体方法为:
动作信息和表情信息都通过虚幻引擎的livelink接口将数据实时传入虚幻引擎内部;
将动作信息通过orion软件转换为正确的骨骼信息,骨骼信息通过livelink接口传递到虚幻引擎中,驱动动画模型的骨骼旋转位移;
iPhoneX的原深感摄像头捕捉到表情信息后,通过ARkit软件处理并将表情信息通过livelink接口传递到虚幻引中,驱动动画模型的blendshape做出相应的0到1的变化,
最终驱动虚拟动漫角色进行相应动作和表情。
同时,本发明还公开了一种虚拟动漫角色直播系统,其中,包括:
动作捕捉模块,配置成捕捉演员的动作信息;
表情捕捉模块,配置成捕捉演员的表情信息;
声音捕捉模块,配置成捕捉演员的声音信息;
整合模块,配置成将动作信息及表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;及
视频输出模块,配置成将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出
其有益效果是,通过动作捕捉模块、表情捕捉模块、声音捕捉模块将演员的动作信息、表情信息、声音信息捕捉过来,并通过整合模块,将这些信息与虚拟动漫角色进行相应的融合后,再以通过视频输出模块,以视频直播的形式进行输出,从而改变了传统基本只能由真人进行直播的方式,也解决的传统的虚拟动漫角色只能进行少数固定几个动作的不足之处,虚拟动漫角色可以跟随演员的动作进行相应动作,进行各种动作和表情的展示。从而可以大大提高虚拟动漫角色的仿真性,增强对观众的吸引性。
在一些实施方式中,所述动作捕捉模块包括HTC Vive的vive tracker六轴追踪器和ikenima公司的orion动捕软件,所述表情捕捉模块为iPhone X手机的前置的原深感摄像头;所述iPhone X手机的前置的原深感摄像头的构成依次是红外镜头、泛光感应元件、距离传感器、环境光传感器、700万像素摄像头、点阵投影器。
同时,本发明还公开了一种终端设备,包括:
处理器;
存储器,以及
存储在所述存储器中且被配置为由所述处理器执行的计算机程序,
所述处理器执行所述计算机程序时实现如上所述的方法。
同时,本发明还公开了一种存储介质,存储有计算机可执行程序,所述计算机可执行程序用于执行如上所述的虚拟动漫角色直播方法,存储介质包括但不限于ROM、RAM、普通硬盘、U盘或者软盘。
其有益效果是,只需要可以用于存储相应程序即可,通过存储介质将相应的可执行程序存储起来后,可以将方便的将相应的可执行程序安装到相应的服务器当中,从而实现对虚拟动漫角色的驱动,进行实时的视频直播。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种虚拟动漫角色直播方法的流程图;
图2为本发明一实施例提供的捕捉演员动作信息的具体方法流程图;
图3为本发明一实施例提供的捕捉演员表情信息的具体方法流程图
图4为本发明一实施例提供的一种虚拟动漫角色直播系统的原理图;
图5为本发明一实施例提供的一种终端设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图1至5,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的一种虚拟动漫角色直播方法、系统、设备及存储介质能够解决上述技术问题当中的至少一个或多个。
面对现有技术的问题,本行业人员往往会购买外国现成的解决方案和设备,价格更高,精度更高的硬件设备,来解决延迟和精度问题。缺少对动漫制作和虚幻引擎的深入了解,缺少跨平台的整合能力;所以不容易想到本发明的方案。
实施例一
如图1所示为本发明一实施例提供的一种虚拟动漫角色直播方法,其中,所述方法包括如下步骤:
步骤S11:捕捉演员的动作信息;
步骤S12:捕捉演员的表情信息;
步骤S13:捕捉演员的声音信息;
步骤S14:将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;
步骤S15:将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出。
本发明,通过将演员的动作信息、表情信息、声音信息捕捉过来,并与虚拟动漫角色进行相应的融合后,再以视频直播的形式进行输出,从而改变了传统基本只能由真人进行直播的方式,也解决的传统的虚拟动漫角色只能进行少数固定几个动作的不足之处,虚拟动漫角色可以跟随演员的动作进行相应动作,进行各种动作和表情的展示。从而可以大大提高虚拟动漫角色的仿真性,增强对观众的吸引性。
同时,可以在直播形式加入了更多的互动,加入了实时魔术表演,川剧变脸,换装和舞蹈表演,空中飞行,宠物聊天等全球首次出现的多种互动形式。内容的丰富程度远超过真人主播;寓教于乐可以变换无穷的空间和角色形象,创新性灵活性非常高。
其中,如图2所示,捕捉演员的动作信息的具体方法为:
步骤S111:动捕演员穿戴六个无线六轴运动跟踪器;
步骤S112:分别通过连接装置固定在双足,双手,腰部,头部;
步骤S113:在Valve Lighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据;
步骤S114:将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉。
通过连接装置固定在双足,双手,腰部,头部的六轴运动跟踪器,可以精确的采集到演员的空间位置数据,从而实现动作信息的捕捉,捕捉的精确高。
其中,在Valve Lighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据的具体方法为:
Valve Lighthouse的控制器上安装有多个光敏传感器;
在基站的LED闪光之后,光敏传感器能够测量出X轴激光和Y轴激光分别到达传感器的时间,所述时间为X轴和Y轴激光转到相应传感器的角度的时间;
通过传感器相对于基站的X轴和Y轴的角度;以及分布在控制器上的光敏传感器的位置,根据各个传感器的位置差,计算出六个无线六轴运动跟踪器的空间位置数据。
将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉的方法为:
通过六轴运动跟踪器把信息输入到orion动捕软件的反向动力学IK上,根据设定好的人体骨骼的空间活动范围,还原出正确的人体运动动画,实现演员动作信息的捕捉。
其中,如图3所示,捕捉演员的表情信息的具体方法为:
步骤S121:利用iPhone X手机的前置的原深感摄像头将肉眼不可见的光点投影到人脸,再根据红外镜头接收到的反射光点,计算得到人脸深度图,再利用RGB摄像头拍摄的2D人脸结合计算的深度人脸图,处理得到3D人脸;
步骤S122:将3D人脸信息导入苹果的ARKit套件进行如下处理:
步骤S123:ARKit套件提供与用户脸部的大小、形状、拓扑和当前面部表情相匹配的3D网格模型;
步骤S124:ARKit套件使用混合形状为3D网格模型设置动画,使用此混合形状来控制3D资源的动画参数,从而创建一个跟随演员真实面部动作和表情的三维角色模型;
步骤S125:RGB摄像头捕捉多个特征标记并且驱动三维角色模型,匹配还原出准确的演员表情信息。
其中,将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情的具体方法为:
动作信息和表情信息都通过虚幻引擎的livelink接口将数据实时传入虚幻引擎内部;
将动作信息通过orion软件转换为正确的骨骼信息,骨骼信息通过livelink接口传递到虚幻引擎中,驱动动画模型的骨骼旋转位移;
iPhoneX的原深感摄像头捕捉到表情信息后,通过ARkit软件处理并将表情信息通过livelink接口传递到虚幻引中,驱动动画模型的blendshape做出相应的0到1的变化,
最终驱动虚拟动漫角色进行相应动作和表情。
实施例二
同时如图4,本发明还公开了一种虚拟动漫角色直播系统,其中,包括:
动作捕捉模块1,配置成捕捉演员的动作信息;
表情捕捉模块2,配置成捕捉演员的表情信息;
声音捕捉模块3,配置成捕捉演员的声音信息;
整合模块4,配置成将动作信息及表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;及
视频输出模块5,配置成将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出。
通过动作捕捉模块1、表情捕捉模块2、声音捕捉模块3将演员的动作信息、表情信息、声音信息捕捉过来,并通过整合模块4,将这些信息与虚拟动漫角色进行相应的融合后,再以通过视频输出模块5,以视频直播的形式进行输出,从而改变了传统基本只能由真人进行直播的方式,也解决的传统的虚拟动漫角色只能进行少数固定几个动作的不足之处,虚拟动漫角色可以跟随演员的动作进行相应动作,进行各种动作和表情的展示。从而可以大大提高虚拟动漫角色的仿真性,增强对观众的吸引性。
本发明当中的动作捕捉模块包括HTC Vive的vive tracker六轴追踪器和ikenima公司的orion动捕软件。HTC Vive是由HTC与Valve联合开发的一款VR头显(虚拟现实头戴式显示器)产品,于2015年3月在MWC2015上发布。由Valve的SteamVR提供的技术支持。包括一个头戴式显示器、两个单手持控制器、6个无线HTC vive tracker六轴追踪器,一个能于空间内同时追踪显示器与控制器的定位系统(Lighthouse)。
控制器定位系统Lighthouse采用的是Valve公司的技术,其不需要借助摄像头,而是靠激光和光敏传感器来确定运动物体的位置。身体捕捉利用了Lighthouse的定位技术。
Lighthouse室内定位技术不需要借助摄像头,而是靠激光和光敏传感器来确定运动物体的位置。两个激光发射器会被安置在对角,形成一个15×15英尺的长方形区域,这个区域可以根据实际空间大小进行调整。激光束由发射器里面的两排固定LED灯发出,每秒6次。每个激光发射器内设计有两个扫描模块,分别在水平和垂直方向轮流对定位空间发射横竖激光扫描15×15英尺的定位空间。
HTC Vive头盔和手柄上有超过70个光敏传感器。激光扫过的同时,头盔开始计数,传感器接收到激光后,利用传感器位置和接收激光时间的关系,计算相对于激光发射器的准确位置。同一时间内激光束击中的光敏传感器足够多,就能形成一个3D的模型。不仅能探测出头盔的位置,还可以捕捉到头盔的方向。
演员需要穿戴六个无线HTC vive tracker(六轴追踪器),分别通过连接装置固定在双足,双手,腰部,头部;在Lighthouse的激光发射器场内,实时计算六个tracker的空间位置。同时将这些空间位置数据传输到ikenima公司的提供的orion动捕软件中。
IKINEMA Orion是一款基于HTC Vive硬件技术的高质量动作捕捉系统。Orion用户仅需6个追踪点并进行简单的矫正,即可实时捕捉逼真的全身动作。同时IKINEMA Orion输出的数据会同步传输到虚幻引擎4中。
表情捕捉模块通常可以直接采用iPhone系列手机,例如iPhoneX手机通过arkit套件连接到虚幻引擎4中,从而实现表情的捕捉。
声音捕捉模块,可以采用公知的麦克风装置进行声音捕捉,根据需要采用精度更高的麦克风装置即可。
本发明的整合模块采用的是虚幻引擎4,虚幻引擎4是一套为使用实时技术的人士开发的完整开发工具。从企业应用和电影体验到高品质的PC、主机、移动、VR及AR游戏,虚幻引擎4能为您提供从启动项目到发行产品所需的一切,以及简易的工作流程能够帮助开发者快速迭代概念并立即查看成品效果,且无需触碰一行代码。而完整公开的源代码则能让虚幻引擎4社区的所有成员都能够自由修改和扩展引擎功能。
具体而言,整个工作流程为:
步骤1:动捕演员穿戴好设备开始实时直播;声音、表情和身体动作实时被记录;
步骤2:身体带动六轴跟踪器,产生六轴数据,并在lighthouse光场中定位重新计算,同时无线蓝牙传输到steamVR运行库中进行记录;
步骤3:steamVR运行库中的数据传输到orion中。Orion讲这些经过空间定位的六轴运动数据通过反向动力学计算,还原为正常的人体动画数据;
步骤4:orion将这部分人体动画数据通过jason和虚幻引擎4的livelink接口连接,并且传递到虚幻引擎4中。
步骤5:进入虚幻引擎4后,动捕数据通过动画蓝图被传递进入liveaction中重新进行和虚拟角色的定位;
步骤6:虚拟角色至此被真人驱动后,并与表情信息进行整合,实时同步真人表演,并且画面实时输出到obs合成直播软件中,再和声音信息一起通过直播软件网络传递到观众客户端。
同时,本发明还公开了一种方案,动作捕捉可以使用光学动捕,光学式动作捕捉依靠一整套精密而复杂的光学摄像头来实现,它通过计算机视觉原理,由多个高速摄像机从不同角度对目标特征点进行跟踪来完成全身的动作的捕捉。
利用从图像传感器捕获的数据进行三角测量校准两个或多个相机之间的对象的3D位置以提供重叠投影。传统上使用附加到演员的特殊标记来实现数据获取;然而,更近期的系统能够通过跟踪为每个特定主题动态识别的表面特征来生成准确的数据。跟踪大量表演者或扩大捕捉区域是通过增加更多摄像机来完成的。这些系统为每个标记产生具有三个自由度的数据,并且必须从三个或更多个标记的相对方向推断出旋转信息;例如肩部,肘部和腕部标记,提供肘部的角度。一般会输出BVH格式的骨骼动画数据。
光学动捕其优点是可以多人一起捕捉干扰较小,精度较高。缺点需要较大的场地和空间。穿戴校准速度较慢。需要1小时的校准和半小时的穿戴时间。表情需要画点,实时效果延时较大;硬件成本非常高,摄像头安装固定后难以移动。
在最初的测试版本当中,发明人也开发了一种使用过诺伊腾的legacy系统和美国的faceware面部系统进行虚拟直播的方案。诺伊腾的legacy作为身体捕捉价格适中,但是抖动太大,接入虚幻存在骨骼无法匹配卡通角色的问题;faceware实时只有记录和识别32个表情,延迟过大和抖动严重。
实施例三
图5为本发明实施例九提供的一种终端设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性设备12的框图。图5显示的设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,设备12以通用计算设备的形式表现。设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与设备12的其它模块通信。应当明白,尽管图中未示出,可以结合设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的可执行程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的虚拟动漫角色直播方法。
实施例四
本发明实施例八还提供了一种包含计算机可执行程序的存储介质,所述计算机可执行程序在由计算机处理器执行时用于执行本发明实施例所述的虚拟动漫角色直播方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (5)
1.一种虚拟动漫角色直播方法,其中,所述方法包括如下步骤:
捕捉演员的动作信息;
捕捉演员的表情信息;
捕捉演员的声音信息;
将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;
将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出;
捕捉演员的动作信息的具体方法为:
动捕演员穿戴六个无线六轴运动跟踪器;
分别通过连接装置固定在双足,双手,腰部,头部;
在ValveLighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据;
将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉;
在ValveLighthouse的激光发射器场内,实时计算六个无线六轴运动跟踪器的空间位置,得到相应的空间位置数据的具体方法为:
ValveLighthouse的控制器上安装有多个光敏传感器;
在基站的LED闪光之后,光敏传感器能够测量出X轴激光和Y轴激光分别到达传感器的时间,所述时间为X轴和Y轴激光转到相应传感器的角度的时间;
通过传感器相对于基站的X轴和Y轴的角度;以及分布在控制器上的光敏传感器的位置,根据各个传感器的位置差,计算出六个无线六轴运动跟踪器的空间位置数据;
将所述空间位置数据传输到动捕软件中,实现演员动作信息的捕捉的方法为:
通过六轴运动跟踪器把信息输入到orion动捕软件的反向动力学IK上,根据设定好的人体骨骼的空间活动范围,还原出正确的人体运动动画,实现演员动作信息的捕捉;
捕捉演员的表情信息的具体方法为:
利用iPhone X手机的前置的原深感摄像头将肉眼不可见的光点投影到人脸,再根据红外镜头接收到的反射光点,计算得到人脸深度图,再利用RGB摄像头拍摄的2D人脸结合计算的深度人脸图,处理得到3D人脸;
将3D人脸信息导入苹果的ARKit套件进行如下处理:
ARKit套件提供与用户脸部的大小、形状、拓扑和当前面部表情相匹配的3D网格模型;
ARKit套件使用混合形状为3D网格模型设置动画,使用此混合形状来控制3D资源的动画参数,从而创建一个跟随演员真实面部动作和表情的三维角色模型;
RGB摄像头捕捉多个特征标记并且驱动三维角色模型,匹配还原出准确的演员表情信息;
将动作信息与表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情的具体方法为:
动作信息和表情信息都通过虚幻引擎的livelink接口将数据实时传入虚幻引擎内部;
将动作信息通过orion软件转换为正确的骨骼信息,骨骼信息通过livelink接口传递到虚幻引擎中,驱动动画模型的骨骼旋转位移;
iPhoneX的原深感摄像头捕捉到表情信息后,通过ARkit软件处理并将表情信息通过livelink接口传递到虚幻引中,驱动动画模型的blendshape做出相应的0到1的变化,
最终驱动虚拟动漫角色进行相应动作和表情。
2.一种应用如权利要求1所述方法的虚拟动漫角色直播系统,其中,包括:
动作捕捉模块,配置成捕捉演员的动作信息;
表情捕捉模块,配置成捕捉演员的表情信息;
声音捕捉模块,配置成捕捉演员的声音信息;
整合模块,配置成将动作信息及表情信息与虚拟动漫角色进行融合,并驱动虚拟动漫角色进行相应动作和表情;及
视频输出模块,配置成将驱动后的虚拟动漫角色与声音信息共同以直播视频流的形式输出。
3.根据权利要求2所述的系统 ,其中,所述动作捕捉模块包括HTC Vive的vivetracker六轴追踪器和ikenima公司的orion动捕软件,所述表情捕捉模块为iPhone X手机的前置的原深感摄像头;所述iPhone X手机的前置的原深感摄像头的构成依次是红外镜头、泛光感应元件、距离传感器、环境光传感器、700万像素摄像头、点阵投影器。
4.一种终端设备,包括:
处理器;
存储器,以及
存储在所述存储器中且被配置为由所述处理器执行的计算机程序,
所述处理器执行所述计算机程序时实现如权利要求1所述的方法。
5.一种存储介质,存储有计算机可执行程序,所述计算机可执行程序用于执行如上权利要求1所述的虚拟动漫角色直播方法,存储介质包括但不限于ROM、RAM、普通硬盘、U盘或者软盘。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910966696.6A CN110650354B (zh) | 2019-10-12 | 2019-10-12 | 虚拟动漫角色直播方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910966696.6A CN110650354B (zh) | 2019-10-12 | 2019-10-12 | 虚拟动漫角色直播方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110650354A CN110650354A (zh) | 2020-01-03 |
CN110650354B true CN110650354B (zh) | 2021-11-12 |
Family
ID=68993955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910966696.6A Active CN110650354B (zh) | 2019-10-12 | 2019-10-12 | 虚拟动漫角色直播方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110650354B (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113473159B (zh) * | 2020-03-11 | 2023-08-18 | 广州虎牙科技有限公司 | 数字人直播方法、装置、直播管理设备及可读存储介质 |
CN111627096A (zh) * | 2020-05-07 | 2020-09-04 | 江苏原力数字科技股份有限公司 | 一种基于blendshape的数字人驱动系统 |
US11321892B2 (en) | 2020-05-21 | 2022-05-03 | Scott REILLY | Interactive virtual reality broadcast systems and methods |
CN111698543B (zh) * | 2020-05-28 | 2022-06-14 | 厦门友唱科技有限公司 | 基于演唱场景的交互实现方法、介质及系统 |
CN112004101B (zh) * | 2020-07-31 | 2022-08-26 | 北京心域科技有限责任公司 | 虚拟直播数据的传输方法、装置及存储介质 |
CN112003998A (zh) * | 2020-08-05 | 2020-11-27 | 上海视觉艺术学院 | Vas虚拟导播系统 |
CN111862280A (zh) * | 2020-08-26 | 2020-10-30 | 网易(杭州)网络有限公司 | 虚拟角色控制方法、系统、介质及电子设备 |
CN111968207B (zh) | 2020-09-25 | 2021-10-29 | 魔珐(上海)信息科技有限公司 | 动画生成方法、装置、系统及存储介质 |
CN111970535B (zh) * | 2020-09-25 | 2021-08-31 | 魔珐(上海)信息科技有限公司 | 虚拟直播方法、装置、系统及存储介质 |
CN112241203A (zh) * | 2020-10-21 | 2021-01-19 | 广州博冠信息科技有限公司 | 三维虚拟角色的控制装置及方法、存储介质及电子设备 |
CN112396679B (zh) * | 2020-11-20 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 虚拟对象显示方法及装置、电子设备、介质 |
CN113327312B (zh) * | 2021-05-27 | 2023-09-08 | 百度在线网络技术(北京)有限公司 | 虚拟角色的驱动方法、装置、设备以及存储介质 |
CN113824982B (zh) * | 2021-09-10 | 2024-07-09 | 网易(杭州)网络有限公司 | 一种直播方法、装置、计算机设备及存储介质 |
CN113822970B (zh) * | 2021-09-23 | 2024-09-03 | 广州博冠信息科技有限公司 | 直播控制方法、装置、存储介质与电子设备 |
CN113905270B (zh) * | 2021-11-03 | 2024-04-09 | 广州博冠信息科技有限公司 | 节目播出控制方法和装置、可读存储介质、电子设备 |
CN117097919A (zh) * | 2022-05-12 | 2023-11-21 | 腾讯科技(深圳)有限公司 | 虚拟角色渲染方法、装置、设备、存储介质和程序产品 |
CN116708920B (zh) * | 2022-06-30 | 2024-04-19 | 北京生数科技有限公司 | 应用于合成虚拟形象的视频处理方法、装置及存储介质 |
CN115546247A (zh) * | 2022-10-21 | 2022-12-30 | 北京中科深智科技有限公司 | 一种基于LightHouse定位系统的动作捕捉方法 |
CN115619912B (zh) * | 2022-10-27 | 2023-06-13 | 深圳市诸葛瓜科技有限公司 | 一种基于虚拟现实技术的动漫人物展示系统及方法 |
CN115984533A (zh) * | 2022-12-29 | 2023-04-18 | 上海哔哩哔哩科技有限公司 | 捕捉方法、系统、计算设备及计算机存储介质 |
CN115953516B (zh) * | 2023-03-13 | 2023-05-19 | 山东美猴文化创意集团股份有限公司 | 一种基于动作捕捉技术的交互动画制作平台 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWM532256U (zh) * | 2016-03-15 | 2016-11-21 | 群耀光電科技(蘇州)有限公司 | 自走裝置之複合式虛擬牆及燈塔系統 |
CN106131530B (zh) * | 2016-08-26 | 2017-10-31 | 万象三维视觉科技(北京)有限公司 | 一种裸眼3d虚拟现实展示系统及其展示方法 |
CN107037880A (zh) * | 2017-03-02 | 2017-08-11 | 深圳前海极客船长网络科技有限公司 | 基于虚拟现实技术的空间定位定姿系统及其方法 |
CN107277599A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的直播方法、装置和系统 |
US20190230416A1 (en) * | 2018-01-21 | 2019-07-25 | Guangwei Yuan | Face Expression Bookmark |
CN108765563B (zh) * | 2018-05-31 | 2022-05-10 | 北京百度网讯科技有限公司 | 基于ar的slam算法的处理方法、装置及设备 |
-
2019
- 2019-10-12 CN CN201910966696.6A patent/CN110650354B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110650354A (zh) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110650354B (zh) | 虚拟动漫角色直播方法、系统、设备及存储介质 | |
US11948260B1 (en) | Streaming mixed-reality environments between multiple devices | |
US9892563B2 (en) | System and method for generating a mixed reality environment | |
RU2544776C2 (ru) | Съемка видов и движений актеров, действующих в сгенерированных декорациях | |
US9299184B2 (en) | Simulating performance of virtual camera | |
CN102622774B (zh) | 起居室电影创建 | |
CN105843396A (zh) | 在共享的稳定虚拟空间上维持多视图 | |
Barakonyi et al. | Agents that talk and hit back: Animated agents in augmented reality | |
CN102222329A (zh) | 深度检测的光栅扫描 | |
Li et al. | Real-time immersive table tennis game for two players with motion tracking | |
Bajana et al. | Mobile tracking system and optical tracking integration for mobile mixed reality | |
CN108132490A (zh) | 基于定位系统和ar/mr的探测系统及探测方法 | |
US11587284B2 (en) | Virtual-world simulator | |
US20220139050A1 (en) | Augmented Reality Platform Systems, Methods, and Apparatus | |
Ghandeharizadeh | Holodeck: Immersive 3D Displays Using Swarms of Flying Light Specks | |
Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
CN113190113A (zh) | 超宽带定位的虚拟现实系统及实现位置和方向的定位方法 | |
US11200741B1 (en) | Generating high fidelity spatial maps and pose evolutions | |
US11417049B2 (en) | Augmented reality wall with combined viewer and camera tracking | |
CN108261761B (zh) | 一种空间定位方法和装置、计算机可读存储介质 | |
KR20210042476A (ko) | 프로젝션 기술을 이용한 증강현실 제공방법 및 시스템 | |
Thomas et al. | Virtual graphics for broadcast production | |
TWI794512B (zh) | 用於擴增實境之系統及設備及用於使用一即時顯示器實現拍攝之方法 | |
CN116188739A (zh) | 一种虚拟现实软件平台系统 | |
TWM592332U (zh) | 一種擴增實境多螢幕陣列整合系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |