CN115883907A - 虚拟直播方法、装置及系统 - Google Patents
虚拟直播方法、装置及系统 Download PDFInfo
- Publication number
- CN115883907A CN115883907A CN202211703499.3A CN202211703499A CN115883907A CN 115883907 A CN115883907 A CN 115883907A CN 202211703499 A CN202211703499 A CN 202211703499A CN 115883907 A CN115883907 A CN 115883907A
- Authority
- CN
- China
- Prior art keywords
- deformation data
- mobile terminal
- data
- target
- model parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Telephone Function (AREA)
Abstract
本申请实施例提供一种虚拟直播方法,所述方法包括:接收从移动端发送的混合变形数据,其中,所述混合变形数据为所述移动端根据面部捕捉数据得到;将所述混合变形数据转换为与目标模型对应的模型参数;根据所述模型参数驱动所述目标模型。本申请实施例提供的虚拟直播方法,可以在电脑端没有配备摄像头的情况下实现虚拟直播,提高虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种虚拟直播方法、装置、系统、计算机设备及存储介质。
背景技术
虚拟直播,与实景直播相对,也称为AR直播,是通过虚拟与现实进行融合来实现的新型直播方式。例如,通过仿真人主播形象、卡通人物形象等虚拟形象来代替真人主播的实际形象进行直播。
目前,面部捕捉软件一般需要用户自备RGB摄像头,并且在电脑端实时进行面部捕捉的运算来驱动面部捕捉软件创建的虚拟形象。然而,若用户的电脑端没有RGB摄像头,则无法使用面部捕捉软件进行直播;另外,若用户电脑端的设备性能比较差,则也会影响到虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
发明内容
本申请的目的在于提供一种虚拟直播方法、装置、系统、计算机设备及存储介质,用于解决在电脑端没有摄像头无法进行虚拟直播,或电脑端的设备性能差影响虚拟直播的效果的技术问题。
本申请实施例的一个方面提供了一种虚拟直播方法,包括:接收从移动端发送的混合变形数据,其中,所述混合变形数据为所述移动端根据面部捕捉数据得到;将所述混合变形数据转换为与目标模型对应的模型参数;根据所述模型参数驱动所述目标模型。
可选地,在所述接收从移动端发送的混合变形数据之前,还包括:通过目标连接方式与所述移动端建立连接,所述目标连接方法包括USB连接和WIFI连接。
可选地,所述通过目标连接方式与所述移动端建立连接,包括:根据输入指令确定目标连接方式;根据所述目标连接方式创建套接字与所述移动端建立连接。
可选地,所述将所述混合变形数据转换为与目标模型对应的模型参数,包括:获取预先构建的所述混合变形数据与所述模型参数的映射关系;根据所述映射关系将所述混合变形数据转换为所述模型参数。
可选地,所述混合变形数据为ARKit混合变形数据。
可选地,所述目标模型为live2d。
本申请实施例的一个方面又提供了一种虚拟直播装置,包括:接收模块,用于接收从移动端发送的混合变形数据,其中,所述混合变形数据为所述移动端根据面部捕捉数据得到;转换模块,用于将所述混合变形数据转换为与目标模型对应的模型参数;驱动模块,用于根据所述模型参数驱动所述目标模型。
本申请实施例的一个方面又提供了一种虚拟直播系统,包括获取端和直播端;所述获取端,用于获取面部捕捉数据,根据所述面部捕捉数据确定混合变形数据,将所述混合变形数据发送至所述直播端;所述直播端,用于接收所述获取端发送的所述混合变形数据,将所述混合变形数据转换为与目标模型对应的模型参数,根据所述模型参数驱动所述目标模型。
本申请实施例的一个方面又提供了一种计算机设备,所述计算机设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时用于实现上述的虚拟直播方法的步骤。
本申请实施例的一个方面又提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序可被至少一个处理器所执行,以使所述至少一个处理器执行上述的虚拟直播方法的步骤。
本申请实施例提供的虚拟直播方法、装置、系统、计算机设备及存储介质,包括以下优点:
通过接收从移动端发送的根据面部捕捉数据得到的混合变形数据,将混合变形数据转换为与目标模型对应的模型参数,再根据模型参数驱动目标模型,由于是利用移动端来获得面部捕捉数据以及混合变形数据,因此即使电脑端没有配备RGB摄像头,也能利用移动端的摄像头来间接获得,从而使在没有配置RGB摄像头的电脑端上也能实现虚拟直播;同时,由于是利用移动端来获得混合变形数据,不需要在电脑端进行混合变形数据的计算,因此即使电脑端的性能较差,也不会影响到虚拟主播在直播过程中的流畅度以及面部捕捉的效果,即可以提高虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
附图说明
图1示意性示出了本申请实施例的环境架构图;
图2示意性示出了本申请实施例一的虚拟直播方法的流程图;
图3为根据移动端来驱动电脑端的目标模型的场景示例图;
图4为对连接方式进行设置的场景示例图;
图5为移动端连接电脑端的场景示例图;
图6为电脑端连接移动端的流程示例图;
图7为使用USB方式连接的时序示例图;
图8为图2中步骤S420的子步骤的流程图;
图9示意性示出了本申请实施例二的虚拟直播装置的框图;
图10示意性示出了本申请实施例三的虚拟直播系统的框图;
图11示意性示出了本申请实施例四的计算机设备的硬件架构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,在本申请实施例中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
在本申请的描述中,需要理解的是,步骤前的数字标号并不标识执行步骤的前后顺序,仅用于方便描述本申请及区别每一步骤,因此不能理解为对本申请的限制。
下面为本申请涉及的术语解释:
ARKit:苹果在2017年苹果全球开发者大会推出的AR(增强现实)开发平台,开发人员可以使用这套工具为iPhone(苹果手机)和iPad(苹果平板电脑)创建增强现实应用程序。
live2d:是一种软件技术,可让您创建动态表达式,为原始2D插图注入活力。
ARkitBlendShape:苹果公司开源的混合变形协议。
ARCore:是由Google所开发的软件开发套件,可用来创建扩增实境的应用程序。
Dragon Bones,是一款骨骼动画制作软件程序。
套接字(Socket):是对网络中不同主机上的应用进程之间进行双向通信的端点的抽象,一个套接字就是网络上进程通信的一端,提供了应用层进程利用网络协议交换数据的机制。
回送地址(127.x.x.x,如127.0.0.1),是本机回送地址,即主机IP堆栈内部的IP地址,主要用于网络软件测试以及本地机进程间通信,无论什么程序,一旦使用回送地址发送数据,协议软件立即返回之,不进行任何网络传输。
usbmuxd(USBMultiplexingDaemon,USB多路传输驻留程序),当Mac/PC与iPhone之间使用USB数据线连接时,iTunes与iPhone间的通信交流便是通过usbmuxd服务,其中,usbmuxd通过给定的端口号和localhost建立TCP(传输控制协议)连接。
图1示意性示出了本申请实施例的环境架构图,如图所示:
移动端200通过一定的连接方式与电脑端100进行连接,电脑端100通过网络与服务端300连接。移动端200通过自身的摄像头获取用户的面部捕捉数据,根据面部捕捉数据确定混合变形数据,将混合变形数据发送至电脑端100。电脑端100接收从移动端200发送的混合变形数据,将混合变形数据转换为与电脑端100中的目标模型对应的模型参数,根据转换得到的模型参数驱动该目标模型。实际应用中,电脑端100的用户(同时为移动端200的用户)可以在服务端300创建虚拟直播间,并利用目标模型在虚拟直播间中实现相应的虚拟直播。
在示例性的实施例中,电脑端100可以包括但不限于台式电脑、电脑一体机或笔记本电脑等。移动端200可以包括但不限于苹果手机、安卓手机、平板电脑等。服务端300可以由单个服务器或多个服务器组成的集群来实现。
相关技术中,若电脑端没有RGB摄像头,则无法使用面部捕捉软件进行虚拟直播;另外,若用户的电脑端的设备性能较差,则也会影响到虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
本申请实施例的虚拟直播方法,可以在电脑端没有RGB摄像头的情况下进行虚拟直播;也可以在电脑端的设备性能较差的情况下,提高虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
以下将通过若干个实施例介绍虚拟直播方案,为便于理解,下面将以图1中的电脑端100为执行主体进行示例性描述。
实施例一
图2示意性示出了本申请实施例一的虚拟直播方法的流程图,可以包括步骤S410~步骤S430,具体如下:
步骤S410,接收从移动端发送的混合变形数据,其中,混合变形数据为移动端根据面部捕捉数据得到。
其中,混合变形数据即blendshape参数,可以由移动端200利用自身的摄像头获取移动端100的用户(虚拟直播场景中为虚拟主播)的面部捕捉数据,再根据面部捕捉数据和移动端200中的混合变形协议得到。以移动端200为苹果手机(iPhone)为例,虚拟主播可以打开苹果手机的摄像头获取自身的面部捕捉数据,再通过ARkitBlendShape协议将面部捕捉数据转换为混合变形数据,即52种表情参数。
移动端200在获取到混合变形数据之后,可以将混合变形数据发送至电脑端100,从而使电脑端100可以接收到相应的混合变形数据。移动端200可以以一定方式连接到电脑端100,例如WIFI连接的方式连接到电脑端100,从而可以将混合变形数据发送至电脑端100。
在示例性的实施例中,混合变形数据为ARKit混合变形数据(即ARkitBlendShape参数)。由于混合变形数据需要由IOS系统得到,因此移动端200相应可以为苹果手机(iPhone)、苹果平板电脑(iPad)或苹果的其它可移动的终端设备。由于ARkitBlendShape参数包含52种丰富的表情参数,因此可以方便地根据混合变形数据转换得到与目标模型对应的模型参数,也能使得到的混合变形数据应用在更多的场景。可选地,也可以由安卓手机来获得混合变形数据。例如,安卓手机可以通过ARCore来获取虚拟主播的人脸的点位信息,再根据点位信息确定混合变形数据。优选地,可以将安卓手机得到的点位信息先转换为ARkitBlendShape参数,后续再根据ARkitBlendShape参数转换为与目标模型对应的模型参数,这样转换得到的ARkitBlendShape参数可以应用在更多的场景,提高场景的适用性。
步骤S420,将混合变形数据转换为与目标模型对应的模型参数。
具体地,可以预先确定混合变形数据与目标模型的模型参数之间的转换关系,再根据相应的转换关系将混合变形数据转换为与目标模型对应的模型参数。例如,可以通过确定y=f(x)来确定混合变形数据与目标模型的模型参数之间的转换关系,其中y对应目标模型的模型参数,x对应混合变形数据。在确定y=f(x)后,就可以根据y=f(x)将混合变形数据转换为与目标模型对应的模型参数。
在示例性的实施例中,目标模型为live2d。由于live2d实现起来比较简单,因此目标模型采用live2d,可以降低进行虚拟直播的难度。可选地,目标模型还可以为龙骨(Dragon Bones)动画等模型,此处不做具体限制。
步骤S430,根据模型参数驱动目标模型。
在根据模型参数驱动目标模型时,具体可以是根据模型参数驱动目标模型对应的虚拟形象。其中,虚拟形象可以由虚拟主播利用电脑端100的目标模型创建得到。
请参考图3,其为根据利用移动端来间接驱动目标模型的场景示例图。如图3所示,在移动端的用户做出笑脸的表情时,可以利用苹果手机获得面部捕捉数据,然后得到ARKitblendshape参数,再转换为驱动目标模型的模型参数,最后根据转换得到的模型参数驱动目标模型也做出笑脸的表情,以实现虚拟直播。可选地,还可以根据需要对移动端获得的混合变形数据进行实时追踪,例如图中实时显示的ARKitblendshape参数,使开发人员或用户可以方便确定与移动端对应的混合变形数据。
本申请实施例的虚拟直播方法,通过接收从移动端发送的根据面部捕捉数据得到的混合变形数据,将混合变形数据转换为与目标模型对应的模型参数,再根据模型参数驱动目标模型,由于是利用移动端来获得面部捕捉数据以及混合变形数据,因此即使电脑端没有配备RGB摄像头,也能利用移动端的摄像头来间接获得,从而使在没有配置RGB摄像头的电脑端上也能实现虚拟直播;同时,由于是利用移动端来获得混合变形数据,不需要在电脑端进行混合变形数据的计算,因此即使电脑端的性能较差,也不会影响到虚拟主播在直播过程中的流畅度以及面部捕捉的效果,即可以提高虚拟主播在直播过程中的流畅度以及面部捕捉的效果。
在示例性的实施例中,在步骤S410之前,即在接收从移动端发送的混合变形数据之前,还可以包括:通过目标连接方式与移动端建立连接,其中目标连接方式包括USB连接和WIFI连接。
即电脑端100可以通过USB连接的方式与移动端200建立连接,也可以通过WIFI连接的方式与移动端200建立连接。
通过USB连接的方式或者通过WIFI连接的方式连接移动端,可以接收移动端发送的数据,从而方便利用移动端来获得面部捕捉数据以及混合变形数据。
在示例性的实施例中,上述通过目标连接方式与移动端建立连接,可以包括:根据输入指令确定目标连接方式,根据目标连接方式创建套接字与移动端建立连接。
具体地,可以在电脑端100提供两种或以上目标连接方式供虚拟主播进行选择,然后根据虚拟主播选择对应的输入指令确定目标连接方式,再根据目标连接方式创建套接字与移动端建立连接。
以目标模型为live2d为例,如图4所示,可以在面部捕捉全局设置中对连接方式进行设置,从而使用户可以根据需要选择相应的连接方式作为目标连接方式。例如如图4所示,可以分以下三步进行WIFI连接:1、通过扫描二维码来下载并安装虚拟面捕助手;2、配置网络,确认手机与电脑已连接在同一WIFI或同一局域网环境下;3、打开虚拟面捕助手中的连接设置,切换到WIFI连接,扫描指定的二维码,使手机获取到电脑IP并连接到电脑(若无法连接则尝试切换电脑IP地址)。请参考图5,其为移动端连接电脑端的场景示例图,用户可以在相应界面中选择连接方式进行连接,如图中选择USB连接方式进行连接,在UI界面中,可以显示相应的连接状态(如图中所示的USB等待连接中),从而使用户实时地确定USB的连接状态。
请参考图6,其为电脑端100连接移动端200的流程示例图,其大致的流程如下:
1、电脑端100开始连接;
2、确认连接模式,若为USB连接模式,则进入3;若为WIFI连接模式,则进入11;
3、创建SocketClient;
4、连接到127.0.0.1对应的端口号;
5、通过usbmuxd连接指定设备;
6、判断设备是否为空,若不为空,则进入7,否则进入10;
7、是否接收到数据,若接收到数据,则进入8,否则重新进行判断;
8、将数据赋值至同一个数据结构(非队列),并重置超时计时;
9、根据超时计时判断是否进行超时,若超时则进入10,否则返回7;
10、断开连接;
11、创建SocketServer;
12、等待移动端连接;
13、移动端通过TCP WIFI连接;
14、将数据赋值至同一个数据结构(非队列);
15、判断连接状态,若保持连接,则返回14,否则返回12。
上述流程中,将数据赋值至同一个数据结构是指将数据统一为2D和3D均可以应用的数据结构,从而使得到的数据可以应用到更多的场景中。另外,由于虚拟直播对实时性要求较高,因此若将数据赋值至队列的数据结构中,则可能由于网络的原因造成目标模型驱动的延迟;而将数据赋值至非队列的数据结构中,则可以保证虚拟直播的实时性。其中,可以通过使用同一内存块的方式来实现非队列的数据结构。
另外,若目标连接方式为WIFI连接方式,则可以根据WIFI连接的协议进行连接即可。在目标连接方式为USB连接方式时,如图7,其对应的时序大致为:
1、User(虚拟主播)开启电脑端(PC)的设备监听,监听USB,具体可以包括:创建文件描述符unix_socket并连接,创建unix_socket文件描述符关联的“I/O通道”,开始读取上述“I/O通道”的数据,等待IOS设备通过USB连接到电脑,“I/O通道”输出设备信息;
2、User开启移动端(iPhone)的USB连接,监听协定端口,具体可以包括:创建文件描述符inet_socket并监听,创建inet_socket文件描述符关联的“I/O通道”,开始读取上述“I/O通道”的数据,等待PC Client发送“Connect”消息,“I/O通道”输出设备信息;
3、iPhone与PC端通过USB线连接;
4、PC端向User显示可连接设备;
5、User选择可连接设备;
6、PC端连接iPhone,iPhone接收Client连接;
7、iPhone向User显示连接成功;
8、采集User的人脸数据;
9、iPhone获取返回的人脸点位/画面,确定blendshape数据;
10、iPhone将blendshape数据传递至PC端。
本实施例中,通过根据输入指令确定目标连接方式,根据目标连接方式创建套接字与移动端建立连接,可以方便用户根据需要选择合适的连接方式连接移动端与电脑端,从而方便利用移动端来获取面部捕捉数据及混合变形数据。
在示例性的实施例中,步骤S420中,将混合变形数据转换为与目标模型对应的模型参数,如图8所示,可以包括步骤S421~步骤S422,具体如下:
步骤S421,获取预先构建的混合变形数据与模型参数的映射关系。
在构建混合变形数据与模型参数的映射关系时,可以根据相同或相应的部位建立映射关系。例如,将混合变形数据中的眼睛的参数与目标模型中的眼睛的模型参数进行映射,建立映射关系;将混合变形数据中的嘴色的参数与目标模型中的嘴色的模型参数进行映射,建立映射关系等等。具体的映射关系可以根据采用的混合变形数据、目标模型和实际需求进行设置,此处不做具体限制。
步骤S422,根据映射关系将混合变形数据转换为模型参数。
如前所述,可以通过y=f(x)来确定混合变形数据与模型参数的转换关系,在获取到混合变形数据与模型参数的映射关系后,根据其转换关系将混合变形数据转换为相应的模型参数。
在本实施例中,通过获取预先构建的混合变形数据与模型参数的映射关系,根据映射关系将混合变形数据转换为模型参数,可以使利用移动端获得的混合变形数据转换为电脑端目标模型的模型参数,以驱动目标模型进行虚拟直播,可以在电脑端没有配备RGB摄像头的情况下仍能有效地实现虚拟直播。
实施例二
图9示意性示出了根据本申请实施例二的虚拟直播装置500的框图,该虚拟直播装置500可以被分割成一个或多个程序模块,一个或者多个程序模块被存储于存储介质中,并由一个或多个处理器所执行,以完成本申请实施例。本申请实施例所称的程序模块是指能够完成特定功能的一系列计算机程序指令段,以下描述将具体介绍本实施例中各程序模块的功能。
如图9所示,该虚拟直播装置500可以包括接收模块510、转换模块520和驱动模块530。
接收模块510,用于接收从移动端发送的混合变形数据,其中,混合变形数据为移动端根据面部捕捉数据得到;
转换模块520,用于将混合变形数据转换为与目标模型对应的模型参数;
驱动模块530,用于根据模型参数驱动目标模型。
在示例性的实施例中,该虚拟直播装置500还包括连接模块,其中连接模块用于通过目标连接方式与移动端建立连接,目标连接方法包括USB连接和WIFI连接。
在示例性的实施例中,连接模块还用于:根据输入指令确定目标连接方式;根据目标连接方式创建套接字与移动端建立连接。
在示例性的实施例中,转换模块520还用于:获取预先构建的混合变形数据与模型参数的映射关系;根据映射关系将混合变形数据转换为模型参数。
在示例性的实施例中,混合变形数据为ARKit混合变形数据。
在示例性的实施例中,目标模型为live2d。
实施例三
图10示意性示出了本申请实施例三的虚拟直播系统600的框图,如图所示,包括获取端610和直播端620。可以理解的是,获取端610可以对应图1中的移动端200,而直播端620可以对应图1中的电脑端100。
获取端610,用于获取面部捕捉数据,根据面部捕捉数据确定混合变形数据,将混合变形数据发送至直播端620;
直播端620,用于接收获取端610发送的混合变形数据,将混合变形数据转换为与目标模型对应的模型参数,根据模型参数驱动目标模型。
在示例性的实施例中,直播端620还用于:通过目标连接方式与获取端610建立连接,目标连接方式包括USB连接和WIFI连接。
在示例性的实施例中,直播端620还用于:根据输入指令确定目标连接方式,根据目标连接方式创建套接字与获取端610建立连接。
在示例性的实施例中,直播端620还用于:获取预先构建的混合变形数据与模型参数的映射关系;根据映射关系将混合变形数据转换为模型参数。
在示例性的实施例中,混合变形数据为ARKit混合变形数据。
在示例性的实施例中,目标模型为live2d。
实施例四
图11示意性示出了根据本申请实施例四的适于虚拟直播方法的计算机设备700的硬件架构图。计算机设备700可以是一种能够按照事先设定或者存储的指令,自动进行数值计算和/或数据处理的设备。例如,可以是机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)、网关等。如图11所示,计算机设备700至少包括但不限于:可通过系统总线相互通信链接存储器710、处理器720、网络接口730。其中:
存储器710至少包括一种类型的计算机可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器710可以是计算机设备700的内部存储模块,例如该计算机设备700的硬盘或内存。在另一些实施例中,存储器710也可以是计算机设备700的外部存储设备,例如该计算机设备700上配备的插接式硬盘,智能存储卡(Smart Media Card,简称为SMC),安全数字(Secure Digital,简称为SD)卡,闪存卡(Flash Card)等。当然,存储器710还可以既包括计算机设备700的内部存储模块也包括其外部存储设备。本实施例中,存储器710通常用于存储安装于计算机设备700的操作系统和各类应用软件,例如虚拟直播方法的程序代码等。此外,存储器710还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器720在一些实施例中可以是中央处理器(Central Processing Unit,简称为CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器720通常用于控制计算机设备700的总体操作,例如执行与计算机设备700进行数据交互或者通信相关的控制和处理等。本实施例中,处理器720用于运行存储器710中存储的程序代码或者处理数据。
网络接口730可包括无线网络接口或有线网络接口,该网络接口730通常用于在计算机设备700与其他计算机设备之间建立通信链接。例如,网络接口730用于通过网络将计算机设备700与外部终端相连,在计算机设备700与外部终端之间的建立数据传输通道和通信链接等。网络可以是企业内部网(Intranet)、互联网(Internet)、全球移动通信系统(Global System of Mobile communication,简称为GSM)、宽带码分多址(Wideband CodeDivision Multiple Access,简称为WCDMA)、4G网络、5G网络、蓝牙(Bluetooth)、Wi-Fi等无线或有线网络。
需要指出的是,图11仅示出了具有部件710-730的计算机设备,但是应理解的是,并不要求实施所有示出的部件,可以替代的实施更多或者更少的部件。
在本实施例中,存储于存储器710中的虚拟直播方法还可以被分割为一个或者多个程序模块,并由一个或多个处理器(本实施例为处理器720)所执行,以完成本申请实施例。
实施例五
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质其上存储有计算机程序,计算机程序被处理器执行时实现实施例中的虚拟直播方法的步骤。
本实施例中,计算机可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,计算机可读存储介质可以是计算机设备的内部存储单元,例如该计算机设备的硬盘或内存。在另一些实施例中,计算机可读存储介质也可以是计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,简称为SMC),安全数字(Secure Digital,简称为SD)卡,闪存卡(Flash Card)等。当然,计算机可读存储介质还可以既包括计算机设备的内部存储单元也包括其外部存储设备。本实施例中,计算机可读存储介质通常用于存储安装于计算机设备的操作系统和各类应用软件,例如实施例中虚拟直播的程序代码等。此外,计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的各类数据。
显然,本领域的技术人员应该明白,上述的本申请实施例的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请实施例不限制于任何特定的硬件和软件结合。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种虚拟直播方法,其特征在于,包括:
接收从移动端发送的混合变形数据,其中,所述混合变形数据为所述移动端根据面部捕捉数据得到;
将所述混合变形数据转换为与目标模型对应的模型参数;
根据所述模型参数驱动所述目标模型。
2.根据权利要求1所述的虚拟直播方法,其特征在于,在所述接收从移动端发送的混合变形数据之前,还包括:
通过目标连接方式与所述移动端建立连接,所述目标连接方法包括USB连接和WIFI连接。
3.根据权利要求2所述的虚拟直播方法,其特征在于,所述通过目标连接方式与所述移动端建立连接,包括:
根据输入指令确定目标连接方式;
根据所述目标连接方式创建套接字与所述移动端建立连接。
4.根据权利要求1-3任一项所述的虚拟直播方法,其特征在于,所述将所述混合变形数据转换为与目标模型对应的模型参数,包括:
获取预先构建的所述混合变形数据与所述模型参数的映射关系;
根据所述映射关系将所述混合变形数据转换为所述模型参数。
5.根据权利要求1-3任一项所述的虚拟直播方法,其特征在于,所述混合变形数据为ARKit混合变形数据。
6.根据权利要求1-3任一项所述的虚拟直播方法,其特征在于,所述目标模型为live2d。
7.一种虚拟直播装置,其特征在于,包括:
接收模块,用于接收从移动端发送的混合变形数据,其中,所述混合变形数据为所述移动端根据面部捕捉数据得到;
转换模块,用于将所述混合变形数据转换为与目标模型对应的模型参数;
驱动模块,用于根据所述模型参数驱动所述目标模型。
8.一种虚拟直播系统,其特征在于,包括获取端和直播端;
所述获取端,用于获取面部捕捉数据,根据所述面部捕捉数据确定混合变形数据,将所述混合变形数据发送至所述直播端;
所述直播端,用于接收所述获取端发送的所述混合变形数据,将所述混合变形数据转换为与目标模型对应的模型参数,根据所述模型参数驱动所述目标模型。
9.一种计算机设备,所述计算机设备包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时用于实现权利要求1至6中任一项所述的虚拟直播方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序可被至少一个处理器所执行,以使所述至少一个处理器执行权利要求1至6中任一项所述的虚拟直播方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703499.3A CN115883907A (zh) | 2022-12-28 | 2022-12-28 | 虚拟直播方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211703499.3A CN115883907A (zh) | 2022-12-28 | 2022-12-28 | 虚拟直播方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115883907A true CN115883907A (zh) | 2023-03-31 |
Family
ID=85757020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211703499.3A Pending CN115883907A (zh) | 2022-12-28 | 2022-12-28 | 虚拟直播方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115883907A (zh) |
-
2022
- 2022-12-28 CN CN202211703499.3A patent/CN115883907A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102413150B (zh) | 服务器、虚拟桌面控制方法以及虚拟桌面控制系统 | |
CN111309279B (zh) | 多屏互动显示方法及装置 | |
CN111327758B (zh) | 摄像头共享方法及装置 | |
JP7101780B2 (ja) | App遠隔制御方法及び関連するデバイス | |
US20180285053A1 (en) | Screenshot method and apparatus | |
CN109766163B (zh) | 同步显示方法及装置、存储介质和电子装置 | |
CN111629240B (zh) | 多屏互动显示方法及装置 | |
CN110493028A (zh) | 一种集群部署方法、系统、装置及计算机可读存储介质 | |
CN113608812A (zh) | 远程控制方法、装置、系统及存储介质 | |
CN110275787B (zh) | 在线平台数据传输方法、装置、介质及电子设备 | |
CN111013131A (zh) | 延迟数据获取方法、电子设备及存储介质 | |
CN112328356B (zh) | Android与Windows的互通方法、装置、存储介质及计算机设备 | |
CN112073488A (zh) | 处理请求的方法及装置 | |
CN115883907A (zh) | 虚拟直播方法、装置及系统 | |
CN108616567B (zh) | 一种图片传输方法、系统、服务器、客户端及用户设备 | |
CN104714760A (zh) | 一种读写存储设备的方法及装置 | |
CN113961162A (zh) | 投屏控制方法、投屏发送端、投屏接收端和投屏系统 | |
CN109391817A (zh) | 纹理数据传输方法及装置 | |
CN110971696B (zh) | 一种实现虚拟电子卡通讯的系统和方法 | |
CN113391931A (zh) | 基于蓝牙的远程控制方法、装置、计算机设备和存储介质 | |
CN113467807A (zh) | 游戏更新方法及系统、服务器、电子设备、存储介质 | |
CN110968383B (zh) | 一种消息框的显示方法及装置、终端、存储介质 | |
CN108628683B (zh) | 数据传输方法和装置 | |
CN111651146A (zh) | 一种函数生成方法、装置、设备和介质 | |
CN112468641B (zh) | 程序测试方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |