CN112328085A - 虚拟角色的控制方法、装置、存储介质与电子设备 - Google Patents

虚拟角色的控制方法、装置、存储介质与电子设备 Download PDF

Info

Publication number
CN112328085A
CN112328085A CN202011263011.0A CN202011263011A CN112328085A CN 112328085 A CN112328085 A CN 112328085A CN 202011263011 A CN202011263011 A CN 202011263011A CN 112328085 A CN112328085 A CN 112328085A
Authority
CN
China
Prior art keywords
data
target category
virtual
target
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011263011.0A
Other languages
English (en)
Inventor
王毅
赵冰
谢文政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Boguan Information Technology Co Ltd
Original Assignee
Guangzhou Boguan Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Boguan Information Technology Co Ltd filed Critical Guangzhou Boguan Information Technology Co Ltd
Priority to CN202011263011.0A priority Critical patent/CN112328085A/zh
Publication of CN112328085A publication Critical patent/CN112328085A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供一种虚拟角色的控制方法、装置、存储介质以及电子设备;涉及计算机技术领域。其中,所述虚拟角色的控制方法包括:在姿态数据的候选类别中确定至少一个目标类别;所述候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;获取所述目标类别的姿态数据;利用所述目标类别的姿态数据,控制虚拟角色。本公开通过选择不同的数据来源,提高虚拟表演对复杂的业务需求场景的适应性。

Description

虚拟角色的控制方法、装置、存储介质与电子设备
技术领域
本公开涉及计算机技术领域,尤其涉及一种虚拟角色的控制方法、虚拟角色的控制装置、计算机可读存储介质与电子设备。
背景技术
虚拟角色,例如:初音未来、洛天依、东方栀子等,作为技术文化、偶像文化和二次元文化结合的产物,逐渐吸引着越来越多的年轻人。为了能够让虚拟角色更加生动鲜活,虚拟角色被用于进行即时直播表演。
相关技术中,当虚拟角色在进行表演时,对于不同的表演,需要单独的配置相应的表演数据。随着业务需求不断多样化,所需的表演数据来源不一,无法实现虚拟表演的规范化和统一化,无法适应于复杂的业务需求场景。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种虚拟角色的控制方法、虚拟角色的控制装置、计算机可读存储介质与电子设备,进而至少在一定程度上解决相关技术中无法支持多种业务使用需求的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种虚拟角色的控制方法,包括:在姿态数据的候选类别中确定至少一个目标类别;所述候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;获取所述目标类别的姿态数据;利用所述目标类别的姿态数据,控制虚拟角色。
在本公开的一种示例性实施例中,当所述目标类别包括脸部表情时,所述获取所述目标类别的姿态数据,包括:获取由摄像头采集的脸部视频,并生成所述脸部视频对应的脸部表情数据。
在本公开的一种示例性实施例中,当所述目标类别包括口型时,所述获取所述目标类别的姿态数据,包括:根据虚拟表演任务的台词数据,生成对应的口型数据。
在本公开的一种示例性实施例中,当所述目标类别包括身体动作时,所述获取所述目标类别的姿态数据,包括:获取由动作捕捉设备采集的身体动作数据;所述身体动作数据包括上半身动作数据、下半身动作数据、全身动作数据中的至少一种。
在本公开的一种示例性实施例中,当所述目标类别包括手势时,所述获取所述目标类别的姿态数据,包括:获取由手势捕捉设备采集的手势数据。
在本公开的一种示例性实施例中,所述获取所述目标类别的姿态数据,包括:获取虚拟表演任务中的固定表演所对应的预设姿态数据。
在本公开的一种示例性实施例中,所述获取所述目标类别的姿态数据,包括:通过预先在每个所述目标类别的多种数据来源中确定的第一数据来源,获取所述目标类别的姿态数据。
在本公开的一种示例性实施例中,所述在姿态数据的候选类别中确定至少一个目标类别,包括:获取虚拟表演任务的任务类型;在所述姿态数据的所述候选类别中确定与所述任务类型对应的至少一个所述目标类别。
在本公开的一种示例性实施例中,所述在姿态数据的候选类别中确定至少一个目标类别,还包括:获取用户为虚拟表演任务选择的配置参数,根据所述配置参数确定目标类别。
在本公开的一种示例性实施例中,所述根据所述配置参数确定目标类别,包括:获取所述配置参数所对应的配置方案,所述配置方案包括所述目标类别。
在本公开的一种示例性实施例中,所述配置方案还包括:每个所述目标类别的第一数据来源。
根据本公开的一种示例性实施例中,在控制所述虚拟角色的过程中,所述方法还包括:响应于用户修改所述目标类别,根据修改后的所述目标类别获取姿态数据,以利用所述姿态数据继续控制所述虚拟角色。
根据本公开的第二方面,提供一种虚拟角色的控制装置,包括:类别确定模块,用于在姿态数据的候选类别中确定至少一个目标类别;所述候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;数据获取模块,用于获取所述目标类别的姿态数据;控制模块,用于利用所述目标类别的姿态数据,控制虚拟角色进行表演。
根据本公开的第三方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述虚拟角色的控制方法。
根据本公开的第四方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述虚拟角色的控制方法。
本公开的技术方案具有以下有益效果:
上述虚拟角色的控制过程中,首先在姿态数据的候选类别中确定至少一个目标类别,该候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种,接着获取所确定的目标类别中的姿态数据,并利用所获取的姿态数据,控制虚拟角色。由于候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种,候选类别中能够包含多种业务场景下所需的多种姿态数据,提高了数据部署的灵活性,同时增强了开发模块的通用性。从候选类别中进行目标类别的选取,进而获取相应的姿态数据,能够实现多种业务场景下对数据的获取,对多业务场景模式的支持,进一步提升虚拟表演的丰富性。通过设置候选类别,一方面可以满足不同表演的需求,进而实现虚拟表演系统的规范化和统一化,另一方面有利于对姿态数据的协调和适配,进而提升虚拟角色业务切换的流畅性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施方式,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本示例性实施方式中一种虚拟角色的控制方法的流程图;
图2示出本示例性实施方式中一种第一数据来源配置的示例图;
图3示出本示例性实施方式中一种参数配置的示例图;
图4示出本示例性实施方式中一种虚拟角色的控制系统的示例图;
图5示出本示例性实施方式中另一种虚拟角色的控制系统的示例图;
图6示出本示例性实施方式中一种虚拟角色的控制装置图;
图7示出本示例性实施方式中一种用于实现上述方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
相关技术中,当控制虚拟角色进行表演时,对于不同的表演,需要单独的配置相应的表演数据,系统不具有规范化和统一化。例如,当虚拟角色在进行半身直播时,需要配置半身直播所需的表演数据,当虚拟角色进行虚拟赛事主播时,需要配置虚拟赛事主播所需的表演数据,两种不同的表演配置过程相互独立,独立配置过程不仅复杂而且耗时。随着业务需求不断多样化,所需的表演数据来源不一,由于无法实现虚拟表演的规范化和统一化,很难适应于复杂的业务需求场景。
鉴于上述一个或多个问题,本公开的示例性实施方式提供一种虚拟角色的控制方法。
图1示出了本示例性实施方式中虚拟角色的控制方法的示意性流程,包括以下步骤S110至S130:
步骤S110,在姿态数据的候选类别中确定至少一个目标类别;候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种。
步骤S120,获取目标类别的姿态数据。
步骤S130,利用目标类别的姿态数据,控制虚拟角色。
上述虚拟角色的控制过程中,首先在姿态数据的候选类别中确定至少一个目标类别,该候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种,接着获取所确定的目标类别中的姿态数据,并利用所获取的姿态数据,控制虚拟角色进行表演。由于候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种,候选类别中能够包含多种业务场景下所需的多种姿态数据,提高了数据部署的灵活性,同时增强了开发模块的通用性。从候选类别中进行目标类别的选取,进而获取相应的姿态数据,能够实现多种业务场景下对数据的获取,对多业务场景模式的支持,进一步提升虚拟表演的丰富性。通过设置候选类别,一方面可以满足不同表演的需求,进而实现虚拟表演系统的规范化和统一化,另一方面有利于对姿态数据的协调和适配,进而提升虚拟角色业务切换的流畅性。
下面分别对图1中的每个步骤进行具体说明。
步骤S110中,在姿态数据的候选类别中确定至少一个目标类别;候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种。
姿态数据可以是脸部表情数据、口型数据、头部动作数据、手势数据、身体动作数据等数据。候选类别中的身体动作可以进一步划分为上半身动作、下半身动作以及全身动作几个子类别。目标类别是与虚拟表演任务相关的类别。虚拟表演任务是指控制虚拟角色进行的表演。在姿态数据的候选类别中确定的目标类别至少为一个,例如,在进行半身直播时,可以将候选类别中的脸部表情、口型、上半身动作确定为目标类别;在虚拟赛事主播时,可以将候选类别中的脸部表情、口型、全身动作确定为目标类别;在进行录播时,可以将候选类别中的口型、手势、全身动作确定为目标类别;在可交互虚拟直播时,可以将脸部表情和口型确定为目标类别。
步骤S120中,获取目标类别的姿态数据。
姿态数据可以通过各种硬件或软件进行获取。目标类别的姿态数据与虚拟表演任务相互关联,是根据步骤S110确定的目标类别所对应的姿态数据,系统为虚拟表演任务分配唯一标识(ID),在获取姿态数据时,将姿态数据记录在虚拟表演任务的ID所对应的数据集合(数据空间)内,由此实现姿态数据与虚拟表演任务的关联,并实现不同虚拟表演任务之间的数据隔离。
在一种可选的实施方式中,当目标类别包括脸部表情时,获取目标类别的姿态数据,包括:获取由摄像头采集的脸部视频,并生成脸部视频对应的脸部表情数据。
可以通过不同类型的硬件与软件,获取具有不同效果的脸部视频。例如,软件可以是3D摄像头管理软件RealSense、面部动作捕捉软件FaceWare以及脸部认证软件FaceID等脸部数据处理软件。此外,摄像头可以是普通摄像头,也可以是深度摄像,本公开并不限于这两种类型的摄像头。
上述过程中,通过对脸部表情进行采集,获取到相应的脸部表情数据,对虚拟角色进行虚拟表演所需的脸部表情数据进行了采集。
在一种可选的实施方式中,当目标类别包括口型时,获取目标类别的姿态数据,包括:根据虚拟表演任务的台词数据,生成对应的口型数据。
口型数据可以通过口型处理软件对台词数据进行处理而获取,例如采用音频口型插件OVRLipSync,将台词数据对应的音频数据输入该插件中,可以输出对应的口型数据。此外,在生成口型数据时,可以通过设置多种内置函数对口型进行优化处理,如捋顺口型变化、增强口型识别效果等。
需要说明的是,台词数据并不仅限于一种语言。特别当上述台词数据为中文时,对口型优化处理可以包括以下过程:
①对获取的台词数据所对应的音频数据的音量进行放大,例如b=m*a,输入a,输出b,其中a为获取到的音频数据,b为放大音量后的音频数据,m为可调节参数。
②提高主语素识别通道的语素值,降低其他语素识别通道的语素值。通过语素识别通道对放大音量后的音频数据进行语素识别处理,获得中文识别语素。
③将获得的中文识别语素的语素值控制在1之内,获得受控中文识别语素。可以通过y=nlog(x)函数进行控制,其中x为中文识别语素数据,y为受控中文识别语素数据,n为可调节参数,也可以使用其他函数进行替代。上述语素值决定了口型的张开程度,与音量挂钩,数值范围是0至1。
④对获得的受控中文识别语素数据对应的口型数据进行平滑处理,获得中文识别处理后的口型数据。
上述过程中,生成的口型数据可以用于控制虚拟角色的口型变化,使得虚拟角色能够模拟人说话或者唱歌时的口型状态,使得表演更加生动形象。
一种可选的实施方式中,当目标类别包括身体动作时,获取目标类别的姿态数据,包括:获取由动作捕捉设备采集的身体动作数据;身体动作数据包括上半身动作数据、下半身动作数据、全身动作数据中的至少一种。
动作捕捉设备可以捕捉真人的动作数据,例如在虚拟表演中,真人进行表演时,动作捕捉设备捕捉其动作数据,并映射为虚拟角色的动作数据。动作捕捉设备可以是光学动捕设备(如:全身动作捕捉系统Optitrack)、惯性动作捕捉设备以及虚拟现实设备等。动作捕捉设备可以通过不同的方案实现动作识别,包括但不限于光学动作捕捉方案、惯性动作捕捉方案、虚拟现实方案等。
在一种可选的实施方式中,在长时间站定不动的播报类节目形式中,可以将虚拟角色的上半身和下半身分开,在表演过程中由动作捕捉设备提供上半身的动作,下半身从腰部骨架往下设置为固定的随机待机动作。
上述过程中,获取的身体动作数据,可以用于控制虚拟角色上半身和下半身执行相应的动作,为虚拟角色提供身体动作的数据来源。
一种可选的实施方式中,当目标类别包括手势时,获取目标类别的姿态数据,包括:获取由手势捕捉设备采集的手势数据。
手势数据可以由手势捕捉设备(如:体感控制器LeapMotion)进行获取。此外,在手势捕捉之后,可以将捕捉的手势动作进行精修。在虚拟表演过程中,当需要对手势进行近景和特写展示时,可以使用经过精修后的手势数据,这样可以防止由于手势捕捉设备捕捉精度不够导致的手势出现穿插或变形,从而提高动作观赏度。
上述过程中,通过手势捕捉设备获取的手势数据,为虚拟角色的表演提供了手势动作的数据来源。
一种可选的实施方式中,获取目标类别的姿态数据,包括:获取虚拟表演任务中的固定表演所对应的预设姿态数据。
虚拟角色在进行固定表演时,可以采用预设的姿态数据进行表演。例如,虚拟角色入场时进行固定表演,以及观众点播舞蹈时的点播了整条舞蹈动作的情况下,可以通过预设姿态数据控制虚拟角色进行表演。例如在进行长时间站定不动的播报时,采用预先设置的下半身数据控制虚拟角色的表演。
上述过程中,根据虚拟角色的表演任务,对预设姿态数据进行了获取,获取的预设姿态数据可以控制虚拟角色进行表演,采用预先设置的姿态数据,避免了对可重复性表演的表演数据进行重复采集,以及实时表演中的一些不可控因素对表演效果产生的负面影响,比如动作演员忘记表演动作、采集设备出现故障等,不仅可以降低实时表演的风险,还可以降低数据采集的成本。
一种可选的实施方式中,获取目标类别的姿态数据,包括:通过预先在每个目标类别的多种数据来源中确定的第一数据来源,获取上述目标类别的姿态数据。
每个目标类别中可以包含多个数据来源,可以从多个数据来源中为虚拟表演确定第一数据来源,例如,在虚拟赛事主播时,可以将第一数据来源设置为图2所示的配置,3D摄像头管理软件RealSense作为脸部表情数据来源,音频口型插件OVRLipSync作为口型数据来源、惯性动作捕捉设备作为身体数据来源,从而获取所确定的数据来源的姿态数据。
一种可选的实施方式中,在姿态数据的候选类别中确定至少一个目标类别,包括:获取虚拟表演任务的任务类型;在姿态数据的候选类别中确定与任务类型对应的至少一个目标类别。
上述过程根据表演任务的任务类型自动选择目标类别。虚拟表演任务的任务类型是虚拟表演任务的划分,虚拟表演任务的任务类别可以划分为半身直播、虚拟赛事主播、录播以及可交互虚拟直播等。例如识别到的表演任务的任务类型是“半身直播”,则自动选择对应的目标类别,如脸部表情、语音识别口型、预制上身动作。
一种可选的实施方式中,在姿态数据的候选类别中确定至少一个目标类别,还包括:响应针对姿态数据的类别选择操作,在姿态数据的候选类别中确定至少一个目标类别。
可以通过设置类别选择操作界面,使用户可以在类别操作选择界面手动进行类别选择。通过响应用户的类别选择操作,将用户手动选取的类别作为目标类别。例如,在类别选择操作界面中,手动选择目标类别:脸部表情、语音识别口型、预制上身动作。
一种可选的实施方式中,在姿态数据的候选类别中确定至少一个目标类别,还包括:获取用户为虚拟表演任务选择的配置参数,根据配置参数确定目标类别。
配置参数用来配置虚拟表演的目标类别,如图3所示,配置参数包括:身体控制参数、表情控制参数、手势输入参数、语音输入参数,通过对配置参数对应的输入控制区进行设置,确定相应的目标类别。
一种可选的实施方式中,根据配置参数确定目标类别,包括:获取配置参数所对应的配置方案,配置方案包括目标类别。
每个配置参数可以代表一种配置方案,不同的配置方案对应不同的目标类别组合方式,通过设置配置参数获取所需的配置方案,获取方式简单高效。
例如,通过设置枚举变量参数,将各个目标类别的不同组合方式对应不同的枚举变量值,设置不同的枚举变量值,相当于选取不同的目标类别组合,直接通过配置参数确定目标类别,简化了获取目标类别的过程。
一种可选的实施方式中,配置方案还包括:每个目标类别的第一数据来源。
在配置方案中,为每个目标类别设置第一数据来源。此外,还可以为每种配置方案设置默认数据来源,设置的默认数据来源可以是比较常用的数据来源,以便减少对配置方案中各个目标类别下的数据来源的配置。
步骤S130中,利用目标类别的姿态数据,控制虚拟角色。
一种可选的实施方式中,在控制虚拟角色的过程中,还包括:响应于用户修改目标类别,根据修改后的目标类别获取姿态数据,以利用姿态数据继续控制虚拟角色。
在虚拟角色在表演过程中,当表演需求发生变化,可以通过修改目标类别,获取虚拟角色接下来的表演所需的姿态数据。
图4提供了一种虚拟角色的控制系统的示例图,具体描述如下。
该系统中表演节目的类型包括半身直播、虚拟赛事主播、录播以及可交互虚拟直播。候选类别包括动作、表情和手势,其中表情类别中包含了面部和嘴型两个子类别。上述类别(包括子类别)可以分别通过动捕、面捕、嘴型识别以及手势捕捉方式去获取相应的姿态数据。每个类别(包括子类别)下包含了多个数据来源,图4中动作类别包含的数据来源有光学动捕设备、惯性动捕设备以及虚拟现实设备;面部类别包含的数据来源有3D摄像头管理软件RealSense、面部动作捕捉软件FaceWare以及脸部认证软件FaceID等;嘴型类别包含的数据来源有音频口型插件OVRLipSync;手势类别包含的数据来源有体感控制器LeapMotion。当虚拟角色的表演节目发生变化时,例如,虚拟角色的表演任务由半身直播转换为虚拟赛事主播,在进行半身直播时,确定的目标类别为动作类别、面部类别、以及嘴型类别,确定各个目标类别下的数据来源分别为光学动捕设备、3D摄像头管理软件RealSense以及音频口型插件OVRLipSync,在进行虚拟赛事主播时,确定的目标类别为动作类别、面部类别、以及嘴型类别,确定的各个目标类别的数据来源分别为惯性动捕设备、3D摄像头管理软件RealSense以及音频口型插件OVRLipSync,在进行表演任务的转换时,可以将动作类别下的数据来源从光学动捕设备直接切换至惯性动捕设备即可完成数据来源的切换操作,通过切换后的数据来源获取相应的姿态数据,将获取到的姿态数据进行合成调度,来控制虚拟角色完成虚拟赛事主播表演任务。
在一种可选的实施方式中,配置虚拟表演任务的目标类别以及数据来源时,还可以对虚拟角色的模型数据进行调节优化。例如,
图5示出了另一种虚拟角色的控制系统的示例图,与图4的不同之处在于,图5中增加了对虚拟角色模型参数的调节环节,如:毛发模拟参数调节和布料模拟参数调节环节,对虚拟角色的毛发及所穿衣服布料进行了配置,使得能够根据表演场景为虚拟角色选择合适的毛发及布料。除此之外,还可以增加对虚拟角色的肤色、配饰等进行调节的相应功能,以更好地适配于不同的表演场景。
本公开的示例性实施方式还提供一种虚拟角色的控制装置。如图6所示,该虚拟角色的控制装置600可以包括:
类别确定模块610,用于在姿态数据的候选类别中为虚拟表演任务确定至少一个目标类别;候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;
数据获取模块620,用于获取与虚拟表演任务关联的目标类别的姿态数据;
控制模块630,用于利用目标类别的姿态数据,控制虚拟表演任务中的虚拟角色进行表演。
在一种可选的实施方式中,当目标类别包括脸部表情时,数据获取模块620,被配置为:获取由摄像头采集的脸部视频,并生成脸部视频对应的脸部表情数据。
在一种可选的实施方式中,当目标类别包括口型时,数据获取模块620,被配置为:根据虚拟表演任务的台词数据,生成对应的口型数据。
在一种可选的实施方式中,当目标类别包括身体动作时,数据获取模块620,被配置为:获取由动作捕捉设备采集的身体动作数据;身体动作数据包括上半身动作数据、下半身动作数据、全身动作数据中的至少一种。
在一种可选的实施方式中,当目标类别包括手势时,数据获取模块620,被配置为:获取由手势捕捉设备采集的手势数据。
在一种可选的实施方式中,数据获取模块620,还被配置为:获取所述虚拟表演任务中的固定表演所对应的预设姿态数据。
在一种可选的实施方式中,数据获取模块620,还被配置为:通过预先在每个目标类别的多种数据来源中确定的第一数据来源,获取目标类别的姿态数据。
一种可选的实施方式中,类别确定模块610,可以被配置为:在姿态数据的候选类别中确定至少一个目标类别,包括:获取虚拟表演任务的任务类型;在姿态数据的候选类别中确定与任务类型对应的至少一个目标类别。
在一种可选的实施方式中,类别确定模块610,包括:类别确定子模块,用于获取用户为虚拟表演任务选择的配置参数,根据配置参数确定目标类别。
在一种可选的实施方式中,类别确定子模块,被配置为:获取配置参数所对应的配置方案,配置方案包括目标类别。
在一种可选的实施方式中,配置方案包括:每个目标类别的第一数据来源。
在一种可选的实施方式中,控制表演模块630,还用于响应于用户修改所述目标类别,根据修改后的所述目标类别获取姿态数据,以利用所述姿态数据继续控制虚拟角色。
上述虚拟角色的控制装置600中各部分的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使电子设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。该程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本公开的示例性实施方式还提供了一种能够实现上述方法的电子设备。下面参照图7来描述根据本公开的这种示例性实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施方式的功能和使用范围带来任何限制。
如图7所示,电子设备700可以以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:至少一个处理单元710、至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730和显示单元740。
存储单元720存储有程序代码,程序代码可以被处理单元710执行,使得处理单元710执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元710可以执行图1中任意一个或多个方法步骤。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)721和/或高速缓存存储单元722,还可以进一步包括只读存储单元(ROM)723。
存储单元720还可以包括具有一组(至少一个)程序模块725的程序/实用工具724,这样的程序模块725包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备800(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施方式的方法。
此外,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限定。

Claims (15)

1.一种虚拟角色的控制方法,其特征在于,包括:
在姿态数据的候选类别中确定至少一个目标类别;所述候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;
获取所述目标类别的姿态数据;
利用所述目标类别的姿态数据,控制虚拟角色。
2.根据权利要求1所述的方法,其特征在于,当所述目标类别包括脸部表情时,所述获取所述目标类别的姿态数据,包括:
获取由摄像头采集的脸部视频,并生成所述脸部视频对应的脸部表情数据。
3.根据权利要求1所述的方法,其特征在于,当所述目标类别包括口型时,所述获取所述目标类别的姿态数据,包括:
根据虚拟表演任务的台词数据,生成对应的口型数据。
4.根据权利要求1所述的方法,其特征在于,当所述目标类别包括身体动作时,所述获取所述目标类别的姿态数据,包括:
获取由动作捕捉设备采集的身体动作数据;所述身体动作数据包括上半身动作数据、下半身动作数据、全身动作数据中的至少一种。
5.根据权利要求1所述的方法,其特征在于,当所述目标类别包括手势时,所述获取所述目标类别的姿态数据,包括:
获取由手势捕捉设备采集的手势数据。
6.根据权利要求1所述的方法,其特征在于,所述获取所述目标类别的姿态数据,包括:
获取虚拟表演任务中的固定表演所对应的预设姿态数据。
7.根据权利要求1所述的方法,其特征在于,所述获取所述目标类别的姿态数据,包括:
通过预先在每个所述目标类别的多种数据来源中确定的第一数据来源,获取所述目标类别的姿态数据。
8.根据权利要求1所述的方法,其特征在于,所述在姿态数据的候选类别中确定至少一个目标类别,包括:
获取虚拟表演任务的任务类型;
在所述姿态数据的所述候选类别中确定与所述任务类型对应的至少一个所述目标类别。
9.根据权利要求1所述的方法,其特征在于,所述在姿态数据的候选类别中确定至少一个目标类别,还包括:
获取用户为虚拟表演任务选择的配置参数,根据所述配置参数确定目标类别。
10.根据权利要求9所述的方法,其特征在于,所述根据所述配置参数确定目标类别,包括:
获取所述配置参数所对应的配置方案,所述配置方案包括所述目标类别。
11.根据权利要求10所述的方法,其特征在于,所述配置方案还包括:
每个所述目标类别的第一数据来源。
12.根据权利要求1所述的方法,其特征在于,在控制所述虚拟角色的过程中,所述方法还包括:
响应于用户修改所述目标类别,根据修改后的所述目标类别获取姿态数据,以利用所述姿态数据继续控制所述虚拟角色。
13.一种虚拟角色的控制装置,其特征在于,包括:
类别确定模块,用于在姿态数据的候选类别中确定至少一个目标类别;所述候选类别包括脸部表情、口型、头部动作、手势、身体动作中的任意多种;
数据获取模块,用于获取所述目标类别的姿态数据;
控制模块,用于利用所述目标类别的姿态数据,控制虚拟角色。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12任一项所述的方法。
15.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至12任一项所述的方法。
CN202011263011.0A 2020-11-12 2020-11-12 虚拟角色的控制方法、装置、存储介质与电子设备 Pending CN112328085A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011263011.0A CN112328085A (zh) 2020-11-12 2020-11-12 虚拟角色的控制方法、装置、存储介质与电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011263011.0A CN112328085A (zh) 2020-11-12 2020-11-12 虚拟角色的控制方法、装置、存储介质与电子设备

Publications (1)

Publication Number Publication Date
CN112328085A true CN112328085A (zh) 2021-02-05

Family

ID=74318126

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011263011.0A Pending CN112328085A (zh) 2020-11-12 2020-11-12 虚拟角色的控制方法、装置、存储介质与电子设备

Country Status (1)

Country Link
CN (1) CN112328085A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023279705A1 (zh) * 2021-07-07 2023-01-12 上海商汤智能科技有限公司 直播方法、装置、系统、计算机设备、存储介质及程序
CN115999156A (zh) * 2023-03-24 2023-04-25 深圳游禧科技有限公司 角色控制方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
US20170212598A1 (en) * 2016-01-26 2017-07-27 Infinity Augmented Reality Israel Ltd. Method and system for generating a synthetic database of postures and gestures
CN107765852A (zh) * 2017-10-11 2018-03-06 北京光年无限科技有限公司 基于虚拟人的多模态交互处理方法及系统
CN109547806A (zh) * 2018-10-23 2019-03-29 佟志强 一种ar替身直播方法
CN109643153A (zh) * 2016-06-06 2019-04-16 杜瓦娱乐有限公司 用于影响增强现实的虚拟对象的设备
CN110465097A (zh) * 2019-09-09 2019-11-19 网易(杭州)网络有限公司 游戏中的角色立绘显示方法及装置、电子设备、存储介质
CN111145322A (zh) * 2019-12-26 2020-05-12 上海浦东发展银行股份有限公司 用于驱动虚拟形象的方法、设备和计算机可读存储介质
CN111862280A (zh) * 2020-08-26 2020-10-30 网易(杭州)网络有限公司 虚拟角色控制方法、系统、介质及电子设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101931621A (zh) * 2010-06-07 2010-12-29 上海那里网络科技有限公司 一种借助虚拟形象进行情感交流的装置和方法
US20170212598A1 (en) * 2016-01-26 2017-07-27 Infinity Augmented Reality Israel Ltd. Method and system for generating a synthetic database of postures and gestures
CN109643153A (zh) * 2016-06-06 2019-04-16 杜瓦娱乐有限公司 用于影响增强现实的虚拟对象的设备
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
CN107765852A (zh) * 2017-10-11 2018-03-06 北京光年无限科技有限公司 基于虚拟人的多模态交互处理方法及系统
CN109547806A (zh) * 2018-10-23 2019-03-29 佟志强 一种ar替身直播方法
CN110465097A (zh) * 2019-09-09 2019-11-19 网易(杭州)网络有限公司 游戏中的角色立绘显示方法及装置、电子设备、存储介质
CN111145322A (zh) * 2019-12-26 2020-05-12 上海浦东发展银行股份有限公司 用于驱动虚拟形象的方法、设备和计算机可读存储介质
CN111862280A (zh) * 2020-08-26 2020-10-30 网易(杭州)网络有限公司 虚拟角色控制方法、系统、介质及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023279705A1 (zh) * 2021-07-07 2023-01-12 上海商汤智能科技有限公司 直播方法、装置、系统、计算机设备、存储介质及程序
CN115999156A (zh) * 2023-03-24 2023-04-25 深圳游禧科技有限公司 角色控制方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN104049721B (zh) 信息处理方法及电子设备
JP2021192222A (ja) 動画インタラクティブ方法と装置、電子デバイス、コンピュータ可読記憶媒体、及び、コンピュータプログラム
CN107240319B (zh) 一种用于k12阶段的互动情景教学系统
CN106445156A (zh) 一种基于虚拟现实的智能家居控制的方法、装置以及终端
CN113593351A (zh) 一种立体综合教学场系统及其工作方法
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
CN103258338A (zh) 利用真实数据来驱动仿真的虚拟环境的方法和系统
JP7209851B2 (ja) 画像変形の制御方法、装置およびハードウェア装置
CN112328085A (zh) 虚拟角色的控制方法、装置、存储介质与电子设备
CN111179392A (zh) 一种基于5g通信的虚拟偶像综艺直播的方法及系统
CN109739353A (zh) 一种基于手势、语音、视线追踪识别的虚拟现实交互系统
CN112601098A (zh) 直播互动方法、内容推荐方法及装置
CN110543239A (zh) 数字化互动展览综合应用系统
JP7370525B2 (ja) 動画配信システム、動画配信方法および動画配信プログラム
CN108958731A (zh) 一种应用程序界面生成方法、装置、设备和存储介质
CN108665510A (zh) 连拍图像的渲染方法、装置、存储介质及终端
CN113191184A (zh) 实时视频处理方法、装置、电子设备及存储介质
JP7373599B2 (ja) 動画を作成するためのシステム、方法、及びプログラム
CN106716501A (zh) 一种可视化装修设计方法及其装置、机器人
CN106331525A (zh) 一种互动电影的实现方法
CN116016817A (zh) 视频剪辑方法、装置、电子设备及存储介质
CN115631287A (zh) 一种虚拟舞台人物数字化展现系统
KR20220116440A (ko) 증강 현실 기반 디스플레이 방법, 기기, 저장매체 및 프로그램 제품
CN112381709A (zh) 图像处理方法、模型训练方法、装置、设备和介质
CN112686990A (zh) 一种三维模型显示方法、装置、存储介质和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination