CN113050859B - 交互对象的驱动方法、装置、设备以及存储介质 - Google Patents

交互对象的驱动方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN113050859B
CN113050859B CN202110417558.XA CN202110417558A CN113050859B CN 113050859 B CN113050859 B CN 113050859B CN 202110417558 A CN202110417558 A CN 202110417558A CN 113050859 B CN113050859 B CN 113050859B
Authority
CN
China
Prior art keywords
body part
control
local
control parameter
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110417558.XA
Other languages
English (en)
Other versions
CN113050859A (zh
Inventor
孙林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202110417558.XA priority Critical patent/CN113050859B/zh
Publication of CN113050859A publication Critical patent/CN113050859A/zh
Priority to PCT/CN2022/074976 priority patent/WO2022222572A1/zh
Priority to TW111112375A priority patent/TW202242610A/zh
Application granted granted Critical
Publication of CN113050859B publication Critical patent/CN113050859B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了一种交互对象的驱动方法、装置、设备以及存储介质,所述方法包括:获取所述交互对象的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位;根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化。

Description

交互对象的驱动方法、装置、设备以及存储介质
技术领域
本公开涉及计算机技术领域,具体涉及一种交互对象的驱动方法、装置、设备以及存储介质。
背景技术
虚拟对象的驱动是人机交互领域的重要研究内容。相关技术中,通常根据虚拟对象的多个身体部位的控制参数来控制所述虚拟对象的姿态,然而根据所述控制参数所实现的身体部位的姿态幅度是固定的,例如控制虚拟对象做出的招手的幅度、微笑的幅度等都是固定的,无法适配不同的交互场景或者不同的交互状态。
发明内容
本公开实施例提供一种交互对象的驱动方案。
根据本公开的一方面,提供一种交互对象的驱动方法,包括:获取所述交互对象的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位;根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化。
结合本公开提供的任一实施方式,所述根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,包括:根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述第一控制参数包括至少一个第一子控制层,所述第一子控制层用于控制所述至少一个身体部位中的一个身体部位的姿态;所述第二控制参数包括至少一个第二子控制层,所述第二子控制层用于控制所述目标身体部位的姿态;所述根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态,包括:利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述身体部位的第一子控制层包括所述身体部位中的至少一个局部姿态的局部控制参数;所述目标身体部位的第二子控制层包括所述目标身体部位的至少一个局部姿态的局部控制参数。
结合本公开提供的任一实施方式,每个所述第一子控制层和每个所述第二子控制层分别具有权重系数,所述利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态,包括:根据所述目标身体部位的第一子控制层所包括的局部姿态的局部控制参数,以及对应的权重系数,得到第一局部参数值;根据所述目标身体部位的第二子控制层所包含的局部姿态的局部控制参数,以及对应的权重系数,得到第二局部参数值;根据所述第一局部参数值和所述第二局部参数值,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述方法还包括:响应于多个第一子控制层中的第一层和第二层包含至少部分相同的局部姿态的局部控制参数,且所述局部控制参数的值不同,根据所述第一层和所述第二层之间的优先级关系,确定所述第一层和所述第二层对应的权重系数;和/或,响应于所述目标身体部位的第一子控制层与第二子控制层包含至少部分相同的局部姿态的局部控制参数,且局部控制参数的值不同,根据所述第一子控制层和所述第二子控制层之间的优先级关系,确定所述第一子控制层和所述第二子控制层的权重系数。
结合本公开提供的任一实施方式,所述获取所述交互对象的第一控制参数,包括:获取所述交互对象的回应文本,所述回应文本包含至少一个身体部位的姿态信息;根据所述至少一个身体部位的姿态信息,获取所述至少一个身体部位的第一控制参数。
结合本公开提供的任一实施方式,所述方法还包括:响应于所述第一控制参数中包含所述目标身体部位的设定姿态的第一姿态控制参数;所述根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,包括:根据当前交互状态确定所述目标身体部位的设定姿态对应的目标姿态;根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数。
结合本公开提供的任一实施方式,所述根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数,包括:根据所述目标姿态与所述设定姿态之间的幅度比例,对所述第一姿态控制参数进行变换,得到所述目标姿态对应的第二姿态控制参数。
结合本公开提供的任一实施方式,所述根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,包括:在根据所述第一控制参数控制所述交互对象的姿态的过程中,响应于运行至所述设定姿态的第一姿态控制参数,根据所述设定姿态对应的目标姿态的第二姿态控制参数驱动所述交互对象实现所述目标姿态。
结合本公开提供的任一实施方式,所述身体部位的姿态包括以下至少一项:面部表情、肢体动作、面部动作、口型。
结合本公开提供的任一实施方式,所述方法还包括:根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果;所述回应文本中所包含的关键字;所述回应文本所指示的当前交互意图;当前交互场景。
根据本公开的一方面,提出一种交互对象的驱动装置,所述装置包括:第一获取单元,用于获取所述交互对象的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;第二获取单元,用于根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位;控制单元,用于根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化。
结合本公开提供的任一实施方式,所述控制单元具体用于:根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述第一控制参数包括至少一个第一子控制层,所述第一子控制层用于控制所述至少一个身体部位中的一个身体部位的姿态;所述第二控制参数包括至少一个第二子控制层,所述第二子控制层用于控制所述目标身体部位的姿态;所述控制单元在用于根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态时,具体用于:利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述身体部位的第一子控制层包括所述身体部位中的至少一个局部姿态的局部控制参数;所述目标身体部位的第二子控制层包括所述目标身体部位的至少一个局部姿态的局部控制参数。
结合本公开提供的任一实施方式,每个所述第一子控制层和每个所述第二子控制层分别具有权重系数,所述控制单元在用于利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态时,具体用于:根据所述目标身体部位的第一子控制层所包括的局部姿态的局部控制参数,以及对应的权重系数,得到第一局部参数值;根据所述目标身体部位的第二子控制层所包含的局部姿态的局部控制参数,以及对应的权重系数,得到第二局部参数值;根据所述第一局部参数值和所述第二局部参数值,控制所述目标身体部位的姿态。
结合本公开提供的任一实施方式,所述装置还包括确定单元,用于响应于多个第一子控制层中的第一层和第二层包含至少部分相同的局部姿态的局部控制参数,且所述局部控制参数的值不同,根据所述第一层和所述第二层之间的优先级关系,确定所述第一层和所述第二层对应的权重系数;和/或,响应于所述目标身体部位的第一子控制层与第二子控制层包含至少部分相同的局部姿态的局部控制参数,且局部控制参数的值不同,根据所述第一子控制层和所述第二子控制层之间的优先级关系,确定所述第一子控制层和所述第二子控制层的权重系数。
结合本公开提供的任一实施方式,所述第一获取单元具体用于:获取所述交互对象的回应文本,所述回应文本包含至少一个身体部位的姿态信息;根据所述至少一个身体部位的姿态信息,获取所述至少一个身体部位的第一控制参数。
结合本公开提供的任一实施方式,响应于所述第一控制参数中包含所述目标身体部位的设定姿态的第一姿态控制参数,所述第二获取单元具体用于:根据当前交互状态确定所述目标身体部位的设定姿态对应的目标姿态;根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数。
结合本公开提供的任一实施方式,所述第二获取单元在用于根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数时,具体用于:根据所述目标姿态与所述设定姿态之间的幅度比例,对所述第一姿态控制参数进行变换,得到所述目标姿态对应的第二姿态控制参数。
结合本公开提供的任一实施方式,所述控制单元具体用于:在根据所述第一控制参数控制所述交互对象的姿态的过程中,响应于运行至所述设定姿态的第一姿态控制参数,根据所述设定姿态对应的目标姿态的第二姿态控制参数驱动所述交互对象实现所述目标姿态。
结合本公开提供的任一实施方式,所述身体部位的姿态包括以下至少一项:面部表情、肢体动作、面部动作、口型。
结合本公开提供的任一实施方式,所述装置还包括,交互状态确定单元,用于根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果;所述回应文本中所包含的关键字;所述回应文本所指示的当前交互意图;当前交互场景。
根据本公开的一方面,提供一种电子设备,所述设备包括存储器、处理器,所述存储器用于存储可在处理器上运行的计算机指令,所述处理器用于在执行所述计算机指令时实现本公开提供的任一实施方式所述的交互对象的驱动方法。
根据本公开的一方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现本公开提供的任一实施方式所述的交互对象的驱动方法。
根据本公开的一方面,提供一种计算机程序产品,包括计算机程序,所述程序被处理器执行时实现本公开提供的任一实施方式所述的交互对象的驱动方法。
本公开一个或多个实施例的交互对象的驱动方法、装置、设备及计算机可读存储介质,获取用于控制所述交互对象的至少一个身体部位的姿态的第一控制参数,根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位,并根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,能够增强对所述目标身体部位的控制幅度,并能够根据交互对象的当前交互状态,对目标身体部位的姿态幅度进行调节,从而使交互对象的回应与当前的交互更匹配,提高用户的交互体验。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书一个或多个实施例中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开至少一个实施例提出的交互对象的驱动方法的流程图;
图2是本公开至少一个实施例提出的交互对象的驱动方法中多个控制层的示意图;
图3是本公开至少一个实施例提出的交互对象的驱动装置的结构示意图;
图4是本公开至少一个实施例提出的电子设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开至少一个实施例提供了一种交互对象的驱动方法,所述驱动方法可以由终端设备或服务器等电子设备执行,所述终端设备可以是固定终端或移动终端,例如手机、平板电脑、游戏机、台式机、广告机、一体机、车载终端等等,所述服务器包括本地服务器或云端服务器等,所述方法还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
在本公开实施例中,交互对象可以是任意一种能够与目标对象进行交互的交互对象,其可以是虚拟人物,还可以是虚拟动物、虚拟物品、卡通形象等等其他能够实现交互功能的虚拟形象,虚拟形象的展现形式即可以是2D形式也可以是3D形式,本公开对此并不限定。所述目标对象可以是用户,也可以是机器人,还可以是其他智能设备。
所述交互对象可以通过终端设备进行展示,所述终端设备可以是电视机、带有显示功能的一体机、投影仪、虚拟现实(Virtual Reality,VR)设备、增强现实(AugmentedReality,AR)设备等,本公开并不限定终端设备的具体形式。
图1示出根据本公开至少一个实施例的交互对象的驱动方法的流程图,如图1所示,所述方法包括步骤101~步骤104。
在步骤101中,获取所述交互对象的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态。
在本公开实施例中,所述交互对象的至少一个身体部位的姿态包括以下至少一项:面部表情、肢体动作、面部动作、口型等。所述至少一个身体部位的姿态的第一控制参数,可以控制所述交互对象的身体部位呈现相应的姿态。例如,控制所述对象面部呈现微笑的表情,做出招手的动作,做出与语音“你好”匹配的口型等等。
所述第一控制参数可以是服务器端或终端设备根据所述交互对象的回应文本生成的,也可以是服务器或终端设备直接获取的,比如从内部存储器调用的控制参数等。本公开对于该第一控制参数的获取方式不进行限制。
在步骤102中,根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位。
目标身体部位的姿态通常是由该身体部位中的多个局部姿态组合形成的,所述局部姿态为局部部位、人体器官或人体关键点在至少一个维度上的姿态。其中,所述局部部位例如脸颊,相应的局部姿态例如包括脸颊的上移、外扩等;所述人体器官例如为眼部、嘴部,相应的局部姿态例如包括左眼的睁闭、右眼的睁闭、嘴部的纵向开合程度等;所述人体关键点例如嘴角,相应的姿态例如包括嘴角的上移、外移等。以左眼的睁闭为例,左眼的睁闭程度是与局部控制参数值成比例的,控制左眼的睁闭的局部控制参数值越大,左眼睁开的幅度越大。
所述目标身体部位中的局部姿态的局部控制参数的数值可以根据所述交互对像的当前交互状态获得。所述交互状态指交互对象在交互过程中呈现的特征和情绪,例如开心、活泼、沮丧、严肃等状态。
在本公开实施例中,可以对于所述交互对象的不同交互状态设置对应的至少一个局部姿态的局部控制参数,例如可以将交互状态与对应的至少一个局部姿态的控制参数的映射关系进行存储。以所述交互状态为开心为例,通过查找映射关系可以得到左眼姿态、右眼姿态、嘴部姿态分别对应的局部控制参数。
在步骤103中,根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化。
在根据所述第一控制参数控制所述至少一个身体部位姿态的同时,根据所述第二控制参数中的局部控制参数控制所述目标身体部位中的所述局部姿态,可以实现对于所述目标身体部位的独立控制和调节。
在本公开实施例中,获取用于控制所述交互对象的至少一个身体部位的姿态的第一控制参数,根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位,并根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,能够增强对所述目标身体部位的控制幅度,并能够根据交互对象的当前交互状态,对目标身体部位的姿态幅度进行调节,从而使交互对象的回应与当前的交互更匹配,提高用户的交互体验。
在一些实施例中,可以根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果;所述回应文本中所包含的关键字;所述回应文本所指示的当前交互意图;当前交互场景等等。
根据所述回应文本的语义分析结果或者所述回应文本中所包含的关键字,可以确定当前交互意图或者确定当前交互场景,从而可以获知所述交互对象的当前交互状态。例如,在通过语义分析结果确定所述交互对象在与小朋友进行交互,则可以确定所述交互对象处于开心、活泼的交互状态,从而确定交互对象的第二控制参数。再例如,在通过所述回应文本中所包含的关键字确定当前处于银行操作引导的交互环境,则可以确定交互对象处于平静、严肃的交互状态,从而确定交互对象的第二控制参数。
在一些实施例中,所述第一控制参数可以包括用于控制所述目标身体部位的参数,以及用于控制其他身体部位的参数,其中,所述其他身体部位指所述至少一个部位中所述目标身体部位之外的身体部位。可以根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,共同控制所述目标身体部位的姿态,从而可以实现对于所述目标身体部位的独立控制和调节。
在一些实施例中,控制参数可以包括多个控制层。具体而言,所述第一控制参数可以包括至少一个第一子控制层,任一所述第一子控制层用于控制所述至少一个身体部位中的一个身体部位的姿态;所述第二控制参数包括至少一个第二子控制层,所述第二子控制层用于控制所述目标身体部位的姿态。可以利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态。
以图2所示的控制层示意图为例,如图2所示,交互对象的第一控制参数C1包括第一子控制层L1、L2、...、LM,每个第一子控制层用于控制一个身体部位的姿态。例如,第一子控制层L1可以用于控制面部的姿态,例如实现面部表情、面部动作、口型等,第二子控制层L2可以用于控制肢体的姿态,例如实现肢体动作等等。第二控制参数C2包括第二子控制层L1’和L2’,其中,第二子控制层L1’和L2’所包含的局部控制参数的数值可以根据所述交互对象的当前交互状态确定。例如,所述交互对象当前处于开心的状态,则可以通过开心这一状态与对应的局部姿态的控制参数的映射关系,确定所述第二子控制层中的局部控制参数的数值。在所述目标身体部位是第一子控制层所控制的身体部位的情况下,则与同样用于控制该目标身体部位的第二子控制层共同控制所述目标身体部位的姿态。以所述目标身体部位包括面部部位为例,可以根据第一子控制层L1以及第二子控制层L1’共同控制面部部位的姿态。
在本公开实施例中,可以将第一控制参数所包含的至少一个第一子控制层称为基础层,将第二控制参数所包含的至少一个第二子控制层称为附加层,所述附加层可用于在基础层对于目标身体部位的控制基础上,进一步增强对于所述目标身体部位的控制幅度,从而能够对于目标身体部位进行额外的控制和调节。
在一些实施例中,子控制层可以包括多个局部姿态的局部控制参数。具体而言,第一子控制层包括所述身体部位中的至少一个局部姿态的局部控制参数;所述目标身体部位的第二子控制层包括所述目标身体部位的至少一个局部姿态的局部控制参数。
仍以图2所示的控制层示意图为例,如图2所示,基础层中的第一子控制层L1可以包括面部的多个局部姿态的局部控制参数P1~Pm;第一子控制层L2可以包括肢体的多个局部姿态的局部控制参数Q1~Qm;同理,用于控制其他身体部位的第一子控制层可以包括该身体部位中的多个局部姿态的局部控制参数。并且,附加层中的第二子控制层L1’可以包括面部的多个局部姿态的局部控制参数Pn、Pn、Pn+1、...、Pn+q;第一子控制层L2’可以包括肢体的多个局部姿态的局部控制参数Qn、Qn+1、...、Qn+q。其中,m,n,q为正整数,且q>n。
以所述目标身体部位包括面部部位为例,可以根据第一子控制层L1所包括的局部控制参数P1~Pm,以及第二子控制层L1’所包含的局部控制参数Pn、Pn、Pn+1、...、Pn+q共同控制面部部位的姿态。在m>n的情况下,也即是说,L1与L1’包含了相同的局部控制参数,且在这两层的设置中,局部控制参数的值可以不相同,因此对于两层所包含的相同的局部姿态,可以进行额外的控制和调节。
在一些实施例中,每个所述第一子控制层和每个所述第二子控制层分别具有权重系数,用于表征该子控制层所驱动的交互对象的姿态幅度,并可以通过以下方式控制所述目标身体部位的姿态:根据所述目标身体部位的第一子控制层所包括的局部姿态的局部控制参数,以及对应的权重系数,得到第一局部参数值;根据所述目标身体部位的第二子控制层所包含的局部姿态的局部控制参数,以及对应的权重系数,得到第二局部参数值;根据所述第一局部参数值和所述第二局部参数值,控制所述目标身体部位的姿态。
仍以图2所示的控制层示意图为例,如图2所示,第一子控制层L1的权重系数为W1,第一子控制层L2的权重系数为W2,第二子控制层L1’的权重系数为W1’,第二子控制层L2’的权重系数为W2’。每个子控制层所包含的局部控制参数的范围例如可以被设置为[0~100]。以局部姿态为左眼的睁闭控制为例,当所述局部控制参数的数值为0,左眼完全闭合;当所述局部控制参数的数值为100,左眼完全睁开;以局部姿态为嘴部的开合控制为例,当所述局部控制参数的数值为0,嘴部完全闭合;当所述局部控制参数的数值为100,嘴部张开至最大程度。
以所述目标身体部位包括面部部位为例,可以根据第一子控制层L1所包括的局部控制参数P1~Pm以及对应的权重系数W1,得到第一局部参数值;可以根据第二子控制层L1’所包括的局部控制参数Pn~Pn+q以及对应的权重系数W1’,得到第二局部参数值;对所述第一局部参数值和所述第二局部参数值进行求和,并根据求和得到的参数值控制所述目标身体部位的姿态。
假设第一子控制层L1用于驱动交互对象实现说出“大家好”的口型,第二子控制层L1’用于驱动交互对象表达出开心的情绪,使交互对象做出微笑的表情。通过对第一子控制层L1和第二子控制层L1’的权重系数W1和W1’进行变化,可以交互对象口型的幅度和微笑的幅度发生相应的变化。例如,通过减小W1而同时增大W1’,可以使交互对象的口型变化幅度减小,而微笑的幅度增加。可见,通过对各个子控制层的权重系数进行不同的设置,可以加强或者淡化相应子控制层对于目标身体部位的姿态的控制幅度,从而能够对交互对象的不同身体部位进行精细化调整,并且可以灵活地组合生成更加丰富的姿态。
在一些实施例中,响应于所述目标身体部位的第一子控制层与第二子控制层包含至少部分相同的局部姿态的局部控制参数,且局部控制参数的值不同,根据所述第一子控制层和所述第二子控制层之间的优先级关系,确定所述第一子控制层和所述第二子控制层的权重系数。其中,所述优先级关系可以是当前交互状态或者交互场景下预先设置的。
例如,在第一子控制层L1和第二子控制层L1’包含了相同的局部控制参数Pi的情况下,Pi在这两层的设置中数值是不同的。在这种情况下,可以根据第一子控制层L1和第二子控制层L1’的优先级关系,确定这两层对应的权重系数。举例来说,在交互对象进行新闻播报的场景下,用于控制口型的基础层中的第一子控制层L1的优先级,高于用于控制情绪的附加层中的第二子控制层L1’的优先级,因此,可以将第一子控制层L1的权重系数设置为大于第二子控制层L1’的权重系数,从而可以突出交互对象的口型。也即,在口型控制和情绪控制冲突的情况下,主要突出口型并且对情绪的呈现进行抑制,从而使交互对象说话的状态更适配当前的交互场景,提交用户的交互体验。
在一些实施例中,响应于多个第一子控制层中的第一层和第二层包含至少部分相同的局部姿态的局部控制参数,且所述局部控制参数的值不同,根据所述第一层和所述第二层之间的优先级关系,确定所述第一层和所述第二层对应的权重系数。
也即是说,在针对不同身体部位设置的两个第一子控制层中包含了相同的局部姿态的局部控制参数的情况下,则根据这两个第一子控制层之间的优先级关系,来分别确定对应的权重系数。也即,对两个身体部位中相同的局部姿态控制冲突的情况下,突出优先级高的子控制层中的局部姿态,以使交互对象的姿态更适配当前的交互场景,提高用户的交互体验。
在本公开实施例中,在所述第一控制参数中包含所述目标身体部位的设定姿态的第一姿态控制参数的情况下,可以根据当前交互状态确定所述目标身体部位的设定姿态对应的目标姿态;根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数。
以所述目标身体部位的设定姿态包括面部的微笑表情为例,在所述交互对象呈现开心情绪的情况下,则可以确定所述交互对象的微笑表情对应的目标姿态为大笑表情。接着,可以根据大笑脸表情和微笑表情的转换关系,以及微笑表情所对应的第一姿态控制参数,得到大笑表情对应的第二姿态控制参数。最后,可以根据所述第一控制参数和所述第二姿态控制参数,控制所述目标身体部位的姿态。
通过以上方法,可以实现对于不同交互状态、不同交互场景定制化生成表情,并可以针对设定姿态进行额外的调节。例如,在新闻播报的场景下,将大笑的面部表情转为微笑,将皱眉的面部表情转为无表情等等,使得交互对象的姿态更适配于特定交互状态以及特征交互场景的需求,提高用户的交互体验。
在一些实施例中,可以根据所述目标姿态与所述设定姿态之间的幅度比例,对所述第一姿态控制参数进行变换,得到所述目标姿态对应的第二姿态控制参数。
在一个示例中,可以根据所述目标姿态与所述设定姿态的幅度比例,对所述第一姿态控制参数所属的子控制层的权重系数进行变化,以得到所述目标姿态对应的第二姿态控制参数。
由于权重系数是与所驱动的姿态幅度成正比的,也即是说,权重系数值越大,姿态幅度越大;反之,权重系数值越小,姿态幅度越小。举例来说,所述设定姿态为大笑,所对应的权重系数的取值范围在(0.6~1)之间,所述目标姿态为微笑,根据大笑与微笑之间的幅度比例,例如为2,则可以确定所述目标姿态对应的权重系数的取值范围在(0.3~0.5)之间。本领域技术人员应当理解,上述取值范围仅为示例,本公开对此无意进行限制。
在一个示例中,在根据所述第一控制参数控制所述交互对象的姿态的过程中,响应于运行至所述设定姿态的第一姿态控制参数,可以根据所述设定姿态对应的目标姿态的第二姿态控制参数驱动所述交互对象实现所述目标姿态。也即,将所述目标姿态对应的第二姿态控制参数替代所述设定姿态对应的第一姿态控制系数,利用所述第二姿态控制参数以及所述第一控制参数中除所述第一姿态控制参数以外的部分,形成新的控制参数,利用该新的控制参数驱动所述交互对象实现相应的姿态,从而可以实现在交互过程中所述交互对象从设定姿态向目标姿态的转换。
在一些实施例中,可以根据交互对象的姿态变化生成回应动画,通过播放所述回应动画实现与目标对象的交互。
图3示出根据本公开至少一个实施例的交互对象的驱动装置的结构示意图,如图3所示,该装置可以包括:第一获取单元301,用于获取所述交互对象的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;第二获取单元302,用于根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位;控制单元303,用于根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化。
在一些实施例中,所述控制单元具体用于:根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态。
在一些实施例中,所述第一控制参数包括至少一个第一子控制层,所述第一子控制层用于控制所述至少一个身体部位中的一个身体部位的姿态;所述第二控制参数包括至少一个第二子控制层,所述第二子控制层用于控制所述目标身体部位的姿态;所述控制单元在用于根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态时,具体用于:利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态。
在一些实施例中,所述身体部位的第一子控制层包括所述身体部位中的至少一个局部姿态的局部控制参数;所述目标身体部位的第二子控制层包括所述目标身体部位的至少一个局部姿态的局部控制参数。
在一些实施例中,每个所述第一子控制层和每个所述第二子控制层分别具有权重系数,所述控制单元在用于利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态时,具体用于:根据所述目标身体部位的第一子控制层所包括的局部姿态的局部控制参数,以及对应的权重系数,得到第一局部参数值;根据所述目标身体部位的第二子控制层所包含的局部姿态的局部控制参数,以及对应的权重系数,得到第二局部参数值;根据所述第一局部参数值和所述第二局部参数值,控制所述目标身体部位的姿态。
在一些实施例中,所述装置还包括确定单元,用于响应于多个第一子控制层中的第一层和第二层包含至少部分相同的局部姿态的局部控制参数,且所述局部控制参数的值不同,根据所述第一层和所述第二层之间的优先级关系,确定所述第一层和所述第二层对应的权重系数;和/或,响应于所述目标身体部位的第一子控制层与第二子控制层包含至少部分相同的局部姿态的局部控制参数,且局部控制参数的值不同,根据所述第一子控制层和所述第二子控制层之间的优先级关系,确定所述第一子控制层和所述第二子控制层的权重系数。
在一些实施例中,所述第一获取单元具体用于:获取所述交互对象的回应文本,所述回应文本包含至少一个身体部位的姿态信息;根据所述至少一个身体部位的姿态信息,获取所述至少一个身体部位的第一控制参数。
在一些实施例中,响应于所述第一控制参数中包含所述目标身体部位的设定姿态的第一姿态控制参数,所述第二获取单元具体用于:根据当前交互状态确定所述目标身体部位的设定姿态对应的目标姿态;根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数。
在一些实施例中,所述第二获取单元在用于根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数时,具体用于:根据所述目标姿态与所述设定姿态之间的幅度比例,对所述第一姿态控制参数进行变换,得到所述目标姿态对应的第二姿态控制参数。
在一些实施例中,所述控制单元具体用于:在根据所述第一控制参数控制所述交互对象的姿态的过程中,响应于运行至所述设定姿态的第一姿态控制参数,根据所述设定姿态对应的目标姿态的第二姿态控制参数驱动所述交互对象实现所述目标姿态。
在一些实施例中,所述身体部位的姿态包括以下至少一项:面部表情、肢体动作、面部动作、口型。
在一些实施例中,所述装置还包括,交互状态确定单元,用于根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果;所述回应文本中所包含的关键字;所述回应文本所指示的当前交互意图;当前交互场景。
本说明书至少一个实施例还提供了一种电子设备,如图4所示,所述设备包括存储器、处理器,存储器用于存储可在处理器上运行的计算机指令,处理器用于在执行所述计算机指令时实现本公开任一实施例所述的交互对象的驱动方法。
本说明书至少一个实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现本公开任一实施例所述的交互对象的驱动方法。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于数据处理设备实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的行为或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中描述的主题及功能操作的实施例可以在以下中实现:数字电子电路、有形体现的计算机软件或固件、包括本说明书中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本说明书中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或控制数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本说明书中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理单元。通常,中央处理单元将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本说明书包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本说明书内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上所述仅为本说明书一个或多个实施例的较佳实施例而已,并不用以限制本说明书一个或多个实施例,凡在本说明书一个或多个实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书一个或多个实施例保护的范围之内。

Claims (12)

1.一种交互对象的驱动方法,其特征在于,所述方法包括:
获取所述交互对象的回应文本,所述回应文本包含至少一个身体部位的姿态信息;
根据所述至少一个身体部位的姿态信息,获取所述至少一个身体部位的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;
根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果、所述回应文本中所包含的关键字、所述回应文本所指示的当前交互意图、当前交互场景;
根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位,所述交互状态包括交互对象在交互过程中呈现的情绪;
根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,包括:
根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,共同控制所述目标身体部位的姿态。
2.根据权利要求1所述的方法,其特征在于,所述第一控制参数包括至少一个第一子控制层,所述第一子控制层用于控制所述至少一个身体部位中的一个身体部位的姿态;所述第二控制参数包括至少一个第二子控制层,所述第二子控制层用于控制所述目标身体部位的姿态;
所述根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,控制所述目标身体部位的姿态,包括:
利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态。
3.根据权利要求2所述的方法,其特征在于,所述身体部位的第一子控制层包括所述身体部位中的至少一个局部姿态的局部控制参数;所述目标身体部位的第二子控制层包括所述目标身体部位的至少一个局部姿态的局部控制参数。
4.根据权利要求3所述的方法,其特征在于,每个所述第一子控制层和每个所述第二子控制层分别具有权重系数,所述利用所述第一控制参数中所述目标身体部位的第一子控制层以及所述第二控制参数中所述目标身体部位的第二子控制参数层,控制所述目标身体部位的姿态,包括:
根据所述目标身体部位的第一子控制层所包括的局部姿态的局部控制参数,以及对应的权重系数,得到第一局部参数值;
根据所述目标身体部位的第二子控制层所包含的局部姿态的局部控制参数,以及对应的权重系数,得到第二局部参数值;
根据所述第一局部参数值和所述第二局部参数值,控制所述目标身体部位的姿态。
5.根据权利要求3或4所述的方法,其特征在于,所述方法还包括:
响应于多个第一子控制层中的第一层和第二层包含至少部分相同的局部姿态的局部控制参数,且所述局部控制参数的值不同,根据所述第一层和所述第二层之间的优先级关系,确定所述第一层和所述第二层对应的权重系数;和/或,
响应于所述目标身体部位的第一子控制层与第二子控制层包含至少部分相同的局部姿态的局部控制参数,且局部控制参数的值不同,根据所述第一子控制层和所述第二子控制层之间的优先级关系,确定所述第一子控制层和所述第二子控制层的权重系数。
6.据权利要求5所述的方法,其特征在于,响应于所述第一控制参数中包含所述目标身体部位的设定姿态的第一姿态控制参数,所述根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,包括:
根据当前交互状态确定所述目标身体部位的设定姿态对应的目标姿态;
根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数。
7.根据权利要求6所述的方法,其特征在于,所述根据所述设定姿态和所述目标姿态的转换关系,以及所述第一姿态控制参数,得到所述目标姿态对应的第二姿态控制参数,包括:
根据所述目标姿态与所述设定姿态之间的幅度比例,对所述第一姿态控制参数进行变换,得到所述目标姿态对应的第二姿态控制参数。
8.根据权利要求6或7所述的方法,其特征在于,所述根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,包括:
在根据所述第一控制参数控制所述交互对象的姿态的过程中,响应于运行至所述设定姿态的第一姿态控制参数,根据所述设定姿态对应的目标姿态的第二姿态控制参数驱动所述交互对象实现所述目标姿态。
9.根据权利要求8所述的方法,其特征在于,所述身体部位的姿态包括以下至少一项:面部表情、肢体动作、面部动作、口型。
10.一种交互对象的驱动装置,其特征在于,所述装置包括:
第一获取单元,用于获取所述交互对象的回应文本,所述回应文本包含至少一个身体部位的姿态信息,根据所述至少一个身体部位的姿态信息,获取所述至少一个身体部位的第一控制参数,所述第一控制参数用于控制至少一个身体部位的姿态;
交互状态确定单元,用于根据以下至少一项确定所述交互对象的当前交互状态:所述回应文本的语义分析结果、所述回应文本中所包含的关键字、所述回应文本所指示的当前交互意图、当前交互场景;
第二获取单元,用于根据所述交互对象的当前交互状态,获取所述交互对象的第二控制参数,所述第二控制参数包括目标身体部位中的至少一个局部姿态的局部控制参数,所述目标身体部位为所述至少一个身体部位中的身体部位,所述交互状态包括交互对象在交互过程中呈现的情绪;
控制单元,用于根据所述第一控制参数和所述第二控制参数,控制所述交互对象的姿态变化,具体用于根据所述第一控制参数中用于控制所述目标身体部位的参数,以及所述第二控制参数中所述目标身体部位中的至少一个局部姿态的局部控制参数,共同控制所述目标身体部位的姿态。
11.一种电子设备,其特征在于,所述设备包括存储器、处理器,所述存储器用于存储可在处理器上运行的计算机指令,所述处理器用于在执行所述计算机指令时实现权利要求1至9任一项所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1至9任一所述的方法。
CN202110417558.XA 2021-04-19 2021-04-19 交互对象的驱动方法、装置、设备以及存储介质 Active CN113050859B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110417558.XA CN113050859B (zh) 2021-04-19 2021-04-19 交互对象的驱动方法、装置、设备以及存储介质
PCT/CN2022/074976 WO2022222572A1 (zh) 2021-04-19 2022-01-29 交互对象的驱动方法、装置、设备以及存储介质
TW111112375A TW202242610A (zh) 2021-04-19 2022-03-31 互動物件的驅動方法、裝置、設備以及儲存媒體

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110417558.XA CN113050859B (zh) 2021-04-19 2021-04-19 交互对象的驱动方法、装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
CN113050859A CN113050859A (zh) 2021-06-29
CN113050859B true CN113050859B (zh) 2023-10-24

Family

ID=76519591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110417558.XA Active CN113050859B (zh) 2021-04-19 2021-04-19 交互对象的驱动方法、装置、设备以及存储介质

Country Status (3)

Country Link
CN (1) CN113050859B (zh)
TW (1) TW202242610A (zh)
WO (1) WO2022222572A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113050859B (zh) * 2021-04-19 2023-10-24 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN115937373B (zh) * 2022-12-23 2023-10-03 北京百度网讯科技有限公司 虚拟形象驱动方法、装置、设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111292401A (zh) * 2020-01-15 2020-06-16 腾讯科技(深圳)有限公司 动画处理方法、装置、计算机存储介质及电子设备
CN112190921A (zh) * 2020-10-19 2021-01-08 珠海金山网络游戏科技有限公司 一种游戏交互方法及装置
CN112241203A (zh) * 2020-10-21 2021-01-19 广州博冠信息科技有限公司 三维虚拟角色的控制装置及方法、存储介质及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481057B1 (ja) * 2018-02-02 2019-03-13 株式会社エクシヴィ 仮想空間におけるキャラクタの制御方法
CN108681390B (zh) * 2018-02-11 2021-03-26 腾讯科技(深圳)有限公司 信息交互方法和装置、存储介质及电子装置
CN110889382A (zh) * 2019-11-29 2020-03-17 深圳市商汤科技有限公司 虚拟形象渲染方法及装置、电子设备和存储介质
CN111459452B (zh) * 2020-03-31 2023-07-18 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
CN113672194A (zh) * 2020-03-31 2021-11-19 北京市商汤科技开发有限公司 声学特征样本的获取方法、装置、设备以及存储介质
CN112533017B (zh) * 2020-12-01 2023-04-11 广州繁星互娱信息科技有限公司 直播方法、装置、终端及存储介质
CN113050859B (zh) * 2021-04-19 2023-10-24 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111292401A (zh) * 2020-01-15 2020-06-16 腾讯科技(深圳)有限公司 动画处理方法、装置、计算机存储介质及电子设备
CN112190921A (zh) * 2020-10-19 2021-01-08 珠海金山网络游戏科技有限公司 一种游戏交互方法及装置
CN112241203A (zh) * 2020-10-21 2021-01-19 广州博冠信息科技有限公司 三维虚拟角色的控制装置及方法、存储介质及电子设备

Also Published As

Publication number Publication date
WO2022222572A1 (zh) 2022-10-27
CN113050859A (zh) 2021-06-29
TW202242610A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN107340859B (zh) 多模态虚拟机器人的多模态交互方法和系统
US11887231B2 (en) Avatar animation system
TWI778477B (zh) 互動方法、裝置、電子設備以及儲存媒體
TWI766499B (zh) 互動物件的驅動方法、裝置、設備以及儲存媒體
CN113050859B (zh) 交互对象的驱动方法、装置、设备以及存储介质
WO2021196646A1 (zh) 交互对象的驱动方法、装置、设备以及存储介质
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
US20190303658A1 (en) Motion generating apparatus, model generating apparatus and motion generating method
CN111460785B (zh) 交互对象的驱动方法、装置、设备以及存储介质
US20200110925A1 (en) System and method for simulating facial expression of virtual facial model
WO2022252866A1 (zh) 一种互动处理方法、装置、终端及介质
TW202117498A (zh) 化身臉部表情產生系統及化身臉部表情產生方法
CN114766016A (zh) 用于通过迭代生成增强输出内容的设备、方法和程序
CN114995704A (zh) 用于三维环境的集成化输入输出
US11756251B2 (en) Facial animation control by automatic generation of facial action units using text and speech
US10244208B1 (en) Systems and methods for visually representing users in communication applications
EP3779809A1 (en) Information processing device and information processing method
CN111274489B (zh) 信息处理方法、装置、设备及存储介质
CN112637692B (zh) 互动方法、装置、设备
WO2023124697A1 (zh) 图像增强方法和装置、存储介质和电子设备
WO2021196647A1 (zh) 交互对象的驱动方法、装置、设备以及存储介质
US20240179291A1 (en) Generating 3d video using 2d images and audio with background keyed to 2d image-derived metadata
US20240013487A1 (en) Method and device for generating a synthesized reality reconstruction of flat video content
US20240112389A1 (en) Intentional virtual user expressiveness
US11386653B2 (en) Method and device for generating a synthesized reality reconstruction of flat video content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40049928

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant