CN114967937B - 一种虚拟人运动生成方法与系统 - Google Patents
一种虚拟人运动生成方法与系统 Download PDFInfo
- Publication number
- CN114967937B CN114967937B CN202210924252.8A CN202210924252A CN114967937B CN 114967937 B CN114967937 B CN 114967937B CN 202210924252 A CN202210924252 A CN 202210924252A CN 114967937 B CN114967937 B CN 114967937B
- Authority
- CN
- China
- Prior art keywords
- behavior
- target object
- habitual
- virtual human
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Abstract
本发明涉及一种虚拟人运动生成方法与系统;所述生成方法和系统包括识别目标对象的身份信息从而生成对象的档案,进一步的,包括分析目标对象与虚拟人交流时的动作,特别为关注目标对象在无意识下做出的习惯性的小动作设置为该目标对象的习惯行为,并将习惯行为记录于目标对象的档案内;进一步的,其余该目标对象与虚拟人交流时的是否具有积极态度以及基于虚拟人本身的设定性格,计算虚拟人在适合时机再现目标对象的至少一个习惯动作,从而使双方的交互场景更为亲切。
Description
技术领域
本发明涉及电子数字数据处理技术领域。具体而言,涉及一种虚拟人运动生成方法与系统。
背景技术
近年来,虚拟数字人的关注度呈几何倍增,市场对动作捕捉和快速动画的需求迅速增加,但是如何让虚拟人动起来这一难题却困扰很多团队。目前相关领域的研究人员一般认为,动作和表情驱动是虚拟人技术的关键,依赖单一技术难以满足所有应用场景,也很难通过传统动作捕捉或动作预设满足未来需求。各种新的应用场景,特别是未来的元宇宙中,将越来越依赖AI技术来生成动作和表情,多模态动作驱动才能满足元宇宙多样的应用需求。
在另一个方面,相关研究表明,在人类的真实交流情境下,若双方均具有交流的热情以及保持积极的交流态度,常见地出现互相模拟交流对象的一些无意识小动作的行为;例如说话时摊开双手、耸肩、带节奏性地点头等,从而体现出一种更为友好的氛围。
查阅相关已公开的技术方案,公开号为EP3988190A1的技术方案提出一种虚拟游戏的系统,基于用户输入的数据以及虚拟角色的第一部分时间的动作行为,从而生成第二部分时间的动作行为;公开号为US11278795B2的技术方案提出一种控制虚拟人物动作以及呈现方式的系统,分为三个阶段针对不同的虚拟场景以及环节,控制虚拟人物的形象以及相应的动作表现;公开号为CN110650354A的技术方案提出一种使用虚拟人作为直播节目演员的系统和方法,通过捕捉演员的动作信息、表情信息、声音信息;将动作信息与表情信息与虚拟人进行融合,并驱动虚拟人进行相应动作和表情;将驱动后的虚拟人的声音信息共同以直播视频流的形式输出。以上技术方案均提出了关于虚拟人物的一些动作驱动的解决方案,但在虚拟人与真实人类的实时交流的场景中,还没有更为模拟真实交流场景的虚拟人动作生成方案提出。
背景技术的前述论述仅意图便于理解本发明。此论述并不认可或承认提及的材料中的任一种公共常识的一部分。
发明内容
本发明的目的在于,提供一种虚拟人运动生成方法与系统;所述生成系统包括识别目标对象的身份信息从而生成对象的档案,进一步的,包括分析目标对象与虚拟人交流时的动作,特别为关注目标对象在无意识下做出的习惯性的小动作设置为该目标对象的习惯行为,并将习惯行为记录于目标对象的档案内;进一步的,其余该目标对象与虚拟人交流时的是否具有积极态度以及基于虚拟人本身的设定性格,计算虚拟人在适合时机再现目标对象的至少一个习惯动作,从而使双方的交互场景更为亲切。
本发明采用如下技术方案:
一种虚拟人运动生成系统,所述生成系统包括识别模块、行为记录模块、分析模块、数据库以及运动生成模块;其中
所述识别模块,用于识别一个目标对象的身份信息,并在数据库中建立或修改该目标对象的身份信息;
所述行为记录模块,用于记录一个目标对象在预设观察时间段中的行为表现,并生成基于该目标对象的行为信息;
所述分析模块,用于分析所述行为信息,提取所述行为信息中包括的至少一项习惯行为,并且包括分析所述习惯行为的运动参数以及所述习惯行为发生时目标对象的伴随特征;
所述数据库,用于保存目标对象的身份信息、以及目标对象的所述习惯行为以及所述习惯行为的运动参数以及伴随特征;
所述运动生成模块,用于执行以下至少一项:
从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
确认虚拟人的下一个行为状态或语言状态;
在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
根据一个意志函数ACT()计算虚拟人的意愿值,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数。
优选地,所述习惯行为是目标对象的无意识动作;
优选地,所述分析模块包括设置一个动作频率阈值η,基于该动作频率阈值从目标对象的所述行为信息中筛选出重复次数超过了频率阈值的至少一个动作,并将筛选出的动作标记为所述习惯行为;
优选地,所述习惯行为的运动参数,包括目标对象的每一肢体在表现所述习惯行为时以下至少一项的参数:位置、朝向、速度以及加速度;
优选地,所述分析模块使用支持向量机进行所述行为信息的分析;
优选地,所述分析模块包括将所述习惯行为归类为积极行为、消极行为或中性行为中的一种;
优选地,所述伴随特征包括行为特征和/或语言特征;
优选地,所述意愿值Y以及意志函数ACT()的计算方式为:
其中,为积极行为权重,为消极行为权重,pos和nag分别为虚拟人与目标对象互动过程中,目标对象的积极行为和消极行为的出现次数;为衰减系数,Δt为单位时间;上述、、由相关技术人员根据虚拟人的性格进行设定;
意愿值Y即统计在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时间比例,即:
上式中,k为时间校正系数,由相关技术人员根据虚拟人的性格进行设定;tover为在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时长;意愿阈值Ylimit由相关技术人员根据虚拟人的性格设置。
进一步的,包括一种虚拟人运动生成方法,所述生成方法应用于所述一种虚拟人运动生成系统;所述生成方法包括以下步骤:
S1:识别当前与虚拟人进行交互的目标对象的身份信息;
S2:记录目标对象在一段观察时间中的行为表现,并生成基于该目标对象的行为信息;
S3:分析所述行为信息,提取所述行为信息中包括的至少一项目标对象的习惯行为;并且包括分析所述习惯行为的运动参数,以及所述习惯行为发生时目标对象的伴随特征;
S4:从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
S5:确认虚拟人的下一个行为状态或语言状态;
S6:在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
S7:根据一个意志函数ACT()计算虚拟人的意愿值,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
S8:若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数。
本发明所取得的有益效果是:
1. 本发明的生成方法基于目标对象与虚拟人进行交流时的动作行为特征,分析目标对象本身的所具有交流态度倾向,从而驱动虚拟人作对应的动作行为反应;
2. 本发明的生成方法基于虚拟人的设定性格通过意志函数以及意愿值,判断虚拟人做出与目标对象类似的习惯动作的时机和条件,从而区别于以往虚拟人物单纯基于随机函数或者以预定程序控制虚拟人物作出某类动作的技术方案;
3. 本发明的生成系统适用于纯数字形象的虚拟人系统,同时亦可适用接入诸如虚拟机器人或者其他虚拟-现实结合的虚拟人系统;
本发明的生成系统各部分采用模块化设计和配合,后期可通过软件、硬件进行灵活优化和变更,节省了大量后期维护升级成本。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在不同的视图中,相同的附图标记指定对应的部分。
图1为本发明所述生成方法的步骤示意图;
图2为本发明所述生成系统的布局示意图;
图3为本发明实施例中所述捕捉设备的示意图;
图4为本发明实施例中一个动作的生成的步骤示意图;
图5为本发明实施例中虚拟骨骼约束的示意图。
附图图例说明:10-目标对象;20-虚拟人;30-计算机设备;36-通信链路;310-捕捉设备;320-视听设备;311-图像相机组件;314-IR光组件;316-三维相机;318-RGB相机;322-麦克风;332-处理器;334-存储器组件;510-虚拟骨骼约束;524-关节;526-骨骼。
具体实施方式
为了使得本发明的目的技术方案及优点更加清楚明白,以下结合其实施例,对本发明进行进一步详细说明;应当理解,此处所描述的具体实施例仅用于解释本发明 ,并不用于限定本发明。对于本领域技术人员而言,在查阅以下详细描述之后,本实施例的其它系统.方法和/或特征将变得显而易见。旨在所有此类附加的系统、方法、特征和优点都包括在本说明书内.包括在本发明的范围内,并且受所附权利要求书的保护。在以下详细描述描述了所公开的实施例的另外的特征,并且这些特征根据以下将详细描述将是显而易见的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或组件必须具有特定的方位.以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
实施例一:
一种虚拟人运动生成系统,所述生成系统包括识别模块、行为记录模块、分析模块、数据库以及运动生成模块;其中
所述识别模块,用于识别一个目标对象的身份信息,并在数据库中建立或修改该目标对象的身份信息;
所述行为记录模块,用于记录一个目标对象在预设观察时间段中的行为表现,并生成基于该目标对象的行为信息;
所述分析模块,用于分析所述行为信息,并提取所述行为信息中包括的至少一项习惯行为;并且包括分析所述习惯行为的运动参数,以及所述习惯行为发生时目标对象的伴随特征;
所述数据库,用于保存目标对象的身份信息、该目标对象的所述习惯行为以及所述习惯行为的运动参数以及伴随特征;
所述运动生成模块,用于执行以下至少一项:
从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
确认虚拟人的下一个行为状态或语言状态;
在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
根据一个意志函数ACT()计算虚拟人的意愿值,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数,并在虚拟人在符合所述待发生习惯行为的所述伴随特征时,执行所述待发生习惯行为。
优选地,所述习惯行为是目标对象的无意识动作;
优选地,所述分析模块包括设置一个动作频率阈值η,基于该动作频率阈值从目标对象的所述行为信息中筛选出重复次数超过了频率阈值的至少一个动作,并将筛选出的动作标记为所述习惯行为;所述动作频率阈值可由技术人员根据目标对象的实际情况进行设置。
优选地,所述习惯行为的运动参数,包括目标对象的每一肢体在表现所述习惯行为时以下至少一项的参数:位置、朝向、速度以及加速度;
优选地,所述分析模块使用支持向量机进行所述行为信息的分析;
优选地,所述分析模块包括将所述习惯行为归类为积极行为、消极行为或中性行为中的一种;
优选地,所述伴随特征包括行为特征和/或语言特征;
优选地,所述意愿值Y以及意志函数ACT()的计算方式为:
其中,为积极行为权重,为消极行为权重,pos和nag分别为虚拟人与目标对象互动过程中,目标对象的积极行为和消极行为的出现次数;为衰减系数,Δt为单位时间;上述、、由相关技术人员根据虚拟人的性格进行设定;
意愿值Y即统计在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时间比例,即:
上式中,k为时间校正系数,由相关技术人员根据虚拟人的性格进行设定;tover为在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时长;意愿阈值Ylimit由相关技术人员根据虚拟人的性格设置。
进一步的,包括一种虚拟人运动生成方法,所述生成方法应用于所述一种虚拟人运动生成系统;所述生成方法包括以下步骤:
S1:识别当前与虚拟人进行交互的目标对象的身份信息;
S2:记录目标对象在一段观察时间中的行为表现,并生成基于该目标对象的行为信息;
S3:分析所述行为信息,提取所述行为信息中包括的至少一项目标对象的习惯行为;并且包括分析所述习惯行为的运动参数,以及所述习惯行为发生时目标对象的伴随特征;
S4:从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
S5:确认虚拟人的下一个行为状态或语言状态;
S6:在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
S7:根据一个意志函数ACT()计算虚拟人的意愿值,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
S8:若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数,并在虚拟人在符合所述待发生习惯行为的所述伴随特征时,执行所述待发生习惯行为;
如附图2所示,为本发明一种实施方式的原理图;其中,包括虚拟人20以及运行该虚拟人的计算机设备30,同时包括正在与虚拟人20发生交互的真实人类,即目标对象10;
其中计算机设备30可以是计算机、游戏机系统或者其他电子设备;优选地,计算机设备30可以包括硬件组件和/或软件组件,使得计算机设备30可以用于执行诸如虚拟人应用程序、与虚拟人相关的游戏类应用程序等的应用程序;在一个实施例中,计算机设备30可以包括诸如标准化处理器、专用处理器、微处理器等的处理器,用于执行所述一种虚拟人运动生成的一系列指令;
在优选的实施方法中,计算机设备30包括所述识别模块、所述行为记录模块、所述分析模块、所述数据库以及所述运动生成模块的一个或多个;
如图2所示,在当前的交互场景中,所述识别模块以及所述行为记录模块可以配置有一个或以上的图像捕捉设备310;所述图像捕捉设备310可以是各类型的图像传感器、彩色摄像头、图像深度传感器或者各类型可用于视觉采集一个或多个目标对象10的电子装置,从而可以捕获、分析一个或多个目标对象10的身份信息,优选地,采用目标对象10的面容作为身份信息从而识别一个或多个目标对象的身份;进一步的,图像捕捉设备310包括捕捉由一个或多个目标对象10执行的姿势或运动;
另一方面,计算机设备30可以连接到可以提供虚拟人展示的视听设备320,例如电视、监视器、高清电视(HDTV)等,计算机设备30可以包括诸如图形卡之类的视频适配器和/或诸如声卡之类的音频适配器,其可以提供与虚拟人相关联的视听信号;视听设备320可以从计算机设备30接收视听信号,然后可以向目标对象10输出与视听信号相关联的游戏和/或应用视觉和/或音频。根据一个实施例,视听设备320可以通过例如S-Video电缆、同轴电缆、HDMI电缆、DVI电缆、VGA电缆等连接到计算机设备30;
进一步的解释图像捕捉设备310;图像捕捉设备310可用于识别、分析和/或跟踪人类目标,例如目标对象10;捕捉设备310可以被配置为捕获具有深度信息的视频,包括深度图像,该深度信息包括:可以通过任何合适的技术包括例如时差法、结构光、立体图像等的深度值;根据一个实施例,捕捉设备310可以将深度信息组织成“Z层”或可以垂直于从深度相机沿其视线延伸的Z轴的层;如图2所示,捕捉设备310可以包括图像相机组件;根据示例实施例,图像相机组件可以是可以捕捉场景的深度图像的深度相机;深度图像可以包括所捕获场景的二维(2D)像素区域,其中2D像素区域中的每个像素包括表示深度值的参数,例如以厘米、毫米为单位描述从相机捕捉到的场景中的物体等长度或距离等;
根据一种实施例,如附图3,图像相机组件311可以包括IR光组件314、三维相机316和RGB相机318;图像相机组件311可以用于捕捉场景的深度图像;例如,在时差法分析中,图像相机组件311的IR光组件314可以将红外光发射到场景上,然后可以使用传感器(未示出)来检测来自一个或多个表面的反向散射光,使用例如三维相机316和/或RGB相机318在场景中的目标和对象。在一些实施例中,可以使用脉冲红外光,从而可以测量出射光脉冲和对应的入射光脉冲之间的时间,并用于确定从捕捉设备310到场景中目标或物体上的特定位置的物理距离;此外,在其他示例实施例中,可以将出射光波的相位与入射光波的相位进行比较以确定相移;然后可以使用相移来确定从捕捉设备310到目标或物体上的特定位置的物理距离;
在一些实施方式上,捕捉设备310可以使用结构光来捕捉深度信息;结构光的实现原理为,将具有一定图案样式的光(例如网格图案或条纹图案)通过IR光组件314投射到目标对象10上;随着目标对象10表现各种动作或运动,具有图案样式会随之变形;图案样式的这种变形可以由例如三维相机316和/或RGB相机318采集,然后可以被分析以确定从捕捉设备310到目标对象10的特定部位的物理距离;
在一些实施方式上,捕捉设备310还可以包括麦克风322;麦克风322包括可以接收声音并将其转换为电信号的传感器;通过麦克风322可采集目标对象的语音信息,从而通过声纹识别目标对象的身份信息;此外,麦克风322可用于接收目标对象的音频信号,通过音频信号进行目标对象的语言、语义、语气分析,从而用于作为所述行为信息的一部分;
在一些实施方式上,捕捉设备310还可以包括处理器332,其可以与图像相机组件311进行通信并执行有关的指令;处理器332可以包括标准化处理器、专用处理器、微处理器;
在一些实施方式上,捕捉设备310还可以包括存储器组件334,其可以存储可以由处理器332执行的指令、由三维相机或RGB相机捕获的图像或图像帧,或任何其他合适的信息、图像等;存储器组件334可以包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、硬盘或任何其他合适的存储组件;优选地,存储器组件334可以是与图像相机组件311和处理器332通信的单独组件;优选地,存储器组件334可以集成到处理器332和/或图像相机组件311中;
在一些实施方式上,捕捉设备310通过通信链路36与计算机设备30通信连接;通信链路36可以是有线连接,包括例如USB连接、火线连接、以太网电缆连接、等和/或无线连接,例如无线wifi连接;根据一个实施例,计算机设备30可以向捕捉设备310提供时钟信号,该时钟信号可以用于确定何时通过通信链路36捕捉目标对象与虚拟人的交互场景;
另外,捕捉设备310可以向计算机设备30传输由三维相机316和/或RGB相机318捕捉的图像中目标对象的带有深度信息的图像数据,计算机设备30然后可以使用深度信息和捕获的目标对象10的图像来确定目标对象10身体上多个部位的空间坐标;
优选地,捕捉目标对象10身体多个部位的空间位置并生成空间坐标(X、Y、Z坐标)的数据点:臀部、左上腿、右上腿、左下腿、右下腿、左脚、右脚、脊柱、胸部、颈部、头、左肩、右肩、左上臂、右上臂、左下臂、右下臂、左手、右手;进一步的,在一些实施方式中,还包括捕捉目标对象10的手势,并基于手势的动作进行运动分析;
进一步的,捕捉设备310可以以每秒60帧、100帧或者144帧的速度对目标对象10进行运动动作的采样;该采样操作产生海量的数据点,因此,优选地,根据所述计算机设备30的运算能力决定每秒采样的帧数;
进一步的,需要将目标对象10的空间坐标数据点与每个记录的帧相关联;并且基于时序,将同一身体部位的多组基于时序的数据点进行连续排序,从而可以分析目标对象10的多个部位做出的连续动作;并且基于空间坐标结合时间的分析,包括分析动作中,每个部位动作的位置、朝向、速度以及加速度,从而获得目标对象10的多个动作的运动参数;
进一步,在一些实施方式中,所述数据库优选地包括一个行为数据库;所述行为数据库用于保存大量用于进行比照用的基本动作以及每个所述基本动作对应的多个部位的运动参数;上述大量的基本动作用于为所述分析模块提供了大量参考特征用于对目标对象的行为进行分类,例如可以将一个目标对象10的耸肩动作,通过计算肩部的提起幅度以及下落速度,包括在伴随该耸肩动作同时判断双手前臂是否张开并抬起至水平的动作,判断该耸肩动作是目标对象10作出的表示“不知道”的动作,还是一个表示“感觉到寒冷”的动作;从而尽可能在有限的定义范围内对目标对象的某一个或一类动作进行有效、快速的分类;
优选地,所述基本动作包括已定义为积极行为、消极行为或中性行为的其中一种的属性;
基于所述行为数据库,则可以对目标对象10做出的动作进行分析、匹配以及属性(积极、中性、消极)分类,在一种实施方式中,通过建立分类模型并由所述分析模块利用所述分类模型对目标对象的行为动作进行分类;
建立所述分类模型需要使用大量数据实施所述分类模型的机器学习步骤;在一个特定示例中,机器学习包括获取多个不同姿势的信息,其中包含多个连续动作帧和多组(X,Y,Z)坐标数据;机器学习可以包括采用两台支持向量机,一台使用线性内核,一台使用RBF内核,从而建立两种分类模型;两类分类模型都可以使用ε=0:00001的容差和一对一的方法进行训练;
其中两台支持向量机的训练时间根据实际的数据量略为不同;线性支持向量机的训练时间为35秒,RBF支持向量机的训练时间为36.8秒;即设定虚拟人与目标对象10的首次交互过程中,需要包括一段训练时间,约为40秒至1分钟,用于建立所述分类模型;而上述训练时间均为示例性的,具体的时间数值可以在其他示例实施例中进行修改;
进一步的,在该训练时间之后可以实施分类测试;在一些实施方式中,在训练时间后,有 30054 帧标记的测试数据;对此进行测试可以产生 99:9301% 的线性准确度和 99:9368% 的 RBF 准确度;
并且所述分类模型亦可以在与目标对象10的持续交互过程中,不断进行训练和优化,以捕捉更多目标对象10的动作细节;
进一步的,对目标对象10的多个动作行为进行定义,并找出其中的无意识行为;
在一种实施方式中,包括在所述行为数据库中定义多个所述基本动作为无意识行为的动作;例如在交互过程中的摸鼻子、摊手、抖腿等行为;从而基于这些无意识行为从目标对象10的行为信息中,分类并提取出至少一项所述习惯行为;
在一种实施方式中,包括根据谈话的节奏、语调、内容分析一个行为是否属于无意识行为,例如当目标对象10的语速变慢时,出现搓手的动作;
在一种实施方式中,包括根据交互的主题分析一个行为是否属于无意识行为,例如当谈及家庭成员时,无意识地表现出点头动作;
以上均可以通过所述分析模块利用机器训练建立所述分类模型后获得相应的分析结果。
实施例二:
本实施例应当理解为至少包含前述任意一个实施例的全部特征,并在其基础上进一步改进;
通过上述说明,在所述数据库存储有对应于特定目标对象的大量行为信息,并且包括被定义为所述习惯行为的运动参数以及所述伴随特征;进一步,需要驱动虚拟人再现所述习惯行为;
如附图4所示,驱动虚拟人的运动生成包括以下基本步骤:
(1)由计算机设备生成虚拟人的虚拟骨骼约束510;虚拟骨骼约束510装配定义了虚拟人的骨架和关节,并且用于定制虚拟人的运动;
(2)根据一个运动参数,控制虚拟骨骼约束510中多个骨架和关节按照时序在多个时间节点到达相关的状态和位置,并且包括在控制多个骨架和关节在两个时间节点之间的运动路径,从而表现出该运动参数的动作;
例如如附图5所示为覆盖在一个虚拟人上的虚拟骨骼约束510;取决于特定的实施方式(例如,模拟运动的粒度或准确性),虚拟骨骼约束510的组合复杂程度可根据实际情况进行调整,并且具有各种特性;例如,在一种实施例中,虚拟骨骼约束510包括多组关节524和连接到关节524的相关联的骨骼526,其可以相对于关节524枢转;然而,在其他实施方式中,可以使用其他类型的骨骼;例如,在三维实施例中,可以使用三维网格骨骼;
在确定了虚拟骨骼约束510之后,虚拟人的整体姿态即可以分解为虚拟骨骼约束510中各个关节524以及骨骼526的独立姿态;并且,根据上述多个动作的运动参数,确定虚拟骨骼约束510中各个关节524以及骨骼526在多个时序节点中的空间坐标,并且与动作的运动参数相匹配,最终使虚拟人能够模拟做出目标对象10的多个动作中的多个姿态,包括目标对象10的所述习惯动作的姿态;
进一步的,所述运动生成模块包括从驱动虚拟人从一个运动参数的表示的姿态转换成下一个运动参数表示的姿态,从而产生一段连接两个姿态的身体多个部位数据点的运动路径;在一些实施例中,所述运动生成模块包括确定虚拟人的各个身体部位的运动路径,例如,确定移动抬手动作中前臂与大臂运动的先后次序以及在多个时序节点中前臂与大臂所处的空间坐标;
进一步的,所述运动生成模块包括基于目标对象的所述习惯动作,通过修改、省略或增加若干个所述习惯动作的运动特性参数,进一步细化所述习惯动作的运动参数,并将原所述习惯动作的运动参数更新为优化运动参数,从而实现虚拟人在模拟原有的所述习惯动作基础上,作出一定个性化改变;
例如在一种实施方式中,目标对象的一个所述习惯动作为用拇指擦鼻头两下;基于该习惯动作以及虚拟人的个性化设置,将原有的习惯动作优化为用拇指擦鼻头一下,或者优化为用食指擦鼻头两下;
应当理解,虚拟人做出的所述习惯动作并不作为一个完全的动作的模仿,而只为在一定程度上基于心理学上的考虑,希望使目标对象与虚拟人的交互中产生一定好感,进行保持并推动交互过程。
实施例三:
本实施例应当理解为至少包含前述任意一个实施例的全部特征,并在其基础上进一步改进;
在许多需要模拟人类情感的虚拟人实例中,都需要处理虚拟人对于情感方面的控制;同样对于本动作生成方法来说,需要虚拟人并非盲目地模仿交流对象的动作,而是综合考虑交流对象的交流意图、交流积极性等多个因素,由相关算法驱动虚拟人做出所述习惯行为的频率或者时机;
因此在一些实施方式中,包括采用所述意志函数ACT()用于表现虚拟人基于与目标对象交流时的积极程度;所述意愿值Y以及意志函数ACT()的计算方式为:
其中,为积极行为权重;为消极行为权重,pos和nag分别为虚拟人与目标对象互动过程中,目标对象的积极行为和消极行为的出现次数;为衰减系数,Δt为单位时间;上述、、由相关技术人员根据虚拟人的性格进行设定;
因此,当目标对象表现出的积极行为较多时,虚拟人意愿值Y将上升;而相对的,当目标对象表现出的消极行为较多时,虚拟人意愿值Y将下降,并且随着时间的推移,虚拟人的意愿值将出现持续下降;
同时,根据一个意愿阈值Ylimit,确定虚拟人的意愿值是否达到临界点,从真实人类情感来说,即是否达到一个实施某个行为的冲动;该意愿阈值Ylimit基于虚拟人的情绪性格而定,当虚拟人外向且性格单纯,喜欢跟随交流对象时,则意愿阈值Ylimit相对可以设定得较低;相对地,当虚拟人的性格内向并且思想独立时,则意愿阈值Ylimit相对可以设定为较高数值。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。也就是说上面讨论的方法,系统和设备是示例。各种配置可以适当地省略,替换或添加各种过程或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序执行方法,和/或可以添加,省略和/或组合各种部件。而且,关于某些配置描述的特征可以以各种其他配置组合,如可以以类似的方式组合配置的不同方面和元素。此外,随着技术发展其中的元素可以更新,即许多元素是示例,并不限制本公开或权利要求的范围。
在说明书中给出了具体细节以提供对包括实现的示例性配置的透彻理解。然而,可以在没有这些具体细节的情况下实践配置例如,已经示出了众所周知的电路,过程,算法,结构和技术而没有不必要的细节,以避免模糊配置。该描述仅提供示例配置,并且不限制权利要求的范围,适用性或配置。相反,前面对配置的描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
综上,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (9)
1.一种虚拟人运动生成系统,其特征在于,所述生成系统包括识别模块、行为记录模块、分析模块、数据库以及运动生成模块;其中
所述识别模块,用于识别一个目标对象的身份信息,并在数据库中建立或修改该目标对象的身份信息;
所述行为记录模块,用于记录一个目标对象在预设观察时间段中的行为表现,并生成该目标对象的行为信息;
所述分析模块,用于分析所述行为信息,提取所述行为信息中包括的至少一项习惯行为,并且包括分析所述习惯行为的运动参数以及所述习惯行为发生时目标对象的伴随特征;
所述数据库,用于保存目标对象的身份信息、该目标对象的所述习惯行为,以及所述习惯行为的运动参数以及伴随特征;
所述运动生成模块,用于执行以下至少一项:
从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
确认虚拟人的下一个行为状态或语言状态;
在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
根据一个意志函数ACT()计算虚拟人的意愿值Y,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数。
2.如权利要求1所述一种虚拟人运动生成系统,其特征在于,所述习惯行为是目标对象的无意识动作。
3.如权利要求2所述一种虚拟人运动生成系统,其特征在于,所述分析模块包括设置一个动作频率阈值η,基于该动作频率阈值从目标对象的所述行为信息中筛选出重复次数超过了频率阈值的至少一个动作,并将筛选出的动作标记为所述习惯行为。
4.如权利要求3所述一种虚拟人运动生成系统,其特征在于,所述习惯行为的运动参数,包括目标对象的每一肢体在表现所述习惯行为时的以下至少一项的参数:位置、朝向、速度以及加速度。
5.如权利要求4所述一种虚拟人运动生成系统,其特征在于,所述分析模块使用支持向量机进行所述行为信息的分析。
6.如权利要求5所述一种虚拟人运动生成系统,其特征在于,所述分析模块包括将所述习惯行为归类为积极行为、消极行为或中性行为中的一种。
7.如权利要求6所述一种虚拟人运动生成系统,其特征在于,所述伴随特征包括行为特征和/或语言特征。
8.如权利要求7所述一种虚拟人运动生成系统,其特征在于,所述意愿值Y以及意志函数ACT()的计算方式为:
其中,为积极行为权重,为消极行为权重,pos和nag分别为虚拟人与目标对象互动过程中,目标对象的积极行为和消极行为的出现次数;为衰减系数,Δt为单位时间;上述、、由相关技术人员根据虚拟人的性格进行设定;
意愿值Y即统计在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时间比例,即:
上式中,k为时间校正系数,由相关技术人员根据虚拟人的性格进行设定;tover为在一个统计周期T内,意志函数ACT()超过一个意愿阈值Ylimit的时长;意愿阈值Ylimit由相关技术人员根据虚拟人的性格设置。
9.一种虚拟人运动生成方法,其特征在于,所述生成方法应用于如权利要求8所述一种虚拟人运动生成系统;所述生成方法包括以下步骤:
S1:识别当前与虚拟人进行交互的目标对象的身份信息;
S2:记录目标对象在预设观察时间段中的行为表现,并生成基于该目标对象的行为信息;
S3:分析所述行为信息,提取所述行为信息中包括的至少一项目标对象的习惯行为;并且包括分析所述习惯行为的运动参数,以及所述习惯行为发生时目标对象的伴随特征;
S4:从所述数据库中提取该目标对象的在所述数据库中所有的所述习惯行为以及每个所述习惯行为的运动参数;
S5:确认虚拟人的下一个行为状态或语言状态;
S6:在一个预设周期内,当虚拟人的下一个行为状态或语言状态符合目标对象其中一个所述习惯行为的伴随特征时,设定该习惯行为作为待发生习惯行为;
S7:根据一个意志函数ACT()计算虚拟人的意愿值,根据意愿值决定虚拟人是否执行所述待发生习惯行为;
S8:若执行所述待发生习惯行为,则调用该待发生习惯行为的运动参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924252.8A CN114967937B (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟人运动生成方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210924252.8A CN114967937B (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟人运动生成方法与系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114967937A CN114967937A (zh) | 2022-08-30 |
CN114967937B true CN114967937B (zh) | 2022-09-30 |
Family
ID=82968901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210924252.8A Active CN114967937B (zh) | 2022-08-03 | 2022-08-03 | 一种虚拟人运动生成方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114967937B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115793866B (zh) * | 2023-02-13 | 2023-07-28 | 西安飞蝶虚拟现实科技有限公司 | 基于动作捕捉的元宇宙远程互动系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070143679A1 (en) * | 2002-09-19 | 2007-06-21 | Ambient Devices, Inc. | Virtual character with realtime content input |
US9779633B2 (en) * | 2014-08-08 | 2017-10-03 | Greg Van Curen | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same |
US9684993B2 (en) * | 2015-09-23 | 2017-06-20 | Lucasfilm Entertainment Company Ltd. | Flight path correction in virtual scenes |
CN106774897A (zh) * | 2016-10-18 | 2017-05-31 | 朱金彪 | 虚拟机器人的方法和装置以及使用其的眼镜或头盔 |
CN107621919A (zh) * | 2017-09-12 | 2018-01-23 | 广东小天才科技有限公司 | 一种培养行为习惯的互动方法及用户终端 |
CN107894833B (zh) * | 2017-10-26 | 2021-06-15 | 北京光年无限科技有限公司 | 基于虚拟人的多模态交互处理方法及系统 |
CN108681398A (zh) * | 2018-05-10 | 2018-10-19 | 北京光年无限科技有限公司 | 基于虚拟人的视觉交互方法及系统 |
CN108628454B (zh) * | 2018-05-10 | 2022-03-22 | 北京光年无限科技有限公司 | 基于虚拟人的视觉交互方法及系统 |
CN110070944B (zh) * | 2019-05-17 | 2023-12-08 | 段新 | 基于虚拟环境和虚拟角色的社会功能评估训练系统 |
CN111638791B (zh) * | 2020-06-03 | 2021-11-09 | 北京火山引擎科技有限公司 | 虚拟角色的生成方法、装置、电子设备及存储介质 |
-
2022
- 2022-08-03 CN CN202210924252.8A patent/CN114967937B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114967937A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Marinoiu et al. | 3d human sensing, action and emotion recognition in robot assisted therapy of children with autism | |
CN108665492B (zh) | 一种基于虚拟人的舞蹈教学数据处理方法及系统 | |
Joo et al. | Towards social artificial intelligence: Nonverbal social signal prediction in a triadic interaction | |
US9690982B2 (en) | Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds | |
EP3885965B1 (en) | Image recognition method based on micro facial expressions, apparatus and related device | |
US20110144804A1 (en) | Device and method for expressing robot autonomous emotions | |
CN110599573A (zh) | 一种基于单目相机的人脸实时交互动画的实现方法 | |
Avola et al. | Deep temporal analysis for non-acted body affect recognition | |
CN113705316A (zh) | 获取虚拟图像的方法、装置、设备及存储介质 | |
CN114967937B (zh) | 一种虚拟人运动生成方法与系统 | |
Lewis et al. | Are discrete emotions useful in human-robot interaction? Feedback from motion capture analysis | |
Higgins et al. | Head pose for object deixis in vr-based human-robot interaction | |
Zacharatos et al. | Emotion recognition from 3D motion capture data using deep CNNs | |
Chella et al. | A posture sequence learning system for an anthropomorphic robotic hand | |
Carreno-Medrano et al. | Analysis of affective human motion during functional task performance: An inverse optimal control approach | |
TW202133117A (zh) | 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法 | |
CN113807280A (zh) | 一种基于Kinect的虚拟船舶机舱系统与方法 | |
Milanova et al. | Recognition of emotional states in natural human-computer interaction | |
Xie et al. | " Can You Guess My Moves? Playing Charades with a Humanoid Robot Employing Mutual Learning with Emotional Intelligence | |
Guo et al. | Scene Construction and Application of Panoramic Virtual Simulation in Interactive Dance Teaching Based on Artificial Intelligence Technology | |
Weng et al. | Developing early senses about the world:" Object Permanence" and visuoauditory real-time learning | |
Patel et al. | Gesture Recognition Using MediaPipe for Online Realtime Gameplay | |
Xie et al. | Data-driven motion estimation with low-cost sensors | |
CN117115321B (zh) | 虚拟人物眼睛姿态的调整方法、装置、设备及存储介质 | |
CN115294623B (zh) | 一种人体全身动作捕捉方法、装置、存储介质及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |