CN115220682A - 一种音频驱动虚拟人像的方法、装置及电子设备 - Google Patents

一种音频驱动虚拟人像的方法、装置及电子设备 Download PDF

Info

Publication number
CN115220682A
CN115220682A CN202110888459.XA CN202110888459A CN115220682A CN 115220682 A CN115220682 A CN 115220682A CN 202110888459 A CN202110888459 A CN 202110888459A CN 115220682 A CN115220682 A CN 115220682A
Authority
CN
China
Prior art keywords
information
behavior
audio
model
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110888459.XA
Other languages
English (en)
Inventor
祝丰年
张保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cloudminds Shanghai Robotics Co Ltd
Original Assignee
Cloudminds Shanghai Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cloudminds Shanghai Robotics Co Ltd filed Critical Cloudminds Shanghai Robotics Co Ltd
Priority to CN202110888459.XA priority Critical patent/CN115220682A/zh
Priority to PCT/CN2022/084697 priority patent/WO2023010873A1/zh
Publication of CN115220682A publication Critical patent/CN115220682A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供了一种音频驱动虚拟人像行为的方法、装置及电子设备,其中,所述方法包括:接收音频信息;根据所述音频信息生成文本信息;根据所述音频信息和文本信息结合场景信息生成行为模型;将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;根据所述模型关联内容对虚拟人像行为进行驱动;进行音频信息和所述虚拟人像行为之间的同步。通过上述方法,能够关联驱动虚拟人像行为,并且将音频信息、文本信息和虚拟人像行为进行时间节点的同步,精准同步音频信息和虚拟人物口型的动作,同时无法进行面部表情和肢体动作和当前音频内容进行结合和同步。

Description

一种音频驱动虚拟人像的方法、装置及电子设备
技术领域
本公开涉及虚拟人像领域,尤其涉及一种音频驱动虚拟人像的方法、装置及电子设备。
背景技术
传统的交互的智能设备,在与用户进行交互时,在存在虚拟人像的交互中,往往仅涉及语音由虚拟人像简单输出,并不结合虚拟人像的口型,且虚拟人像的五官表情单一,无喜怒哀乐的丰富表情。在传统的音频驱动虚拟人物行为的方案中,即使虚拟人像在与用户语音交互中存在口型的变化,其也仅仅是重复性的简单张合动作,智能设备中的虚拟人像的嘴形,面部表情以及肢体行为,并不能通过音频实时流语音同步生成口型变形系数,驱动虚拟形象不能进行口型动作精准、面部表情逼真的表达。
因而,现有技术中通常存在如下问题:当生成口型变形系数的时候往往会较为耗时,导致音频信息和虚拟人物口型的动作的无法精准同步。同时无法进行面部表情和肢体动作和当前音频内容进行结合和同步。
发明内容
本发明实施方式的目的在于提供一种音频驱动虚拟人像行为的方法,根据当前音频信息的语义、语境来驱动虚拟任务进行口型,面部表情以及相关肢体动作的执行。通过在模型生成服务器或者模块进行预处理,生成口型,面部表情以及肢体动作的行为模型数据,然后通过关键时间点对音频信息、对应的文本信息以及行为模型进行关联,形成音频模型关联内容,据所述模型关联内容对虚拟人像行为进行驱动,并能够对音频信息和所述虚拟人像行为进行同步。
为了实现上述目的,第一方面,本发明的实施例提供了一种音频驱动虚拟人像行为的方法,包括:
接收音频信息;
根据所述音频信息生成文本信息;
根据所述音频信息和文本信息结合场景信息生成行为模型;
将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;
根据所述模型关联内容对虚拟人像行为进行驱动;
进行音频信息和所述虚拟人像行为之间的同步。
进一步的,所述根据所述音频信息和文本信息结合场景信息生成行为模型,包括:
根据接收的所述音频信息和对应的所述文本信息,结合所述场景信息,根据所述虚拟人像行为按照时间生成对应的口型、表情以及动作的行为模型。
进一步的,所述场景信息包括所述音频信息的语义、语境以及所述虚拟人像行为的上下文场景。
进一步的,所述将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容,包括:
根据所述音频信息、所述音频信息对应的文本信息以及所述行为模型,通过起始时间和持续时间对应的关键时间节点进行关联,形成以时间节点进行关联的音频模型关联内容;
所述音频模型关联内容中包括所述音频信息、文本信息、行为模型内容以及关联关系。
进一步的,所述根据所述模型关联内容对虚拟人像行为进行驱动,包括:
将关联后的所述模型关联内容进行解析,获取所述音频信息、文本信息和行为模型信息,以及上述信息之间的关联关系;
通过所述模型关联内容中的所述行为模型信息对虚拟人像行为进行驱动。
进一步的,所述进行音频信息和所述虚拟人像行为之间的同步,包括:
建立具有时间节点分布的时间轴;
按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系;
通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的同步;
所述时间节点包括起始时间和持续时间对应的时间节点。
进一步的,所述进行音频信息和所述虚拟人像行为之间的同步,进一步包括:
将所述音频信息划分为多个片段,每个片段有各自的起始时间和持续时间;
将对应的所述文本信息与所述音频信息通过起始时间和持续时间对应的时间节点进行同步;
将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步。
所述进行音频信息和所述虚拟人像行为之间的同步,进一步包括:
将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;
以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;
所述N为大于1的自然数。
进一步的,所述方法还包括:
在所述时间轴上设置非关联时间节点阵列;
将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。
进一步的,所述非关联时间节点设置成等时间间隔或离散时间间隔。
进一步的,所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。
第二方面,本公开实施例提供一种音频驱动虚拟人像行为的装置,包括:
接收模块,用于接收音频信息;
文本信息生成模块,用于根据所述音频信息生成文本信息;
行为模型生成模块,用于根据所述音频信息和文本信息结合场景信息生成行为模型;
音频模型关联模块,用于将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;
驱动模块,用于根据所述模型关联内容对虚拟人像行为进行驱动;
同步模块,用于进行音频信息和所述虚拟人像行为之间的同步。
第三方面,本公开实施例提供一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述电子设备实现上述第一方面中任意一项所述的方法。
第四方面,本公开实施例提供一种非暂态计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机实现上述第一方面中任意一项所述的方法。
本公开实施例公开了一种音频驱动虚拟人像行为的方法、装置、电子设备和计算机可读存储介质,其中所述方法包括:接收音频信息;根据所述音频信息生成文本信息;根据所述音频信息和文本信息结合场景信息生成行为模型;将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;根据所述模型关联内容对虚拟人像行为进行驱动;进行音频信息和所述虚拟人像行为之间的同步。通过本公开的音频驱动虚拟人像行为的方法,能够关联驱动虚拟人像行为,并且将音频信息、文本信息和虚拟人像行为进行时间节点的同步,精准同步音频信息和虚拟人物口型的动作,同时无法进行面部表情和肢体动作和当前音频内容进行结合和同步。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本公开一实施例提供的音频驱动虚拟人像行为的方法的流程示意图;
图2为本公开一实施例提供的音频驱动虚拟人像行为的系统示意图;
图3为本公开一实施例提供的音频模型关联内容结构示意图;
图4为本公开一实施例提供的音频信息的数据格式示意图;
图5为本公开一实施例提供的音频模型关联内容各元素进行时间同步示意图;
图6为本公开另一实施例提供的音频驱动虚拟人像行为的装置示意图;
图7为本公开另一实施例提供的电子设备的结构示意图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。下面参考附图详细描述公开的各实施方式。
图1为本公开实施例提供的音频驱动虚拟人像行为的方法的流程示意图,本实施例提供的该音频驱动虚拟人像行为的方法可以由一音频驱动虚拟人像行为的装置来执行,该装置可以实现为软件,或者实现为软件和硬件的组合,该装置可以集成设置在音频驱动虚拟人像行为的系统中的某设备中,比如终端设备中。如图1所示,该方法包括如下步骤:
步骤S101:接收音频信息。
在步骤S101中,智能设备接收音频信息,此处智能设备可以为智能机器人、智能终端以及其它具有屏幕显示的智能设备等,该智能设备可显示虚拟人像,例如可呈现虚拟人像的动画效果,可自行播放虚拟人像的动画,也可与用户进行交互行为。本实施例中的智能设备以智能机器人为例,其具有拟人的形态,头部的显示屏上具有虚拟人像的五官显示,在智能设备接收到音频信息后,和配合虚拟人像中的口型,同步地将对应的语音播放出来,同时可配合机器人的虚拟人像的拟人表情,比如伤心、大笑、微笑、大哭、无奈、尴尬等表情。另外,该机器人还可实现其它行为,例如摆手、摊手、摇头、点头等,也可根据音频信息,配合虚拟人像口型和表情同步表现出来。本实施例中的接收音频信息,可以采用用户与智能机器人交互时,智能机器人实时采集用户的语音信息,将其作为音频信息的来源,也可调取外部或内部存储设备中的音频信息,音频信息的来源不限于此。
步骤S102:根据所述音频信息生成文本信息。
在步骤S102中,用户与智能机器人对话交互的过程中涉及音频信息的输入和接收,用户与机器人的对话中包括涉及音频的对话信息,对话信息包括对话内容的特征数据,则获取对话信息的过程即为确定对话内容的特征数据的过程:获取原始文本信息,原始文本信息为对话内容所对应的文本信息;从该原始文本信息中提取文本特征数据;将文本特征数据,作为对话内容的特征数据。
具体的说,通常机器人与交互对象进行对话交互的过程为:机器人说一段话,交互对象回复该段话;或者,交互对象说一段话,而机器人对交互对象的话进行回复;还可以是交互对象和机器人可能同时说出第一段话。因而该原始文本信息可以为该机器人产生,也可以是交互对象产生,还可以同时包括机器人和交互对象同时产生。本实施方式中,按照上述三种情况,分别介绍确定获取原始文本信息的过程:
情境一:当原始文本信息为机器人产生的对话内容所对应的文本信息。
获取原始文本信息,具体包括:获取机器人待播放的文本信息;并将待播放的文本信息作为原始文本信息。
情境二:当原始文本信息为交互对象产生的对话内容所对应的文本信息。
获取原始文本信息,具体包括:采集交互对象说话时发出的音频数据;对该音频数据进行语音识别,并将该语音识别结果作为原始文本信息。
情境三:当原始文本信息包括机器人产生的对话内容所对应的文本信息,以及交互对象产生的对话内容的文本信息。
可以按照情境一中的方式获取机器人待播放的文本信息,并按照情境二中的方式获取交互对象产生的对话内容的文本信息,将该待播放的文本信息和交互对象产生的对话内容的文本信息共同作为该原始原本数据,其中,情境一中和情境二中具体的获取过程此处将不再赘述。
一个具体的实现中,从原始文本信息中提取文本特征数据,具体包括:将原始文本信息输入预设的文本提取模型,获得文本特征数据,文本提取模型是根据训练库中存储的各原始文本信息,以及与各原始文本信息对应的文本特征数据训练获得。
具体的说,将训练库中存储的各原始文本信息作为该文本提取模型的输入数据,将与各原始文本信息对应的文本特征数据作为输出数据,可以采用循环神经网络(Recurrent Neural Network,简称“RNN”)的模型结构,对输入数据和输出数据进行训练,即可确定出该文本提取模型,典型的循环神经网络如:长短期记忆网络(Long Short-TermMemory,简称“LSTM”)模型架构。
构建完该文本提取模型后,将原始文本信息输入该文本提取模型,即可得到该文本特征数据。
步骤S103:根据所述音频信息和文本信息结合场景信息生成行为模型。
在步骤S103中,根据传入的音频内容和对应的文本信息,分析当前的语义、语境以及虚拟人像对话的上下文场景,根据音视频内容按照时间生成对应的口型,表情以及动作的行为模型。所述根据所述音频信息和文本信息结合场景信息生成行为模型,具体的,根据接收的所述音频信息和对应的所述文本信息,结合所述场景信息,根据所述虚拟人像行为按照时间生成对应的口型、表情以及动作的行为模型。其中场景信息包括所述音频信息的语义、语境以及所述虚拟人像行为的上下文场景。
该行为模型是在获取对话信息之前,预先根据样本训练库中的各音频信息,以及与各音频信息对应的行为动作训练获得。由于用户与机器人在进行对话交互过程中,通常对话交互的一方产生的对话内容会影响交互对象另一方在聆听过程中的行为动作,且其中的强相关动作,例如口型,需要与音频信息同步,次相关的相关动作,同样需要与音频信息进行同步,所以该行为模型与音频信息具有对应关系。其中对于机器人行为中的口型训练尤为重要,通常采集大量的音视频信息,音视频信息中包含大量的音频信息和与之对应的口型动作,采用音视频中的虚拟人像中的音频与口型对应关系进行大数据训练,获得对应的口型动作,另外,机器人的口型动作通常可结合表情和肢体动作来同时进行。或者,交互对象的机器人自身发出的对话内容对自身的行为动作也会产生影响。
其中,样本训练库中的各对话信息,以及与各对话信息对应的行为动作可以采用如下方式获取:
采集大量的音视频文件数据,获取大量的音频信息和音视频信息,如:采集4000个音视频文件。为了保证样本训练库中的各音频信息的准确性,可以采集包含有对话场景的音视频,例如,脱口秀节目的音视频文件,脱口秀节目通常仅有两个人进行对话,该情境类似于机器人与交互对象之间的对话情境,因此,将该脱口秀的音视频文件作为训练数据,可以准确训练出行为模型。
由于每个音视频文件中均包含两个交互对象,每个音视频文件包含完整的对话场景,对每个音视频文件的处理过程为:可以通过语音识别的方式分别采集属于交互对象A的音频数据,以及属于交互对象B的音频数据,并将交互对象A的音频数据转换为文本数据,交互对象B的音频数据转为文本数据。并同时通过图像分析,采集交互对象A的行为动作A,以及属于交互对象 B的行为动作。可以理解的是,交互对象A和交互对象B仅用于区别一个音视频文件中的两个交互对象,且每个音视频文件中的交互对象A(或交互对象B) 可以是不同两个个体。
步骤S104:将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容。
在步骤S104中,本公开实施例中,将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容,具体包括:根据所述音频信息、所述音频信息对应的文本信息以及所述行为模型,通过起始时间和持续时间对应的关键时间节点进行关联,形成以时间节点进行关联的音频模型关联内容,所述音频模型关联内容中包括所述音频信息、文本信息、行为模型内容以及关联关系。其中行为模型中的行为按照与音频信息的相关性进行类型排序,最相关的行为动作包含第一行为信息,本实施例中,与音频信息对应的口型动作为第一行为动作,与音频信息的关联性最强。与音频信息次相关的行为动作包含第二行为信息,本实施例中可将虚拟人像的表情动作作为第二行为动作,也可以采用肢体动作作为第二行为动作,其它行为以此按照与音频信息的相关度进行排序,本公开对此不做严格的限定。
建立具有时间节点分布的时间轴,按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系,所述时间节点包括起始时间和持续时间对应的时间节点。其中,最相关的口型动作根据音频信息对应的起始时间和持续时间对应的时间点进行严格关联,依次相关的行为动作可以按照大致的时间节点与音频信息进行关联。该处的大致的时间节点可以设定一定的时间区间,例如在[-5s,+5s]、[-3s,+3s]、[-2s,+2s]、[-1s,+1s]、[-0.5s,+0.5s]等等。而不相关的行为动作可按照时间轴上的非关联时间点阵列进行关联。其中,所述非关联时间节点设置成等时间间隔或离散时间间隔。
步骤S105:根据所述模型关联内容对虚拟人像行为进行驱动。
在步骤S105中,通过所述模型关联内容中的所述行为模型信息对虚拟人像行为进行驱动。具体包括:首先将关联后的所述模型关联内容进行解析,获取所述音频信息、文本信息和行为模型信息,以及上述信息之间的关联关系;通过所述模型关联内容中的所述行为模型信息对虚拟人像行为进行驱动。通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的驱动。按照相关度顺序,将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动。然后将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动;以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动;所述N 为大于1的自然数。最后将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。所述非关联时间节点设置成等时间间隔或离散时间间隔。所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。需要说明的是,本实施例的相关顺序并非严格的相关顺序,本领域技术人员可对相关的行为顺序进行调整,本公开对此不做严格限定。
步骤S106:进行音频信息和所述虚拟人像行为之间的同步。
在步骤S106中,通过上一步骤中建立的具有时间节点分布的时间轴,按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系;通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的同步;所述时间节点包括起始时间和持续时间对应的时间节点。所述进行音频信息和所述虚拟人像行为之间的同步,进一步包括:将所述音频信息划分为多个片段,每个片段有各自的起始时间和持续时间,将对应的所述文本信息与所述音频信息通过起始时间和持续时间对应的时间节点进行同步,将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步。将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;所述N为大于1的自然数。另外,在所述时间轴上设置非关联时间节点阵列;将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。所述非关联时间节点设置成等时间间隔或离散时间间隔。所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。需要说明的是,本实施例的相关顺序并非严格的相关顺序,本领域技术人员可对相关的行为顺序进行调整,本公开对此不做严格限定。
图2为本公开一实施例提供的音频模型关联内容结构示意图。其中该音频模型关联内容为图1中音频模型文件生成模块合成的文件;
根据音频内容,文本以及模型进行分片,每个分片中均包含了音频,文本,行文模型以及各个数据在时间节点上的关联。
对应在图1中合成的音频模型文件如图2中所示一般由多个分片组成,每个分片具有相同的数据结构和不同的数据内容。以分片1为例进行说明,包含:
音频片段1:为音频文件中第一片音频数据,音频片段的分片可以为固定大小,或者按照音频内容进行划分,对于划分方式不做限制;
文本:为音频片段所对应的文本内容;
行为模型:为音频片段以及场景所对应的行为模型,包括表情,肢体,嘴型模型数据,包括但不限于这几种行为模型;
开始时间:该时间为对应上述各个元素开始的时间;对应上述各个元素均有各自的起始时间,此处进行统一介绍说明;
结束时间:该时间为对应上述各个元素结束的时间;对应上述各个元素均有各自的结束时间,此处进行统一介绍说明;
持续时间:该时间为对应上述各个元素持续的时间;对应上述各个元素均有各自的持续时间,此处进行统一介绍说明。
图3为本公开一实施例提供的音频信息的数据格式示意图。
该音频信息的数据格式包括:片段索引、片段大小、起始时间、结束时间、文本信息、音频大小、音频信息以模型内容。其中模型内容包括行为信息以及关联关系,在此,着重对模型内容进行描述。由于在图3中已经说明了音频模型内容的构成,图3中对图2中的模型内容的定义及分片进行详细的说明和描述。
对于模型内容的定义:
Figure RE-GDA0003234667610000131
Figure RE-GDA0003234667610000141
Figure RE-GDA0003234667610000151
其中MoudleData中包含LipSync(嘴型模型),Expression(表情模型), Action(肢体动作模型),其中每个模型当中会进一步说明该模型详细内容: Name(细分动作的名称),Start(起始时间),End(结束时间),以及Data(该细分动作的模型数据)。
以图中的LipSync为例,其中“LipSync”为嘴型模型的名称,该嘴型模型中包含了多个不同的嘴型模型元素X,Y等等,每个模型元素包含:
Name:模型名称,区分不同的模型;
Start:对应模型开始的时间;
End:对应模型结束的时间;
Data:对应的模型数据;
图4示出了本公开一实施例提供的音频模型关联内容各元素进行时间同步的示意图。该图形为音频模型文件各个元素同步的示意图,其中包含了时间(该音频模型文件的工作的时间),音频(音频的各个分片),口型,文本,肢体动作,表情,以及各个元素在时间轴上的分布。
以“你好”为例进行,对应的音频以字划分为两个片段,每个片段有各自的时间描述(起始和持续时间);对应的文本的描述时间和音频相关联具有一样的时间描述;口型模型和对应的音频内容相关,比如图4中第一个音频片段对应了1,2,3口型模型;在第一个音频的播放过程中进行了挥手的动作行为,同时在眨眼的行为。所有的元素均有按照同一个时间轴进行工作。
图5为本公开另一实施例提供的音频驱动虚拟人像行为的装置示意图。该音频驱动虚拟人像行为的装置包括:接收模块501、文本信息生成模块502、行为模型生成模块503、音频模型关联模块504、驱动模块505和同步模块506。
其中:
所述接收模块501,用于接收音频信息。
智能设备接收音频信息,本实施例中的智能设备以智能机器人为例,其具有拟人的形态,头部的显示屏上具有虚拟人像的五官显示,在智能设备接收到音频信息后,和配合虚拟人像中的口型,同步地将对应的语音播放出来,同时可配合机器人的虚拟人像的拟人表情,比如伤心、大笑、微笑、大哭、无奈、尴尬等表情。另外,该机器人还可实现其它行为,例如摆手、摊手、摇头、点头等,也可根据音频信息,配合虚拟人像口型和表情同步表现出来。本实施例中的接收音频信息,可以采用用户与智能机器人交互时,智能机器人实时采集用户的语音信息,将其作为音频信息的来源,也可调取外部或内部存储设备中的音频信息,音频信息的来源不限于此。
所述文本信息生成模块502,用于根据所述音频信息生成文本信息。
用户与智能机器人对话交互的过程中涉及音频信息的输入和接收,用户与机器人的对话中包括涉及音频的对话信息,对话信息包括对话内容的特征数据,则获取对话信息的过程即为确定对话内容的特征数据的过程:获取原始文本信息,原始文本信息为对话内容所对应的文本信息;从该原始文本信息中提取文本特征数据;将文本特征数据,作为对话内容的特征数据。
所述行为模型生成模块503,用于根据所述音频信息和文本信息结合场景信息生成行为模型。
根据传入的音频内容和对应的文本信息,分析当前的语义、语境以及虚拟人像对话的上下文场景,根据音视频内容按照时间生成对应的口型,表情以及动作的行为模型。所述根据所述音频信息和文本信息结合场景信息生成行为模型,具体的,根据接收的所述音频信息和对应的所述文本信息,结合所述场景信息,根据所述虚拟人像行为按照时间生成对应的口型、表情以及动作的行为模型。其中场景信息包括所述音频信息的语义、语境以及所述虚拟人像行为的上下文场景。
所述音频模型关联模块504,用于将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容。
将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容,具体包括:根据所述音频信息、所述音频信息对应的文本信息以及所述行为模型,通过起始时间和持续时间对应的关键时间节点进行关联,形成以时间节点进行关联的音频模型关联内容,所述音频模型关联内容中包括所述音频信息、文本信息、行为模型内容以及关联关系。其中行为模型中的行为按照与音频信息的相关性进行类型排序,最相关的行为动作包含第一行为信息,本实施例中,与音频信息对应的口型动作为第一行为动作,与音频信息的关联性最强。与音频信息次相关的行为动作包含第二行为信息,本实施例中可将虚拟人像的表情动作作为第二行为动作,也可以采用肢体动作作为第二行为动作,其它行为以此按照与音频信息的相关度进行排序,本公开对此不做严格的限定。建立具有时间节点分布的时间轴,按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系,所述时间节点包括起始时间和持续时间对应的时间节点。
所述驱动模块505,用于根据所述模型关联内容对虚拟人像行为进行驱动。
首先将关联后的所述模型关联内容进行解析,获取所述音频信息、文本信息和行为模型信息,以及上述信息之间的关联关系;通过所述模型关联内容中的所述行为模型信息对虚拟人像行为进行驱动。通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的驱动。按照相关度顺序,将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动。然后将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动;以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行驱动;所述N为大于1的自然数。最后将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。所述非关联时间节点设置成等时间间隔或离散时间间隔。所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。需要说明的是,本实施例的相关顺序并非严格的相关顺序,本领域技术人员可对相关的行为顺序进行调整,本公开对此不做严格限定。
所述同步模块506,用于进行音频信息和所述虚拟人像行为之间的同步。
按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系;通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的同步;所述时间节点包括起始时间和持续时间对应的时间节点。
所述同步模块506,进一步用于:将所述音频信息划分为多个片段,每个片段有各自的起始时间和持续时间,将对应的所述文本信息与所述音频信息通过起始时间和持续时间对应的时间节点进行同步,将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步。
所述同步模块506,进一步用于:将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;所述N为大于1的自然数。
所述同步模块506,进一步用于:在所述时间轴上设置非关联时间节点阵列;将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。所述非关联时间节点设置成等时间间隔或离散时间间隔。
所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。需要说明的是,本实施例的相关顺序并非严格的相关顺序,本领域技术人员可对相关的行为顺序进行调整,本公开对此不做严格限定。
图5所示装置可以执行图1所示实施例的方法,本实施例未详细描述的部分,可参考对图1所示实施例的相关说明。该技术方案的执行过程和技术效果参见图1所示实施例中的描述,在此不再赘述。
如图6所示,示出了本公开一实施例提供的音频驱动虚拟人像行为的系统示意图。该系统组成的示意图:其中该系统示意图结合附图5中的音频驱动虚拟人像行为的装置图,根据各模块之间的逻辑关系,根据该系统图,示出了行为模型生成模块,音频模型文件生成模块,音频模型解析模块,虚拟人像行为驱动模块之间的逻辑关系。
行为模型生成模块,根据传入的音频内容和对应的文本信息,分析当前的语义、语境以及虚拟人像对话的上下文场景,根据视频内容按照时间生成对应的口型,表情以及动作的行为模型。
音频模型文件生成模块,根据音频内容,音频内容对应的文本,以及在模型生成模块中生成的模型数据,按照音频数播放的时间节点将音频,文本以及模型,按照各个元素在音频播放中对应节点的起始时间,持续时间等关键时间节点进行关联,形成以时间节点进行关联的音频模型文件;该文件中包括了时间节点(起始时间,持续时间),音频文件,文本,以及模型信息。该音频模型文件生成模块对应于图6中的文本信息生成模块和音频模型关联模块的部分功能。
音频模型文件解析模块,将音频模型文件进行解析,分别获得音频内容,模型内容,文本内容,以及上述内容之间的关联,包含但不限于时间的关联。该音频模型文件解析模块对应于图6中的音频模型关联模块。
虚拟人像行为驱动模块,根据在音频解析模块中解析到的模型内容进行虚拟人像行为的驱动。其中通过音频内容和模型之间的关联,进行音频播放和动作模型之间的同步。该虚拟人像行为驱动模块对应于图6中的驱动模块。
音频驱动虚拟人像行为的装置,进一步包括:
音频播放模块,播放上述音频模型文件解析模块中解析的音频内容。
文本显示模块,显示上述音频模型文件解析模块中解析的文本内容。
下面参考图7,其示出了适于用来实现本公开另一实施例的电子设备700 的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP (便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过通信线路704彼此相连。输入 /输出(I/O)接口705也连接至通信线路704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700 与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:执行上述实施例中的交互方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有能被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述第一方面中的任一所述方法。
根据本公开的一个或多个实施例,提供了一种非暂态计算机可读存储介质,其特征在于,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行前述第一方面中的任一所述方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (13)

1.一种音频驱动虚拟人像行为的方法,其特征在于,包括:
接收音频信息;
根据所述音频信息生成文本信息;
根据所述音频信息和文本信息结合场景信息生成行为模型;
将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;
根据所述模型关联内容对虚拟人像行为进行驱动;
进行音频信息和所述虚拟人像行为之间的同步。
2.根据权利要求1所述的方法,其特征在于,所述根据所述音频信息和文本信息结合场景信息生成行为模型,包括:
根据接收的所述音频信息和对应的所述文本信息,结合所述场景信息,根据所述虚拟人像行为按照时间生成对应的口型、表情以及动作的行为模型。
3.根据权利要求2所述的方法,其特征在于,所述场景信息包括所述音频信息的语义、语境以及所述虚拟人像行为的上下文场景。
4.根据权利要求1所述的方法,其特征在于,所述将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容,包括:
根据所述音频信息、所述音频信息对应的文本信息以及所述行为模型,通过起始时间和持续时间对应的关键时间节点进行关联,形成以时间节点进行关联的音频模型关联内容;
所述音频模型关联内容中包括所述音频信息、文本信息、行为模型内容以及关联关系。
5.根据权利要求1所述的方法,其特征在于,所述根据所述模型关联内容对虚拟人像行为进行驱动,包括:
将关联后的所述模型关联内容进行解析,获取所述音频信息、文本信息和行为模型信息,以及上述信息之间的关联关系;
通过所述模型关联内容中的所述行为模型信息对虚拟人像行为进行驱动。
6.根据权利要求1所述的方法,其特征在于,所述进行音频信息和所述虚拟人像行为之间的同步,包括:
建立具有时间节点分布的时间轴;
按照所述时间轴上的时间节点将音频信息,文本信息以及行为模型信息,通过所述时间节点进行关联,形成以所述时间节点相关联的关联关系;
通过所述音频信息和所述关联关系,进行音频信息和所述虚拟人像行为之间的同步;
所述时间节点包括起始时间和持续时间对应的时间节点。
7.根据权利要求6所述的方法,其特征在于,所述进行音频信息和所述虚拟人像行为之间的同步,进一步包括:
将所述音频信息划分为多个片段,每个片段有各自的起始时间和持续时间;
将对应的所述文本信息与所述音频信息通过起始时间和持续时间对应的时间节点进行同步;
将所述行为模型信息中与所述音频信息最相关的第一行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步。
8.根据权利要求7所述的方法,其特征在于,所述进行音频信息和所述虚拟人像行为之间的同步,进一步包括:
将所述行为模型信息中与所述音频信息次相关的第二行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;
以此按照相关顺序,将所述行为模型信息中与所述音频信息依次相关的第N行为信息通过起始时间和持续时间对应的时间节点与所述音频信息进行同步;
所述N为大于1的自然数。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
在所述时间轴上设置非关联时间节点阵列;
将所述行为模型信息中与所述音频信息不相关的行为信息按照所述非关联时间节点阵列进行驱动。
10.根据权利要求9所述的方法,其特征在于,所述非关联时间节点设置成等时间间隔或离散时间间隔。
11.根据权利要求8所述的方法,其特征在于,所述最相关的第一行为信息为口型行为信息;所述次相关的第二行为信息为表情行为信息;所述依次相关的第N行为信息包括肢体动作行为信息。
12.一种音频驱动虚拟人像行为的装置,其特征在于,包括:
接收模块,用于接收音频信息;
文本信息生成模块,用于根据所述音频信息生成文本信息;
行为模型生成模块,用于根据所述音频信息和文本信息结合场景信息生成行为模型;
音频模型关联模块,用于将所述音频信息、所述文本信息以及所述行为模型结合时间节点进行关联,形成音频模型关联内容;
驱动模块,用于根据所述模型关联内容对虚拟人像行为进行驱动;
同步模块,用于进行音频信息和所述虚拟人像行为之间的同步。
13.一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述电子设备实现根据权利要求1-11中任意一项所述的方法。
CN202110888459.XA 2021-08-03 2021-08-03 一种音频驱动虚拟人像的方法、装置及电子设备 Pending CN115220682A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110888459.XA CN115220682A (zh) 2021-08-03 2021-08-03 一种音频驱动虚拟人像的方法、装置及电子设备
PCT/CN2022/084697 WO2023010873A1 (zh) 2021-08-03 2022-03-31 一种音频驱动虚拟人像的方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110888459.XA CN115220682A (zh) 2021-08-03 2021-08-03 一种音频驱动虚拟人像的方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN115220682A true CN115220682A (zh) 2022-10-21

Family

ID=83605992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110888459.XA Pending CN115220682A (zh) 2021-08-03 2021-08-03 一种音频驱动虚拟人像的方法、装置及电子设备

Country Status (2)

Country Link
CN (1) CN115220682A (zh)
WO (1) WO2023010873A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116778041A (zh) * 2023-08-22 2023-09-19 北京百度网讯科技有限公司 基于多模态的人脸图像生成方法、模型的训练方法及设备
CN117058286A (zh) * 2023-10-13 2023-11-14 北京蔚领时代科技有限公司 一种文字驱动数字人生成视频的方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983807B2 (en) * 2018-07-10 2024-05-14 Microsoft Technology Licensing, Llc Automatically generating motions of an avatar
CN112667068A (zh) * 2019-09-30 2021-04-16 北京百度网讯科技有限公司 虚拟人物的驱动方法、装置、设备及存储介质
CN112669846A (zh) * 2021-03-16 2021-04-16 深圳追一科技有限公司 交互系统、方法、装置、电子设备及存储介质
CN113192161B (zh) * 2021-04-22 2022-10-18 清华珠三角研究院 一种虚拟人形象视频生成方法、系统、装置及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116778041A (zh) * 2023-08-22 2023-09-19 北京百度网讯科技有限公司 基于多模态的人脸图像生成方法、模型的训练方法及设备
CN116778041B (zh) * 2023-08-22 2023-12-12 北京百度网讯科技有限公司 基于多模态的人脸图像生成方法、模型的训练方法及设备
CN117058286A (zh) * 2023-10-13 2023-11-14 北京蔚领时代科技有限公司 一种文字驱动数字人生成视频的方法和装置
CN117058286B (zh) * 2023-10-13 2024-01-23 北京蔚领时代科技有限公司 一种文字驱动数字人生成视频的方法和装置

Also Published As

Publication number Publication date
WO2023010873A1 (zh) 2023-02-09

Similar Documents

Publication Publication Date Title
US11158102B2 (en) Method and apparatus for processing information
WO2022121601A1 (zh) 一种直播互动方法、装置、设备及介质
CN110971964B (zh) 智能解说生成、播放方法、装置、设备及存储介质
WO2022166709A1 (zh) 虚拟视频直播处理方法及装置、存储介质、电子设备
US11308671B2 (en) Method and apparatus for controlling mouth shape changes of three-dimensional virtual portrait
CN110097890B (zh) 一种语音处理方法、装置和用于语音处理的装置
CN111541908A (zh) 交互方法、装置、设备以及存储介质
EP4099709A1 (en) Data processing method and apparatus, device, and readable storage medium
CN109493888B (zh) 漫画配音方法及装置、计算机可读存储介质、电子设备
WO2023010873A1 (zh) 一种音频驱动虚拟人像的方法、装置及电子设备
CN110602516A (zh) 基于视频直播的信息交互方法、装置及电子设备
CN113592985B (zh) 混合变形值的输出方法及装置、存储介质、电子装置
CN110517689A (zh) 一种语音数据处理方法、装置及存储介质
CN111883107B (zh) 语音合成、特征提取模型训练方法、装置、介质及设备
CN110880198A (zh) 动画生成方法和装置
CN112652041B (zh) 虚拟形象的生成方法、装置、存储介质及电子设备
WO2021232876A1 (zh) 实时驱动虚拟人的方法、装置、电子设备及介质
CN113257218B (zh) 语音合成方法、装置、电子设备和存储介质
CN113923462A (zh) 视频生成、直播处理方法、设备和可读介质
CN115691544A (zh) 虚拟形象口型驱动模型的训练及其驱动方法、装置和设备
CN113282791B (zh) 视频生成方法和装置
CN114882861A (zh) 语音生成方法、装置、设备、介质及产品
US20230326369A1 (en) Method and apparatus for generating sign language video, computer device, and storage medium
WO2023065963A1 (zh) 互动展示方法、装置、电子设备及可读介质
CN112235183B (zh) 通信消息处理方法、设备及即时通信客户端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination