CN113744370B - 动画合成方法、装置、电子设备以及存储介质 - Google Patents

动画合成方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN113744370B
CN113744370B CN202110925377.8A CN202110925377A CN113744370B CN 113744370 B CN113744370 B CN 113744370B CN 202110925377 A CN202110925377 A CN 202110925377A CN 113744370 B CN113744370 B CN 113744370B
Authority
CN
China
Prior art keywords
syllable
animation
sequence
frame
stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110925377.8A
Other languages
English (en)
Other versions
CN113744370A (zh
Inventor
杨少雄
赵晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110925377.8A priority Critical patent/CN113744370B/zh
Publication of CN113744370A publication Critical patent/CN113744370A/zh
Application granted granted Critical
Publication of CN113744370B publication Critical patent/CN113744370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L2013/083Special characters, e.g. punctuation marks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • G10L2021/105Synthesis of the lips movements from speech, e.g. for talking heads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供了动画合成方法、装置、电子设备以及存储介质,涉及人工智能领域,尤其涉及自然语言处理、语音技术、计算机视觉、虚拟/增强现实技术领域。具体实现方案为:获取待处理的音频流以及音节序列,其中,音频流和音节序列对应相同的文本;以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流中频谱特征帧对应的音素状态;根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段;进而生成音频流对应的动画视频。从而能够实现音频流与音节序列的对齐,进而实现音频流与动画视频之间的同步性,避免帧间抖动问题,提高动画视频的真实性和泛化能力。

Description

动画合成方法、装置、电子设备以及存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及自然语言处理、语音技术、计算机视觉、虚拟/增强现实技术领域,尤其涉及动画合成方法、装置、电子设备以及存储介质。
背景技术
目前,随着计算机动画技术的不断进步,音频流驱动的虚拟形象人脸表情动画得到了发展,其中,虚拟形象人脸表情动画,即输入音频流生成与音频流相符的虚拟主播人脸表情动画。
发明内容
本公开提供了一种动画合成方法、装置、电子设备以及存储介质。
根据本公开的一方面,提供了一种动画合成方法,包括:获取待处理的音频流以及音节序列,其中,所述音频流和所述音节序列对应相同的文本;以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,其中,在所述频谱特征帧对应的音素状态下所述频谱特征流的观测概率满足预设概率条件;根据所述音节的音素状态对应的频谱特征帧,确定所述音频流中所述音节对应的发音时间段;根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频。
根据本公开的另一方面,提供了一种动画合成装置,包括:获取模块,用于获取待处理的音频流以及音节序列,其中,所述音频流和所述音节序列对应相同的文本;第一确定模块,用于以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,其中,在所述频谱特征帧对应的音素状态下所述频谱特征流的观测概率满足预设概率条件;第二确定模块,用于根据所述音节的音素状态对应的频谱特征帧,确定所述音频流中所述音节对应的发音时间段;生成模块,用于根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频。
根据本公开的又一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开上述一方面提出的动画合成方法。
根据本公开的再一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本公开上述一方面提出的动画合成方法。
根据本公开的再一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现本公开上述一方面提出的动画合成方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开实施例的动画合成流程示意图;
图5是根据本公开第四实施例的示意图;
图6是用来实现本公开实施例的动画合成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
相关技术中,对音频流和人脸表情动画序列进行序列到序列建模,然后基于循环神经网络的方法学习从音频流到人脸表情动画序列的一个映射关系。但是上述方法存在以下问题,一是生成的人脸表情动画序列中帧间抖动比较明显,二是生成的人脸表情比较虚假,三是音频流和人脸表情动画序列中的口型不同步,四是由于音频流和表情两个空间存在非确定性映射关系,模型比较难收敛,五是在训练集之外的测试集上效果表现很差,泛化能力比较弱。
针对上述问题,本公开提出一种动画合成方法、装置、电子设备以及存储介质。
图1是根据本公开第一实施例的示意图,需要说明的是,本公开实施例的动画合成方法可应用于动画合成装置,该装置可被配置于电子设备中,以使该电子设备可以执行动画合成功能。
其中,电子设备可以为任一具有计算能力的设备,例如可以为个人电脑(PersonalComputer,简称PC)、移动终端、服务器等,移动终端例如可以为车载设备、手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图1所示,该动画合成方法可以包括如下步骤:
步骤101,获取待处理的音频流以及音节序列,其中,音频流和音节序列对应相同的文本。
在本公开实施例中,动画合成装置执行步骤101的过程例如可以为,获取待处理的文本,对该文本进行语音合成处理,得到合成后的音频流,将该音频流作为待处理的音频流;获取该文本中各个字符对应的音节,对各个字符对应的音节进行拼接,得到该文本对应的音节序列。其中,字符对应的音节,具体为字符的拼音。
其中,在获取文本中各个字符对应的音节之前,为了避免漏掉文本中的特殊字符,确保文本与音节序列之间的一致性,可以对文本中的特殊字符进行规范化处理,即将文本中的特殊字符转化成汉字字符,得到处理后的文本;然后获取处理后的文本中各个字符对应的音节,生成音节序列。其中,特殊字符可以包括以下字符中的至少一种:阿拉伯数字、日期、金钱符号、单位符号等。其中,单位符号例如重量单位符号、长度单位符号等。
在本公开实施例中,文本可以为任意文本,例如短语、句子、段落等,可以根据实际需要进行设置。
步骤102,以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流中频谱特征帧对应的音素状态,其中,在频谱特征帧对应的音素状态下频谱特征流的观测概率满足预设概率条件。
在本公开实施例中,隐马尔科夫模型是关于时序的概念模型,描述了由一个隐藏的马尔科夫链随机产生不可观测的状态随机序列,再由各个状态生成一个观测而产生的观测随机序列的过程。隐藏的马尔科夫链随机生成的序列称为状态序列;每个状态生成一个观测,而由此产生的观测的随机序列称为观测序列。序列的每一个位置可以看作一个时刻。
隐马尔科夫模型的模型参数包括:初始概率分布、状态转移概率分布以及观测概率分布。其中,初始概率分布为状态序列中初始状态的概率分布。在本公开实施例中,状态指的是音节序列中音节的各音素状态。每个音节可以对应至少一个音素,每个音素可以包含3个状态,即音素前、音素中、音素后。状态序列即频谱特征流中各频谱特征帧对应的音素状态拼接得到的音素状态序列。观测序列即频谱特征流。
在本公开实施例中,以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,能够计算确定频谱特征流中频谱特征帧对应的音素状态,其中,在频谱特征流中频谱特征帧对应的音素状态下频谱特征流的观测概率满足预设概率条件。
其中,预设概率例如可以为,频谱特征流中各频谱特征帧与音节序列中音节的各音素状态的至少一种对应关系下频谱特征流的观测概率中的最大值。在最大观测概率限定的这种对应关系下,基于音节序列中音节的各音素状态以及隐马尔可夫模型,生成频谱特征流的概率最大。
在本公开实施例中,音频流对应的频谱特征流的获取过程例如可以为,对音频流进行频谱特征提取,生成所述音频流中各音频帧对应的频谱特征帧;对各音频帧对应的频谱特征帧按照各音频帧的时序进行拼接,得到频谱特征流。
步骤103,根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段。
在本公开实施例中,基于音节的音节状态对应的频谱特征帧确定音节对应的发音时间段,能够确保音节对应的发音时间段与音频流中该音节的实际发音时间段之间的一致性,进而确保音频流与动画视频之间的同步性。对应的,动画合成装置执行步骤103的过程例如可以为,根据音节的音素状态对应的频谱特征帧,确定频谱特征流中与音节对应的频谱特征片段;将频谱特征流中频谱特征片段的时间段,确定为音频流中音节对应的发音时间段。其中,上述确定发音时间段的步骤,可以针对音节序列中的每个音节。也就是说,针对音节序列中的每个音节,可以分别执行上述确定发音时间段的步骤,得到音节序列中每个音节对应的发音时间段。
其中,针对音节序列中的每个音节,动画合成装置可以确定该音节对应的至少一个音素,以及至少一个音素的音素状态;针对该音节的每个音素状态,确定频谱特征流中与该音素状态对应的至少一个频谱特征帧,根据该至少一个频谱特征帧在频谱特征流中的时间段信息,确定该音素状态的发音时间段;进而根据该音节的各个音素状态的发音时间段,确定该音节对应的发音时间段。
步骤104,根据音节序列中音节对应的发音时间段以及音节对应的动画帧序列,生成音频流对应的动画视频。
在本公开实施例中,各个音节对应的动画帧序列,可以保存在口型动画字典中。动画合成装置所属的硬件设备中可以预存储有口型动画字典,以方便动画合成装置在需要时查询。其中,口型动画字典中可以存储有423个音节以及对应的口型动画帧序列。
在本公开实施例中,针对音节序列中的每个音节,动画合成装置可以根据该音节查询口型动画字典,获取该音节对应的动画帧序列;基于各个音节对应的动画帧序列以及各个音节对应的发音时间段,生成音频流对应的动画视频。
本公开实施例的动画合成方法,通过获取待处理的音频流以及音节序列,其中,音频流和音节序列对应相同的文本;以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流中频谱特征帧对应的音素状态,其中,在频谱特征帧对应的音素状态下频谱特征流的观测概率满足预设概率条件;根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段;根据音节序列中音节对应的发音时间段以及音节对应的动画帧序列,生成音频流对应的动画视频,从而能够基于频谱特征流中各频谱特征帧对应的音素状态,实现音频流与音节序列的对齐,进而实现音频流与动画视频之间的同步性,确保动画视频不存在帧间抖动问题,提高动画视频的真实性和泛化能力。
为了进一步确保音频流与音节序列之间的对齐,提高音频流与动画视频之间的同步性,如图2所示,图2是根据本公开第二实施例的示意图,在本公开实施例中,可以先确定隐马尔科夫模型的模型参数,基于模型参数,确定频谱特征流中各频谱特征帧对应的音素状态。图2所示实施例可以包括以下步骤:
步骤201,获取待处理的音频流以及音节序列,其中,音频流和所述音节序列对应相同的文本。
步骤202,以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流的观测概率满足预设概率条件时的模型参数。
在本公开实施例中,在一种示例中,可以只考虑音素自身的音素状态,而不考虑其他音素对该音素的音素状态的影响。在该示例中,针对音节序列中音节的每个音素,可以获取该音素自身的至少一个音素状态,以每个音素自身的至少一个音素状态作为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流的观测概率满足预设概率条件时的模型参数。基于该隐马尔科夫模型,能够确定音素状态之间的状态转移概率分布、频谱特征流的观测概率分布、以及初始音素状态的概率分布。
在另一种示例中,不仅考虑音素自身的音素状态,还可以考虑其他音素对该音素的音素状态的影响。在该示例中,针对音节序列中音节的每个音素,结合该音素的上下文音素,确定上下文音素对该音素的音素状态的影响,也就是说,该音素的上下文音素不同时,该音素具有不同的音素状态。例如,该音素自身的音素前状态,与该音素具有上下文音素时的音素前状态不同。以带有上下文的音素的至少一个音素状态作为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流的观测概率满足预设概率条件时的模型参数,能够增加音素状态的数量,进而提高确定得到的模型参数的准确度。
步骤203,根据模型参数,确定基于音素状态生成频谱特征流中频谱特征帧的概率。
在本公开实施例中,隐马尔科夫模型的模型参数包括:初始概率分布、状态转移概率分布以及观测概率分布。状态指的是音节序列中音节的各音素状态。每个音节可以对应至少一个音素,每个音素可以包含3个状态,即音素前、音素中、音素后。状态序列即频谱特征流中各频谱特征帧对应的音素状态拼接得到的音素状态序列。观测序列即频谱特征流。因此,基于模型参数中的观测概率分布,能够确定基于各音素状态生成频谱特征流中各频谱特征帧的概率。
步骤204,根据基于音素状态生成频谱特征流中频谱特征帧的概率,确定频谱特征流中频谱特征帧对应的音素状态。
在本公开实施例中,动画合成装置执行步骤204的过程例如可以为,以频谱特征流中频谱特征帧为横纵标,以音素状态为纵坐标,以基于音素状态生成频谱特征帧的概率为坐标点的值,构建概率矩阵网络;在概率矩阵网络中选择满足预设约束条件且概率和值最大的路径;根据路径中坐标点的横坐标和纵坐标,确定频谱特征流中频谱特征帧对应的音素状态,从而基于概率矩阵网络能够准确快速的确定频谱特征流中各频谱特征帧对应的音素状态。其中,路径中可以包括多个坐标点,每个坐标点可以用于确定频谱特征流中频谱特征帧与音素状态之间的一个对应关系。
其中,预设约束条件例如可以包括以下条件中的至少一种:边界条件、连续性和单调性。其中,边界条件是指,频谱特征流中各频谱特征帧有固定的先后顺序,音节序列中音节的各音素状态也有固定的先后顺序。因此,所选的路径必定是从概率矩阵网络的左小角出发,在概率矩阵网络的右上角结束。
其中,单调性是指,对于路径的当前坐标点,下一个坐标点的横坐标需要大于或者等于当前坐标点的横坐标;下一个坐标点的纵坐标需要大于或者等于当前坐标点的纵坐标。
其中,连续性是指,对于路径的当前坐标点,下一个坐标点的横坐标在大于当前坐标点的横坐标时,下一个坐标点的横坐标与当前坐标点的横坐标相邻;下一个坐标点的纵坐标在大于当前坐标点的纵坐标时,下一个坐标点的纵坐标与当前坐标点的纵坐标相邻。
步骤205,根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段。
步骤206,根据音节序列中音节对应的发音时间段以及音节对应的动画帧序列,生成音频流对应的动画视频。
其中,需要说明的是,步骤201、205-206可以分别采用本公开的各实施例中的任一种方式实现,本公开实施例并不对此作出限定,也不再赘述。
综上,通过以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流的观测概率满足预设概率条件时的模型参数;根据模型参数,确定基于音素状态生成频谱特征流中频谱特征帧的概率;根据基于音素状态生成频谱特征流中频谱特征帧的概率,确定频谱特征流中频谱特征帧对应的音素状态,能够准确的确定频谱特征流中各频谱特征帧对应的音素状态,进而确定音频流中各音节对应的发音时间段。
基于音节序列中各个音节对应的发音时间段,为了进一步确保音频流中相应动画帧序列的时间段与音节对应的发音时间段之间的一致性,如图3所示,图3是根据本公开第三实施例的示意图,在本公开实施例中,可以先根据音节对应的发音时间段的时长对音节对应的动画帧序列进行调整,确保音节对应的动画帧序列的时长与音节对应的发音时间段的时长之间的一致性。图3所示实施例可以包括以下步骤:
步骤301,获取待处理的音频流以及音节序列,其中,音频流和音节序列对应相同的文本。
步骤302,以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流中频谱特征帧对应的音素状态,其中,在频谱特征帧对应的音素状态下频谱特征流的观测概率满足预设概率条件。
步骤303,根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段。
步骤304,按照音节对应的发音时间段的时长对音节对应的动画帧序列进行插值处理,得到具有时长的处理后动画帧序列。
在本公开实施例中,针对每个音节,音节对应的发音时间段的时长,与音节对应的动画帧序列的时间段的时长一般是不一致的。因此,需要按照音节对应的发音时间段的时长对音节对应的动画帧序列进行插值处理,得到具有时长的处理后动画帧序列。其中,对动画帧序列的插值处理,例如压缩处理,目的是减少动画帧序列中动画帧的帧数,且保留之前动画帧序列中各个动画帧的内容。其中,上述插值处理的步骤,可以针对音节序列中的每个音节或者部分音节。以每个音节为例,针对音节序列中的每个音节,可以分别执行上述插值处理的步骤,得到音节序列中每个音节对应的处理后动画帧序列。
步骤305,根据音节序列中音节对应的处理后动画帧序列,生成动画视频。
在本公开实施例中,为了避免帧间抖动问题,确保帧间的自然过渡,可以对相邻动画帧序列中的尾部动画帧和头部动画帧进行调整处理。作为一种示例,针对音节序列中音节对应的处理后动画帧序列中的尾部动画帧,获取第一相邻音节对应的处理后动画帧序列中的头部动画帧;根据头部动画帧的动画系数对尾部动画帧的动画系数进行调整,得到音节对应的调整后动画帧序列;其中,第一相邻音节对应的发音时间段位于所述音节的发音时间段之后。针对音节序列中的每个音节或者部分音节,可以分别执行上述步骤。之后,根据音节序列中各个音节对应的调整后动画帧序列,生成动画视频。
其中,根据头部动画帧的动画系数对尾部动画帧的动画系数进行调整的具体实现方式例如可以为,对头部动画帧的动画系数和尾部动画帧的动画系数进行加和处理,得到加和处理后的动画系数;将加和处理后的动画系数,确定为尾部动画帧的调整后动画系数,进而确定调整后的尾部动画帧;进而结合音节对应的处理后动画帧序列中的非尾部动画帧以及调整后的尾部动画帧,生成音节对应的调整后动画帧序列。
作为另一种示例,针对音节序列中音节对应的处理后动画帧序列中的头部动画帧,获取第二相邻音节对应的处理后动画帧序列中的尾部动画帧;根据尾部动画帧的动画系数对头部动画帧的动画系数进行调整,得到音节对应的调整后动画帧序列;其中,第二相邻音节对应的发音时间段位于音节的发音时间段之前。针对音节序列中的每个音节或者部分音节,可以分别执行上述步骤。之后,根据音节序列中各个音节对应的调整后动画帧序列,生成动画视频。
其中,根据尾部动画帧的动画系数对头部动画帧的动画系数进行调整的具体实现方式例如可以为,对尾部动画帧的动画系数和头部动画帧的动画系数进行加和处理,得到加和处理后的动画系数;将加和处理后的动画系数,确定为头部动画帧的调整后动画系数,进而确定调整后的头部动画帧;进而结合音节对应的处理后动画帧序列中的非头部动画帧以及调整后的头部动画帧,生成音节对应的调整后动画帧序列。
作为另一种示例,针对音节序列中音节对应的处理后动画帧序列中的尾部动画帧,获取第一相邻音节对应的处理后动画帧序列中的头部动画帧;根据头部动画帧的动画系数对尾部动画帧的动画系数进行调整,得到音节对应的调整后动画帧序列;其中,第一相邻音节对应的发音时间段位于所述音节的发音时间段之后。针对音节序列中音节对应的处理后动画帧序列中的头部动画帧,获取第二相邻音节对应的处理后动画帧序列中的尾部动画帧;根据尾部动画帧的动画系数对头部动画帧的动画系数进行调整,得到音节对应的调整后动画帧序列;其中,第二相邻音节对应的发音时间段位于音节的发音时间段之前。针对音节序列中的每个音节或者部分音节,可以分别执行上述步骤。以部分音节为例,其他部分音节可以执行上述步骤中的一部分,或者不执行上述步骤。之后,根据音节序列中各个音节对应的调整后动画帧序列,生成动画视频。
在本公开实施例中,动画帧的动画系数,可以表征动画帧中的人脸表情。其中,在一种示例中,在动画系数表征人脸表情时,动画系数可以为动画帧中各个人脸部位的系数,比如双眼之间的距离、鼻子与双眼中心的距离等等,可以根据实际需要进行设定。
在本公开实施例中,在另一种示例中,在动画系数表征人脸表情时,动画系数可以为动画帧相对于基础动画帧的各个人脸部位的相对系数。也就是说,基础动画帧的动画系数,可以为基础动画帧中各个人脸部位的系数。其他动画帧的动画系数,可以为其他动画帧中各个人脸部位的系数相对于基础动画帧中相应人脸部位的系数的偏移值。其中,基础动画帧及其动画系数可以预先设置。
其中,动画系数的设置,可以方便终端设备基于动画系数进行渲染,得到对应的动画帧,减少动画帧传输时的数据量。
另外,为了使各个音节对应的处理后动画帧序列过渡更加连续自然,减少动画视频的帧间抖动,可以对生成的动画视频进行滤波平滑处理。
综上,通过针对音节序列中的音节,按照音节对应的发音时间段的时长对音节对应的动画帧序列进行插值处理,得到具有时长的处理后动画帧序列,根据音节序列中音节对应的处理后动画帧序列,生成动画视频,能够进一步确保动画视频中各个音节对应的处理后动画帧序列的时间段的时长,与音节对应的发音时间段的时长之间的一致性,进一步确保动画视频与音频流之间的同步性。
为了更加清楚地说明上述实施例,现举例进行说明。
举例而言,如图4所示,以合成口型动画为例,对输入的文件进行TTS语音合成处理,得到音频流;文本进行文本规范化和汉字转音处理,得到音节序列,其中,文本规范化处理可包括对文本中的阿拉伯数字、符号、日期以及金钱等转换为汉字字符。进一步的,为了实现文本和音频的时序对齐,可进行拼音转音素处理、音频流进行频谱特征提取、单音素状态建模或者带有上下文的音素状态建模、模型解码处理、文本音频对齐处理。进而,根据文本和音频时序对齐关系,通过查询口型动画字典进行动画帧序列插值,为了使得口型动画在字切换之间更加连续自然,把口型动画帧在每个字边缘处进行横向拉伸和叠加,并对完整的口型动画帧序列进行时序上的滤波平滑处理,使其更加平滑流畅,进一步降低帧间抖动。
为了实现上述实施例,本公开还提出一种动画合成装置。
如图5所示,图5根据本公开第四实施例的示意图。该动画合成装置500包括:获取模块510、第一确定模块520、第二确定模块530和生成模块540。
其中,获取模块510,用于获取待处理的音频流以及音节序列,其中,所述音频流和所述音节序列对应相同的文本;第一确定模块520,用于以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,其中,在所述频谱特征帧对应的音素状态下所述频谱特征流的观测概率满足预设概率条件;第二确定模块530,用于根据所述音节的音素状态对应的频谱特征帧,确定所述音频流中所述音节对应的发音时间段;生成模块540,用于根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频。
作为本公开实施例的一种可能实现方式,所述第一确定模块520具体用于,以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流的观测概率满足预设概率条件时的模型参数;根据所述模型参数,确定基于音素状态生成所述频谱特征流中频谱特征帧的概率;根据基于音素状态生成所述频谱特征流中频谱特征帧的概率,确定所述频谱特征流中频谱特征帧对应的音素状态。
作为本公开实施例的一种可能实现方式,所述第一确定模块520具体用于,以所述频谱特征流中频谱特征帧为横纵标,以音素状态为纵坐标,以基于音素状态生成频谱特征帧的概率为坐标点的值,构建概率矩阵网络;在所述概率矩阵网络中选择满足预设约束条件且概率和值最大的路径;根据所述路径中坐标点的横坐标和纵坐标,确定所述频谱特征流中频谱特征帧对应的音素状态。
作为本公开实施例的一种可能实现方式,所述第二确定模块530具体用于,根据所述音节的音素状态对应的频谱特征帧,确定所述频谱特征流中与所述音节对应的频谱特征片段;将所述频谱特征流中所述频谱特征片段的时间段,确定为所述音频流中所述音节对应的发音时间段。
作为本公开实施例的一种可能实现方式,所述生成模块540具体用于,按照所述音节对应的发音时间段的时长对所述音节对应的动画帧序列进行插值处理,得到具有所述时长的处理后动画帧序列;根据所述音节序列中所述音节对应的处理后动画帧序列,生成所述动画视频。
作为本公开实施例的一种可能实现方式,所述生成模块540具体用于,针对所述音节序列中所述音节对应的处理后动画帧序列中的尾部动画帧,获取第一相邻音节对应的处理后动画帧序列中的头部动画帧;根据所述头部动画帧的动画系数对所述尾部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第一相邻音节对应的发音时间段位于所述音节的发音时间段之后;和/或,针对所述音节序列中所述音节对应的处理后动画帧序列中的头部动画帧,获取第二相邻音节对应的处理后动画帧序列中的尾部动画帧;根据所述尾部动画帧的动画系数对所述头部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第二相邻音节对应的发音时间段位于所述音节的发音时间段之前;根据所述音节序列中各个音节对应的调整后动画帧序列,生成所述动画视频。
本公开实施例的动画合成装置,通过获取待处理的音频流以及音节序列,其中,音频流和所述音节序列对应相同的文本;以音节序列中音节的音素状态为隐马尔科夫模型的状态,以音频流对应的频谱特征流为隐马尔科夫模型的观测序列,确定频谱特征流中频谱特征帧对应的音素状态,其中,在频谱特征帧对应的音素状态下频谱特征流的观测概率满足预设概率条件;根据音节的音素状态对应的频谱特征帧,确定音频流中音节对应的发音时间段;根据音节序列中音节对应的发音时间段以及音节对应的动画帧序列,生成音频流对应的动画视频,从而能够基于频谱特征流中各频谱特征帧对应的音素状态,实现音频流与音节序列的对齐,进而实现音频流与动画视频之间的同步性,确保动画视频不存在帧间抖动问题,提高动画视频的真实性和泛化能力。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如动画合成方法。例如,在一些实施例中,动画合成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到电子设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的动画合成方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行动画合成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (13)

1.一种动画合成方法,包括:
获取待处理的音频流以及音节序列,其中,所述音频流和所述音节序列对应相同的文本;
以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,其中,在所述频谱特征帧对应的音素状态下所述频谱特征流的观测概率满足预设概率条件;
根据所述音节的音素状态对应的频谱特征帧,确定所述音频流中所述音节对应的发音时间段,包括:
根据所述音节的音素状态对应的频谱特征帧,确定所述频谱特征流中与所述音节对应的频谱特征片段;
将所述频谱特征流中所述频谱特征片段的时间段,确定为所述音频流中所述音节对应的发音时间段;
根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频。
2.根据权利要求1所述的方法,其中,所述以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,包括:
以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流的观测概率满足预设概率条件时的模型参数;
根据所述模型参数,确定基于音素状态生成所述频谱特征流中频谱特征帧的概率;
根据基于音素状态生成所述频谱特征流中频谱特征帧的概率,确定所述频谱特征流中频谱特征帧对应的音素状态。
3.根据权利要求2所述的方法,其中,所述根据基于音素状态生成所述频谱特征流中频谱特征帧的概率,确定所述频谱特征流中频谱特征帧对应的音素状态,包括:
以所述频谱特征流中频谱特征帧为横纵标,以所述音素状态为纵坐标,以基于音素状态生成频谱特征帧的概率为坐标点的值,构建概率矩阵网络;
在所述概率矩阵网络中选择满足预设约束条件且概率和值最大的路径;
根据所述路径中坐标点的横坐标和纵坐标,确定所述频谱特征流中频谱特征帧对应的音素状态。
4.根据权利要求1所述的方法,其中,所述根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频,包括:
按照所述音节对应的发音时间段的时长对所述音节对应的动画帧序列进行插值处理,得到具有所述时长的处理后动画帧序列;
根据所述音节序列中所述音节对应的处理后动画帧序列,生成所述动画视频。
5.根据权利要求4所述的方法,其中,所述根据所述音节序列中所述音节对应的处理后动画帧序列,生成所述动画视频,包括:
针对所述音节序列中所述音节对应的处理后动画帧序列中的尾部动画帧,获取第一相邻音节对应的处理后动画帧序列中的头部动画帧;根据所述头部动画帧的动画系数对所述尾部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第一相邻音节对应的发音时间段位于所述音节的发音时间段之后;
和/或,
针对所述音节序列中所述音节对应的处理后动画帧序列中的头部动画帧,获取第二相邻音节对应的处理后动画帧序列中的尾部动画帧;根据所述尾部动画帧的动画系数对所述头部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第二相邻音节对应的发音时间段位于所述音节的发音时间段之前;
根据所述音节序列中所述音节对应的调整后动画帧序列,生成所述动画视频。
6.一种动画合成装置,包括:
获取模块,用于获取待处理的音频流以及音节序列,其中,所述音频流和所述音节序列对应相同的文本;
第一确定模块,用于以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流中频谱特征帧对应的音素状态,其中,在所述频谱特征帧对应的音素状态下所述频谱特征流的观测概率满足预设概率条件;
第二确定模块,用于根据所述音节的音素状态对应的频谱特征帧,确定所述音频流中所述音节对应的发音时间段;
生成模块,用于根据所述音节序列中所述音节对应的发音时间段以及所述音节对应的动画帧序列,生成所述音频流对应的动画视频;
所述第二确定模块具体用于,
根据所述音节的音素状态对应的频谱特征帧,确定所述频谱特征流中与所述音节对应的频谱特征片段;
将所述频谱特征流中所述频谱特征片段的时间段,确定为所述音频流中所述音节对应的发音时间段。
7.根据权利要求6所述的装置,其中,所述第一确定模块具体用于,
以所述音节序列中音节的音素状态为隐马尔科夫模型的状态,以所述音频流对应的频谱特征流为所述隐马尔科夫模型的观测序列,确定所述频谱特征流的观测概率满足预设概率条件时的模型参数;
根据所述模型参数,确定基于音素状态生成所述频谱特征流中频谱特征帧的概率;
根据基于音素状态生成所述频谱特征流中频谱特征帧的概率,确定所述频谱特征流中频谱特征帧对应的音素状态。
8.根据权利要求7所述的装置,其中,所述第一确定模块具体用于,
以所述频谱特征流中频谱特征帧为横纵标,以所述音素状态为纵坐标,以基于音素状态生成频谱特征帧的概率为坐标点的值,构建概率矩阵网络;
在所述概率矩阵网络中选择满足预设约束条件且概率和值最大的路径;
根据所述路径中坐标点的横坐标和纵坐标,确定所述频谱特征流中频谱特征帧对应的音素状态。
9.根据权利要求6所述的装置,其中,所述生成模块具体用于,
按照所述音节对应的发音时间段的时长对所述音节对应的动画帧序列进行插值处理,得到具有所述时长的处理后动画帧序列;
根据所述音节序列中所述音节对应的处理后动画帧序列,生成所述动画视频。
10.根据权利要求9所述的装置,其中,所述生成模块具体用于,
针对所述音节序列中所述音节对应的处理后动画帧序列中的尾部动画帧,获取第一相邻音节对应的处理后动画帧序列中的头部动画帧;根据所述头部动画帧的动画系数对所述尾部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第一相邻音节对应的发音时间段位于所述音节的发音时间段之后;
和/或,
针对所述音节序列中所述音节对应的处理后动画帧序列中的头部动画帧,获取第二相邻音节对应的处理后动画帧序列中的尾部动画帧;根据所述尾部动画帧的动画系数对所述头部动画帧的动画系数进行调整,得到所述音节对应的调整后动画帧序列;其中,所述第二相邻音节对应的发音时间段位于所述音节的发音时间段之前;
根据所述音节序列中所述音节对应的调整后动画帧序列,生成所述动画视频。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-5中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5中任一项所述的方法。
CN202110925377.8A 2021-08-12 2021-08-12 动画合成方法、装置、电子设备以及存储介质 Active CN113744370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110925377.8A CN113744370B (zh) 2021-08-12 2021-08-12 动画合成方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110925377.8A CN113744370B (zh) 2021-08-12 2021-08-12 动画合成方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
CN113744370A CN113744370A (zh) 2021-12-03
CN113744370B true CN113744370B (zh) 2022-07-01

Family

ID=78730821

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110925377.8A Active CN113744370B (zh) 2021-08-12 2021-08-12 动画合成方法、装置、电子设备以及存储介质

Country Status (1)

Country Link
CN (1) CN113744370B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114882151A (zh) * 2022-05-24 2022-08-09 北京百度网讯科技有限公司 虚拟形象视频的生成方法及装置、设备、介质和产品

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504304B (zh) * 2016-09-14 2019-09-24 厦门黑镜科技有限公司 一种动画合成的方法及装置
CN109377540B (zh) * 2018-09-30 2023-12-19 网易(杭州)网络有限公司 面部动画的合成方法、装置、存储介质、处理器及终端
CN109377539B (zh) * 2018-11-06 2023-04-11 北京百度网讯科技有限公司 用于生成动画的方法和装置

Also Published As

Publication number Publication date
CN113744370A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
JP7259197B2 (ja) モデルトレーニング方法、音声合成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7432556B2 (ja) マンマシンインタラクションのための方法、装置、機器および媒体
CN112597753A (zh) 文本纠错处理方法、装置、电子设备和存储介质
US11488577B2 (en) Training method and apparatus for a speech synthesis model, and storage medium
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN112466288A (zh) 语音识别方法、装置、电子设备及存储介质
US20220375456A1 (en) Method for animation synthesis, electronic device and storage medium
US20220148239A1 (en) Model training method and apparatus, font library establishment method and apparatus, device and storage medium
CN113450759A (zh) 语音生成方法、装置、电子设备以及存储介质
CN114141228B (zh) 语音合成模型的训练方法、语音合成方法和装置
CN112861548A (zh) 自然语言生成及模型的训练方法、装置、设备和存储介质
CN114255737B (zh) 语音生成方法、装置、电子设备
CN113850386A (zh) 模型预训练方法、装置、设备、存储介质以及程序产品
CN113744370B (zh) 动画合成方法、装置、电子设备以及存储介质
CN114429767A (zh) 视频生成方法、装置、电子设备以及存储介质
CN114267375B (zh) 音素检测方法及装置、训练方法及装置、设备和介质
EP4152269A1 (en) Method and apparatus of generating 3d video, method and apparatus of training model, device, and medium
CN113744368A (zh) 动画合成方法、装置、电子设备及存储介质
CN112541956A (zh) 动画合成方法、装置、移动终端和电子设备
CN115359166B (zh) 一种图像生成方法、装置、电子设备和介质
CN114882151A (zh) 虚拟形象视频的生成方法及装置、设备、介质和产品
CN114550692A (zh) 文本处理及其模型的训练方法、装置、设备和存储介质
CN112331184A (zh) 语音口型同步方法、装置、电子设备及存储介质
CN116229214B (zh) 模型训练方法、装置及电子设备
CN114373445B (zh) 语音生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant