CN111698552A - 一种视频资源的生成方法和装置 - Google Patents
一种视频资源的生成方法和装置 Download PDFInfo
- Publication number
- CN111698552A CN111698552A CN202010415045.0A CN202010415045A CN111698552A CN 111698552 A CN111698552 A CN 111698552A CN 202010415045 A CN202010415045 A CN 202010415045A CN 111698552 A CN111698552 A CN 111698552A
- Authority
- CN
- China
- Prior art keywords
- target
- audio
- mouth shape
- feature
- phoneme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000001514 detection method Methods 0.000 claims description 67
- 238000001228 spectrum Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 21
- 238000010183 spectrum analysis Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 238000009432 framing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 16
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000037433 frameshift Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请涉及一种视频资源的生成方法和装置,其中,该方法包括:提取音频资源中的目标音频帧对应的目标音频特征;确定目标音频特征对应的目标口型特征,其中,目标口型特征用于指示目标音频特征属于多个音素中的每个音素的概率;根据目标口型特征对多个音素所对应的多个口型模型进行融合,得到目标音频特征所对应的目标口型模型;使用目标口型模型生成音频资源对应的视频资源。本申请解决了相关技术中生成视频资源的过程复杂度较高的技术问题。
Description
技术领域
本申请涉及计算机领域,尤其涉及一种视频资源的生成方法和装置。
背景技术
目前技术中,基于音频资源生成视频资源(比如口型动画)的方式需要首先得到音频资源对应的字幕文件,再利用音频资源和字幕文件来生成口型动画,并且对于不同语种的音频需要提供不同的配置文件。这种生成视频资源的方式过程比较复杂,操作比较繁琐。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本申请提供了一种视频资源的生成方法和装置,以至少解决相关技术中生成视频资源的过程复杂度较高的技术问题。
根据本申请实施例的一个方面,提供了一种视频资源的生成方法,包括:
提取音频资源中的目标音频帧对应的目标音频特征;
确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
使用所述目标口型模型生成所述音频资源对应的视频资源。
根据本申请实施例的另一方面,还提供了一种视频资源的生成装置,包括:
第一提取模块,用于提取音频资源中的目标音频帧对应的目标音频特征;
第一确定模块,用于确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
融合模块,用于根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
生成模块,用于使用所述目标口型模型生成所述音频资源对应的视频资源。
根据本申请实施例的另一方面,还提供了一种存储介质,该存储介质包括存储的程序,程序运行时执行上述的方法。
根据本申请实施例的另一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器通过计算机程序执行上述的方法。
在本申请实施例中,采用提取音频资源中的目标音频帧对应的目标音频特征;确定目标音频特征对应的目标口型特征,其中,目标口型特征用于指示目标音频特征属于多个音素中的每个音素的概率;根据目标口型特征对多个音素所对应的多个口型模型进行融合,得到目标音频特征所对应的目标口型模型;使用目标口型模型生成音频资源对应的视频资源的方式,通过确定从音频资源中提取的目标音频特征对应的目标口型特征来得到目标音频特征属于多个音素中的每个音素的概率,这多个音素对应了多个口型模型,根据目标音频特征属于多个音素中的每个音素的概率对多个模型进行融合从而得到目标音频特征所对应的目标口型模型,再使用目标口型模型生成音频资源对应的视频资源,达到了通过音频资源直接生成视频资源的目的,从而实现了提高生成视频资源的过程复杂度的技术效果,进而解决了相关技术中生成视频资源的过程复杂度较高的技术问题。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据本申请实施例的视频资源的生成方法的硬件环境的示意图;
图2是根据本申请实施例的一种可选的视频资源的生成方法的流程图;
图3是根据本申请实施例的一种可选的分帧过程的示意图;
图4是根据本申请可选的实施方式的一种可选的特征检测模型的示意图;
图5是根据本申请可选的实施方式的一种可选的特征检测模型的配置参数的示意图;
图6是根据本申请实施例的一种可选的音素组对应口型模型的示意图;
图7是根据本申请实施例的一种可选的视频资源的生成装置的示意图;
以及
图8是根据本申请实施例的一种终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本申请实施例的一方面,提供了一种视频资源的生成的方法实施例。
可选地,在本实施例中,上述视频资源的生成方法可以应用于如图1所示的由终端101和服务器103所构成的硬件环境中。如图1所示,服务器103通过网络与终端101进行连接,可用于为终端或终端上安装的客户端提供服务(如游戏服务、应用服务等),可在服务器上或独立于服务器设置数据库,用于为服务器103提供数据存储服务,上述网络包括但不限于:广域网、城域网或局域网,终端101并不限定于PC、手机、平板电脑等。本申请实施例的视频资源的生成方法可以由服务器103来执行,也可以由终端101来执行,还可以是由服务器103和终端101共同执行。其中,终端101执行本申请实施例的视频资源的生成方法也可以是由安装在其上的客户端来执行。
图2是根据本申请实施例的一种可选的视频资源的生成方法的流程图,如图2所示,该方法可以包括以下步骤:
步骤S202,提取音频资源中的目标音频帧对应的目标音频特征;
步骤S204,确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
步骤S206,根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
步骤S208,使用所述目标口型模型生成所述音频资源对应的视频资源。
通过上述步骤S202至步骤S208,通过确定从音频资源中提取的目标音频特征对应的目标口型特征来得到目标音频特征属于多个音素中的每个音素的概率,这多个音素对应了多个口型模型,根据目标音频特征属于多个音素中的每个音素的概率对多个模型进行融合从而得到目标音频特征所对应的目标口型模型,再使用目标口型模型生成音频资源对应的视频资源,达到了通过音频资源直接生成视频资源的目的,从而实现了提高生成视频资源的过程复杂度的技术效果,进而解决了相关技术中生成视频资源的过程复杂度较高的技术问题。
在步骤S202提供的技术方案中,上述音频资源可以但不限于包括:录音文件、音乐文件、配音文件、直播音频流、通话语音等等。
可选地,在本实施例中,目标音频帧可以但不限于为音频资源中的每个音频帧或者音频资源中的关键帧。
可选地,在本实施例中,目标音频特征可以但不限于使用梅尔频率倒谱系数、梅尔频率倒谱系数的一阶差分系数、梅尔频率倒谱系数的二阶差分系数中的一种或者几种的组合。
在步骤S204提供的技术方案中,目标口型特征用于指示目标音频特征属于多个音素中的每个音素的概率。比如:目标口型特征的维度可以但不限于是多个音素的数量,目标口型特征可以但不限于是按照多个音素的顺序排列的多个概率值。
可选地,在本实施例中,多个音素可以但不限于是按照任何标准提取出的,比如:参考国际音标表提取出40个通用音素,包括:IH、AE、AA、AO、EY、AY、AW、L、IY、EH、M、B、P、AH、UH、W、UW、OY、OW、Z、S、CH、ZH、SH、ER、R、Y、N、NG、J、DH、D、G、T、K、TH、HH、F、V和silent。
可选地,在本实施例中,目标口型特征中的元素可以但不限于是按照上述顺序或者其他预先设定的顺序排列的。或者也可以不设定音素对应概率的排列顺序,目标口型特征通过以音素为键,以概率为值的键值对的形式进行表示。
在步骤S206提供的技术方案中,可以针对多个音素中的每个音素制作了其相应的口型模型用来展示该音素的发音嘴型。也可以按照发音时的嘴型将多个音素划分为N个音素组,每个音素组中包括一个音素或者多个发音嘴型相近的音素,为每个音素组制作一个口型模型,一个音素组中包括的音素均对应一个口型模型。
可选地,在本实施例中,可以但不限于将目标口型特征所指示的目标音频特征属于多个音素中的每个音素的概率作为融合权重对多个音素所对应的多个口型模型进行融合,从而得到目标音频特征所对应的目标口型模型。
在步骤S208提供的技术方案中,将得到的目标口型模型按照一定的顺序拼接起来可以得到音频资源对应的视频资源。
作为一种可选的实施例,从音频资源中提取目标音频帧对应的目标音频特征包括:
S11,对所述音频资源进行分帧,得到多个音频帧;
S12,提取所述多个音频帧中每个音频帧对应的音频特征;
S13,根据所述每个音频帧对应的音频特征生成所述目标音频特征。
可选地,在本实施例中,对所述音频资源进行分帧的方式可以但不限于是按照预设帧移将音频资源划分为预设帧长的音频片段作为音频帧。
例如:图3是根据本申请实施例的一种可选的分帧过程的示意图,如图3所示,以20ms的帧长和10ms的帧移对音频进行分帧处理,得到第一帧为0ms到20ms,第二帧为10ms到30ms,以此类推,将音频资源划分为多个音频帧。
可选地,在本实施例中,每个音频帧对应的音频特征可以但不限于包括每个音频帧的梅尔频率倒谱系数,其中,梅尔频率倒谱系数的系数个数可以但不限于为M=13。
作为一种可选的实施例,提取所述多个音频帧中每个音频帧对应的音频特征包括:
S21,计算所述每个音频帧的梅尔频谱倒谱系数;
S22,获取所述梅尔频谱倒谱系数的一阶差分系数和二阶差分系数;
S23,将所述梅尔频谱倒谱系数,所述一阶差分系数和所述二阶差分系数确定为所述每个音频帧对应的音频特征。
可选地,在本实施例中,为了更好的体现音频资源中的动态特征,在计算每个音频帧的梅尔频谱倒谱系数之后,还可以获取梅尔频谱倒谱系数的一阶差分系数和二阶差分系数,使用该差分系数来描述音频资源中的动态特征,即声学特征在相邻特征间的变化情况。将梅尔频谱倒谱系数、一阶差分系数和二阶差分系数共同确定为每个音频帧对应的音频特征。
例如:在上述实施例中,以20ms的帧长和10ms的帧移对音频进行分帧处理,并计算每个音频帧的梅尔频率倒谱系数,系数个数为M=13。计算完音频帧的梅尔频率倒谱系数后,获取了梅尔频率倒谱系数的一阶差分系数和二阶差分系数,得到13x3维的梅尔频率倒谱特征作为每个音频帧对应的音频特征用于描述当前音频帧的包络和声学特征的变化信息。
作为一种可选的实施例,根据所述每个音频帧对应的音频特征生成所述目标音频特征包括:
S31,从所述多个音频帧中确定所述目标音频帧;
S32,对所述目标音频帧之前第一数量的音频帧对应的音频特征、所述目标音频帧对应的音频特征和所述目标音频帧之后第二数量的音频帧对应的音频特征进行合并,得到所述目标音频帧对应的所述目标音频特征。
可选地,在本实施例中,在生成目标音频特征的过程中,可以将多个连续的音频帧的特征组合成一个目标音频特征。比如:首先从多个音频帧中确定出目标音频帧,再将目标音频帧及其周围一定数量的音频帧的音频特征合并为目标音频特征。
可选地,在本实施例中,可以但不限于以目标音频帧为中心向前取第一数量的音频帧,向后取第二数量的音频帧。也就是说,第一数量加一可以等于第二数量,第一数量也可以等于第二数量加一。比如:以目标音频帧为中心向前取7个音频帧,向后取8个音频帧。也可以是以目标音频帧为中心向前取8个音频帧,向后取7个音频帧。即,以目标音频帧为中心,选取目标音频帧及其前后共16帧的音频帧的梅尔频率倒谱特征作为当前的目标音频特征。
作为一种可选的实施例,从所述多个音频帧中确定所述目标音频帧包括:
S41,在所述音频资源上提取音素帧;
S42,将所述音素帧在所述音频资源上对应的音频帧确定为所述目标音频帧。
可选地,在本实施例中,目标音频帧可以但不限于是根据音素帧在音频资源中的位置确定的。
可选地,在本实施例中,在音频资源上提取音素帧的方式可以但不限于为将1s的音频资源划分为30个音素帧,即每1/30s为一个音素帧。
作为一种可选的实施例,确定所述目标音频特征对应的目标口型特征包括:
S51,将所述目标音频特征输入目标特征检测模型,其中,所述目标特征检测模型是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的;
S52,获取所述目标特征检测模型输出的所述目标口型特征。
可选地,在本实施例中,可以但不限于通过构建并训练特征检测模型来确定目标音频特征对应的目标口型特征。
可选地,在本实施例中,用于确定目标音频特征对应的目标口型特征的目标特征检测模型可以但不限于是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的。
作为一种可选的实施例,将所述目标音频特征输入所述目标特征检测模型包括:
S61,将所述目标音频特征输入所述目标特征检测模型的输入层;
获取所述目标特征检测模型输出的所述目标口型特征包括:
S62,获取所述目标特征检测模型的输出层输出的所述目标口型特征;
其中,所述目标特征检测模型包括依次连接的所述输入层,谱分析网络,协同发音网络和所述输出层,所述输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,所述谱分析网络用于在谱特征维度上对所述输入层输出的特征进行处理,所述协同发音网络用于在时域上对所述谱分析网络输出的特征进行处理,所述输出层用于通过卷积核将所述协同发音网络输出的特征映射成口型特征。
可选地,在本实施例中,目标特征检测模型可以但不限于包括依次连接的输入层,谱分析网络,协同发音网络和输出层,输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,谱分析网络用于在谱特征维度上对输入层输出的特征进行处理,协同发音网络用于在时域上对谱分析网络输出的特征进行处理,输出层用于通过卷积核将协同发音网络输出的特征映射成口型特征。
可选地,在本实施例中,将目标音频特征输入目标特征检测模型的输入层,由目标特征检测模型对目标音频特征进行自动的分析,最终将目标特征检测模型的输出层的输出信息作为目标口型特征。
在一个可选的实施方式中,图4是根据本申请可选的实施方式的一种可选的特征检测模型的示意图,如图4所示,目标特征检测模型包括用于接收音频特征的输入层,谱分析网络,协同发音网络和用于输出目标口型特征的输出层。输入层接收目标音频特征,并通过不含激活函数的卷积层对接收到的目标音频特征做初始变换。然后谱分析网络在谱特征维度上对目标音频特征进行分析。紧接着,协同发音网络在时域上对提取的目标音频特征做进一步分析。最后,输出层通过1x1的卷积核将目标音频特征映射成目标口型特征。
可选地,在本实施方式中,目标特征检测模型可以但不限于根据实际的使用环境进行构建,比如:图5是根据本申请可选的实施方式的一种可选的特征检测模型的配置参数的示意图,目标特征检测模型所包括的各个网络层的配置参数如图5所示。
作为一种可选的实施例,在将所述目标音频特征输入目标特征检测模型之前,还包括:
S71,从数据集中的音频数据中提取所述音频特征样本;
S72,根据所述音频特征样本对应的文本信息确定所述音频特征样本对应的口型特征,其中,所述文本信息用于指示音频特征样本的发音对应的文字;
S73,使用标注了所述口型特征的所述音频特征样本对所述初始特征检测模型进行训练,得到所述目标特征检测模型。
可选地,在本实施例中,上述数据集可以但不限于包括LibriSpeech和AISHELL两个大型语料数据集等等。
可选地,在本实施例中,从数据集中的音频数据中提取音频特征样本的方式可以但不限于采用上述提取音频资源中的目标音频帧对应的目标音频特征的方式。
可选地,在本实施例中,根据音频特征样本对应的文本信息确定音频特征样本对应的口型特征的方式可以但不限于根据音频特征样本的语种来进行适当的调整。比如:针对英文音频,口型特征可以但不限于利用第三方SDK Annosoft生成。针对中文音频,口型特征可以但不限于基于Annosoft对其配置进行适应于中文音频的改进优化之后生成。
作为一种可选的实施例,根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型包括:
S81,获取所述多个音素中每个音素所对应的口型模型;
S82,以所述目标口型特征所指示的每个音素对应的概率为权重,将所述每个音素所对应的口型模型融合为所述目标口型模型。
可选地,在本实施例中,可以但不限于为每个音素制作对应的口型模型。
可选地,在本实施例中,口型模型的制作方式可以但不限于包括基于骨骼动画的方式或者基于BlendShape的方式等等,本实施例中对此不作限定。
作为一种可选的实施例,获取所述多个音素中每个音素所对应的口型模型包括:
S91,确定所述每个音素在多个音素组中所落入的目标音素组,其中,所述多个音素按照发音口型被划分为所述多个音素组,所述多个音素组与多个口型模型一一对应;
S92,将所述目标音素组在所述多个口型模型中所对应的目标口型模型确定为所述每个音素所对应的口型模型。
可选地,在本实施例中,也可以根据音素之间发音口型的相似程度将多个音素划分为多个音素组,并为多个音素组中每个音素组制作对应的口型模型,得到与多个音素组一一对应的多个口型模型。
例如:对于参考国际音标表提取出的40个通用音素,包括:IH、AE、AA、AO、EY、AY、AW、L、IY、EH、M、B、P、AH、UH、W、UW、OY、OW、Z、S、CH、ZH、SH、ER、R、Y、N、NG、J、DH、D、G、T、K、TH、HH、F、V和silent。可以但不限于划分为11个音素组,分别为AI组,包括音素:IH、AE、AA、AO、EY、AY、AW;L组,包括音素:L;E组,包括音素:IY、EH;MBP组,包括音素:M、B、P;U组,包括音素:AH、UH;WQ组,包括音素:W;O组,包括音素:UW、OY、OW;ZHCHSHZCS组,包括音素:Z、S、CH、ZH、SH;CDGKNRSThYZ组,包括音素:ER、R、Y、N、NG、J、DH、D、G、T、K、TH、HH;FV组,包括音素:F、V;REST组,包括音素:silent。图6是根据本申请实施例的一种可选的音素组对应口型模型的示意图,如图6所示,属于同一音素组的音素对应同一个口型模型。
作为一种可选的实施例,使用所述目标口型模型生成所述音频资源对应的视频资源包括:
S101,从所述音频资源中获取所述目标音频帧的时间顺序;
S102,按照所述时间顺序将所述目标口型模型合并为所述视频资源。
可选地,在本实施例中,视频资源中的目标口型模型可以但不限于是按照音频资源中目标音频帧的时间顺序排列的。根据目标音频帧在音频资源中持续的时长在视频资源中展示相应的目标口型模型。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本申请各个实施例所述的方法。
根据本申请实施例的另一个方面,还提供了一种用于实施上述视频资源的生成方法的视频资源的生成装置。图7是根据本申请实施例的一种可选的视频资源的生成装置的示意图,如图7所示,该装置可以包括:
第一提取模块72,用于提取音频资源中的目标音频帧对应的目标音频特征;
第一确定模块74,用于确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
融合模块76,用于根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
生成模块78,用于使用所述目标口型模型生成所述音频资源对应的视频资源。
需要说明的是,该实施例中的第一提取模块72可以用于执行本申请实施例中的步骤S202,该实施例中的第一确定模块74可以用于执行本申请实施例中的步骤S204,该实施例中的融合模块76可以用于执行本申请实施例中的步骤S206,该实施例中的生成模块78可以用于执行本申请实施例中的步骤S208。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现。
通过上述模块,通过确定从音频资源中提取的目标音频特征对应的目标口型特征来得到目标音频特征属于多个音素中的每个音素的概率,这多个音素对应了多个口型模型,根据目标音频特征属于多个音素中的每个音素的概率对多个模型进行融合从而得到目标音频特征所对应的目标口型模型,再使用目标口型模型生成音频资源对应的视频资源,达到了通过音频资源直接生成视频资源的目的,从而实现了提高生成视频资源的过程复杂度的技术效果,进而解决了相关技术中生成视频资源的过程复杂度较高的技术问题。
作为一种可选的实施例,所述第一提取模块包括:
分帧单元,用于对所述音频资源进行分帧,得到多个音频帧;
提取单元,用于提取所述多个音频帧中每个音频帧对应的音频特征;
生成单元,用于根据所述每个音频帧对应的音频特征生成所述目标音频特征。
作为一种可选的实施例,所述提取单元用于:
计算所述每个音频帧的梅尔频谱倒谱系数;
获取所述梅尔频谱倒谱系数的一阶差分系数和二阶差分系数;
将所述梅尔频谱倒谱系数,所述一阶差分系数和所述二阶差分系数确定为所述每个音频帧对应的音频特征。
作为一种可选的实施例,所述生成单元用于:
从所述多个音频帧中确定所述目标音频帧;
对所述目标音频帧之前第一数量的音频帧对应的音频特征、所述目标音频帧对应的音频特征和所述目标音频帧之后第二数量的音频帧对应的音频特征进行合并,得到所述目标音频帧对应的所述目标音频特征。
作为一种可选的实施例,所述生成单元用于:
在所述音频资源上提取音素帧;
将所述音素帧在所述音频资源上对应的音频帧确定为所述目标音频帧。
作为一种可选的实施例,所述第一确定模块包括:
输入单元,用于将所述目标音频特征输入目标特征检测模型,其中,所述目标特征检测模型是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的;
第一获取单元,用于获取所述目标特征检测模型输出的所述目标口型特征。
作为一种可选的实施例,所述输入单元用于:将所述目标音频特征输入所述目标特征检测模型的输入层;
所述第一获取单元用于:获取所述目标特征检测模型的输出层输出的所述目标口型特征;
其中,所述目标特征检测模型包括依次连接的所述输入层,谱分析网络,协同发音网络和所述输出层,所述输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,所述谱分析网络用于在谱特征维度上对所述输入层输出的特征进行处理,所述协同发音网络用于在时域上对所述谱分析网络输出的特征进行处理,所述输出层用于通过卷积核将所述协同发音网络输出的特征映射成口型特征。
作为一种可选的实施例,所述装置还包括:
第二提取模块,用于在将所述目标音频特征输入目标特征检测模型之前,从数据集中的音频数据中提取所述音频特征样本;
第二确定模块,用于根据所述音频特征样本对应的文本信息确定所述音频特征样本对应的口型特征,其中,所述文本信息用于指示音频特征样本的发音对应的文字;
训练模块,用于使用标注了所述口型特征的所述音频特征样本对所述初始特征检测模型进行训练,得到所述目标特征检测模型。
作为一种可选的实施例,所述融合模块包括:
第二获取单元,用于获取所述多个音素中每个音素所对应的口型模型;
融合单元,用于以所述目标口型特征所指示的每个音素对应的概率为权重,将所述每个音素所对应的口型模型融合为所述目标口型模型。
作为一种可选的实施例,所述第二获取单元用于:
确定所述每个音素在多个音素组中所落入的目标音素组,其中,所述多个音素按照发音口型被划分为所述多个音素组,所述多个音素组与多个口型模型一一对应;
将所述目标音素组在所述多个口型模型中所对应的目标口型模型确定为所述每个音素所对应的口型模型。
作为一种可选的实施例,所述生成模块包括:
第三获取单元,用于从所述音频资源中获取所述目标音频帧的时间顺序;
合并单元,用于按照所述时间顺序将所述目标口型模型合并为所述视频资源。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在如图1所示的硬件环境中,可以通过软件实现,也可以通过硬件实现,其中,硬件环境包括网络环境。
根据本申请实施例的另一个方面,还提供了一种用于实施上述视频资源的生成方法的服务器或终端。
图8是根据本申请实施例的一种终端的结构框图,如图8所示,该终端可以包括:一个或多个(图中仅示出一个)处理器801、存储器803、以及传输装置805,如图8所示,该终端还可以包括输入输出设备807。
其中,存储器803可用于存储软件程序以及模块,如本申请实施例中的视频资源的生成方法和装置对应的程序指令/模块,处理器801通过运行存储在存储器803内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的视频资源的生成方法。存储器803可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器803可进一步包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置805用于经由一个网络接收或者发送数据,还可以用于处理器与存储器之间的数据传输。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置805包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置805为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器803用于存储应用程序。
处理器801可以通过传输装置805调用存储器803存储的应用程序,以执行下述步骤:
提取音频资源中的目标音频帧对应的目标音频特征;
确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
使用所述目标口型模型生成所述音频资源对应的视频资源。
采用本申请实施例,提供了一种视频资源的生成的方案。通过确定从音频资源中提取的目标音频特征对应的目标口型特征来得到目标音频特征属于多个音素中的每个音素的概率,这多个音素对应了多个口型模型,根据目标音频特征属于多个音素中的每个音素的概率对多个模型进行融合从而得到目标音频特征所对应的目标口型模型,再使用目标口型模型生成音频资源对应的视频资源,达到了通过音频资源直接生成视频资源的目的,从而实现了提高生成视频资源的过程复杂度的技术效果,进而解决了相关技术中生成视频资源的过程复杂度较高的技术问题。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,图8所示的结构仅为示意,终端可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile InternetDevices,MID)、PAD等终端设备。图8其并不对上述电子装置的结构造成限定。例如,终端还可包括比图8中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图8所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于执行视频资源的生成方法的程序代码。
可选地,在本实施例中,上述存储介质可以位于上述实施例所示的网络中的多个网络设备中的至少一个网络设备上。
可选地,在本实施例中,存储介质被设置为存储用于执行以下步骤的程序代码:
提取音频资源中的目标音频帧对应的目标音频特征;
确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
使用所述目标口型模型生成所述音频资源对应的视频资源。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
这里所寻求的保护的主题的范围在所附权利要求中进行限定。本发明实施例中还包括在下列编号条款中规定的这些和其他方面:
1.一种视频资源的生成方法,其特征在于,包括:
提取音频资源中的目标音频帧对应的目标音频特征;
确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
使用所述目标口型模型生成所述音频资源对应的视频资源。
2.根据条款1所述的方法,其特征在于,从音频资源中提取目标音频帧对应的目标音频特征包括:
对所述音频资源进行分帧,得到多个音频帧;
提取所述多个音频帧中每个音频帧对应的音频特征;
根据所述每个音频帧对应的音频特征生成所述目标音频特征。
3.根据条款2所述的方法,其特征在于,提取所述多个音频帧中每个音频帧对应的音频特征包括:
计算所述每个音频帧的梅尔频谱倒谱系数;
获取所述梅尔频谱倒谱系数的一阶差分系数和二阶差分系数;
将所述梅尔频谱倒谱系数,所述一阶差分系数和所述二阶差分系数确定为所述每个音频帧对应的音频特征。
4.根据条款2所述的方法,其特征在于,根据所述每个音频帧对应的音频特征生成所述目标音频特征包括:
从所述多个音频帧中确定所述目标音频帧;
对所述目标音频帧之前第一数量的音频帧对应的音频特征、所述目标音频帧对应的音频特征和所述目标音频帧之后第二数量的音频帧对应的音频特征进行合并,得到所述目标音频帧对应的所述目标音频特征。
5.根据条款4所述的方法,其特征在于,从所述多个音频帧中确定所述目标音频帧包括:
在所述音频资源上提取音素帧;
将所述音素帧在所述音频资源上对应的音频帧确定为所述目标音频帧。
6.根据条款1所述的方法,其特征在于,确定所述目标音频特征对应的目标口型特征包括:
将所述目标音频特征输入目标特征检测模型,其中,所述目标特征检测模型是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的;
获取所述目标特征检测模型输出的所述目标口型特征。
7.根据条款6所述的方法,其特征在于,
将所述目标音频特征输入所述目标特征检测模型包括:将所述目标音频特征输入所述目标特征检测模型的输入层;
获取所述目标特征检测模型输出的所述目标口型特征包括:获取所述目标特征检测模型的输出层输出的所述目标口型特征;
其中,所述目标特征检测模型包括依次连接的所述输入层,谱分析网络,协同发音网络和所述输出层,所述输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,所述谱分析网络用于在谱特征维度上对所述输入层输出的特征进行处理,所述协同发音网络用于在时域上对所述谱分析网络输出的特征进行处理,所述输出层用于通过卷积核将所述协同发音网络输出的特征映射成口型特征。
8.根据条款6所述的方法,其特征在于,在将所述目标音频特征输入目标特征检测模型之前,所述方法还包括:
从数据集中的音频数据中提取所述音频特征样本;
根据所述音频特征样本对应的文本信息确定所述音频特征样本对应的口型特征,其中,所述文本信息用于指示音频特征样本的发音对应的文字;
使用标注了所述口型特征的所述音频特征样本对所述初始特征检测模型进行训练,得到所述目标特征检测模型。
9.根据条款1所述的方法,其特征在于,根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型包括:
获取所述多个音素中每个音素所对应的口型模型;
以所述目标口型特征所指示的每个音素对应的概率为权重,将所述每个音素所对应的口型模型融合为所述目标口型模型。
10.根据条款9所述的方法,其特征在于,获取所述多个音素中每个音素所对应的口型模型包括:
确定所述每个音素在多个音素组中所落入的目标音素组,其中,所述多个音素按照发音口型被划分为所述多个音素组,所述多个音素组与多个口型模型一一对应;
将所述目标音素组在所述多个口型模型中所对应的目标口型模型确定为所述每个音素所对应的口型模型。
11.根据条款1所述的方法,其特征在于,使用所述目标口型模型生成所述音频资源对应的视频资源包括:
从所述音频资源中获取所述目标音频帧的时间顺序;
按照所述时间顺序将所述目标口型模型合并为所述视频资源。
12.一种视频资源的生成装置,其特征在于,包括:
第一提取模块,用于提取音频资源中的目标音频帧对应的目标音频特征;
第一确定模块,用于确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
融合模块,用于根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
生成模块,用于使用所述目标口型模型生成所述音频资源对应的视频资源。
13.根据条款12所述的装置,其特征在于,所述第一提取模块包括:
分帧单元,用于对所述音频资源进行分帧,得到多个音频帧;
提取单元,用于提取所述多个音频帧中每个音频帧对应的音频特征;
生成单元,用于根据所述每个音频帧对应的音频特征生成所述目标音频特征。
14.根据条款13所述的装置,其特征在于,所述提取单元用于:
计算所述每个音频帧的梅尔频谱倒谱系数;
获取所述梅尔频谱倒谱系数的一阶差分系数和二阶差分系数;
将所述梅尔频谱倒谱系数,所述一阶差分系数和所述二阶差分系数确定为所述每个音频帧对应的音频特征。
15.根据条款13所述的装置,其特征在于,所述生成单元用于:
从所述多个音频帧中确定所述目标音频帧;
对所述目标音频帧之前第一数量的音频帧对应的音频特征、所述目标音频帧对应的音频特征和所述目标音频帧之后第二数量的音频帧对应的音频特征进行合并,得到所述目标音频帧对应的所述目标音频特征。
16.根据条款15所述的装置,其特征在于,所述生成单元用于:
在所述音频资源上提取音素帧;
将所述音素帧在所述音频资源上对应的音频帧确定为所述目标音频帧。
17.根据条款12所述的装置,其特征在于,所述第一确定模块包括:
输入单元,用于将所述目标音频特征输入目标特征检测模型,其中,所述目标特征检测模型是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的;
第一获取单元,用于获取所述目标特征检测模型输出的所述目标口型特征。
18.根据条款17所述的装置,其特征在于,
所述输入单元用于:将所述目标音频特征输入所述目标特征检测模型的输入层;
所述第一获取单元用于:获取所述目标特征检测模型的输出层输出的所述目标口型特征;
其中,所述目标特征检测模型包括依次连接的所述输入层,谱分析网络,协同发音网络和所述输出层,所述输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,所述谱分析网络用于在谱特征维度上对所述输入层输出的特征进行处理,所述协同发音网络用于在时域上对所述谱分析网络输出的特征进行处理,所述输出层用于通过卷积核将所述协同发音网络输出的特征映射成口型特征。
19.根据条款17所述的装置,其特征在于,所述装置还包括:
第二提取模块,用于在将所述目标音频特征输入目标特征检测模型之前,从数据集中的音频数据中提取所述音频特征样本;
第二确定模块,用于根据所述音频特征样本对应的文本信息确定所述音频特征样本对应的口型特征,其中,所述文本信息用于指示音频特征样本的发音对应的文字;
训练模块,用于使用标注了所述口型特征的所述音频特征样本对所述初始特征检测模型进行训练,得到所述目标特征检测模型。
20.根据条款12所述的装置,其特征在于,所述融合模块包括:
第二获取单元,用于获取所述多个音素中每个音素所对应的口型模型;
融合单元,用于以所述目标口型特征所指示的每个音素对应的概率为权重,将所述每个音素所对应的口型模型融合为所述目标口型模型。
21.根据条款20所述的装置,其特征在于,所述第二获取单元用于:
确定所述每个音素在多个音素组中所落入的目标音素组,其中,所述多个音素按照发音口型被划分为所述多个音素组,所述多个音素组与多个口型模型一一对应;
将所述目标音素组在所述多个口型模型中所对应的目标口型模型确定为所述每个音素所对应的口型模型。
22.根据条款12所述的装置,其特征在于,所述生成模块包括:
第三获取单元,用于从所述音频资源中获取所述目标音频帧的时间顺序;
合并单元,用于按照所述时间顺序将所述目标口型模型合并为所述视频资源。
23.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行上述条款1至11任一项中所述的方法。
24.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行上述条款1至11任一项中所述的方法。
Claims (10)
1.一种视频资源的生成方法,其特征在于,包括:
提取音频资源中的目标音频帧对应的目标音频特征;
确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
使用所述目标口型模型生成所述音频资源对应的视频资源。
2.根据权利要求1所述的方法,其特征在于,从音频资源中提取目标音频帧对应的目标音频特征包括:
对所述音频资源进行分帧,得到多个音频帧;
提取所述多个音频帧中每个音频帧对应的音频特征;
根据所述每个音频帧对应的音频特征生成所述目标音频特征。
3.根据权利要求2所述的方法,其特征在于,提取所述多个音频帧中每个音频帧对应的音频特征包括:
计算所述每个音频帧的梅尔频谱倒谱系数;
获取所述梅尔频谱倒谱系数的一阶差分系数和二阶差分系数;
将所述梅尔频谱倒谱系数,所述一阶差分系数和所述二阶差分系数确定为所述每个音频帧对应的音频特征。
4.根据权利要求1所述的方法,其特征在于,确定所述目标音频特征对应的目标口型特征包括:
将所述目标音频特征输入目标特征检测模型,其中,所述目标特征检测模型是使用标注了口型特征的音频特征样本对初始特征检测模型进行训练得到的;
获取所述目标特征检测模型输出的所述目标口型特征。
5.根据权利要求4所述的方法,其特征在于,
将所述目标音频特征输入所述目标特征检测模型包括:将所述目标音频特征输入所述目标特征检测模型的输入层;
获取所述目标特征检测模型输出的所述目标口型特征包括:获取所述目标特征检测模型的输出层输出的所述目标口型特征;
其中,所述目标特征检测模型包括依次连接的所述输入层,谱分析网络,协同发音网络和所述输出层,所述输入层用于接收音频特征并通过卷积层对接收到的音频特征进行初始变换,所述谱分析网络用于在谱特征维度上对所述输入层输出的特征进行处理,所述协同发音网络用于在时域上对所述谱分析网络输出的特征进行处理,所述输出层用于通过卷积核将所述协同发音网络输出的特征映射成口型特征。
6.根据权利要求1所述的方法,其特征在于,根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型包括:
获取所述多个音素中每个音素所对应的口型模型;
以所述目标口型特征所指示的每个音素对应的概率为权重,将所述每个音素所对应的口型模型融合为所述目标口型模型。
7.根据权利要求6所述的方法,其特征在于,获取所述多个音素中每个音素所对应的口型模型包括:
确定所述每个音素在多个音素组中所落入的目标音素组,其中,所述多个音素按照发音口型被划分为所述多个音素组,所述多个音素组与多个口型模型一一对应;
将所述目标音素组在所述多个口型模型中所对应的目标口型模型确定为所述每个音素所对应的口型模型。
8.一种视频资源的生成装置,其特征在于,包括:
第一提取模块,用于提取音频资源中的目标音频帧对应的目标音频特征;
第一确定模块,用于确定所述目标音频特征对应的目标口型特征,其中,所述目标口型特征用于指示所述目标音频特征属于多个音素中的每个音素的概率;
融合模块,用于根据所述目标口型特征对所述多个音素所对应的多个口型模型进行融合,得到所述目标音频特征所对应的目标口型模型;
生成模块,用于使用所述目标口型模型生成所述音频资源对应的视频资源。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至7任一项中所述的方法。
10.一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序执行上述权利要求1至7任一项中所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010415045.0A CN111698552A (zh) | 2020-05-15 | 2020-05-15 | 一种视频资源的生成方法和装置 |
PCT/CN2020/112683 WO2021227308A1 (zh) | 2020-05-15 | 2020-08-31 | 一种视频资源的生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010415045.0A CN111698552A (zh) | 2020-05-15 | 2020-05-15 | 一种视频资源的生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111698552A true CN111698552A (zh) | 2020-09-22 |
Family
ID=72477799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010415045.0A Pending CN111698552A (zh) | 2020-05-15 | 2020-05-15 | 一种视频资源的生成方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111698552A (zh) |
WO (1) | WO2021227308A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359450A (zh) * | 2022-01-17 | 2022-04-15 | 小哆智能科技(北京)有限公司 | 一种模拟虚拟人物说话的方法及装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278382B (zh) * | 2022-06-29 | 2024-06-18 | 北京捷通华声科技股份有限公司 | 基于音频片段的视频片段确定方法及装置 |
CN116912376B (zh) * | 2023-09-14 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107331384A (zh) * | 2017-06-12 | 2017-11-07 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
US20180253881A1 (en) * | 2017-03-03 | 2018-09-06 | The Governing Council Of The University Of Toronto | System and method for animated lip synchronization |
CN110288682A (zh) * | 2019-06-28 | 2019-09-27 | 北京百度网讯科技有限公司 | 用于控制三维虚拟人像口型变化的方法和装置 |
CN110503942A (zh) * | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的语音驱动动画方法和装置 |
CN111081270A (zh) * | 2019-12-19 | 2020-04-28 | 大连即时智能科技有限公司 | 一种实时音频驱动的虚拟人物口型同步控制方法 |
CN111145777A (zh) * | 2019-12-31 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 一种虚拟形象展示方法、装置、电子设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5423379B2 (ja) * | 2009-08-31 | 2014-02-19 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US20150279364A1 (en) * | 2014-03-29 | 2015-10-01 | Ajay Krishnan | Mouth-Phoneme Model for Computerized Lip Reading |
CN106297792A (zh) * | 2016-09-14 | 2017-01-04 | 厦门幻世网络科技有限公司 | 一种语音口型动画的识别方法及装置 |
CN108763190B (zh) * | 2018-04-12 | 2019-04-02 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
CN109377539B (zh) * | 2018-11-06 | 2023-04-11 | 北京百度网讯科技有限公司 | 用于生成动画的方法和装置 |
-
2020
- 2020-05-15 CN CN202010415045.0A patent/CN111698552A/zh active Pending
- 2020-08-31 WO PCT/CN2020/112683 patent/WO2021227308A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180253881A1 (en) * | 2017-03-03 | 2018-09-06 | The Governing Council Of The University Of Toronto | System and method for animated lip synchronization |
CN107331384A (zh) * | 2017-06-12 | 2017-11-07 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN110288682A (zh) * | 2019-06-28 | 2019-09-27 | 北京百度网讯科技有限公司 | 用于控制三维虚拟人像口型变化的方法和装置 |
CN110503942A (zh) * | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的语音驱动动画方法和装置 |
CN111081270A (zh) * | 2019-12-19 | 2020-04-28 | 大连即时智能科技有限公司 | 一种实时音频驱动的虚拟人物口型同步控制方法 |
CN111145777A (zh) * | 2019-12-31 | 2020-05-12 | 苏州思必驰信息科技有限公司 | 一种虚拟形象展示方法、装置、电子设备及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359450A (zh) * | 2022-01-17 | 2022-04-15 | 小哆智能科技(北京)有限公司 | 一种模拟虚拟人物说话的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021227308A1 (zh) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108305641B (zh) | 情感信息的确定方法和装置 | |
CN105976812B (zh) | 一种语音识别方法及其设备 | |
CN108305643B (zh) | 情感信息的确定方法和装置 | |
CN111698552A (zh) | 一种视频资源的生成方法和装置 | |
CN109754783B (zh) | 用于确定音频语句的边界的方法和装置 | |
CN109660865B (zh) | 为视频自动打视频标签的方法及装置、介质和电子设备 | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
CN104239394A (zh) | 包括显示装置和服务器的翻译系统及其控制方法 | |
CN103956167A (zh) | 一种基于Web的可视化手语翻译方法及设备 | |
WO2017059694A1 (zh) | 一种语音模仿方法和装置 | |
CN108417222B (zh) | 加权有限状态变换器解码系统以及语音识别系统 | |
CN112116903A (zh) | 语音合成模型的生成方法、装置、存储介质及电子设备 | |
CN113436609B (zh) | 语音转换模型及其训练方法、语音转换方法及系统 | |
CN110880324A (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
CN112053692A (zh) | 语音识别处理方法、装置及存储介质 | |
CN115312034A (zh) | 基于自动机和字典树处理语音信号的方法、装置和设备 | |
CN113327576A (zh) | 语音合成方法、装置、设备及存储介质 | |
CN109213466B (zh) | 庭审信息的显示方法及装置 | |
CN113724690B (zh) | Ppg特征的输出方法、目标音频的输出方法及装置 | |
CN111477212A (zh) | 内容识别、模型训练、数据处理方法、系统及设备 | |
CN111739518B (zh) | 音频的识别方法和装置、存储介质及电子设备 | |
CN114283786A (zh) | 语音识别方法、装置及计算机可读存储介质 | |
CN112562733A (zh) | 媒体数据处理方法及装置、存储介质、计算机设备 | |
CN113555037B (zh) | 篡改音频的篡改区域检测方法、装置及存储介质 | |
CN107766416A (zh) | 数据分析方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200922 |