CN113393832A - 一种基于全局情感编码的虚拟人动画合成方法及系统 - Google Patents
一种基于全局情感编码的虚拟人动画合成方法及系统 Download PDFInfo
- Publication number
- CN113393832A CN113393832A CN202110621463.XA CN202110621463A CN113393832A CN 113393832 A CN113393832 A CN 113393832A CN 202110621463 A CN202110621463 A CN 202110621463A CN 113393832 A CN113393832 A CN 113393832A
- Authority
- CN
- China
- Prior art keywords
- emotion
- global
- noise
- animation
- virtual human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 179
- 238000001308 synthesis method Methods 0.000 title claims abstract description 10
- 239000013598 vector Substances 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims abstract description 33
- 239000011159 matrix material Substances 0.000 claims abstract description 19
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 15
- 239000010410 layer Substances 0.000 claims description 36
- 238000000605 extraction Methods 0.000 claims description 31
- 230000015572 biosynthetic process Effects 0.000 claims description 19
- 238000003786 synthesis reaction Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 7
- 239000002356 single layer Substances 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000007477 logistic regression Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 2
- 230000006403 short-term memory Effects 0.000 claims description 2
- 230000008447 perception Effects 0.000 claims 1
- 238000004088 simulation Methods 0.000 abstract description 3
- 238000013186 photoplethysmography Methods 0.000 description 20
- 238000012549 training Methods 0.000 description 14
- 230000014509 gene expression Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000037433 frameshift Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000036039 immunity Effects 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种基于全局情感编码的虚拟人动画合成方法及系统,方法包括采用语音识别模型将输入语音特征转换为音素后验概率特征,利用噪声编码器获得模拟噪声序列,将模拟噪声序列与音素后验概率特征进行加和,获得带噪声的音素后验概率特征,通过全连接层得到全局内容特征;针对带情感语音,提取梅尔频率倒谱系数特征序列,通过双向门控循环单元网络,提取全局声学特征向量,设置隐向量矩阵,将全局声学特征向量与隐向量进行注意力计算,获得全局情感特征;将全局情感特征拼接到全局内容特征,通过双向长短时记忆网络建模上下文信息,生成对应情感以及对应口型信息的人脸动画参数,最终生成带情感的虚拟人动画。
Description
技术领域
本发明涉及语音处理领域,特别是一种基于全局情感编码的虚拟人动画合成方法及系统。
背景技术
目前,语音驱动的虚拟人动画生成在工业界已经得到了大量的研究,其实用价值已经被大量落地的应用场景所证明。传统的语音驱动的虚拟人动画生成主要关注生成的口型效果,对于生成人脸的表情以及情感关注较少。情感表现力的虚拟人动画生成在实际场景中应用范围同样广,一方面,情感表现力能增强虚拟形象的真实性,能够提升用户的交互体验,增强用户的交互意愿,利用这个特性,在虚拟助手及虚拟伴侣等产品中,相比原来传统方法带给用户更沉浸的体验,另一方面,情感表现力合成同时也是能让表情更生动和丰富,这就使得这一技术可以用于替代一些如游戏解说以及虚拟歌手等工作,相比传统方法产生的娱乐效果更充足,更容易被用户接受。
情感表现力成为语音驱动的虚拟人动画生成中的研究热点,在关于情感的具体研究方向上,也经历了一系列的改变。最早的语音情感合成是专注于有监督的特定情感合成,即给定情感标签的前提下,生成对应情感的简单监督学习模型,其中代表性的工作有:1)基于CNN的人脸参数预测模型得到了使用,通过将数据集中的情感标签简单进行向量化之后,拼接到CNN中的每一层进行训练,就能够合成训练集内的情感;2)主要解决了有限数据集下情感动画生成的问题,在这一工作中,中性情感的数据占比大于其他情感的数据,分布不均衡,针对这一特点,该工作提出了一种预训练的方法,先用中性情感的数据训练网络,再用其他情感的数据驱动对网络权重进行微调,最后也能使用多个网络生成多种情感。情感标签驱动的方法能够简单地训练并生成带情感的语音,但是局限性很大,只能生成数据集内特定的情感,无法生成数据集外的情感,同时,这种方法也不能从语音中自动提取情感,不易于实际场景使用。
语音情感的自动提取有许多研究与方法,传统的自动情感提取方法中,模型整体可以分成两大模块,一个模块对原始语音提取特征并进行情感分类,另一个模块负责对内容特征进行提取,主要用以生成口型信息,合成时利用获得的情感标签和口型特征预测人脸动画参数,通过加入情感分类模块再加上数据集中的情感标签进行有监督训练,就能在合成时自动提取语音中的情感用于合成。另外,用户也可以在合成时自定义情感类别来实现一定程度的情感控制。但这个方法主要还是对几种集内情感进行生成,不能自由控制不同情感间的混合与情感的幅度。
在情感的控制上,为了能够达到更好的效果,一些情感语音合成中常用的模型被迁移到情感表现力虚拟人合成中,其中比较有代表性的是基于VAE的工作,该工作不是语音驱动,而是通过文本驱动生成语音与同步的动画,该方法主要采用了基于VAE的结构,这一网络结构本质是将原始数据中某些特征的分布用隐向量的形式进行学习,该工作通过设置三组VAE结构,使得隐向量分别学习音素时长、声学特征以及视觉特征的分布信息。关于情感的部分,将数据集中的七种情感的语料混合训练。由于情感的不同会影响语音的时长、声学特征及视觉特征,因此网络中的隐向量应该能分别学习到七种情感的分布信息。从实验结果上来说,这项工作做到了不同情感下的时长、声学特征和视觉特征隐向量分布上有明显区分。在生成时,将训练集情感对应的所有隐向量分布中心作为情感的中心,假设整个隐向量代表连续的情感空间,就能通过不同情感中心插值来生成混合情感,同时将特定情感与中性情感进行插值来控制幅度。这项工作的不足之处在于整体生成的效果比较差,没有引入适当的情感标签信息监督导致情感向量的分解不够,在插值调控上表现也不够好。
另一方面,在虚拟人动画实际使用环境中,输入语音往往会带有噪音,例如马路、餐厅及咖啡厅的背景音等,带有噪声的语音会造成声学特征的提取错误,进一步影响到口型特征的预测。因此,虚拟人动画合成系统的抗噪能力能拓展模型的应用场景,进而提高模型的泛用性。除了环境背景音之外,在相对安静的场景中,模型在静音段也往往不能完美地保持口型的正确关闭。静音段是指不包含人声的段落,一般出现于语音的句首句末或者中间过渡段。造成这一现象的原因是静音段中的弱噪声,虽然弱噪声强度不高,但容易令模型产生误判并继续生成口型,表现为合成的动画口型无法正确关闭。可以看出,对于情感表现力合成而言,模型的抗噪能力也是至关重要的,这主要体现在两个方面:1)带有噪声的情感语音会影响模型对于全局声学特征的提取,导致模型自动提取的情感可能产生错误,影响模型语音情感自动提取的性能;2)在自定义不同情感来控制动画生成时,内容信息的提取会受到噪声而包含错误,从而导致预测的人脸动画内容与情感上不一致的现象产生。因此,为了提高情感动画生成系统的泛用性,较强的抗噪能力是不可缺少的功能。目前的虚拟人动画生成工作对于抗噪能力的研究较少,并且,也没有给出具体的解决方案以及实际效果验证。
综上所述,现有方案中,存在如下缺点:
(1)对于生成动画情感的控制效果不足,尤其是不同情感之间的混合插值及情感幅度的调控,目前的方法都不能达到理想的效果;
(2)缺乏能够兼具自动提取输入语音情感和生成情感控制的高自由度语音驱动情感动画生成系统;
(3)缺乏完整且有效的抗噪虚拟人动画生成系统,目前的模型容易受到环境中噪声的影响预测错误的口型,静音段上容易受到弱噪声的影响生成错误的口型。
发明内容
为了解决生成动画情感的控制效果不足、无法兼具自动提取输入语音情感和生成情感控制、无法实现虚拟人动画生成系统抗噪的技术问题,本发明提出一种基于全局情感编码的虚拟人动画合成方法及系统。
为此,本发明提出的基于全局情感编码的虚拟人动画合成方法具体包括以下步骤:
S1、采用预训练的语音识别模型将带情感的输入语音特征转换为音素后验概率特征,利用噪声编码器获得具有时序相关性的模拟噪声序列,将所述模拟噪声序列与所述音素后验概率特征进行加和获得带噪声的音素后验概率特征,利用全连接层处理带噪声的音素后验概率特征,得到全局内容特征;
S2、针对输入的带情感语音,提取梅尔频率倒谱系数特征序列,通过双向门控循环单元网络,提取全局声学特征向量,设置隐向量矩阵,将所述全局声学特征向量与所述隐向量进行注意力计算,获得全局情感特征;
S3、将所述全局情感特征拼接到所述全局内容特征,通过双向长短时记忆网络建模上下文信息,并生成对应情感以及对应口型信息的人脸动画参数,根据生成的人脸动画参数调整3D虚拟人脸,生成带情感的虚拟人动画。
进一步地,在所述步骤S1中,所述采用预训练的语音识别模型将带情感的输入语音特征转换为音素后验概率特征具体包括对于输入的给定语音,进行40维的MFCC特征的提取,通过两层卷积层与池化层对短时的上下文信息进行提取,再通过前向连接层让模型的感受野扩大到整句话。
进一步地,所述输入的给定语音中加入了前后10帧的信息,以及前后10帧的一阶差分与二阶差分。
进一步地,所述音素后验概率特征为218种音素的集合,具体包括汉语179种,英语39种。
进一步地,在所述步骤S1中,所述利用噪声编码器获得具有时序相关性的模拟噪声序列具体包括按照标准高斯分布采样获得噪声向量,重复采样并获得与音素后验概率特征序列等长的高斯噪声序列,利用单层长短时记忆网络进行处理,获得具有时序相关性的模拟噪声序列。
进一步地,在所述步骤S2中,所述注意力计算具体包括:使用全连接分别处理全局声学特征向量和情感隐向量,将经过处理的全局声学特征向量和情感隐向量进行矩阵相乘,获得注意力矩阵,利用逻辑回归函数对注意力矩阵进行归一化处理,获得注意力权重,采用语音情感标签对计算得到的注意力权重施加交叉熵损失函数计算,按照注意力权重对全局情感向量加权求和,获取全局情感特征。
为此,本发明提出的基于全局情感编码的虚拟人动画合成系统具体包括内容信息提取模块、情感信息提取模块和人脸动画参数预测模块,所述内容信息提取模块包括预训练的语音识别模型、噪声编码器和全连接层,所述情感信息提取模块包括双向门控循环单元网络和隐向量矩阵,所述人脸动画参数预测模块包括基于双向长短时记忆网络的解码器。
进一步地,所述语音识别模型基于CNN网络,包括两层卷积层与池化层、以及前向连接层。
进一步地,所述噪声编码器包括单层长短时记忆网络。
为此,本发明提出的计算机可读存储介质存储有可供处理器运行的程序,所述程序在被所述处理器运行的过程中能够实现上述基于全局情感编码的虚拟人动画合成方法。
相对于现有技术,本发明具有如下有益效果:
1)实现完整的自动语音提取和精确情感控制;
2)通过噪声编码器引入噪声影响,显著提升对实际环境噪声以及静音段弱噪声的抗噪性。
在本发明的一些实施例中,还具有如下有益效果:
基于全局情感编码的方法,通过情感标签的监督与神经网络的训练,获取了不同情感的编码向量,实现了对虚拟人动画情感的自由控制。
附图说明
图1是虚拟人动画合成方法的流程图;
图2是内容信息提取的流程图;
图3是情感信息提取的流程图;
图4是PPG提取过程的流程图;
图5是噪声编码器的工作流程图;
图6是zoneout的设置示意图;
图7是注意力计算的流程图;
图8是双向GRU网络的结构示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图说明本发明的具体实施方式。
在进行描述的过程中,会涉及关键术语的缩略词,在此提前进行解释和说明:
LSTM:Long Short-Term Memory,长短时记忆网络,是循环神经网络(RecurrentNeural Network,RNN)的一种实现;
MFCC:Mel Frequency Cepstral Coefficient,梅尔频率倒谱系数,是语音中常用的一种特征,主要包含了语音再频域上的信息;
PPG:Phonetic Posterior grams,即音素后验概率,是语音识别的结果的中间表示,表示每帧语音属于每种音素的后验概率;
GRU:Gated Recurrent Unit,门控循环单元,是LSTM网络的一个变种,对LSTM中的门结构进行了简化;
GAN:Generative Adversarial Network,生成对抗网络,是一种基于对抗训练的序列生成方法;
VAE:Variational Auto-encoder,变分自编码器,是一种从隐向量分布进行采样生成的序列生成方法;
CNN:Convolution Neural Network,卷积神经网络。
情感虚拟人动画生成就是在输入一段带有情感的语音之后,根据语音的情感生成对应的虚拟人动画,这一对应关系主要包括面部表情与头部姿态,甚至也可以对应于身体的姿态。面部表情与情感对应关系是显著的,例如皱眉与悲伤。头部姿态与情感虽然不一一对应,但整体的运动模式也受到全局情感剧烈程度和种类的影响。本发明合成的虚拟3D形象,主要涉及人脸表情,口型以及头部姿态三个方面的合成。
如图1所示,本发明实施例提出的基于全局情感编码的虚拟人动画合成方法具体包括:
S1、内容信息提取,如图2所示,采用预训练的语音识别模型将带情感的输入语音特征转换为PPG特征,具体地,预训练语音识别模型按照10ms的帧移提取40维的MFCC特征序列,并经过CNN网络获得同样时长的218维PPG特征序列,每一维代表一个音素,PPG特征包含中文与英文音素,随后,按照10ms帧移提取该语音的短时能量信息序列,并与PPG特征按时间步进行拼接获得219维的PPG+能量特征。PPG特征是一个横轴为时间,纵轴为音素集合的特征矩阵,其中的数值代表每个时间步上内容为对应音素的概率。对于PPG的具体提取过程,如图4所示,是一个以CNN为核心的复合网络结构,对于输入的给定语音,进行40维的MFCC特征的提取,其中,由于输入信息只包含有限时间步,为了保证整句语音输出的特征的连续性,输入信息中也加入了前后10帧的信息,以及前后10帧的一阶差分与二阶差分,网络通过两层卷积层与池化层对短时的上下文信息进行提取,再通过前向连接层让模型的感受野扩大到整句话,具体来说,图中卷积层的三个参数分别为通道数,卷积核的形状以及步长,全连接层的参数值代表全连接层的隐含单元数。经过语音识别模型后,只包含内容信息的时序PPG特征就能得到准确提取。在PPG音素集合的设置上,采用了包含汉语179种与英语39种共218种音素的集合。与现有技术相比,细化了网络的提取结构,将简单的一层CNN替换成更深度的多层卷积网络,增加模型的参数量并提升网络对PPG的提取准确度。
与此同时,为了提升模型对于输入噪声的鲁棒性,引入噪声编码器,噪声编码器的主要目的是往现有PPG特征中添加噪声,提高抗噪能力,如图5所示,噪声编码器首先需要按照标准高斯分布N(0,1)采样获得1×256维的噪声向量,重复该操作并获得与PPG序列等长的高斯噪声序列,该序列不具有时序相关性,随后,以该序列为输入,经过单层LSTM后,获得的219维的输出序列作为模拟噪声,是具有时序相关性的,这也符合实际场景下的噪声具有连续性的特点,这里采用单向的LSTM结构。为了解决LSTM中存在的梯度消失导致收敛速度缓慢的问题,在LSTM结构中加入了zoneout的方法,zoneout结构是一种在时序模型中常用的防止梯度消失的方法,主要方式是在每轮训练时按照一定概率随机屏蔽网络中部分节点,将屏蔽的节点数值设置为上一个时间步的数值,在屏蔽当前节点影响的前提下,能稳定地向屏蔽前的时间步回传梯度,在时序模型中达到更好的效果。在LSTM中,zoneout的设置如图6所示,虚线部分表示zoneout应用在网络中的位置,将zoneout的节点设置于状态信息的计算与输出信息的计算,不涉及到门函数的计算,能够保证当前信息被完整屏蔽,并且屏蔽后梯度能够做到不变地回传至屏蔽前的时间步,更加稳定。
在获得噪声序列后,将噪声序列和PPG序列进行加和获得219维的带噪特征,模拟带噪情况下的PPG特征情况,模拟带噪环境下可能出现的PPG提取错误的现象。实际训练中,在训练完原始模型后再引入噪声序列进行微调,这样能够防止模型训练初期受到噪声影响过大而无法收敛的情况。为了与情感特征向量维度保持一致,用维度为256维的全连接层处理219维的带噪特征,得到256维的全局内容特征。
S2、情感信息提取,如图3所示,对于输入的带情感语音,先提取10ms帧移的40维MFCC特征序列,随后通过3层GRU结构,提取最后一帧输出的1×256的向量作为全局声学特征向量,在提取了全局声学特征向量之后,设置4×256的隐向量矩阵用于自动学习不同的情感特征,并用全局声学特征向量与这组向量进行注意力计算,获得全局情感特征,这里采用的注意力机制为多头注意力机制。如图7所示,注意力计算具体包括:使用全连接分别处理全局声学特征向量和情感隐向量,将经过处理的全局声学特征向量和情感隐向量进行矩阵相乘,获得注意力矩阵,利用逻辑回归函数softmax对注意力矩阵进行归一化处理,获得注意力权重,采用训练语料中的语音情感标签,对计算得到的注意力权重施加交叉熵损失函数计算,让注意力权重与实际情感分布接近,再按照注意力权重对全局情感向量加权求和,就能够获取1×256的全局情感特征。这里采用的双向GRU网络的结构如图8所示,其中每个时间步都包含一个重置门和更新门的结构,两个门函数的数值会决定保留上一个时间步输出信息的比例和获得当前时间步输入信息的比例,使用GRU网络能够感知远距离上下文信息,更适合获取全局特征。交叉熵损失函数在分类问题中相比均方误差能更好地衡量预测数据与训练数据之间的差异。交叉熵的表现形式一般如公式(1)所示,其中N表示样本的总数,M表示类别的数目,yic表示第i个样本的第c类别的实际标签,pic表示第i个样本第c类别的预测概率值,其中pic的数值一般是对最终输出结果进行softmax之后的结果,如公式(2)所示,其中aic表示第i个样本最终输出结果的第c类别的数值。将得到的4维表情权重作为公式中的p,根据实际情感标签获得的one-hot向量作为公式中的y,两者进行计算来监督情感隐向量的学习。
使用已有的情感标签加以监督训练,从而保证学习到的是情感信息,通过将头数设置为1来保证每个隐向量对应特定情感以方便控制。
S3、人脸动画参数预测,将全局情感特征拼接到全局内容特征序列的每个时间步,形成L×512的矩阵,L表示序列的时间步数,通过双向LSTM建模上下文信息并生成对应情感以及对应口型信息的人脸动画参数,根据生成的人脸动画参数调整3D虚拟人脸,生成带情感的虚拟人动画。
针对静音段噪声的问题,直接在输入信息中加入短时能量信息,提取能量信息时的帧移与PPG特征保持一致,这样就能直接按时间步逐帧拼接短时能量信息。由于静音段噪声强度明显弱于正常人声段,因此,通过加入能量信息就能帮助模型有效判断静音段区间,进一步在静音段生成正确的口型。
本发明实施例提出的基于全局情感编码的虚拟人动画合成系统包括内容信息提取模块、情感信息提取模块和人脸动画参数预测模块。
内容信息提取模块用于对输入语音进行内容信息提取,基于预训练的语音识别模型提取音素后验概率特征,获取的内容信息能够保留大部分原始语音中的时长与音素分布信息,具体包括预训练的语音识别模型、噪声编码器和全连接层。语音识别模型基于CNN网络,包括两层卷积层与池化层、以及前向连接层,两层卷积层与池化层用于对短时的上下文信息进行提取,前向连接层用于将模型的感受野扩大到整句话。噪声编码器包括单层LSTM,单层LSTM将不具有时序相关性的高斯噪声序列转换为具有时序相关性的输出序列,采用单向的LSTM结构,为了解决LSTM中存在的梯度消失导致收敛速度缓慢的问题,在LSTM结构中加入了zoneout的方法。全连接层用于处理带噪特征的维度,使其与情感特征向量维度保持一致。
情感信息提取模块用于对输入语音的情感信息进行提取,将语音全局声学特征转化为全局情感特征用于后续生成,具体包括双向GRU网络和隐向量矩阵。双向GRU网络的结构如图2所示,其中每个时间步都包含一个重置门和更新门的结构,两个门函数的数值会决定保留上一个时间步输出信息的比例和获得当前时间步输入信息的比例,使用GRU网络能够感知远距离上下文信息,更适合获取全局特征。隐向量矩阵用于自动学习不同的情感特征,并用全局声学特征向量与这组向量进行注意力计算,得到一组注意力权重,这里采用的注意力机制为多头注意力机制。
人脸动画参数预测模块用于利用提取的内容信息与情感信息,通过神经网络模型预测得到内容与情感一致的人脸动画参数,具体包括基于双向LSTM的解码器。
在实际应用中,也可以考虑采用基于GAN的方法进行替换,在GAN网络生成时提供情感信息加以限制,生成对应情感的人脸动画。
在实际应用中,除了引入模拟噪声序列,也可以采用一些语音识别中常用的数据增强方法对PPG特征进行一定的遮挡或替换,或者,也可以不需要添加噪声的结构,直接将带噪语音作为输入就能进行鲁棒的动画生成。
在实际应用中,除了对输入语音提取内容编码与情感编码,从而实现自动提取并生成情感表现力动画,也可以自定义不同情感的权重替换注意力权重,此时,全局情感特征可以由给定的权重计算得到,不需要经过情感提取模块,内容编码则同样从输入语音中提取,就能实现对情感的混合与情感幅度的控制。
本发明一方面可以应用于虚拟助手及虚拟伴侣等产品中,通过情感表现力增强虚拟形象真实性,提升用户交互体验与沉浸感,另一方面可以应用于虚拟歌手及游戏解说等产品中,引入情感表现力提升娱乐效果,使用户更容易接受。本发明提出的基于全局情感编码的方法,通过情感标签的监督与神经网络的训练,获取了不同情感的编码向量,并在生成时通过用户自定义权重的方式,实现了对虚拟人动画情感的自由控制,同时,以此为基础也实现了一个同时兼具自动提取语音情感和生成动画情感可控的高自由度系统,一方面实现了精确的情感控制,另一方面搭建了一个完整的语音提取及情感控制的系统,两方面的技术改进使得本专利生成的虚拟人动画情感表现力更强,极大提升了动画的真实性与用户交互体验。针对实际场景中虚拟人动画的预测受到环境噪声和静音段弱噪声影响生成错误口型的问题,本发明提出了基于噪声编码器模拟实际噪声的引入,以及在输入信息中加入能量的方法,显著提升了系统对实际环境噪声以及静音段弱噪声的抗性,在系统的抗噪能力提升后,本发明的系统相比传统方法在泛用性与实用价值上都有明显优势,同时,对于情感生成来说,也能显著提高语音情感自动提取的准确度与生成动画情感与口型的一致性,进一步提升情感生成系统在不同噪声环境中的泛用性。
本发明技术方案带来的有益效果可以归纳为:
1、用户能够自定义情感权重来实现情感的混合及对人脸动画情感幅度的准确调控。
2、提出了一个能兼具语音情感自动提取及自定义情感控制的高自由度情感表现力虚拟人动画生成系统。
3、提出了基于噪声编码器的方法,通过该方法生成的噪声序列模拟真实噪声影响,使得系统能够对输入语音中的噪声保持鲁棒。
4、提出了引入能量信息的方法,解决了静音段口型受到弱噪声影响无法关闭的问题。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围。应当指出,对于本技术领域的技术人员,在不脱离本发明设计结构及原理的前提下对本发明方案所作的等同变化都视作本发明的保护范围。
Claims (10)
1.一种基于全局情感编码的虚拟人动画合成方法,其特征在于,具体包括以下步骤:
S1、采用预训练的语音识别模型将带情感的输入语音特征转换为音素后验概率特征,利用噪声编码器获得具有时序相关性的模拟噪声序列,将所述模拟噪声序列与所述音素后验概率特征进行加和,获得带噪声的音素后验概率特征,利用全连接层处理带噪声的音素后验概率特征,得到全局内容特征;
S2、针对输入的带情感语音,提取梅尔频率倒谱系数特征序列,通过双向门控循环单元网络,提取全局声学特征向量,设置隐向量矩阵,将所述全局声学特征向量与所述隐向量进行注意力计算,获得全局情感特征;
S3、将所述全局情感特征拼接到所述全局内容特征,通过双向长短时记忆网络建模上下文信息,生成对应情感以及对应口型信息的人脸动画参数,根据生成的人脸动画参数调整3D虚拟人脸,生成带情感的虚拟人动画。
2.根据权利要求1所述的基于全局情感编码的虚拟人动画合成方法,其特征在于,在所述步骤S1中,所述采用预训练的语音识别模型将带情感的输入语音特征转换为音素后验概率特征具体包括对于输入的给定语音,进行40维的MFCC特征的提取,通过两层卷积层与池化层对短时的上下文信息进行提取,再通过前向连接层让模型的感受野扩大到整句话。
3.根据权利要求2所述的基于全局情感编码的虚拟人动画合成方法,其特征在于,所述输入的给定语音中加入了前后10帧的信息,以及前后10帧的一阶差分与二阶差分。
4.根据权利要求2所述的基于全局情感编码的虚拟人动画合成方法,其特征在于,所述音素后验概率特征为218种音素的集合,具体包括汉语179种,英语39种。
5.根据权利要求1所述的基于全局情感编码的虚拟人动画合成方法,其特征在于,在所述步骤S1中,所述利用噪声编码器获得具有时序相关性的模拟噪声序列具体包括按照标准高斯分布采样获得噪声向量,重复采样并获得与音素后验概率特征序列等长的高斯噪声序列,利用单层长短时记忆网络进行处理,获得具有时序相关性的模拟噪声序列。
6.根据权利要求1所述的基于全局情感编码的虚拟人动画合成方法,其特征在于,在所述步骤S2中,所述注意力计算具体包括:使用全连接分别处理全局声学特征向量和情感隐向量,将经过处理的全局声学特征向量和情感隐向量进行矩阵相乘,获得注意力矩阵,利用逻辑回归函数对注意力矩阵进行归一化处理,获得注意力权重,采用语音情感标签对计算得到的注意力权重施加交叉熵损失函数计算,按照注意力权重对全局情感向量加权求和,获取全局情感特征。
7.一种基于全局情感编码的虚拟人动画合成系统,其特征在于,具体包括内容信息提取模块、情感信息提取模块和人脸动画参数预测模块,所述内容信息提取模块包括预训练的语音识别模型、噪声编码器和全连接层,所述情感信息提取模块包括双向门控循环单元网络和隐向量矩阵,所述人脸动画参数预测模块包括基于双向长短时记忆网络的解码器。
8.根据权利要求7所述的基于全局情感编码的虚拟人动画合成系统,其特征在于,所述语音识别模型基于CNN网络,包括两层卷积层与池化层、以及前向连接层。
9.根据权利要求7所述的基于全局情感编码的虚拟人动画合成系统,其特征在于,所述噪声编码器包括单层长短时记忆网络。
10.一种计算机可读存储介质,其特征在于,存储有可供处理器运行的程序,所述程序在被所述处理器运行的过程中能够实现如权利要求1-6中任一项所述的基于全局情感编码的虚拟人动画合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110621463.XA CN113393832B (zh) | 2021-06-03 | 2021-06-03 | 一种基于全局情感编码的虚拟人动画合成方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110621463.XA CN113393832B (zh) | 2021-06-03 | 2021-06-03 | 一种基于全局情感编码的虚拟人动画合成方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113393832A true CN113393832A (zh) | 2021-09-14 |
CN113393832B CN113393832B (zh) | 2023-10-10 |
Family
ID=77618259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110621463.XA Active CN113393832B (zh) | 2021-06-03 | 2021-06-03 | 一种基于全局情感编码的虚拟人动画合成方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113393832B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838173A (zh) * | 2021-09-23 | 2021-12-24 | 厦门大学 | 一种受语音和背景声联合驱动的虚拟人头部运动合成方法 |
CN113838174A (zh) * | 2021-11-25 | 2021-12-24 | 之江实验室 | 一种音频驱动人脸动画生成方法、装置、设备与介质 |
CN114821717A (zh) * | 2022-04-20 | 2022-07-29 | 北京百度网讯科技有限公司 | 目标对象融合方法、装置、电子设备及存储介质 |
CN114862992A (zh) * | 2022-05-19 | 2022-08-05 | 北京百度网讯科技有限公司 | 虚拟数字人处理方法、模型训练方法及其装置 |
CN116664731A (zh) * | 2023-06-21 | 2023-08-29 | 华院计算技术(上海)股份有限公司 | 人脸动画生成方法及装置、计算机可读存储介质、终端 |
CN116996630A (zh) * | 2023-08-02 | 2023-11-03 | 北京中科闻歌科技股份有限公司 | 实时问答虚拟人视频生成方法、电子设备及存储介质 |
CN117237495A (zh) * | 2023-11-06 | 2023-12-15 | 浙江同花顺智能科技有限公司 | 一种三维人脸动画生成方法及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1518489A (zh) * | 2002-03-15 | 2004-08-04 | 索尼公司 | 用于机器人的行为控制系统和行为控制方法及机器人装置 |
WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
WO2018227780A1 (zh) * | 2017-06-12 | 2018-12-20 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CA3015651A1 (en) * | 2017-12-05 | 2019-06-05 | TrailerVote Corp. | Movie trailer voting system with audio movie trailer identification |
CN109992668A (zh) * | 2019-04-04 | 2019-07-09 | 上海冰鉴信息科技有限公司 | 一种基于自注意力的企业舆情分析方法和装置 |
CN110192203A (zh) * | 2016-11-03 | 2019-08-30 | 易享信息技术有限公司 | 用于多个自然语言处理(nlp)任务的联合多任务神经网络模型 |
KR20190101329A (ko) * | 2019-08-12 | 2019-08-30 | 엘지전자 주식회사 | 지능적 음성 출력 방법, 음성 출력 장치 및 지능형 컴퓨팅 디바이스 |
US20190385610A1 (en) * | 2017-12-08 | 2019-12-19 | Veritone, Inc. | Methods and systems for transcription |
WO2020081161A1 (en) * | 2018-10-19 | 2020-04-23 | Microsoft Technology Licensing, Llc | Transforming audio content into images |
CN111477216A (zh) * | 2020-04-09 | 2020-07-31 | 南京硅基智能科技有限公司 | 一种用于对话机器人的音意理解模型的训练方法及系统 |
CN111858944A (zh) * | 2020-07-31 | 2020-10-30 | 电子科技大学 | 一种基于注意力机制的实体方面级情感分析方法 |
CN111968679A (zh) * | 2020-10-22 | 2020-11-20 | 深圳追一科技有限公司 | 情感识别方法、装置、电子设备及存储介质 |
CN112331183A (zh) * | 2020-10-27 | 2021-02-05 | 中科极限元(杭州)智能科技股份有限公司 | 基于自回归网络的非平行语料语音转换方法及系统 |
US10931976B1 (en) * | 2019-10-14 | 2021-02-23 | Microsoft Technology Licensing, Llc | Face-speech bridging by cycle video/audio reconstruction |
CN112489635A (zh) * | 2020-12-03 | 2021-03-12 | 杭州电子科技大学 | 一种基于增强注意力机制的多模态情感识别方法 |
CN112885328A (zh) * | 2021-01-22 | 2021-06-01 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
-
2021
- 2021-06-03 CN CN202110621463.XA patent/CN113393832B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1518489A (zh) * | 2002-03-15 | 2004-08-04 | 索尼公司 | 用于机器人的行为控制系统和行为控制方法及机器人装置 |
CN110192203A (zh) * | 2016-11-03 | 2019-08-30 | 易享信息技术有限公司 | 用于多个自然语言处理(nlp)任务的联合多任务神经网络模型 |
WO2018107810A1 (zh) * | 2016-12-15 | 2018-06-21 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、电子设备及介质 |
WO2018227780A1 (zh) * | 2017-06-12 | 2018-12-20 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CA3015651A1 (en) * | 2017-12-05 | 2019-06-05 | TrailerVote Corp. | Movie trailer voting system with audio movie trailer identification |
US20190385610A1 (en) * | 2017-12-08 | 2019-12-19 | Veritone, Inc. | Methods and systems for transcription |
WO2020081161A1 (en) * | 2018-10-19 | 2020-04-23 | Microsoft Technology Licensing, Llc | Transforming audio content into images |
CN109992668A (zh) * | 2019-04-04 | 2019-07-09 | 上海冰鉴信息科技有限公司 | 一种基于自注意力的企业舆情分析方法和装置 |
KR20190101329A (ko) * | 2019-08-12 | 2019-08-30 | 엘지전자 주식회사 | 지능적 음성 출력 방법, 음성 출력 장치 및 지능형 컴퓨팅 디바이스 |
US10931976B1 (en) * | 2019-10-14 | 2021-02-23 | Microsoft Technology Licensing, Llc | Face-speech bridging by cycle video/audio reconstruction |
CN111477216A (zh) * | 2020-04-09 | 2020-07-31 | 南京硅基智能科技有限公司 | 一种用于对话机器人的音意理解模型的训练方法及系统 |
CN111858944A (zh) * | 2020-07-31 | 2020-10-30 | 电子科技大学 | 一种基于注意力机制的实体方面级情感分析方法 |
CN111968679A (zh) * | 2020-10-22 | 2020-11-20 | 深圳追一科技有限公司 | 情感识别方法、装置、电子设备及存储介质 |
CN112331183A (zh) * | 2020-10-27 | 2021-02-05 | 中科极限元(杭州)智能科技股份有限公司 | 基于自回归网络的非平行语料语音转换方法及系统 |
CN112489635A (zh) * | 2020-12-03 | 2021-03-12 | 杭州电子科技大学 | 一种基于增强注意力机制的多模态情感识别方法 |
CN112885328A (zh) * | 2021-01-22 | 2021-06-01 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
Non-Patent Citations (3)
Title |
---|
李昌立: "第四讲 语音信号处理的现状和展望", 物理, no. 04 * |
梁瑞刚;吕培卓;赵月;陈鹏;邢豪;张颖君;韩冀中;赫然;赵险峰;李明;陈恺;: "视听觉深度伪造检测技术研究综述", 信息安全学报, no. 02 * |
武阳;余综;: "基于CNN的扩展混合端到端中文语音识别模型", 青岛科技大学学报(自然科学版), no. 01 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838173A (zh) * | 2021-09-23 | 2021-12-24 | 厦门大学 | 一种受语音和背景声联合驱动的虚拟人头部运动合成方法 |
CN113838173B (zh) * | 2021-09-23 | 2023-08-22 | 厦门大学 | 一种受语音和背景声联合驱动的虚拟人头部运动合成方法 |
CN113838174A (zh) * | 2021-11-25 | 2021-12-24 | 之江实验室 | 一种音频驱动人脸动画生成方法、装置、设备与介质 |
CN114821717A (zh) * | 2022-04-20 | 2022-07-29 | 北京百度网讯科技有限公司 | 目标对象融合方法、装置、电子设备及存储介质 |
CN114821717B (zh) * | 2022-04-20 | 2024-03-12 | 北京百度网讯科技有限公司 | 目标对象融合方法、装置、电子设备及存储介质 |
CN114862992A (zh) * | 2022-05-19 | 2022-08-05 | 北京百度网讯科技有限公司 | 虚拟数字人处理方法、模型训练方法及其装置 |
CN116664731A (zh) * | 2023-06-21 | 2023-08-29 | 华院计算技术(上海)股份有限公司 | 人脸动画生成方法及装置、计算机可读存储介质、终端 |
CN116664731B (zh) * | 2023-06-21 | 2024-03-29 | 华院计算技术(上海)股份有限公司 | 人脸动画生成方法及装置、计算机可读存储介质、终端 |
CN116996630A (zh) * | 2023-08-02 | 2023-11-03 | 北京中科闻歌科技股份有限公司 | 实时问答虚拟人视频生成方法、电子设备及存储介质 |
CN117237495A (zh) * | 2023-11-06 | 2023-12-15 | 浙江同花顺智能科技有限公司 | 一种三维人脸动画生成方法及系统 |
CN117237495B (zh) * | 2023-11-06 | 2024-02-23 | 浙江同花顺智能科技有限公司 | 一种三维人脸动画生成方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113393832B (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113393832B (zh) | 一种基于全局情感编码的虚拟人动画合成方法及系统 | |
JP7395792B2 (ja) | 2レベル音声韻律転写 | |
CN113378806B (zh) | 一种融合情感编码的音频驱动人脸动画生成方法及系统 | |
CN110610534B (zh) | 基于Actor-Critic算法的口型动画自动生成方法 | |
CN107958433A (zh) | 一种基于人工智能的在线教育人机交互方法与系统 | |
CN110246488B (zh) | 半优化CycleGAN模型的语音转换方法及装置 | |
CN107247750A (zh) | 人工智能交互方法及系统 | |
US20100082345A1 (en) | Speech and text driven hmm-based body animation synthesis | |
CN107871496B (zh) | 语音识别方法和装置 | |
CN116863038A (zh) | 一种文本生成数字人语音及面部动画的方法 | |
CN112365874B (zh) | 语音合成模型的属性注册、装置、电子设备与介质 | |
CN112115247A (zh) | 一种基于长短时记忆信息的个性化对话生成方法和系统 | |
Triantafyllopoulos et al. | An overview of affective speech synthesis and conversion in the deep learning era | |
CN114357135A (zh) | 交互方法、交互装置、电子设备以及存储介质 | |
CN115953521B (zh) | 远程数字人渲染方法、装置及系统 | |
CN110069611A (zh) | 一种主题增强的聊天机器人回复生成方法及装置 | |
CN115937369A (zh) | 一种表情动画生成方法、系统、电子设备及存储介质 | |
CN113160855B (zh) | 在线语音活性检测系统改进方法和装置 | |
CN113779224A (zh) | 一种基于用户对话历史的个性化对话生成方法与系统 | |
CN117115316A (zh) | 一种基于多层级语音特征的语音驱动三维人脸动画方法 | |
CN110956859A (zh) | 基于深度学习的vr智能语音交互英语方法 | |
Chatziagapi et al. | Audio and ASR-based filled pause detection | |
Schnell | Controllability and interpretability in affective speech synthesis | |
KR102363955B1 (ko) | 녹음의 품질을 평가하는 방법 및 시스템 | |
KR102370993B1 (ko) | 신경망 기반의 실시간 수어 통역 및 대화를 지원하는 인공지능 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |