CN109377986B - 一种非平行语料语音个性化转换方法 - Google Patents
一种非平行语料语音个性化转换方法 Download PDFInfo
- Publication number
- CN109377986B CN109377986B CN201811443776.5A CN201811443776A CN109377986B CN 109377986 B CN109377986 B CN 109377986B CN 201811443776 A CN201811443776 A CN 201811443776A CN 109377986 B CN109377986 B CN 109377986B
- Authority
- CN
- China
- Prior art keywords
- voice
- chinese
- target
- phoneme
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Document Processing Apparatus (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种非平行语料语音个性化转换方法,包括以下步骤:根据文本采集目标语音;将目标语音的中文音素对齐,得到每个中文音素对应的音频;提取中文音素对应的音频特征和音素信息;训练HMM‑GMM语音识别模型,并将提取的音频特征和音素信息输入到HMM‑GMM语音识别模型中,得到目标语音音频特征与对应的中文音素之间的印射模型,用于对中文音素进行预测并训练第一CHBG网络;再通过对其训练DNN语言模型得到目标语音的PULSE;通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型;将DNN语言模型和CHBG网络串联即可将原语音转换为目标语音。本发明解决了目前的声音个性化算法需要先找到平行语音数据,训练时间较长的问题。
Description
技术领域
本发明涉及语音个性化技术领域,特别是一种非平行语料语音个性化转换方法。
背景技术
随着智能化家居的发展,语音个性化技术在越来越多的领域得到了应用。语音播报技术的发展大大方便了人们的生活,提高了生活的品质。现在的语音个性化技术大多通过个性化目标与本人的平行语料,提取声纹特征后进行矩阵变化,例如DTW,对语音语料的要求比较高,耗时也比较多。
发明内容
为解决现有技术中存在的问题,本发明的目的是提供一种非平行语料语音个性化转换方法,本发明解决了目前的声音个性化算法需要先找到平行语音数据,训练时间较长的问题。
为实现上述目的,本发明采用的技术方案是:一种非平行语料语音个性化转换方法,包括以下步骤:
S1、根据文本采集目标语音,并对目标语音的文本和语音进行修正;
S2、将目标语音的中文音素对齐,得到目标语音中每个中文音素对应的音频;
S3、提取中文音素对应的音频特征和音素信息;
S4、训练HMM-GMM语音识别模型,并将提取的音频特征和音素信息输入到HMM-GMM语音识别模型中,得到目标语音音频特征与对应的中文音素之间的印射模型,印射模型用于对中文音素进行预测,通过预测的中文音素训练第一CHBG网络;
S5、目标语音的中文音素通过第一CHBG网络训练后,再通过对其训练DNN语言模型得到目标语音的音频特征对应的中文音素,并根据中文音素得到目标语音的PULSE;
S6、通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型;
S7、将DNN语言模型和CHBG网络串联即可将原语音转换为目标语音。
作为一种优选的实施方式,所述步骤S1中在录音棚中采集至少1000句同一人物的语音作为目标语音,语音的采样频率为48000Hz,所采集的目标语音中包含22个声母,39个韵母以及声调组合成的217个中文音素。
作为另一种优选的实施方式,所述步骤S2中,将目标语音的中文音素对齐的具体步骤为通过人工分割得到目标语音的音频分割后的label文件,通过HMM-GMM语音识别模型对其进行训练,得到目标语音中每个中文音素对应的音频。
作为另一种优选的实施方式,所述步骤S3中,提取的音频特征包括LSF特征、HNR特征和GAIN特征,采用加窗分帧的傅里叶变化进行提取,其中窗长为0.025s,采样频率为16000Hz,对音频特征进行提取时,F0特征1维,GAIN特征1维,HNR特征5维,LSFsource特征10维,LSF特征30维。
作为另一种优选的实施方式,所述CHBG网络包括:
卷积神经网络(Converlution),用于对原语音的音频进行特征训练,且卷积神经网络包括256个卷积核,采用depthwise convolution提高了卷积运算的速度;
高速神经网络(Highwaynet),用于处理卷积信息,并对卷积结果进行归一化;
双向神经网络(Bi-directional),用于对不同时刻的高速神经网络的参数进行更新;
GRU神经网络,GRU神经网络作为LSTM的一种变体,用于将忘记门和输入门合成一个单一的更新门。
作为另一种优选的实施方式,所述步骤S7具体如下:
将DNN语言模型和CHBG网络串联,以原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE作为中间媒介将原语音转换为目标语音,并通过PULSEMODEL后端处理工具将PULSE进行合成。
本发明通过对目标语音的音频训练HMM-GMM语音识别模型,利用LSF(LineSpectral Frequencies),GAIN,HNR(Harmonic-To-Noise Ratio)音频特征进行音频的对应中文音素前端对齐和分割,并将对应中文音素通过深度学习的第一CHBG网络和DNN语言模型得到目标语音的PULSE,再通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型,转换时将和第二CHBG网络混合在一起,通过DNN语言模型找到对应中文音素在目标语音中的PULSE,再通过第二CHBG网络得到原语音对应的中文音素的在目标语音中的PULSE,将中文音素作为训练的桥梁,将不同声音特征的目标语音和原语音的PULSE关联起来,即可完成原语音到目标语音的转换。
本发明的有益效果是:
本发明提供的非平行语料语音个性化转换方法,利用深度学习网络,不需要原声音和目标声音采用相同的文本,即可根据对应的中文音素作为中间媒介实现音素的转化,本发明可应用于语音个性化领域,但不仅限于该领域。
附图说明
图1为本发明实施例非平行语料语音个性化转换方法的示意图。
具体实施方式
下面结合附图对本发明的实施例进行详细说明。
实施例
如图1所示,一种非平行语料语音个性化转换方法,包括以下步骤:
S1、根据文本采集目标语音,并对目标语音的文本和语音进行修正;
S2、将目标语音的中文音素对齐,得到目标语音中每个中文音素对应的音频;
S3、提取中文音素对应的音频特征和音素信息;
S4、训练HMM-GMM语音识别模型,并将提取的音频特征和音素信息输入到HMM-GMM语音识别模型中,得到目标语音音频特征与对应的中文音素之间的印射模型,印射模型用于对中文音素进行预测,通过预测的中文音素训练第一CHBG网络;
S5、目标语音的中文音素通过第一CHBG网络训练后,再通过对其训练DNN语言模型得到目标语音的音频特征对应的中文音素,并根据中文音素得到目标语音的PULSE;
S6、通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型;
S7、将DNN语言模型和CHBG网络串联即可将原语音转换为目标语音。
本实施例中,所述步骤S1中在录音棚中采集至少1000句同一人物的语音作为目标语音,语音的采样频率为48000Hz,所采集的目标语音中包含22个声母,39个韵母以及声调组合成的217个中文音素。
本实施例中,所述步骤S2中,将目标语音的中文音素对齐的具体步骤为通过人工分割得到目标语音的音频分割后的label文件,通过HMM-GMM语音识别模型对其进行训练,得到目标语音中每个中文音素对应的音频。
本实施例中,所述步骤S3中,提取的音频特征包括LSF特征、HNR特征和GAIN特征,采用加窗分帧的傅里叶变化进行提取,其中窗长为0.025s,采样频率为16000Hz,对音频特征进行提取时,F0特征1维,GAIN特征1维,HNR特征5维,LSFsource特征10维,LSF特征30维。
本实施例中,所述CHBG网络包括:
卷积神经网络(Converlution),用于对原语音的音频进行特征训练,且卷积神经网络包括256个卷积核,采用depthwise convolution提高了卷积运算的速度;
高速神经网络(Highwaynet),用于处理卷积信息,并对卷积结果进行归一化;
双向神经网络(Bi-directional),用于对不同时刻的高速神经网络的参数进行更新;
GRU神经网络,GRU神经网络作为LSTM的一种变体,用于将忘记门和输入门合成一个单一的更新门。
本实施例中,所述步骤S7具体如下:
将DNN语言模型和CHBG网络串联,以原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE作为中间媒介将原语音转换为目标语音,并通过PULSEMODEL后端处理工具将PULSE进行合成。
本实施例通过对目标语音的音频训练HMM-GMM语音识别模型,利用LSF(LineSpectral Frequencies),GAIN,HNR(Harmonic-To-Noise Ratio)音频特征进行音频的对应中文音素前端对齐和分割,并将对应中文音素通过深度学习的第一CHBG网络和DNN语言模型得到目标语音的PULSE,再通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型,转换时将和第二CHBG网络混合在一起,通过DNN语言模型找到对应中文音素在目标语音中的PULSE,再通过第二CHBG网络得到原语音对应的中文音素的在目标语音中的PULSE,将中文音素作为训练的桥梁,将不同声音特征的目标语音和原语音的PULSE关联起来,即可完成原语音到目标语音的转换。
以上所述实施例仅表达了本发明的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (5)
1.一种非平行语料语音个性化转换方法,其特征在于,包括以下步骤:
S1、根据文本采集目标语音,并对目标语音的文本和语音进行修正;
S2、将目标语音的中文音素对齐,得到目标语音中每个中文音素对应的音频;
S3、提取中文音素对应的音频特征和音素信息;
S4、训练HMM-GMM语音识别模型,并将提取的音频特征和音素信息输入到HMM-GMM语音识别模型中,得到目标语音音频特征与对应的中文音素之间的印射模型,印射模型用于对中文音素进行预测,通过预测的中文音素训练第一CHBG网络;
S5、目标语音的中文音素通过第一CHBG网络训练后,再通过对其训练DNN语言模型得到目标语音的音频特征对应的中文音素,并根据中文音素得到目标语音的PULSE;
S6、通过训练第二CHBG网络得到原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE的对应模型;
S7、将DNN语言模型和CHBG网络串联即可将原语音转换为目标语音;
所述CHBG网络包括:
卷积神经网络,用于对原语音的音频进行特征训练,且卷积神经网络包括256个卷积核,采用depthwise convolution提高了卷积运算的速度;
高速神经网络,用于处理卷积信息,并对卷积结果进行归一化;
双向神经网络,用于对不同时刻的高速神经网络的参数进行更新;
GRU神经网络,用于将忘记门和输入门合成一个单一的更新门。
2.根据权利要求1所述的非平行语料语音个性化转换方法,其特征在于,所述步骤S1中在录音棚中采集至少1000句同一人物的语音作为目标语音,语音的采样频率为48000Hz,所采集的目标语音中包含22个声母,39个韵母以及声调组合成的217个中文音素。
3.根据权利要求1所述的非平行语料语音个性化转换方法,其特征在于,所述步骤S2中,将目标语音的中文音素对齐的具体步骤为通过人工分割得到目标语音的音频分割后的label文件,通过HMM-GMM语音识别模型对其进行训练,得到目标语音中每个中文音素对应的音频。
4.根据权利要求1所述的非平行语料语音个性化转换方法,其特征在于,所述步骤S3中,提取的音频特征包括LSF特征、HNR特征和GAIN特征,采用加窗分帧的傅里叶变化进行提取,其中窗长为0.025s,采样频率为16000Hz,对音频特征进行提取时,F0特征1维,GAIN特征1维,HNR特征5维,LSFsource特征10维,LSF特征30维。
5.根据权利要求1所述的非平行语料语音个性化转换方法,其特征在于,所述步骤S7具体如下:
将DNN语言模型和CHBG网络串联,以原语音的中文音素对应的PULSE与目标语音的中文音素对应的PULSE作为中间媒介将原语音转换为目标语音,并通过PULSEMODEL后端处理工具将PULSE进行合成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811443776.5A CN109377986B (zh) | 2018-11-29 | 2018-11-29 | 一种非平行语料语音个性化转换方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811443776.5A CN109377986B (zh) | 2018-11-29 | 2018-11-29 | 一种非平行语料语音个性化转换方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109377986A CN109377986A (zh) | 2019-02-22 |
CN109377986B true CN109377986B (zh) | 2022-02-01 |
Family
ID=65374914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811443776.5A Active CN109377986B (zh) | 2018-11-29 | 2018-11-29 | 一种非平行语料语音个性化转换方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109377986B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110600013B (zh) * | 2019-09-12 | 2021-11-02 | 思必驰科技股份有限公司 | 非平行语料声音转换数据增强模型训练方法及装置 |
CN110970014B (zh) * | 2019-10-31 | 2023-12-15 | 阿里巴巴集团控股有限公司 | 语音转换、文件生成、播音、语音处理方法、设备及介质 |
CN111785256A (zh) * | 2020-06-28 | 2020-10-16 | 北京三快在线科技有限公司 | 声学模型训练方法、装置、电子设备及存储介质 |
CN113314104B (zh) * | 2021-05-31 | 2023-06-20 | 北京市商汤科技开发有限公司 | 交互对象驱动和音素处理方法、装置、设备以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2120043A (en) * | 1982-04-29 | 1983-11-23 | Int Standard Electric Corp | Solid state voice generating system |
US4817155A (en) * | 1983-05-05 | 1989-03-28 | Briar Herman P | Method and apparatus for speech analysis |
CN104123933A (zh) * | 2014-08-01 | 2014-10-29 | 中国科学院自动化研究所 | 基于自适应非平行训练的语音转换方法 |
CN106453005A (zh) * | 2016-10-31 | 2017-02-22 | 四川长虹电器股份有限公司 | 一种具备个性化语音播报功能的智能空调系统 |
CN106504741A (zh) * | 2016-09-18 | 2017-03-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于深度神经网络音素信息的语音转换方法 |
CN108777140A (zh) * | 2018-04-27 | 2018-11-09 | 南京邮电大学 | 一种非平行语料训练下基于vae的语音转换方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004001623A2 (en) * | 2002-03-26 | 2003-12-31 | University Of Southern California | Constructing a translation lexicon from comparable, non-parallel corpora |
WO2007063827A1 (ja) * | 2005-12-02 | 2007-06-07 | Asahi Kasei Kabushiki Kaisha | 声質変換システム |
-
2018
- 2018-11-29 CN CN201811443776.5A patent/CN109377986B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2120043A (en) * | 1982-04-29 | 1983-11-23 | Int Standard Electric Corp | Solid state voice generating system |
US4817155A (en) * | 1983-05-05 | 1989-03-28 | Briar Herman P | Method and apparatus for speech analysis |
CN104123933A (zh) * | 2014-08-01 | 2014-10-29 | 中国科学院自动化研究所 | 基于自适应非平行训练的语音转换方法 |
CN106504741A (zh) * | 2016-09-18 | 2017-03-15 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于深度神经网络音素信息的语音转换方法 |
CN106453005A (zh) * | 2016-10-31 | 2017-02-22 | 四川长虹电器股份有限公司 | 一种具备个性化语音播报功能的智能空调系统 |
CN108777140A (zh) * | 2018-04-27 | 2018-11-09 | 南京邮电大学 | 一种非平行语料训练下基于vae的语音转换方法 |
Non-Patent Citations (2)
Title |
---|
A single chip phoneme based HMM speech recognition system for consumer applications;B.Burchard,et al.;《2000 Digest of Technical Papers. International Conference on Consumer Electronics. Nineteenth in the Series (Cat. No.00CH37102)》;IEEE;20020806;全文 * |
抗RPE-LTP压缩编码的语音加密算法;周世健等;《计算机工程》;中国知网;20080705(第13期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109377986A (zh) | 2019-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109377986B (zh) | 一种非平行语料语音个性化转换方法 | |
CN108806667B (zh) | 基于神经网络的语音与情绪的同步识别方法 | |
CN110827801B (zh) | 一种基于人工智能的自动语音识别方法及系统 | |
CN109256150B (zh) | 基于机器学习的语音情感识别系统及方法 | |
CN102231278B (zh) | 实现语音识别中自动添加标点符号的方法及系统 | |
KR100815115B1 (ko) | 타 언어권 화자 음성에 대한 음성 인식시스템의 성능향상을 위한 발음 특성에 기반한 음향모델 변환 방법 및이를 이용한 장치 | |
DE102018128006A1 (de) | Natürlichsprachliche generierung basierend auf dem benutzersprachstil | |
CN111210807B (zh) | 语音识别模型训练方法、系统、移动终端及存储介质 | |
CN110675853B (zh) | 一种基于深度学习的情感语音合成方法及装置 | |
Kelly et al. | Deep neural network based forensic automatic speaker recognition in VOCALISE using x-vectors | |
CN110853629A (zh) | 一种基于深度学习的语音识别数字的方法 | |
CN111326178A (zh) | 基于卷积神经网络的多模态语音情感识别系统及方法 | |
CN107039036A (zh) | 一种基于自动编码深度置信网络的高质量说话人识别方法 | |
CN102237083A (zh) | 一种基于WinCE平台的便携式口语翻译系统及其语言识别方法 | |
Linh et al. | MFCC-DTW algorithm for speech recognition in an intelligent wheelchair | |
CN110265063A (zh) | 一种基于固定时长语音情感识别序列分析的测谎方法 | |
Lakshmi et al. | A syllable based continuous speech recognizer for Tamil | |
CN115762466A (zh) | 一种合成不同情感音频的方法和装置 | |
CN106297769A (zh) | 一种应用于语种识别的鉴别性特征提取方法 | |
CN110246518A (zh) | 基于多粒度动静态融合特征的语音情感识别方法、装置、系统及存储介质 | |
CN112466287B (zh) | 一种语音分割方法、装置以及计算机可读存储介质 | |
CN115359784B (zh) | 基于迁移学习的民航陆空语音识别模型训练方法及系统 | |
WO2020073839A1 (zh) | 语音唤醒方法、装置、系统及电子设备 | |
CN103325372A (zh) | 基于改进声调核模型的汉语语音声调识别方法 | |
CN115359778A (zh) | 基于说话人情感语音合成模型的对抗与元学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |