CN107924678B - 语音合成装置、语音合成方法及存储介质 - Google Patents
语音合成装置、语音合成方法及存储介质 Download PDFInfo
- Publication number
- CN107924678B CN107924678B CN201580082427.3A CN201580082427A CN107924678B CN 107924678 B CN107924678 B CN 107924678B CN 201580082427 A CN201580082427 A CN 201580082427A CN 107924678 B CN107924678 B CN 107924678B
- Authority
- CN
- China
- Prior art keywords
- pitch
- state
- distribution
- statistical model
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 121
- 238000003786 synthesis reaction Methods 0.000 title claims abstract description 115
- 238000001308 synthesis method Methods 0.000 title abstract description 8
- 238000009826 distribution Methods 0.000 claims abstract description 147
- 230000002688 persistence Effects 0.000 claims abstract description 53
- 238000013179 statistical model Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims description 47
- 230000003068 static effect Effects 0.000 claims description 10
- 239000011295 pitch Substances 0.000 description 144
- 238000004458 analytical method Methods 0.000 description 87
- 230000007704 transition Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000003066 decision tree Methods 0.000 description 18
- 238000007476 Maximum Likelihood Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000014509 gene expression Effects 0.000 description 13
- 230000000737 periodic effect Effects 0.000 description 12
- 230000003044 adaptive effect Effects 0.000 description 10
- 230000003595 spectral effect Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 230000015556 catabolic process Effects 0.000 description 5
- 238000006731 degradation reaction Methods 0.000 description 5
- 238000009499 grossing Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- ULGZDMOVFRHVEP-RWJQBGPGSA-N Erythromycin Chemical compound O([C@@H]1[C@@H](C)C(=O)O[C@@H]([C@@]([C@H](O)[C@@H](C)C(=O)[C@H](C)C[C@@](C)(O)[C@H](O[C@H]2[C@@H]([C@H](C[C@@H](C)O2)N(C)C)O)[C@H]1C)(C)O)CC)[C@H]1C[C@@](C)(OC)[C@@H](O)[C@H](C)O1 ULGZDMOVFRHVEP-RWJQBGPGSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
- G10L13/0335—Pitch control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/148—Duration modelling in HMMs, e.g. semi HMM, segmental models or transition probabilities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Abstract
本公开涉及语音合成装置、语音合成方法及存储介质。实施方式的语音合成装置具有:存储部,将具有多个状态的统计模型的各状态下的、包含基音特征参数的音响特征参数的输出分布及基于时刻参数的持续长度分布作为统计模型信息进行存储;制作部,根据与输入文本对应的上下文信息及统计模型信息,制作统计模型序列;决定部,使用基于统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度及基于基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数;生成部,基于基音波形数来生成音响特征参数的输出分布列,基于该输出分布列来生成音响特征参数;及波形生成部,根据所生成的音响特征参数来生成语音波形。
Description
技术领域
本发明的实施方式涉及语音合成装置、语音合成方法、语音合成程序、语音合成模型学习装置、语音合成模型学习方法以及语音合成模型学习程序。
背景技术
已知将任意文本变换成合成波形的语音合成技术。另外,根据对语音波形的数据库进行分析而得到的特征参数来学习统计模型的语音合成模型学习装置和在语音合成中使用所学习的统计模型的语音合成装置已众所周知。
现有技术文献
专利文献1:日本特开2002-268660号公报
非专利文献1:H.Zen,et al,“A Hidden Semi-Markov Model-Based SpeechSynthesis System”,IEICE TRANS.INF.SYST.,VOL.E90-D,NO.5MAY 2007,p.825-834
发明内容
发明要解决的技术问题
以往,在使用了基于固定帧速率的语音分析而得到的音响特征参数的情况下,存在未进行精密的语音分析而会产生音质劣化这一问题。另外,在通过基音同步分析进行了语音分析的情况下,存在因学习时与合成时的基音的不一致的影响等而成为不自然的音素持续长度这一问题。本发明要解决的技术问题是,提供能够防止语音劣化和不自然的音素持续长度的语音合成装置、语音合成方法、语音合成程序、语音合成模型学习装置、语音合成模型学习方法以及语音合成模型学习程序。
用于解决问题的技术方案
实施方式的语音合成装置具有存储部、制作部、决定部、生成部以及波形生成部。存储部将具有多个状态的统计模型的各状态下的、包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续长度分布作为统计模型信息进行存储。制作部根据与输入文本对应的上下文信息、以及统计模型信息,制作统计模型序列。决定部使用基于统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度、以及基于基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数。生成部基于基音波形数来生成音响特征参数的输出分布列,基于该输出分布列来生成音响特征参数。波形生成部根据生成部所生成的音响特征参数来生成语音波形。
附图说明
图1是表示实施方式的语音合成装置的框图。
图2是例示HSMM的图。
图3是表示HMM存储部所存储的HMM的图。
图4是表示实施方式的语音合成模型学习装置的框图。
图5是表示基于固定帧速率的分析与基音同步分析的差异的图。
图6是表示HMM学习部进行的处理的流程图。
图7是表示实施方式的语音合成装置生成参数的处理例的图。
图8是表示波形生成部进行的处理的图。
图9是表示状态占有概率的计算方法的图。
图10是表示实施方式的语音合成装置执行的处理的流程图。
图11是表示实施方式的语音合成模型学习装置执行的处理的流程图。
图12是表示实施方式的语音合成模型学习装置的变形例的框图。
图13是表示实施方式的语音合成装置的变形例的框图。
图14是表示选择部执行的处理的流程图。
图15是表示选择部的具体的构成例的图。
具体实施方式
首先,对完成本发明的背景进行说明。对于语音合成模型学习装置,具有为了使时间序列信号模型化而学习具有多个状态的统计模型即隐马尔科夫模型(HMM:HiddenMarkov Model)的装置。另外,对于语音合成装置,具有基于学习后的HMM来合成语音的装置。
在基于HMM的语音合成中,按照所输入的文本来求出分布列,根据所得到的分布列来生成特征参数,由此合成语音。例如,能够使用语音的谱信息、音响特征参数(acousticcharacteristic parameter)以及韵律特征参数,根据一并使用了静态特征参数以及表示时间变化的动态特征参数而得到的特征参数列来学习模型,应用使静态以及动态特征参数的似然度最大化的参数生成算法,生成基于顺滑的特征参数序列的语音。音响特征参数表示声源信息。韵律特征参数表示语音的韵律信息即基音信息。
进而,通过应用HMM的说话人自适应技术、说话人插值技术等,也能够制作基于少量数据的新说话人模型和/或说话人插值模型、能够进行程度控制的感情模型等,扩展合成语音的多样性。
在HMM语音合成中,通常利用了使用梅尔倒谱(Mel Cepstrum)分析方法和/或基于STRAIGHT分析的谱包络(spectrum envelope)提取方法的方法。这些方法中,在进行谱分析时,进行例如基于5ms左右的固定帧速率的语音分析,对特征参数进行分析。
在使用梅尔倒谱分析的情况下,不考虑帧的中心点与波形的周期性之间的对应,切取包含多个周期的比较宽的窗宽度的帧来进行参数分析。由此,进行了分析并再合成后的语音相对于原来的语音波形会产生失真,会发生音质劣化。
STRAIGHT分析也同样地,进行基于固定帧速率的语音分析。在STRAIGHT分析中,通过时间方向平滑化以及频率方向平滑化的处理,在对分析窗的中心与周期性的对应进行修正的同时进行谱分析。由此,虽然可减低音质劣化,但破裂音和/或在无声摩擦音与有声音的边界等非稳定部位的音质劣化等、因固定帧速率分析而引起的音质劣化依然会发生。
另外,作为基于HMM的语音合成的扩展,存在将基于统计模型的语音合成和基于语音片段选择的语音合成进行组合而得到的混合型语音合成方法、选择特征参数的语音合成方法、以及利用了神经网络的语音合成方法等。但是,在这些方法中,在使用利用了梅尔倒谱分析的语音分析方法或利用了STRAIGHT的语音分析方法的情况下,也同样地会产生会成为机器音质的问题。
在使用了基于固定帧速率的语音分析方法的情况下,作为特征参数的个数的帧数与持续时间长度成为线性的关系,因此能够将帧数作为持续长度分布来进行利用。即,能够将HMM的各状态的帧数直接作为持续长度分布的参数,进行学习了隐半马尔可夫模型(HSMM)的参数之后的语音合成。
HSMM是基于输出分布和状态持续长度分布的概率模型,是在HMM的似然计算中不使用固定的自转移概率而使用状态持续长度分布来进行似然计算的模型。该情况下,持续长度模型通过以统计的方式使各语音数据与各状态相关联的状态占有概率和与状态序列中的各状态关联的特征参数的帧数,学习持续长度分布的参数。由于时间长度通过对帧数乘以帧速率来求出,因此在使用固定帧速率的语音分析的情况下,仅根据与特征参数对应的上下文(cotext),就能够学习与时间长度具有线性关系的持续长度分布。
在参数生成时,追溯决策树而得到的持续长度分布直接成为帧数的分布,因此能够根据持续长度分布参数来求出帧数,按照所得到的各状态的帧数来生成分布列,进行参数生成以及波形生成处理。如此,在使用了基于固定帧速率的语音分析的情况下,虽然会发生音质劣化,但能够将特征参数的帧数作为持续长度分布进行模型化,并根据持续长度分布的参数直接确定语音合成时的帧数。
另一方面,作为语音的分析方法之一,也可以使用基音同步分析。在基音同步分析中,不基于固定的帧速率,而按与语音波形的各基音周期对应的间隔进行特征参数的分析。例如,制作表示语音的周期性波形的各周期的中心时刻的基音标记信息,根据基音标记位置来确定分析中心,适用依存于基音的窗宽度的窗函数来切取基音波形,对所切取出的基音波形进行分析来求出音响特征参数。
在此,通过将适当赋予的基音标记位置作为分析中心时刻来进行分析,能够实现与语音波形的局部变化也对应的适当分析,因此能够增加与分析合成语音的原音之间的一致性,可减低音质劣化。但是,该情况下,由于各帧的间隔并不一定,因此帧的个数即基音波形数与时刻的信息不会是线性关系,会成为在基音高的部位较多帧数而在基音低的部位较少帧数的分析。
如此,在使用了基音同步分析的情况下,若将语音帧的个数作为持续长度分布的参数而用于模型学习以及合成,则会产生因学习时的基音与合成时的基音的不一致的影响而成为不自然长度的合成语音的问题。由于持续长度模型与音拍(mora)和/或音素的相关性高,因此希望通过不将随着基音变化的基音同步分析的基音波形数的分布而将基于基音开始时刻与结束时刻之差的时刻参数的时间长度作为参数的方法等,使与时刻具有线性关系的参数模型化。
接着,参照附图对语音合成装置的实施方式进行说明。图1是表示语音合成装置的实施方式(语音合成装置100)的框图。如图1所示,语音合成装置100具备解析部101、制作部102、决定部103、生成部104、波形生成部105以及HMM存储部106。
解析部101对输入文本进行词素分析,求出读音信息以及重音(accent,语调)信息等的语音合成所需的语言信息,根据所得到的语言信息来制作上下文信息。解析部101也可以接收另行制作出的与输入文本对应的已修正的读音信息以及重音信息等,制作上下文信息。
在此,所谓上下文信息是指音素、半音素、音节HMM等作为对语音进行分类的单位而使用的信息。在作为语音单位而使用音素的情况下,能够使用音素名的序列来作为上下文信息。进而,也可以包含如下信息来作为上下文信息:附加有先行音素、后续音素的三音子(triphone)、前后各包含2个音素的音素信息;表示基于有声音/无声音的分类、详细化后的音素类别的属性的音素类别信息;各音素在文内、换气段落内、重音句内的位置,重音句的音拍数、重音型,音拍位置,到重音核为止的位置、有无句尾升调的信息;所附加的记号信息等语言属性信息。
制作部102按照从解析部101输入的上下文信息,使用HMM存储部106所存储的HMM(后面使用图3来叙述),制作与输入文本对应的HMM序列。HMM是通过状态转移概率和各状态的输出分布来表示的统计模型。具体而言,制作部102根据与输入文本对应的上下文信息、以及后述的统计模型信息,制作统计模型序列。
对于HMM,在为从左到右(left-to-right)型HMM的情况下,如图2所示,通过各状态的输出分布N(o|μi,Σi)和状态转移概率aij(i、j为状态索引)进行模型化,以仅是向相邻状态的转移概率以及自转移概率具有值的形式进行模型化。在此,对于取代自转移概率aij而使用持续长度分布N(d|μi d,Σi d),也被称为HSMM(隐半马尔可夫模型),在持续长度的模型化中使用。以下,将HSMM也包含在内而记载为HMM。
决定部103基于制作部102所制作出的HMM序列,使用根据持续长度分布参数以及基音特征参数的输出分布而生成的基音参数来决定基音波形数。也就是说,决定部103使用基于制作部102所制作出的统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度、以及基于基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数。
生成部104按照决定部103所决定的基音波形数来制作分布列,根据分布列来生成音响特征参数。具体而言,生成部104基于基音波形数,生成音响特征参数的分布列,基于所生成的分布列来生成音响特征参数。
波形生成部105根据生成部104所生成的音响特征参数的序列来生成语音波形。
HMM存储部106存储有根据基于基音同步分析的音响特征参数而学习后的HMM。具体而言,HMM存储部106存储有对HMM的各状态的输出分布进行了决策树聚类(clustering)的模型。存储有用于根据HMM的各状态下的包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续长度分布、和上下文信息来选择各状态的分布的决策树来作为统计模型信息。
图3是表示HMM存储部106所存储的HMM的图。如图3所示,HMM存储部106存储有例如HMM的各状态的特征参数的模型即决策树以及决策树的各叶节点的输出分布,还存储有持续长度分布用的决策树以及分布。
在决策树的各节点,关联有对分布进行分类的问题。例如,对于节点,关联有“是否为无声”、“是否为有声音”、“是否为重音核”这样的问题,分类成对该问题进行肯定回答时的子节点和对该问题未进行肯定回答时的子节点。也就是说,在决策树中,针对所输入的上下文信息,通过判断是否对各节点的问题进行肯定回答来进行搜索,获得叶节点。
也就是说,上述的制作部102通过将与所获得的叶节点关联的分布作为各状态的输出分布来使用,构建与各语音单位对应的HMM。并且,制作部102制作与所输入的上下文信息对应的HMM序列。
接着,对语音合成模型学习装置的实施方式进行说明。图4是表示语音合成模型学习装置的实施方式(语音合成模型学习装置200)的框图。如图4所示,语音合成模型学习装置200具有声音语料库存储部201、分析部203、特征参数存储部204、HMM学习部205以及HMM存储部106。此外,语音合成模型学习装置200所具有的HMM存储部106,对应于使用图1在上面所述的HMM存储部106。也就是说,如图4所示,HMM存储部106所存储的HMM是语音合成模型学习装置200进行使用了基音标记的基音同步分析而制作出的。
语音语料库存储部201存储有在模型学习中使用的语音波形(语音数据)、与各语音波形对应的上下文信息及基音标记信息。语音波形包括从说话人的收录语音中按各文切取出的数据。上下文信息根据各收录语音的说话内容来制作。
对于基音标记信息,针对有声音的周期性的区间,通过从语音数据中提取基音、并提取与周期对应的时刻来制作。另外,对于基音标记信息,针对无声音和/或破裂音、无声等的非周期波形的区间,通过以对有声音区间的周期波形的基音顺滑地进行插值的方式确定时刻、和/或在非周期区间按固定的帧速率确定时刻等,由此对文整体设定表示分析中心位置的时刻信息。也就是说,基音标记信息也包含非周期区间的分析时刻。如此,作为各语音波形的分析中心时刻的信息的、在周期波形区间中与基音周期对应的分析中心时刻即基音标记信息,被制作在语音语料库中。
分析部203根据语音波形来求出音响特征参数。音响特征参数是表示语音的谱包络的谱参数以及表示声源信息的声源参数、表示基本频率的信息的基音参数等的特征参数,从语音波形中提取。也就是说,分析部203根据语音数据来分析基音标记信息的各基音标记时刻的音响特征参数。
作为谱参数,能够利用梅尔倒谱、梅尔LSP、线性预测系数等谱包络参数。作为声源参数,可使用表示各谱频带的非周期成分的比例的频带噪声强度(BAP:bandaperiodicity)、相位信息或者群延迟信息等。
由此,分析部203能够适当地求出与各基音标记时刻对应的音响特征参数。图5是表示有声音的周期波形区间中的基于固定帧速率的分析与基音同步分析的差异的图。
图5的(a)表示基于固定帧速率的语音分析。在基于固定帧速率的语音分析中,在帧的中心时刻与波形的周期性之间没有关联,根据预先确定的间隔来进行特征分析。
例如,在基于固定帧速率的语音分析中,广泛使用通过25ms左右的窗函数切取出包含多个周期波形的范围的分析,但由于在语音波形的峰值位置与帧位置之间没有关联而会导致产生失真。由于该影响,基于固定帧速率的语音分析,会存在即使在稳定的语音区间中也会成为不稳定的谱包络的情况。另外,在变化剧烈的部位,因宽的窗宽度等的影响而成为被过量地进行了平滑化的分析结果,也会产生无法适当地再现发生变化的波形的问题。
与此相对,在基于基音同步分析的特征提取中,如图5的(b)所示,使用在语音波形的各周期的峰值时刻附近设定基音标记的方法等,例如在与基音周期相应的时刻赋予基音标记,将基音标记时刻作为分析中心,使用2个基音程度的窗宽度的汉宁窗(hanningwindow)等来切取波形的方法。
如此,在基音同步分析中,能够在适当的时刻以依存于基音的窗宽度来进行分析,根据分析出的特征参数而合成的分析合成语音,可获得与原来的语音近似的波形。
另外,为了减低固定帧速率分析的音质劣化,在STRAIGHT分析中,通过时间方向的平滑化来进行分析时刻的位置的不定性的修正,进一步通过频率方向的平滑化来提取顺滑的谱包络。另外,即使在将通过基音同步分析而得到的参数插值到固定帧速率位置来进行分析的情况下,相比于直接使用基于基音同步分析的参数的情况,也会产生劣化,在再合成的语音波形与原来的语音波形之间会产生失真。
作为音响特征参数,在使用梅尔LSP、BAP的情况下,对按各基音标记切取出的语音适用梅尔LSP分析来求出梅尔LSP,根据各时刻的左右的基音标记的间隔的信息等来求出基音信息并变换成对数F0,通过频带噪声强度的分析来求出BAP。在频带噪声强度的分析中,例如基于PSHF(Pitch Scaled Harmonic Filter,基音级谐波滤波器)方式,将语音分离成周期成分和非周期成分,求出各时刻的非周期成分比率,按预先确定的各频带进行平均化等,由此能够求出BAP。
进而,在使用相位特征参数的情况下,将与基音同步地切取出的各基音波形的相位信息表示为参数,即使是难以进行包含多个周期的波形和/或根据中心位置而切取出的波形的形状不稳定的形状的固定帧速率的分析的相位信息,也能够通过使用基音同步分析来作为特征参数进行处理。
基音信息和持续长度信息是表示韵律信息的特征参数,同样地从语音语料库的各语音波形中提取。基音信息是表示各声韵的抑扬和/或高度的变化的信息。持续长度是表示音素等语音单位的长度的特征参数。作为基音特征参数,可以利用对数基本频率、基本频率、基音周期信息。作为持续长度信息,可以使用音素持续长度等。
在基音同步分析中,根据各基音标记时刻的左右的间隔来确定各时刻的基音,并变换成对数基本频率。基音信息是仅是有声音具有值的参数,但也可以在无声音的部分嵌入所插值的基音而设为特征参数、和/或使用表示是无声音这一情况的值。
对于各音素的持续长度的信息,作为音素边界时刻的信息而附加于上下文信息中,在HMM的学习时的初始模型的学习中被使用。但是,对于基于HSMM的持续长度分布的参数,由于可根据HMM的各状态与学习数据的关联而通过最大似然估计来求出,因此有时并不预先准备音素时刻来作为特征参数。如此,分析部203求出各基音标记时刻的音响特征参数,制作在HMM的学习中使用的特征参数。另外,分析部203也会求出特征参数的斜率的信息即动态特征量(图中的Δ参数以及Δ2参数等)并进行附加。并且,可构成图5的(b)所示那样的音响特征参数。
特征参数存储部204(图4)将分析部203求出的音响特征参数与其上下文信息和/或时间边界信息等一起进行存储。
HMM学习部205将特征参数存储部204所存储的特征参数作为HMM的学习数据来使用。HMM学习部205进行同时推定持续长度分布的参数的隐半马尔可夫模型的学习来作为HMM的学习。也就是说,HMM学习部205在隐半马尔可夫模型的学习中,除了上下文信息以及音响特征参数之外,还为了使用基音同步分析而输入各语音数据的基音标记信息,实现基于时刻信息的持续长度分布的学习。也就是说,HMM学习部205根据分析部203分析出的音响特征参数,学习将包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续时间长度分布包括在内的具有多个状态的统计模型。
图6是表示HMM学习部205进行的处理的流程图。HMM学习部205首先进行音素HMM的初始化(S101),通过HSMM的学习来进行音素HMM的最大似然估计(S102),学习作为初始模型的音素HMM。HMM学习部205在进行最大似然估计的情况下,通过连结学习来使HMM与文相对应,一边根据连结后的文整体的HMM和与文对应的音响特征参数来进行各状态与特征参数的概率性的关联,一边进行学习。
接着,HMM学习部205使用音素HMM对上下文依存HMM进行初始化(S103)。针对存在于学习数据中的上下文,如上所述,可使用该音素、前后的音素环境、文内/重音句内等的位置信息、重音型、是否句尾升调这样的声韵环境以及语言信息,准备以该音素进行了初始化的模型。
然后,HMM学习部205对上下文依存HMM适用基于连结学习的最大似然估计来进行学习(S104),适用基于决策树的状态聚类(S105)。如此,HMM学习部205针对HMM的各状态、各流以及状态持续长度分布,构建决策树。
更具体而言,HMM学习部205根据每个状态、每个流的分布,通过最大似然基准和/或MDL(Minimum Description Length,最小描述长度)基准等来学习对模型进行分类的规则,构成图3所示的决策树。如此,HMM学习部205在语音合成时,即使在被输入了不存在于学习数据中的未知的上下文的情况下,也可通过追溯决策树来选择各状态的分布,能够构建对应的HMM。
最后,HMM学习部205对进行了聚类的模型进行最大似然估计,完成模型学习(S106)。
HMM学习部205在进行聚类时,通过按各特征量的每个流来构建决策树,由此构成谱信息(梅尔LSP)、声源信息(BAP)、基音信息(对数基本频率)的各流的决策树。另外,HMM学习部205通过针对排列每个状态的持续长度而得到的多维分布来构建决策树,由此构建HMM单位的持续长度分布决策树。此外,HMM学习部205在各最大似然估计步骤中,在进行模型的更新时,除了上下文信息以及音响特征量之外还参照基音标记时刻信息来学习状态持续长度分布。
另外,HMM学习部205在使用与各音响特征量对应的时刻信息来学习持续长度分布时,不根据与各状态关联的帧数而根据与各状态关联的帧的开始点的时刻以及结束点的时刻,求出基于时刻参数的时间长度。并且,HMM学习部205能够根据所求出的时间长度来求出持续长度分布,如基音同步分析这样,即使使用按非线性的间隔进行了特征分析的参数来进行学习,也能够学习适当的持续长度分布。
此外,在使用了基音标记时刻的HSMM中,进行基于使用了后述的算法的连结学习而实现的最大似然估计。并且,HMM存储部106存储HMM学习部205所制作出的HMM。
也就是说,在语音合成装置100中,制作部102根据输入上下文和HMM存储部106所存储的HMM来制作HMM序列,决定部103决定各HMM的各状态的基音波形数。并且,语音合成装置100按照所决定的基音波形数使各状态的分布进行反复来制作分布列,生成部104根据考虑了静态、动态特征量的参数生成算法来生成各参数。
图7是表示语音合成装置100生成参数的处理例的图。在图7中,例示了语音合成装置100用3个状态的HMM来合成“赤い”的语音的情况。
首先,制作部102选择输入上下文的HMM的各状态、各流的分布以及持续长度分布,构成HMM的序列。在作为上下文而使用了“先行音素_该音素_后续音素_音素位置_音素数_音拍位置_音拍数_重音型”的情况下,“赤い”是3音拍2型,最初的“a”的音素是先行音素“sil”、该音素为“a”、后续音素为“k”、音素位置为1、音素数为4、音拍位置为1、音拍数为3、重音型为2型,因此成为“sil_a_k_1_4_1_3_2”这样的上下文。
在追溯HMM的决策树的情况下,对各中间节点设定了该音素是否为a、重音型是否为2型这样的问题,通过追溯问题来选择叶节点的分布,在HMM的各状态选择梅尔LSP、BAP、LogF0的各流的分布以及持续长度分布,构成HMM序列。并且,决定部103通过下式(1)来决定基音波形的帧数。
在此,由于将LogF0设为基音信息的分布,因此对根据模型q、状态i的对数基本频率流的静态特征量的平均值μlf0 qi而求出的基本频率exp(μlf0 qi),乘以模型q、状态i的状态持续长度分布的平均值μdur qi,适用基于小数舍去或四舍五入等的整数化函数int(),确定基音波形数。
由于使用基音标记时刻的时间信息而求出的μdur qi为持续长度分布,因此在求出帧数的情况下需要基音信息。由于现有的方法是将帧数直接表示为持续长度分布,因此如下式(2)这样,可简单地通过进行整数化来加以确定。
如上所述,当在特征参数分析时以固定的帧速率进行分析、且与时刻具有线性关系的情况下,能够用上式(2)的形式来求出帧数。但是,在通过基音同步分析等以可变的帧速率进行了语音分析的情况下,需要将时刻用作持续长度分布的参数,需要通过上式(1)的形式来确定波形数。
此外,在此,作为基音信息的特征参数而使用了对数基本频率,但在使用基本频率的情况下不需要exp()函数。另外,在使用基音周期来作为参数的情况下,如下式(3)这样,将会通过除法运算来进行求出。
生成部104通过利用如此确定出的基音波形数使HMM的各状态的分布进行反复来制作分布列,根据使用了静态、动态特征量的参数生成算法来生成参数序列。在使用Δ和Δ2来作为动态特征参数的情况下,可通过以下的方法来求出输出参数。对于时刻t的特征参数ot,使用静态特征参数ct和根据前后的帧的特征参数确定的动态特征参数Δct,Δ2ct,表示为ot=(ct’,Δct’,Δ2ct’)。对于包含使P(O|J,λ)最大化的静态特征量ct的向量C=(c0’,…,cT-1’)’,可通过将0TM作为T×M次的零向量并求解作为下式(4)而提供的方程式来求出。
其中,T为帧数,J为状态转移序列。若将特征参数O与静态特征参数C的关系通过计算动态特征的矩阵W来建立关系,则可表示为O=WC。O为3TM的向量,C为TM的向量,W为3TM×TM的矩阵。并且,在将μ=(μs00’,…,μsJ-1Q-1’)’、Σ=diag(Σs00’,…,ΣsJ-1Q-1’)’作为将各时刻的输出分布的平均向量、对角协方差全部排列而得到的文所对应的分布的平均向量以及协方差矩阵时,对于上式(4),能够通过求解作为下式(5)而提供的方程式来求出最佳的特征参数序列C。
W′∑-1WC=W′Σ-1μ...(5)
该方程式通过基于乔里斯基分解(Cholesky decomposition)的方法来求解。另外,与在RLS滤波器的时间更新算法中使用的解法同样地,既能够随着延迟时间而按时间顺序生成参数序列,也能够实现低延迟地进行生成。此外,参数生成部的处理并不限于本方法,也可以使用对平均向量进行插值的方法等其他根据分布列生成特征参数的任意方法。
波形生成部105根据如此生成的参数序列来生成语音波形。例如,波形生成部105根据对数基本频率序列以及频带噪声强度序列来制作声源信号,适用基于梅尔LSP序列的声道滤波器来生成语音波形。
图8是表示波形生成部105进行的处理的图。如图8所示,波形生成部105根据对数基本频率序列来生成基音标记,按照频带噪声强度(BAP)序列,控制噪声成分与脉冲成分的比率并生成声源波形,适用基于梅尔LSP序列的声道滤波器来生成语音波形。另外,波形生成部105在也使用相位参数来进行模型化的情况下,根据相位参数来生成相位谱,根据谱参数来生成振幅谱,利用逆FFT来生成与各基音标记对应的基音波形,通过重叠处理来进行波形生成。另外,波形生成部105也可以根据相位参数来生成声源波形,通过适用滤波器的方法来进行波形生成。
通过上述的处理,能够使用基于基音同步分析的特征参数来构建HMM模型,并将该HMM模型利用于语音合成。另外,通过这些处理,可获得与输入上下文对应的合成语音。
接着,对HMM学习部205进行的最大似然估计处理中的模型更新算法的详细情况进行说明。本算法是将现有的隐半马尔可夫模型学习算法以根据各特征参数的时刻信息来学习持续长度分布的方式进行扩展而导出的算法。在现有方法中,通过隐半马尔可夫模型,将在HMM的各状态滞留了几帧作为与自转移概率有关的持续长度分布来使用。与此相对,HMM学习部205不以帧数而以各帧的基音标记时刻的间隔作为单位来学习持续长度分布。由此,持续长度分布不依存于基音而成为直接表示音素以及各状态的持续时间的长度的分布,可消除在语音合成时因基音的不一致的影响而成为不自然的持续长度的问题。
在HMM中,针对模型λ、状态转移序列Q={q0,q1,…,qT-1}、从状态i向状态j的状态转移概率aij、状态i的输出分布bi(ot),观测向量序列O={o0,o1,…,oT-1}的似然度P(O|λ)通过下式(6)而表示为所有的状态转移序列的总和。
HMM如上式(6)这样不将状态转移全部表示为状态转移概率,而在隐半马尔可夫模型HSMM中,将自转移概率表示为持续长度分布。
在此,pi(t,d)表示从时刻t到时刻t+d为止在状态i滞留d帧的概率,aqt+dqt+d+1表示在时刻t+d向不同的状态qt+d+1转移的概率。
在现有方法中,作为该时刻t而使用了观测向量的帧编号,将会对全部的状态转移序列计算在相同状态持续了d帧的情况下的概率和之后进行状态转移的概率。在使用了这样的针对HSMM的Forward-backward算法的输出分布参数、状态转移概率、状态持续长度分布参数的更新算法中,能够通过最大似然估计来求出模型参数。
在HMM学习部205的基音同步分析用的HSMM中,状态持续长度pi(t,d)不将帧数而将时刻的信息表示为参数。并且,HMM学习部205根据与各帧对应的基音标记的时刻信息,在将各帧的基音标记时刻设为pm(t)时,从时刻t到时刻t+d的状态持续长度成为d(t,d)=pm(t+d)-pm(t-1),使用该基音标记时刻的间隔来作为持续长度分布的参数。
在基音同步分析的情况下,将基音标记位置作为帧的中心进行波形的分析,但在此时将帧数表示为状态持续长度分布的情况下,基音越高,则基音标记的间隔越窄,成为越多的帧数。该情况下,基音越低,则基音标记的间隔越宽,因此成为越少的帧数,成为不仅依存于时间长度还依存于基音的状态持续长度的分布。
与此相对,HMM学习部205不依靠基音而直接对各状态的时间长度进行模型化,因此能够使各音素的长度不依存于基音而进行模型化。在进行了固定帧速率的分析的情况下,无论使用时刻信息和帧数的哪个都会成为线性关系,因此不受影响。HMM学习部205即使在帧的间隔不一定的情况下,也能够适当地计算持续长度模型。
接着,对HMM学习部205进行最大似然估计的情况下的用于模型的连结学习的基于向前向后(Forward-Backward)算法的更新算法进行说明。首先,通过以下式(10)~(17)来计算向前概率。向前概率α(q) j(t,d)是在持续了d帧之后在时刻t位于模型q、状态j的概率。首先,在时刻(t=1),通过下式(10)~(13)进行初始化。
state 1(q=1)
state 1(q>1)
state j(2≤j≤Nq-1)
state Nq
然后,通过下式(14)~(17)的递归计算,求出(2≤t≤T)的帧的向前概率α(q) j(t,d)。
state 1(q=1)
state 1(q>1)
state j(2≤j≤Nq-1)
state Nq
对于向后概率β(q) i(t,d),同样地,是在时刻t在状态i滞留d帧、然后在时刻T之前输出观测向量的概率,通过式(18)~(25)来计算。首先,在时刻(t=T),通过下式(18)~(21)进行初始化。
state Nq(q=Q)
state Nq(q<Q)
state i(2≤i≤Nq-1
state 1
然后,通过下式(22)~(25)的递归(T-1≥t≥1)的步骤,计算β(q) i(t,d)。
stateNq(q=Q)
stateNq(q<Q)
state 1
若使用上述各式和混合高斯分布,则在时刻t在模型q的状态j、混合m、流s滞留的概率,通过下式(26)~(28)来求出。
t=1,1≤q≤Q,1<j<Nq
1<t≤T,1≤q≤Q,2<j<Nq
1<t≤T,1≤q≤Q,2<j<Nq
另外,在时刻t在模型q的状态j滞留的概率,通过下式(29)来求出。
1≤t≤T,1≤q≤Q,2<j<Nq
上式(28)或上式(29)与以往的连结学习不同,如图9所示,成为将跨状态的转移也考虑在内的、在时刻t经过模型q的状态j的所有的状态转移序列的总和。
另外,从时刻t0到时刻t1为止在模型q的状态j、流s滞留的概率,通过下式(30)来表示。
1≤t0≤T,t0≤t1≤T,1≤q≤Q,2<j<Nq
使用如此导出的状态转移概率、向前概率、向后概率,进行模型参数的更新,进行输出分布的参数、持续长度模型、转移概率的最大似然估计。持续长度分布参数的更新式通过下式(31)、(32)来表示。
另外,输出分布的混合权重、平均向量以及协方差矩阵通过下式(33)~(35)来更新。
使用这些式(10)~(35),HMM学习部205进行模型参数的最大似然估计。
接着,对语音合成装置100执行的语音合成的处理进行说明。图10是表示语音合成装置100执行的语音合成的处理的流程图。如图10所示,首先,解析部101对输入文本进行解析来求出上下文信息(S201)。制作部102参照HMM存储部106所存储的HMM来制作与输入上下文对应的HMM序列(S202)。
决定部103使用HMM序列的持续长度分布以及基音信息来决定各状态的基音波形数(S203)。生成部104按照所获得的各状态的基音波形数将输出分布进行排列来制作分布列,适用参数生成算法等并根据分布列来生成在语音合成中使用的参数序列(S204)。然后,波形生成部105生成语音波形,获得合成语音(S205)。
此外,语音合成装置100所具有的各功能既可以通过硬件来构成,也可以通过CPU所执行的软件来构成。例如,语音合成装置100在执行语音合成程序来进行语音合成的情况下,由CPU执行图10所示的各步骤。
接着,对语音合成模型学习装置200执行的语音合成模型学习的处理进行说明。图11是表示语音合成模型学习装置200执行的语音合成模型学习的处理的流程图。如图11所示,首先,分析部203使用语音语料库存储部201所存储的语音数据、基音标记信息,通过基音同步分析来提取基于谱参数、基音参数、声源参数的音响特征参数(S301)。特征参数存储部204存储所提取出的音响特征参数。
接着,HMM学习部205使用音响特征参数、上下文信息以及基音标记信息来学习HMM(S302)。HMM包含基于时刻参数的持续长度分布以及基音信息的输出分布。学习得到的HMM被存储于HMM存储部106,并在语音合成中使用。
此外,语音合成模型学习装置200所具有的各功能既可以通过硬件来构成,也可以通过CPU所执行的软件来构成。例如,语音合成模型学习装置200在执行语音合成模型学习程序来进行语音合成模型学习的情况下,由CPU执行图11所示的各步骤。
另外,针对HMM学习部205,以使用特定说话人的语料库对说话人依存模型进行最大似然估计的情况为例进行了说明,但并不限定于此。例如,HMM学习部205也可以使用作为HMM语音合成的多样性提高技术而使用的说话人自适应技术、模型插值技术、其他聚类自适应学习等不同的结构。另外,也可以使用利用了深度神经网络的分布参数推定等不同的学习方式。即,HMM学习部205不通过基于固定帧速率的语音分析将帧数设为持续长度分布的参数,而能够使用通过基音同步分析等将时刻信息设为持续长度分布的参数的任意方式进行了学习后的模型来学习语音合成模型。
接着,对语音合成模型学习装置200的变形例进行说明。图12是表示语音合成模型学习装置200的变形例(语音合成模型学习装置200a)的框图。如图12所示,语音合成模型学习装置200a具有声音语料库存储部201、分析部203、特征参数存储部204、说话人自适应部301、平均声HMM存储部302以及HMM存储部106,进行从平均声进行的说话人自适应,学习语音合成模型。此外,对与上述的构成部分实质上相同的部分,标注同一标号。
说话人自适应部301使用特征参数存储部204所存储的特征参数,对平均声HMM存储部302所存储的平均声模型适用说话人自适应技术,使所获得的自适应HMM存储于HMM存储部106。
平均声HMM是从多个说话人进行了学习后的平均声的模型,是具有平均声的特征的模型。说话人自适应部301通过将该平均声使用目标说话人的特征参数进行变换来获得自适应HMM。另外,说话人自适应部301通过使用最大似然线性回归等说话人自适应方法,即使在目标说话人数据存在少量且不足的上下文的情况下,也能够制作为了使平均声HMM的模型接近目标说话人而补充了不足上下文的模型。
在最大似然线性回归中,通过多元回归分析对平均向量进行变换。例如,说话人自适应部301使用上式(10)~(35)所示的基于时刻参数的连结学习来进行学习数据与平均声HMM的关联,求出回归矩阵。并且,通过由多个分布共用回归矩阵,对于不存在对应的学习数据的分布的平均向量,也能够进行变换。由此,相比于仅使用少量的目标数据进行了学习后的模型,能够合成高品质的语音,能够根据使用基于基音同步分析的音响特征参数进行了说话人自适应后的模型来进行语音合成。
接着,对语音合成装置100的变形例进行说明。图13是表示语音合成装置100的变形例(语音合成装置100a)的框图。如图13所示,语音合成装置100a具有解析部101、制作部102、决定部103、生成部104、波形生成部105、HMM存储部106、特征参数存储部204以及选择部401,进行基于特征参数序列选择的语音合成。此外,对与上述的构成部分实质上相同的部分,标注同一标号。
语音合成装置100a中,在制作部102与决定部103之间,选择部401进行处理。具体而言,语音合成装置100a将在制作部102中得到的HMM序列作为目标,由选择部401从特征参数存储部204所存储的音响特征参数中选择参数,根据所选择的参数来合成语音波形。也就是说,选择部401基于统计模型,从音响特征参数候选中选择包含与各状态对应的持续长度参数以及基音信息的音响特征参数。如此,通过选择部401从音响特征参数中选择参数,能够抑制因HMM语音合成的过量平滑化而引起的音质劣化,可获得更接近实际发音的自然的合成语音。
在使用了基于基音同步分析的特征参数的情况下,根据分析参数而再次生成的语音,与使用了利用固定帧速率进行了分析的以往的特征参数的情况相比,成为更接近原音的音质。因此,对于语音合成装置100a,使用了基音同步分析的效果更为显著,与使用以往的特征参数的情况相比,自然性得到改善。
接着,对选择部401进一步进行详细说明。选择部401基于HMM来选择特征参数序列。对于特征参数选择的单位,能够利用任意的单位来进行,但在此按HMM序列的各状态来选择特征参数。
设为:在特征参数存储部204中,存储有声音波形的各特征参数、以及附加有与状态对应的边界的信息。例如,对于HMM的各状态与语音波形的关联,预先通过维特比排列(Viterbi alignment)来求出,将所获得的最大似然状态转移序列的时间边界作为状态的边界存储于特征参数存储部204。选择部401在对特征参数的选择使用目标似然以及连接似然的情况下,将HMM序列的状态作为单位,通过动态规划法来选择最佳特征参数序列。
图14是表示选择部401执行的处理的流程图。首先,选择部401选择要合成的文章的最初的HMM的初始状态下的候选特征参数(S401),计算与初始的各候选对应的目标似然度(S402)。
目标似然度是将与相应的区间内的目标相符合的程度进行了数值化的似然度,能够根据HMM序列的分布的似然度来求出。在使用对数似然度的情况下,作为各状态区间内的特征参数的对数似然度的和来计算。特征参数的候选是选择源的特征参数的集合,能够将在学习相应的HMM的状态下的决策树的叶节点的分布时所使用的学习数据作为候选。也可以通过将与相同状态对应的相同音素的特征参数作为候选的方法、将用声韵环境进行了筛选后的相同音素作为候选的方法、通过韵律属性的一致程度来决定候选的方法等其他方法来决定。
然后,选择部401使状态编号前进一个,选择与各状态对应的候选(S403),进行目标似然度以及连接似然度等的似然度计算(S404)。
此外,在HMM的最终状态的情况下,进入到后续的HMM的初始状态。对于S403的候选选择的处理,能够与S401的处理同样地进行。连接似然度是将相应区间符合作为先行区间的后续的程度进行了数值化的似然度。对于连接似然度,能够通过高斯分布的似然度来计算,所述高斯分布的似然度是针对先行状态区间的各候选片段,使用相应状态下的各候选片段被选时的似然度,使用作为平均向量的前一个状态的各候选片段的后续区间的平均向量,使用作为方差的各状态的输出分布的方差而得到的。
然后,选择部401为了进行回溯(back track),针对各候选片段而保存有前一个状态的最佳候选的信息。选择部401判定当前的状态是否为与输入文章对应的HMM序列的最终HMM的最终状态(S405)。选择部401如果判定为是最终状态(S405:是),则进入S406的处理。另外,选择部401如果判定为不是最终状态(S405:否),则使状态以及HMM前进一个而返回到S403的处理。
最后,选择部401选择成为似然度最大的特征参数,依次回溯其先行状态的最佳候选,由此求出最佳特征参数序列(S406)。选择部401将如此选择出的最佳特征参数序列向决定部103输出。
图15是表示选择部401的具体的构成例的图。选择部401例如具备候选选择部411、似然度计算部412以及回溯部413。候选选择部411从特征参数存储部204中选择候选。似然度计算部412计算目标似然度、连接似然度。选择部401将HMM序列的状态作为单位,候选选择部411以及似然计算部412反复进行处理,最后,回溯部413求出最佳特征参数序列。
此外,在此以似然度最大化序列为例,但也可以使用基于HMM序列来选择特征参数序列的任意方法。也可以定义通过似然度的倒数、与平均向量的均方误差、和/或马氏距离(Mahalanobis'Distance)等而计算的成本函数,通过成本最小化来进行特征参数的选择。另外,也可以不进行基于动态规划法的特征参数选择,而仅根据音响的似然和韵律的似然度来计算成本并进行特征参数的选择。
进而,也可以根据HMM序列来生成特征参数,根据从所生成的参数起的距离进行成本计算来进行特征参数的选择。在进行参数选择的情况下,也可以不仅是最佳参数序列,而在各区间选择多个参数序列并利用平均化后的参数。选择部401通过这些处理,能够针对所输入的HMM序列的各HMM的各状态,选择最佳特征参数,将这些信息向决定部103输出。
决定部103根据所选择出的持续长度分布序列以及基音特征参数的序列来决定基音波形数。生成部104使用所选择出的特征参数来更新分布。通过使用HMM序列的方差并用所选择出的特征参数替换分布的平均向量来更新分布,根据更新后的分布列来生成参数,由此能够进行对所选择出的特征参数进行了反映的参数生成。波形生成部105根据所生成的参数来生成合成语音。如此,语音合成装置100a通过具备选择部401,能够根据在各区间所选择出的音响特征量来进行波形生成,可获得自然的合成语音。
此外,对于语音合成装置100、语音合成装置100a、语音合成模型学习装置200以及语音合成模型学习装置200a,例如也可以通过将通用的计算机装置用作基本硬件来实现。即,本实施方式的语音合成装置以及语音合成模型学习装置,可以通过使上述的计算机装置所搭载的处理器执行程序来实现。
由语音合成装置100、语音合成装置100a、语音合成模型学习装置200以及语音合成模型学习装置200a执行的程序(语音合成程序或者语音合成模型学习程序),可预先安装于ROM等来提供。
另外,由语音合成装置100、语音合成装置100a、语音合成模型学习装置200以及语音合成模型学习装置200a执行的程序,也可以构成为以可安装形式或可执行形式的文件记录在CD-ROM(Compact Disk Read Only Memory)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等计算机可读取的记录介质中而作为计算机程序产品来提供。进而,也可以构成为将这些程序保存在与互联网等网络连接的计算机上并通过经由网络进行下载来提供。
如此,根据实施方式的语音合成装置,使用基于统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度以及基于基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数,基于所决定的基音波形数,生成音响特征参数的分布列,基于所生成的分布列来生成音响特征参数,因此能够防止语音劣化和不自然的音素持续长度。另外,实施方式的语音合成装置能够在使用基于基音同步分析的精密的音响特征参数的同时,对作为持续长度分布而根据基音标记算出的时间长度进行模型化,在合成时基于根据相应状态的持续长度分布参数以及基音特征参数的输出分布而生成的基音信息算出基音波形数并进行语音合成。由此,实施方式的语音合成装置能够在利用精密的语音分析的同时消除因学习时与合成时的基音的不一致的影响而引起的不自然的持续长度的问题,能够进行高品质的语音合成。
另外,通过多个组合对本发明的几个实施方式进行了说明,但是这些实施方式是作为例子提出的,并非旨在限定发明的范围。这些新的实施方式能够以其他各种方式来实施,在不偏离发明宗旨的范围内,可以进行各种省略、替换、变更。这些实施方式及其变形包含在发明的范围、宗旨中,并且包含在权利要求书所记载的发明和其等同的范围内。
Claims (5)
1.一种语音合成装置,具有:
存储部,其将具有多个状态的统计模型的各状态下的、包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续长度分布作为统计模型信息进行存储;
制作部,其根据与输入文本对应的上下文信息、以及所述统计模型信息,制作统计模型序列;
决定部,其使用基于所述统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度、以及基于所述基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数;
生成部,其基于所述基音波形数来生成音响特征参数的输出分布列,基于该输出分布列来生成音响特征参数;以及
波形生成部,其根据所述生成部所生成的音响特征参数来生成语音波形,
所述决定部通过对根据基于所述时刻参数的持续长度分布而得到的持续时间长度,乘以与基于基音特征参数的输出分布而得到的基音信息对应的基本频率,从而决定基音波形数。
2.根据权利要求1所述的语音合成装置,
所述存储部存储HMM信息,所述HMM信息包含基于包括静态特征参数以及动态特征参数的特征参数的分布而得到的HMM输出分布,
所述生成部使用HMM输出分布的静态特征参数以及动态特征参数的平均以及方差来生成平滑化特征参数。
3.根据权利要求1所述的语音合成装置,
还具有选择部,所述选择部基于所述统计模型,从音响特征参数候选中选择包含与各状态对应的持续长度参数以及基音信息的音响特征参数,
所述决定部根据所选择出的各状态的持续长度参数以及基音信息来决定基音波形数。
4.一种语音合成方法,包括:
存储部将具有多个状态的统计模型的各状态下的、包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续长度分布作为统计模型信息进行存储的步骤;
根据与输入文本对应的上下文信息、以及所述统计模型信息,制作统计模型序列的步骤;
使用基于所述统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度、以及基于所述基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数的步骤;
基于所述基音波形数来生成音响特征参数的输出分布列,基于该输出分布列来生成音响特征参数的步骤;以及
根据所生成的音响特征参数来生成语音波形的步骤,
在决定各状态的基音波形数的步骤中,通过对根据基于所述时刻参数的持续长度分布而得到的持续时间长度,乘以与基于基音特征参数的输出分布而得到的基音信息对应的基本频率,从而决定基音波形数。
5.一种存储介质,存储有语音合成程序,所述语音合成程序用于使计算机执行:
存储部将具有多个状态的统计模型的各状态下的、包含基音特征参数的音响特征参数的输出分布以及基于时刻参数的持续长度分布作为统计模型信息进行存储的步骤;
根据与输入文本对应的上下文信息、以及所述统计模型信息,制作统计模型序列的步骤;
使用基于所述统计模型序列的各统计模型的各状态的持续长度分布而得到的持续时间长度、以及基于所述基音特征参数的输出分布而得到的基音信息,决定各状态的基音波形数的步骤;
基于所述基音波形数来生成音响特征参数的输出分布列,基于该输出分布列来生成音响特征参数的步骤;以及
根据所生成的音响特征参数来生成语音波形的步骤,
在决定各状态的基音波形数的步骤中,通过对根据基于所述时刻参数的持续长度分布而得到的持续时间长度,乘以与基于基音特征参数的输出分布而得到的基音信息对应的基本频率,从而决定基音波形数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111029334.8A CN113724685B (zh) | 2015-09-16 | 2015-09-16 | 语音合成模型学习装置、语音合成模型学习方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2015/076269 WO2017046887A1 (ja) | 2015-09-16 | 2015-09-16 | 音声合成装置、音声合成方法、音声合成プログラム、音声合成モデル学習装置、音声合成モデル学習方法及び音声合成モデル学習プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111029334.8A Division CN113724685B (zh) | 2015-09-16 | 2015-09-16 | 语音合成模型学习装置、语音合成模型学习方法及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107924678A CN107924678A (zh) | 2018-04-17 |
CN107924678B true CN107924678B (zh) | 2021-12-17 |
Family
ID=58288293
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580082427.3A Active CN107924678B (zh) | 2015-09-16 | 2015-09-16 | 语音合成装置、语音合成方法及存储介质 |
CN202111029334.8A Active CN113724685B (zh) | 2015-09-16 | 2015-09-16 | 语音合成模型学习装置、语音合成模型学习方法及存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111029334.8A Active CN113724685B (zh) | 2015-09-16 | 2015-09-16 | 语音合成模型学习装置、语音合成模型学习方法及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10878801B2 (zh) |
JP (1) | JP6499305B2 (zh) |
CN (2) | CN107924678B (zh) |
WO (1) | WO2017046887A1 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107924678B (zh) * | 2015-09-16 | 2021-12-17 | 株式会社东芝 | 语音合成装置、语音合成方法及存储介质 |
CN107945786B (zh) * | 2017-11-27 | 2021-05-25 | 北京百度网讯科技有限公司 | 语音合成方法和装置 |
US10755694B2 (en) | 2018-03-15 | 2020-08-25 | Motorola Mobility Llc | Electronic device with voice-synthesis and acoustic watermark capabilities |
CN110930975B (zh) * | 2018-08-31 | 2023-08-04 | 百度在线网络技术(北京)有限公司 | 用于输出信息的方法和装置 |
JP6737320B2 (ja) * | 2018-11-06 | 2020-08-05 | ヤマハ株式会社 | 音響処理方法、音響処理システムおよびプログラム |
CN109616131B (zh) * | 2018-11-12 | 2023-07-07 | 南京南大电子智慧型服务机器人研究院有限公司 | 一种数字实时语音变音方法 |
JP7197786B2 (ja) * | 2019-02-12 | 2022-12-28 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
JP7088403B2 (ja) * | 2019-02-20 | 2022-06-21 | ヤマハ株式会社 | 音信号生成方法、生成モデルの訓練方法、音信号生成システムおよびプログラム |
JP2020194098A (ja) * | 2019-05-29 | 2020-12-03 | ヤマハ株式会社 | 推定モデル確立方法、推定モデル確立装置、プログラムおよび訓練データ準備方法 |
JP7093081B2 (ja) * | 2019-07-08 | 2022-06-29 | 日本電信電話株式会社 | 学習装置、推定装置、推定方法、およびプログラム |
CN113066476B (zh) * | 2019-12-13 | 2024-05-31 | 科大讯飞股份有限公司 | 合成语音处理方法及相关装置 |
CN111916093A (zh) * | 2020-07-31 | 2020-11-10 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频处理方法及装置 |
CN111968616A (zh) * | 2020-08-19 | 2020-11-20 | 浙江同花顺智能科技有限公司 | 一种语音合成模型的训练方法、装置、电子设备和存储介质 |
CN112820267B (zh) * | 2021-01-15 | 2022-10-04 | 科大讯飞股份有限公司 | 波形生成方法以及相关模型的训练方法和相关设备、装置 |
US11915714B2 (en) * | 2021-12-21 | 2024-02-27 | Adobe Inc. | Neural pitch-shifting and time-stretching |
CN114360490A (zh) * | 2022-01-26 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 语音合成方法、装置、计算机设备和存储介质 |
US20240119922A1 (en) * | 2022-09-27 | 2024-04-11 | Tencent America LLC | Text to speech synthesis without using parallel text-audio data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4720865A (en) * | 1983-06-27 | 1988-01-19 | Nec Corporation | Multi-pulse type vocoder |
CN1835074A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合高层描述信息和模型自适应的说话人转换方法 |
WO2011000934A1 (en) * | 2009-07-02 | 2011-01-06 | The University Court Of The Unviersity Of Edinburgh | Enabling synthesis of speech having a target characteristic |
JP2011237795A (ja) * | 2010-05-07 | 2011-11-24 | Toshiba Corp | 音声処理方法及び装置 |
CN102592594A (zh) * | 2012-04-06 | 2012-07-18 | 苏州思必驰信息科技有限公司 | 基于统计参数模型的增量式语音在线合成方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR940002854B1 (ko) * | 1991-11-06 | 1994-04-04 | 한국전기통신공사 | 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치 |
GB2290684A (en) * | 1994-06-22 | 1996-01-03 | Ibm | Speech synthesis using hidden Markov model to determine speech unit durations |
JP2000310996A (ja) * | 1999-04-28 | 2000-11-07 | Oki Electric Ind Co Ltd | 音声合成装置および音韻継続時間長の制御方法 |
US6505152B1 (en) * | 1999-09-03 | 2003-01-07 | Microsoft Corporation | Method and apparatus for using formant models in speech systems |
US6725190B1 (en) * | 1999-11-02 | 2004-04-20 | International Business Machines Corporation | Method and system for speech reconstruction from speech recognition features, pitch and voicing with resampled basis functions providing reconstruction of the spectral envelope |
US7039588B2 (en) * | 2000-03-31 | 2006-05-02 | Canon Kabushiki Kaisha | Synthesis unit selection apparatus and method, and storage medium |
JP2002062890A (ja) * | 2000-08-18 | 2002-02-28 | Seiko Epson Corp | 音声合成方法および音声合成装置ならびに音声合成処理プログラムを記録した記録媒体 |
JP2002268660A (ja) | 2001-03-13 | 2002-09-20 | Japan Science & Technology Corp | テキスト音声合成方法および装置 |
JP3732793B2 (ja) * | 2001-03-26 | 2006-01-11 | 株式会社東芝 | 音声合成方法、音声合成装置及び記録媒体 |
US7558727B2 (en) * | 2002-09-17 | 2009-07-07 | Koninklijke Philips Electronics N.V. | Method of synthesis for a steady sound signal |
JP4241736B2 (ja) | 2006-01-19 | 2009-03-18 | 株式会社東芝 | 音声処理装置及びその方法 |
JP4816144B2 (ja) | 2006-03-02 | 2011-11-16 | カシオ計算機株式会社 | 音声合成装置、音声合成方法、及び、プログラム |
JP4241762B2 (ja) * | 2006-05-18 | 2009-03-18 | 株式会社東芝 | 音声合成装置、その方法、及びプログラム |
JP4966048B2 (ja) | 2007-02-20 | 2012-07-04 | 株式会社東芝 | 声質変換装置及び音声合成装置 |
JP4455610B2 (ja) * | 2007-03-28 | 2010-04-21 | 株式会社東芝 | 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法 |
JP5159279B2 (ja) * | 2007-12-03 | 2013-03-06 | 株式会社東芝 | 音声処理装置及びそれを用いた音声合成装置。 |
CN101178896B (zh) * | 2007-12-06 | 2012-03-28 | 安徽科大讯飞信息科技股份有限公司 | 基于声学统计模型的单元挑选语音合成方法 |
JP2010020166A (ja) * | 2008-07-11 | 2010-01-28 | Ntt Docomo Inc | 音声合成モデル生成装置、音声合成モデル生成システム、通信端末、及び音声合成モデル生成方法 |
US9031834B2 (en) * | 2009-09-04 | 2015-05-12 | Nuance Communications, Inc. | Speech enhancement techniques on the power spectrum |
US8781835B2 (en) * | 2010-04-30 | 2014-07-15 | Nokia Corporation | Methods and apparatuses for facilitating speech synthesis |
JP5085700B2 (ja) | 2010-08-30 | 2012-11-28 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
US20130117026A1 (en) * | 2010-09-06 | 2013-05-09 | Nec Corporation | Speech synthesizer, speech synthesis method, and speech synthesis program |
US9286886B2 (en) * | 2011-01-24 | 2016-03-15 | Nuance Communications, Inc. | Methods and apparatus for predicting prosody in speech synthesis |
JP5929909B2 (ja) * | 2011-05-30 | 2016-06-08 | 日本電気株式会社 | 韻律生成装置、音声合成装置、韻律生成方法および韻律生成プログラム |
CN102270449A (zh) * | 2011-08-10 | 2011-12-07 | 歌尔声学股份有限公司 | 参数语音合成方法和系统 |
JP2013164572A (ja) | 2012-01-10 | 2013-08-22 | Toshiba Corp | 音声特徴量抽出装置、音声特徴量抽出方法及び音声特徴量抽出プログラム |
JP5665780B2 (ja) * | 2012-02-21 | 2015-02-04 | 株式会社東芝 | 音声合成装置、方法およびプログラム |
JP5631915B2 (ja) | 2012-03-29 | 2014-11-26 | 株式会社東芝 | 音声合成装置、音声合成方法、音声合成プログラムならびに学習装置 |
CN102779508B (zh) * | 2012-03-31 | 2016-11-09 | 科大讯飞股份有限公司 | 语音库生成设备及其方法、语音合成系统及其方法 |
JP5840075B2 (ja) * | 2012-06-01 | 2016-01-06 | 日本電信電話株式会社 | 音声波形データベース生成装置、方法、プログラム |
JP5726822B2 (ja) * | 2012-08-16 | 2015-06-03 | 株式会社東芝 | 音声合成装置、方法及びプログラム |
JP6342428B2 (ja) * | 2013-12-20 | 2018-06-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
US9911407B2 (en) * | 2014-01-14 | 2018-03-06 | Interactive Intelligence Group, Inc. | System and method for synthesis of speech from provided text |
JP6293912B2 (ja) | 2014-09-19 | 2018-03-14 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
CN107924678B (zh) * | 2015-09-16 | 2021-12-17 | 株式会社东芝 | 语音合成装置、语音合成方法及存储介质 |
US9972304B2 (en) * | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10475438B1 (en) * | 2017-03-02 | 2019-11-12 | Amazon Technologies, Inc. | Contextual text-to-speech processing |
-
2015
- 2015-09-16 CN CN201580082427.3A patent/CN107924678B/zh active Active
- 2015-09-16 JP JP2017540389A patent/JP6499305B2/ja active Active
- 2015-09-16 WO PCT/JP2015/076269 patent/WO2017046887A1/ja active Application Filing
- 2015-09-16 CN CN202111029334.8A patent/CN113724685B/zh active Active
-
2018
- 2018-02-14 US US15/896,774 patent/US10878801B2/en active Active
-
2020
- 2020-07-29 US US16/941,826 patent/US11423874B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4720865A (en) * | 1983-06-27 | 1988-01-19 | Nec Corporation | Multi-pulse type vocoder |
CN1835074A (zh) * | 2006-04-07 | 2006-09-20 | 安徽中科大讯飞信息科技有限公司 | 一种结合高层描述信息和模型自适应的说话人转换方法 |
WO2011000934A1 (en) * | 2009-07-02 | 2011-01-06 | The University Court Of The Unviersity Of Edinburgh | Enabling synthesis of speech having a target characteristic |
JP2011237795A (ja) * | 2010-05-07 | 2011-11-24 | Toshiba Corp | 音声処理方法及び装置 |
CN102592594A (zh) * | 2012-04-06 | 2012-07-18 | 苏州思必驰信息科技有限公司 | 基于统计参数模型的增量式语音在线合成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107924678A (zh) | 2018-04-17 |
WO2017046887A1 (ja) | 2017-03-23 |
US20180174570A1 (en) | 2018-06-21 |
JPWO2017046887A1 (ja) | 2018-04-12 |
US10878801B2 (en) | 2020-12-29 |
CN113724685B (zh) | 2024-04-02 |
CN113724685A (zh) | 2021-11-30 |
JP6499305B2 (ja) | 2019-04-10 |
US20200357381A1 (en) | 2020-11-12 |
US11423874B2 (en) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107924678B (zh) | 语音合成装置、语音合成方法及存储介质 | |
US10529314B2 (en) | Speech synthesizer, and speech synthesis method and computer program product utilizing multiple-acoustic feature parameters selection | |
US11170756B2 (en) | Speech processing device, speech processing method, and computer program product | |
JP5665780B2 (ja) | 音声合成装置、方法およびプログラム | |
JP4966048B2 (ja) | 声質変換装置及び音声合成装置 | |
JP5038995B2 (ja) | 声質変換装置及び方法、音声合成装置及び方法 | |
JP3910628B2 (ja) | 音声合成装置、音声合成方法およびプログラム | |
WO2010119534A1 (ja) | 音声合成装置、方法およびプログラム | |
Yu et al. | Probablistic modelling of F0 in unvoiced regions in HMM based speech synthesis | |
JP5874639B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
JP4034751B2 (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
Hashimoto et al. | Overview of NIT HMMbased speech synthesis system for Blizzard Challenge 2011 | |
Koriyama et al. | Discontinuous Observation HMM for Prosodic-Event-Based F0 Generation. | |
Nose et al. | Speaker-independent HMM-based voice conversion using quantized fundamental frequency. | |
Takamichi | Hybrid Approach to High-Quality and Flexible Text-To-Speech Synthesis | |
Koriyama et al. | Discontinuous observation HMM for prosodic-event-based F0 | |
Na et al. | Tone Generation by Maximizing Joint Likelihood of Syllabic HMMs for Mandarin Speech Synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |