CN101004911A - 用于生成频率弯曲函数及进行频率弯曲的方法和装置 - Google Patents

用于生成频率弯曲函数及进行频率弯曲的方法和装置 Download PDF

Info

Publication number
CN101004911A
CN101004911A CNA2006100014669A CN200610001466A CN101004911A CN 101004911 A CN101004911 A CN 101004911A CN A2006100014669 A CNA2006100014669 A CN A2006100014669A CN 200610001466 A CN200610001466 A CN 200610001466A CN 101004911 A CN101004911 A CN 101004911A
Authority
CN
China
Prior art keywords
frame
alignment
phoneme
flexure
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006100014669A
Other languages
English (en)
Other versions
CN101004911B (zh
Inventor
双志伟
R·巴基斯
沈丽琴
E·M·艾德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuance Communications Inc
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to CN2006100014669A priority Critical patent/CN101004911B/zh
Priority to US11/654,447 priority patent/US8401861B2/en
Publication of CN101004911A publication Critical patent/CN101004911A/zh
Application granted granted Critical
Publication of CN101004911B publication Critical patent/CN101004911B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

一种用于生成频率弯曲函数、和进行频率弯曲的方法及装置。该用于生成频率弯曲函数的方法包括:准备源说话者和目标说话者的训练语音;将所述训练语音进行帧对齐;从帧对齐的训练语音中选择对齐的帧;提取所选择的对齐的帧的相对应的共振峰参数组;以及根据相对应的共振峰参数组生成频率弯曲函数。该选择对齐的帧的步骤优选地选择已帧对齐的、源说话者和目标说话者的具有相同或相似上下文的相同或相似音素的中间的一对对齐的帧。所述生成弯曲函数的步骤优选地将相对应的共振峰参数组中的各对对应的共振峰参数作为分段线性频率弯曲函数中的关键点,以此来生成该频率弯曲函数。

Description

用于生成频率弯曲函数及进行频率弯曲的方法和装置
技术领域
本发明涉及语音转换和语音识别的领域,具体涉及进行频率弯曲的方法及装置,更具体地涉及用于生成频率弯曲函数的方法及装置。
背景技术
频率弯曲(frequency warping),其一个特例是“声道长度归一化”(VTLN),是一种用于补偿不同说话者之间的声音频谱的差异的已得到大量研究的方法。它广泛应用于语音识别和语音转换。给定一个声音的一频谱截面,该方法通过施加一频率弯曲函数来生成一新的频谱截面。对于语音识别,该新的截面可直接用作识别算法的输入。在其他应用中,可能需要新的修改的声音。例如,在在线游戏聊天、呼叫中心、多媒体消息服务等应用中,可能需要利用频率弯曲进行说话人的转换,使一个说话人的声音听起来象另一个说话人的声音。因此,可通过例如一线性滤波器来修改原声音,或例如通过一组正弦波相加来合成一新的声音,以使该声音符合所述新的频谱截面。
在现有技术中已提出了许多用于发现性能良好的频率弯曲函数的自动训练方法。一种方法是最大似然线性回归。该方法的描述可参见:L.F.Uebel,和P.C.Woodland的“An investigation into vocal tract lengthnormalization,”EUROSPEECH’99,Budapest,Hungary,1999,pp.2527-2530。然而,这种方法需要大量的训练数据,这限制了它在很多应用场合中的使用。另一种方法是使用线性或分段线性弯曲函数,并使用动态规划法通过最小化转换后的源频谱与目标频谱之间的距离来训练弯曲函数。对该方法的描述可参见David Sundermann和Hermann Ney的“VTLN-Based Voice Conversion”,ICSLP,2004,Jeju,Korea,2004。然而,很少有发布的频率弯曲系统实际上是基于这种方法,因为这种方法的结果会由于输入频谱中的噪声而严重恶化。
鉴于以上方法的缺点,提出了另一类充分利用说话者的语音的声学特征的进行频率弯曲的方法。具体而言,根据源说话者和目标说话者之间的共振峰(formant)的关系来获得频率弯曲函数。共振峰是指在发音时由于声道本身的共振而在声音频谱中形成的声音强度较大的若干频率区域。共振峰与声道的形状有关,因此每一个人的共振峰都是不同的。而不同说话者之间匹配的共振峰可描述不同说话者之间的差异。
现有技术的使用共振峰来获得频率弯曲函数的方法一般是使用统计方法分别从源说话者和目标说话者的训练语音材料中提取出某些共振峰频率的某些统计平均值,根据源说话者和目标说话者的共振峰频率的统计值的关系来得出频率弯曲函数。这种方法可参见E.B.Gouvea和R.M.Stern的“Speaker Normalization Through Formant-Based Warping of theFrequency Scale”,5th EUROSPEECH,Volume 3,September 1997,pages1139-1142,以及E.Eide和H.Gish的“A parametric approach to vocal tractlength normalization”,Proceddings of ICASSP’96,Atlanta,USA,1996,312。考虑到同一说话者所发不同音素的共振峰是不同的,人们又提出了一种改进的使用相同音素的共振峰来产生匹配共振峰,以反映不同说话者之间的差,从而得出弯曲函数的方法。
然而,由于共振峰及其与声道长度(VTL)的关系不仅依赖于说话者的声道形状及其所发出的不同音素,而且高度依赖于上下文,同一个说话者的共振峰可能随上下文而变化很大。因此这种将不同上下文中的音素混合在一起提取共振峰参数的方法,尽管使用了大量的训练数据,却不能反映说话者之间的实际的发音器官之间的差别,自然其效果不能令人满意。
显然,需要一种新的克服了以上现有技术中的缺点,能够使用少量的训练数据生成良好的频率弯曲函数的方法。
发明内容
鉴于以上现有技术的缺点,本发明的目的是提供一种利用少量的训练数据生成良好的频率弯曲函数的方法,其中该频率弯曲函数反映了源说话者和目标说话者之间由于声道形状的不同而产生的不同语音特征之间的关系,因而能够将源说话者的语音成功地转换为目标说话者的语音,以用于语音转换和语音识别的各应用领域中。
根据本发明的一个方面,提供了一种用于生成频率弯曲函数的方法,包括:准备源说话者和目标说话者的训练语音;将所述源说话者和目标说话者的训练语音进行帧对齐;从所述帧对齐的源说话者和目标说话者的训练语音中选择对齐的帧;提取所述选择的对齐的帧的相对应的共振峰参数组;以及根据所述相对应的共振峰参数组生成频率弯曲函数。
优选地,所述共振峰参数为共振峰频率。
优选地,所述生成频率弯曲函数的步骤包括将所述相对应的共振峰参数组中的各对对应的共振峰参数作为分段线性频率弯曲函数中的关键点,以此来生成该频率弯曲函数。
优选地,所述进行帧对齐的步骤包括:从源说话者和目标说话者的训练语音中选择相对应的语音段;以及将所述相对应的语音段进行帧对齐;其中所述相对应的语音段是在源说话者和目标说话者的训练语音中具有相同或相似上下文的相同或相似音素。
优选地,所述准备步骤包括准备源说话者和目标说话者的相同内容的训练语音;且所述进行帧对齐的步骤包括使用动态时间规整算法(DTW)将源说话者和目标说话者的相同内容的所述训练语音进行帧对齐。
优选地,所述选择对齐的帧的步骤包括从共振峰参数的变化较小的音素中进行选择、从其相邻音素为爆破音或摩擦音或静音的音素中进行选择、从音素的中间部分进行选择、和选择具有最小声学差异的对齐的帧中的一个或多个。
优选地,所述选择对齐的帧的步骤包括以下步骤:对于所述源说话者和目标说话者的训练语音中对齐的每对帧,分别根据该对帧所属的音素、该对帧的上下文、该对帧在其音素中的位置、该对帧之间的声学差异来赋予该对帧相应的成本;计算所述每对帧的所述各成本的加权和以获得每对帧的总成本;以及选择总成本最低的一对帧,作为所述对于提取相对应的共振峰参数组的对齐的帧。
根据本发明的另一个方面,提供了一种用于生成频率弯曲函数的装置,该装置包括:准备装置,用于准备源说话者和目标说话者的训练语音;对齐装置,用于将所述源说话者和目标说话者的训练语音进行帧对齐;选择装置,用于从所述帧对齐的源说话者和目标说话者的训练语音中选择对齐的帧;提取装置,用于提取所述选择的对齐的帧的相对应的共振峰参数组;以及生成装置,用于根据所述相对应的共振峰参数组生成频率弯曲函数。
根据本发明的再一个方面,提供了一种使用以上述方法生成的频率弯曲函数进行频率弯曲的方法及装置。
根据本发明的又一个方面,提供了一种使用上述进行频率弯曲的方法的语音转换方法和系统,以及一种使用上述频率弯曲方法的语音识别方法和系统。
本发明的优点包括:只需要很少的训练数据,实际上只要上下文是相同或相似的,一个音素的训练数据就足以获得一对匹配的帧;以及从相同或相似的上下文中的稳定部分抽取的共振峰参数可更好地代表不同人之间的差异,生成更好的频率弯曲函数,更好地满足语音转换和语音识别等应用的需要。
附图说明
参照附图阅读以下对本发明实施例的描述可更好地理解本发明,在附图中:
图1示意性地示出了根据本发明的方法与现有技术的方法的区别;
图2示出了根据本发明的一优选实施例的用于生成频率弯曲函数和进行频率弯曲的方法的流程图;
图3示出了根据本发明的一个实施例所生成的频率弯曲函数的一个示例;
图4示出了本发明的进行帧对齐和选择帧的方法的第一个实施例的流程图;
图5示出了本发明的进行帧对齐和选择帧的方法的第二个实施例的流程图;
图6示出了本发明的进行帧对齐和选择帧的方法的第三和第四个实施例的流程图;以及
图7示出了根据本发明的用于生成频率弯曲函数的装置和使用该频率弯曲函数进行频率弯曲的装置的示意性结构框图。
具体实施方式
用于进行频率弯曲的频率弯曲函数试图通过两个说话者的语音的频谱特征例如共振峰参数之间的差别和关系,来反映说话者的声道长度和形状等特征之间的差别和关系。鉴于在现有技术的方法中,将每个说话者的大量语音数据中的不同上下文中的共振峰参数混合在一起计算其统计平均值,并不能反映不同说话者之间的声道的不同,并认识到弯曲函数的好坏不取决训练数据的多少,而仅取决于训练数据的好坏,而提出了本发明。本发明的关键在于基于源说话者的语音和目标说话者的语音的一对对齐的帧的共振峰参数来生成频率弯曲函数。使用所生成的频率弯曲函数,可以将源说话者的语音转换为类似于目标说话者的语音。
图1示出了根据本发明的方法与现有技术的方法的主要区别。从图中可见主要区别在于共振峰的生成方式不同。在最接近的现有技术中,是使用源说话者和目标说话者的训练语音中相同的音素生成匹配共振峰,不考虑音素所在的上下文以及音素中的稳定部分和过渡部分的区别,并且是从训练语音中的相同音素的大量出现中求出共振峰的平均值,同时源说话者的共振峰和目标说话者的共振峰是相互独立地得出的;而本发明的方法是使用源和目标训练语音中的一对对齐的帧来生成共振峰参数,也就是说共振峰的对应关系是建立在选出的源说话者和目标说话者的对应语音基础上。
图2示出了根据本发明一优选实施例的用于生成频率弯曲函数和进行频率弯曲的方法的流程图。如图所示,本发明的方法分为两个部分,即训练部分和转换部分。训练部分用于使用源说话者和目标说话者的训练语音,对本发明的系统进行训练,从而得出适合于对该源说话者的语音进行转换、使其类似于该目标说话者的语音的频率弯曲函数。而转换部分则用于使用从训练部分得到的频率弯曲函数,对来自所述源说话者的语音进行实际的转换。
下面首先参照图2中的训练部分对根据本发明的用于生成频率弯曲函数的方法进行说明。
在步骤201,准备源说话者和目标说话者的训练语音。可以各种已知方式准备所述训练语音,例如通过录音,从音频、视频或其他多媒体资源中提取等。在所述训练语音中可以包含噪音和音乐。对训练语音的多少没有限制,一个句子就足够了,实际上往往有目标说话者的所发出的一个音就可以了,只要能从中提取出与源说话者的语音相匹配的帧即可。所述目标说话者的语音,既可以是一说话者的实际语音,也可以是一种“标准说话者”的语音,即从大量说话者的语音得出平均语音。根据不同实施例,可要求所述源说话者和目标说话者的训练语音是源说话者和目标说话者的相同同容的语音,或不同内容的语音。
在步骤202,将源说话者和目标说话者的训练语音进行帧对齐。即将源说话者和目标说话者的训练语音或其中的一部分划分为帧并以将在下文中详细描述的方法将源说话者和目标说话者的训练语音中的某些帧进行对齐。
在步骤203,使用将在下文中详细描述的方法,从所述已对齐的各帧中选择出最佳的对齐的帧。既可以提取出一对匹配的帧,也可以提取出多对匹配的帧;而且所述多对匹配的帧,既可以是属于不同的音素,也可以是属于相同的音素。
在步骤204,从所述对齐的帧获得相匹配的共振峰参数组。可使用任何已知的用于从语音中提取共振峰参数的方法来提取所述相匹配的共振峰参数组。共振峰参数的提取可自动进行,也可以手动进行。一种可能的方式是使用某种语音分析工具例如PRAAT来提取共振峰参数。在提取对齐的帧的共振峰参数时,可利用相邻帧的信息来使提取出的共振峰参数更为稳定可靠。
在本发明的一个实施例中,所述共振峰参数为共振峰频率。且所述共振峰参数组为前4个共振峰频率。但所述共振峰参数并不限于共振峰频率,而是可包括带宽、振峰等共振峰参数。它也可包括规定了类似信息的其他参数,例如Q参数。
在该步骤中,既可以从一对匹配的帧中获得一对匹配的共振峰参数组,也可以从多对匹配的帧中获得多对匹配的共振峰参数组,并求出该多对匹配的共振峰参数组的平均,作为一对匹配的共振峰参数组。也可以直接将从多对匹配的帧中获得的多对匹配的共振峰参数组提供给下一步骤。
在步骤204,使用所述获得的相匹配的共振峰参数组生成频率弯曲函数。在本发明的一个实施例中,将一对匹配的共振峰参数组中的各对匹配的共振峰参数用作关键点来生成一个频率弯曲函数。
在该步骤中,既可以使用一对匹配的共振峰参数组来生成一个频率弯曲函数,该一个频率弯曲函数将用于在本发明的方法的转换部分中转换源说话者的全部语音;也可以使用多对匹配的共振峰参数组分别生成多个频率弯曲函数。该多个频率弯曲函数将用于在本发明的方法的转换部分分别转换源说话者的语音中的相应音素;还可以使用多对匹配的共振峰参数组分别生成多个频率弯曲函数,并求出该多个频率弯曲函数的平均,用于在本发明的方法的转换部分中转换源说话者的语音。
作为说明,将源说话者的共振峰参数记为:[F1s,F2s,F3s,..Fns],将目标说话者的共振峰参数记为:[F1t,F2t,F3t,..Fnt]。使用匹配的共振峰参数对[Fit,Fis]作为关键点来定义一从目标频率轴映射到源频率轴的分段线性函数。可使用线性插值法来生成两个相邻关键点之间的部分,但也可使用其他插值方法来生成这些部分。
假设两个说话者具有相同的最大频率,记为Fmax。为了便于在所述共振峰参数组的最大共振峰参数和最小共振峰参数之外进行插值,可增加[0,0]、[Fmax,Fmax]作为端点。当然,也可使用其他端点。
作为示例,使用如下的前4个共振峰参数:源说话者[690,2290,3080,4450],目标说话者[560,2180,2750,4040]。两个说话者的最大频率均为8000。则从目标频率轴到源频率轴的频率弯曲函数如图3所示。
下面详细说明本发明的用于生成频率弯曲函数的方法中进行帧对齐的步骤202和选择对齐的帧的步骤203的几个实施例。
图4是示出了本发明的进行帧对齐和选择帧的方法的第一个实施例的流程图。在该第一个实施例中,不要求在步骤201中准备源说话者和目标说话者说出的相同的内容训练语音。
在步骤401中,从源说话者和目标说话者的训练语音中选择一对语音段,该对语音段属于源说话者和目标说话者的训练语音中具有相同或相似上下文的相同或相似音素。此处所说的上下文包括但不限于:相邻的语音、在词中的位置、在词组中的位置、在句子中的位置等。
如果找到了多对具有相同或相似上下文的音素,则可优选某些音素。某些音素例如“e”的共振峰被认为变化较小,因此这种音素的共振峰能更好地代表说话者的特征。
如果所找到的多对具有相同或相似上下文的音素是彼此相同的,则可优选某些上下文。因为,在某些上下文中,音素的共振峰较小可能受相邻音素的影响。例如,根据在本发明的一实施例中,选择具有“爆破音”或“摩擦音”或“静音”作为其相邻音素的语音段。
如果所找到的多对具有相同或相似上下文的音素中,彼此的上下文和音素均相同,则可随机选择一对语音段。
当得到一对对齐的语音段之后,在步骤402中,将源说话者的语音段的中间的帧与目标说话者的语音段的中间的帧对齐。中间的帧被认为变化较小,因此它较小受相邻音素的共振峰的影响。在步骤203中,该对中间的帧即被选择来提取其共振峰参数。
也可以从该对对齐的语音段中其共振峰随时间变化缓慢的稳定部分中选择对齐的帧,用来提取其共振峰参数。
图5是示出了本发明的进行帧对齐和选择帧的方法的第二个实施例的流程图。在该第二个实施例中,当在步骤401中以上述第一实施例的方法得到一对语音段之后,在步骤501中将目标说话者的语音段的各帧与源说话者的语音段的各帧对齐。可以使用已知的动态时间规整算法(DTW)进行这种对齐。该方法的要点在于发现通过将一个模式的声学特征映射到另一个模式的声学特征的网格的最优路径。发现最优路径需要解决评估两个语音模式之间的差异的最小化问题。为了得到有意义的结果,需要施加约束。
因为DTW方法可获得多个对齐的帧,所以需要在步骤203中进行选择。一种进行选择的方法是基于帧在音素中的位置。即优选其中源帧处于源说话者的语音段的中间的对齐的帧。中间的帧被认为较小变化,因而较不易受来自相邻音素的共振峰的过渡的影响。另一种进行选择的方法是基于对齐的帧之间的声学差异。即优选具有最小声学差异的对齐的帧。这两种选择方法也可以合并执行。然后,可将该被选择的对齐帧提供给本发明的用于生成频率弯曲函数的后续步骤。
图6是示出了本发明的进行帧对齐和选择帧的方法的第三和第四个实施例的流程图。在该第三个实施例中,要求在步骤201中准备源说话者和目标说话者说出的相同内容的训练语音。
如图6所示,在步骤202中,使用动态时间规整(DTW)算法将源说话者的语音与相应的目标说话者的相同内容的语音进行对齐。
在对齐操作之后,得到了很多对齐的帧。在步骤203中,从中选择一对对齐的帧:
第一种选择方法是基于源帧所属的音素。某些音素是优选的,因为某些音素例如“e”比其他音素较小变化。因此这种音素能更好地代表说话者的特征。
第二种选择方法是基于源帧所在的上下文。某些上下文是优选的,因为其中音素的共振峰较小受相邻因素的影响。例如,在本发明的一个实施例中,选择具有“爆破音”或“摩擦音”或“静音”作为其相邻音素的音素。
第三种选择方法是基于帧在音素中的位置。优选其中源帧位于源说话者的音素的中间的对齐的帧。中间的帧被认为较小变化,因而较不易受来自相邻音素的共振峰的过渡的影响。
第四种选择方法是基于对齐的帧之间的声学差异。优选具有最小声学差异的一对对齐的帧。所述最小声学差异可以是所述对齐的帧的FFT(快速傅立叶变换)幅度谱或FFT倒数域幅度谱或MFCC(Mel频率倒谱系数)或LPC(线性预测编码)或LSF(线谱频率)或MCA(多形心分析)参数等的欧氏距离或者加权距离。
对以上四种选择方法,也可以任何方式和顺序合并执行。
随后,可将所选择出的对齐的帧提供给本发明的用于生成频率弯曲函数的方法的后续步骤。
在第四个实施例中,在步骤202中以上述方法使用动态时间规整(DTW)算法将源说话者的语音与相应的目标说话者的相同内容的语音进行对齐之后,在步骤203中使用如下一种基于不同成本的加权和的选择方法来从许多对帧中选择一对帧。
首先,赋予每对对齐的帧如下成本:
1)基于源帧所属的音素的成本。某些音素是优选的,因为某些音素例如“e”比其他音素较小变化。因此这种音素能更好地代表说话者的特征。于是根据每对对齐的帧的源帧所属的不同音素赋予其不同的成本。
2)基于源帧的上下文的成本。某些上下文是优选的,因为其中音素的共振峰较小受相邻因素的影响。例如,在本发明的一个实施例中,选择具有“爆破音”或“摩擦音”或“静音”作为其相邻音素的音素。于是根据每对对齐的帧的源帧的不同上下文其不同的成本。
3)基于在音素中的位置的代码。优选其中源帧位于源说话者的音素的中间的对齐的帧。中间的帧被认为较小变化,因而较不易受来自相邻音素的共振峰的过渡的影响。于是根据每对对齐的帧的源帧在源音素中不同位置赋予其不同的成本。
4)基于对齐的帧的声学差异的成本。优选具有最小声学差异的一对对齐的帧。于是根据每对对齐的帧的声学差异赋予其不同的成本。
然后,计算出每对对齐的帧的以上不同成本的加权和,并选择具有最小成本加权和的一对对齐的帧。
以上说明了根据本发明的用于生成频率弯曲函数的方法。下面参照图2中的转换部分说明根据本发明的进行频率弯曲的方法使用所生成的频率弯曲函数进行频率弯曲的步骤。
假设源说话者的频谱是S(w),并且从目标频率轴到源频率轴的频率弯曲函数是F(w),则从源说话者的频谱转换而来的频谱Conv(w)计算为:
Conv(w)=S(F(w))。
在图2的转换部分中,首先获得源说话者的语音的频谱。
其次,使用以上根据本发明的用于生成频率弯曲函数的方法生成一个或多个频率弯曲函数。以上两个步骤可以任意顺序执行。
然后,使用所生成的一个或多个频率弯曲函数进行将原说话者的语音的频谱转换为类似于目标说话者的语音的频谱。
在本发明的一个实施例中,将同一个频率弯曲函数应用于源说话者的语音中的所有语音段。试验显示该实施例的方法能够成功地转换说话者的身份,并同时产生高质量的转换语音,这是由于由本发明的方法所生成的频率弯曲函数尽管可能基于一对匹配的帧,却能很好地反映不同说话者的固有的语音特征之间的差异。此外,该实施例的方法还能避免产生在将不同弯曲函数应用于不同帧时产生的不连续的问题。
在本发明的另一个实施例中,将不同的频率弯曲函数应用于源说话者的语音中的不同的语音段。这需要一种频率弯曲函数选择方法,以选择用于特定语音段的不同频率弯曲函数。一种可能的实现方式为,在上述频率弯曲生成方法中为不同的音素生成了不同的频率弯曲函数,这样就可根据源说话者的语音中的相应音素来应用不同的频率弯曲函数。但这需要使用频谱平滑技术来避免帧边界处的不连续。可使用在现有技术中已知的多种频谱平滑技术之一。
另一种可能的实现方式为,使用输入频谱的向量量化来确定使用哪个频率弯曲函数。该实现方式的一种变体是使用基于音素的用于向量量化的码本。
这样,使用上述步骤就生成了源话说者的语音的转换后的频谱,该频谱类似于在训练阶段所使用的目标说话者的频谱。
本发明还提供了进行语音转换的方法,以及进行语音识别的方法。在所述进行语音转换的方法中,使用在以上进行频率弯曲的方法中所生成的转换后的频谱来重建转换后的语音,从而完成说话者的身份转换。该进行语音转换的方法的其余部分与现有技术相同,在此不再赘叙。
同样,在所述进行语音识别的方法中,使用在以上进行频率弯曲的方法中所生成的转换后的频谱,作为语音识别中的后续步骤的输入,从而获得更好的识别效果。该进行语音识别的方法的其余部分与现有技术相同,在此不再赘叙。
与本发明的以上各方法相应地,还提供了用于实现以上各方法的装置和系统。
图7示出了根据本发明的用于生成频率弯曲函数的装置及用于使用该装置进行频率弯曲的装置的示意性结构框图。如图所示,本发明主要包括一种用于生成频率弯曲函数的装置701,该装置包括:一准备装置703,其用于准备源说话者和目标说话者的训练语音;一对齐装置705,其用于将所述源说话者和目标说话者的训练语音进行帧对齐;一选择装置707,其用于从所述帧对齐的源说话者和目标说话者的训练语音中选择对齐的帧;一提取装置708,其用于提取所述选择的对齐的帧的相对应的共振峰参数组;以及一生成装置709,其用于根据所述相对应的共振峰参数组生成频率弯曲函数。本发明还包括一频率弯曲装置700,该装置包括用于获得源说话者的频谱的装置(未示出),上述用于生成频率弯曲函数的装置701,以及用于使用所获得的频率弯曲函数将源说话者的频谱转换成类似于目标说话者的频谱的装置702。
根据本发明的一实施例,所述提取装置708用于从训练语音中提取共振峰频率。
根据本发明的一实施例,所述生成装置709包括用于将所述相对应的共振峰参数组中的各对对应的共振峰参数作为分段线性频率弯曲函数中的关键点,以此来生成该频率弯曲函数的装置。
根据本发明的一实施例,所述提取装置708包括还使用相邻的帧的信息以使所提取的共振峰参数更为稳定可靠。
根据本发明的一实施例,所述提取装置708提取来自多对选择的对齐的帧的多对相对应的共振峰参数组,并包括用于求出该多对相对应的共振峰参数组的按照源和目标各自的平均,作为用于生成频率弯曲函数的所述相对应的共振峰参数组的装置。
根据本发明的一实施例,所述提取装置708提取来自多对选择的对齐的帧的多对相对应的共振峰参数组;且其中所述生成装置包括用于根据每对相对应的共振峰参数组生成一频率弯曲函数,并计算该各频率弯曲函数的平均,作为所述频率弯曲函数的装置。
根据本发明的一实施例,所述对齐装置705包括:用于从源说话者和目标说话者的训练语音中选择相对应的语音段的装置704;以及用于将所述相对应的语音段进行帧对齐装置。
根据本发明的一实施例,所述相对应的语音段是在源说话者和目标说话者的训练语音中具有相同或相似上下文的相同或相似音素。
根据本发明的一实施例,所述相同或相似上下文包括相同或相似的相邻音素、相同或相似的在词中的位置、相同或相似的在词组中的位置、相同或相似的在句子中的位置中的至少一个。
根据本发明的一实施例,所述用于选择相对应的语音段的装置704用于当存在多对具有相同或相似上下文的相同或相似音素、且各对相同或相似音素之间彼此不同时,选择其共振峰参数的变化较小的相对应的相同或相似音素,作为所述相对应的语音段。
根据本发明的一实施例,所述用于选择相对应的语音段的装置704包括用于当存在多对具有相同或相似上下文的相同或相似音素、且各对相同或相似音素之间也彼此相同时,选择其上下文较小影响其共振峰参数的相对应的相同或相似音素,作为所述相对应的语音段的装置。
根据本发明的一实施例,所述其上下文较小影响其共振峰参数的相对应的相同或相似音素包括其相邻音素为爆破音或摩擦音或静音的相对应的相同或相似音素。
根据本发明的一实施例,所述用于选择对齐的帧的装置707用于选择所述相对应的语音段的中间的对齐的帧。
根据本发明的一实施例,所述选用于择对齐的帧的装置707用于选择所述相对应的语音段中共振峰随时间变化缓慢的部分的对齐的帧。
根据本发明的一实施例,所述用于将相对应的语音段进行帧对齐的装置用于使用动态时间规整算法(DTW)706进行帧对齐。
根据本发明的一实施例,所述用于选择对齐的帧的装置707用于选择所述相对应的帧对齐的语音段的中间的对齐的帧、和选择具有最小声学差异的对齐的帧中的至少一个。
根据本发明的一实施例,所述准备装置703用于准备源说话者和目标说话者的相同内容的训练语音;且所述对齐装置705用于使用动态时间规整算法(DTW)将源说话者和目标说话者的相同内容的所述训练语音进行帧对齐。
根据本发明的一实施例,所述选择装置707用于从共振峰参数的变化较小的音素中进行选择、从其相邻音素较小影响其共振峰参数的音素中进行选择、从音素的中间部分进行选择、和选择具有最小声学差异的对齐的帧中的一个或多个。
根据本发明的一实施例,所述对齐的帧之间的所述最小声学差异可以是所述对齐的帧的FFT幅度谱或FFT倒数域幅度谱或MFCC或LPC或LSF或MCA参数等的欧氏距离或者加权距离。
根据本发明的一实施例,所述选择装置707包括:赋予装置,用于对于所述源说话者和目标说话者的训练语音中每对对齐的帧,分别根据该对帧所属的音素、该对帧的上下文、该对帧在其音素中的位置、该对帧之间的声学差异来赋予该对帧相应的成本;计算装置,用于计算所述每对帧的所述各成本的加权和以获得每对帧的总成本;以及选择装置,用于选择总成本最低的一对帧,作为用于提取相对应的共振峰参数组的所述对齐的帧。
根据本发明的用于进行语音转换的系统包括上述进行频率弯曲的装置700以及其他与现有技术相同的部件。
根据本发明的语音识别系统包括上述进行频率弯曲的装置700以及其他与现有技术相同的部件。
以上描述了根据本发明的一种用于生成频率弯曲函数的方法及装置、用于进行频率弯曲的方法及装置、以及包括所述进行频率弯曲的装置的语音转换系统和语音识别系统。以上描述示例性的,旨在使本领域的技术人员可实现本发明,而不是对本发明的限制。所描述的根据本发明的各实施例的方法中的各步骤也可以不同顺序进行,或增加、删除、替换其中的某些步骤,而不脱离本发明的范围。所描述的根据本发明的各实施例的装置及系统中的各部件可实现为软件、固件、硬件或其任意组合,并且这些部件可以相互拆分或合并,只要能够完成所述功能即可。在一优选实现方式中,这些装置为通用计算机硬件与相应在的软件功能模块的结合。本申请所要求保护的范围不由以上说明规定,而是唯一由以下权利要求规定。

Claims (36)

1.  一种用于生成频率弯曲函数的方法,包括以下步骤:
准备源说话者和目标说话者的训练语音;
将所述源说话者和目标说话者的训练语音进行帧对齐;
从所述帧对齐的源说话者和目标说话者的训练语音中选择对齐的帧;
提取所述选择的对齐的帧的相对应的共振峰参数组;以及
根据所述相对应的共振峰参数组生成频率弯曲函数。
2.根据权利要求1的方法,其中所述共振峰参数包括共振峰频率。
3.根据权利要求1的方法,其中所述生成频率弯曲函数的步骤包括将所述相对应的共振峰参数组中的各对对应的共振峰参数作为分段线性频率弯曲函数中的关键点,以此来生成该频率弯曲函数。
4.根据权利要求1的方法,其中所述提取相对应的共振峰参数组的步骤包括提取来自多对选择的对齐的帧的多对相对应的共振峰参数组,并求出该多对相对应的共振峰参数组的按照源和目标各自的平均,作为用于生成频率弯曲函数的所述相对应的共振峰参数组。
5.根据权利要求1的方法,其中所述提取相对应的共振峰参数组的步骤包括提取来自多对选择的对齐的帧的多对相对应的共振峰参数组;且其中所述生成频率弯曲函数的步骤包括根据每对相对应的共振峰参数组生成一频率弯曲函数,并计算该各频率弯曲函数的平均,作为所述频率弯曲函数。
6.根据权利要求1的方法,其中所述进行帧对齐的步骤包括:
从源说话者和目标说话者的训练语音中选择相对应的语音段;以及
将所述相对应的语音段进行帧对齐;
其中所述相对应的语音段是在源说话者和目标说话者的训练语音中具有相同或相似上下文的相同或相似音素。
7.根据权利要求6的方法,其中所述相同或相似上下文包括相同或相似的相邻音素、相同或相似的在词中的位置、相同或相似的在词组中的位置、相同或相似的在句子中的位置中的至少一个。
8.根据权利要求6的方法,其中所述选择相对应的语音段的步骤包括当存在多对具有相同或相似上下文的相同或相似音素、且各对相同或相似音素之间彼此不同时,选择其共振峰参数的变化较小的相对应的相同或相似音素,作为所述相对应的语音段。
9.根据权利要求6的方法,其中所述选择相对应的语音段的步骤包括当存在多对具有相同或相似上下文的相同或相似音素、且各对相同或相似音素之间也彼此相同时,选择其相邻音素为爆破音或摩擦音或静音的相对应的相同或相似音素,作为所述相对应的语音段。
10.根据权利要求6的方法,其中所述选择对齐的帧的步骤包括选择所述相对应的语音段的中间的对齐的帧。
11.根据权利要求6的方法,其中所述将相对应的语音段进行帧对齐的步骤包括使用动态时间规整算法(DTW)进行帧对齐。
12.根据权利要求11的方法,其中所述选择对齐的帧的步骤包括选择所述相对应的帧对齐的语音段的中间的对齐的帧、和选择具有最小声学差异的对齐的帧中的至少一个。
13.根据权利要求1的方法,其中所述准备步骤包括准备源说话者和目标说话者的相同内容的训练语音;且所述进行帧对齐的步骤包括使用动态时间规整算法(DTW)将源说话者和目标说话者的相同内容的所述训练语音进行帧对齐。
14.根据权利要求13的方法,其中所述选择对齐的帧的步骤包括从共振峰参数的变化较小的音素中进行选择、从其相邻音素为爆破音或摩擦音或静音的音素中进行选择、从音素的中间部分进行选择、和选择具有最小声学差异的对齐的帧中的一个或多个。
15.根据权利要求14的方法,其中所述对齐的帧之间的所述最小声学差异包括:所述对齐的帧的FFT幅度谱或FFT倒数域幅度谱或MFCC或LPC或LSF或MCA参数的欧氏距离或者加权距离。
16.根据权利要求14的方法,其中所述选择对齐的帧的步骤包括以下步骤:
对于所述源说话者和目标说话者的训练语音中每对对齐的帧,分别根据该对帧所属的音素、该对帧的上下文、该对帧在其音素中的位置、该对帧之间的声学差异来赋予该对帧相应的成本;
计算所述每对帧的所述各成本的加权和以获得每对帧的总成本;以及
选择总成本最低的一对帧,作为用于提取相对应的共振峰参数组的所述对齐的帧。
17.一种进行频率弯曲的方法,该方法包括以下步骤:
获得源说话者的语音的频谱;
使用根据权利要求1-16中任何一个的方法生成频率弯曲函数;以及
使用所述频率弯曲函数转换所述源说话者的语音的频谱。
18.根据权利要求17的方法,其中所述生成频率弯曲函数的步骤包括使用根据权利要求1-16中任何一个的方法生成一个频率弯曲函数,且其中所述转换源说话者的语音的频谱的步骤包括使用该一个频率弯曲函数转换所述源说话者的所有语音的频谱。
19.根据权利要求17的方法,其中所述获得源说话者的语音的频谱的步骤包括生成源说话者的语音中不同音素的频谱;其中所述生成频率弯曲函数的步骤包括使用根据权利要求1-16中任何一个的方法生成用于不同音素的多个频率弯曲函数;其中所述转换源说话者的语音的频谱的步骤包括根据源说话者的语音中的不同音素使用用于该音素的所述频率弯曲函数来转换该音素的频谱;且该方法还包括频谱的平滑化,以消除不同音素之间的频谱不连续。
20.根据权利要求19的方法,其中所述使用不同的频率弯曲函数转换源说话者的语音中的不同音素的频谱的步骤包括使用源说话者的语音的频谱的向量量化来确定使用哪个频率弯曲函数来转换源说话者的语音中的不同音素的频谱;且其中所述使用向量量化的步骤包括使用基于音素的用于向量量化的码本。
21.一种进行语音转换的方法,该方法包括使用根据权利要求17-20中任何一个的方法转换源说话者的语音频谱,以将源说话者的语音转换为类似于目标说话者的语音。
22.一种进行语音识别的方法,该方法包括使用权利要求17-20中任何一个的方法转换输入语音的频谱的步骤。
23.一种用于生成频率弯曲函数的装置,该装置包括:
准备装置,用于准备源说话者和目标说话者的训练语音;
对齐装置,用于将所述源说话者和目标说话者的训练语音进行帧对齐;
选择装置,用于从所述帧对齐的源说话者和目标说话者的训练语音中选择对齐的帧;
提取装置,用于提取所述选择的对齐的帧的相对应的共振峰参数组;以及
生成装置,用于根据所述相对应的共振峰参数组生成频率弯曲函数。
24.根据权利要求23的装置,其中所述提取装置提取来自多对选择的对齐的帧的多对相对应的共振峰参数组,并包括用于求出该多对相对应的共振峰参数组的按照源和目标各自的平均,作为用于生成频率弯曲函数的所述相对应的共振峰参数组的装置。
25.根据权利要求23的装置,其中所述提取装置提取来自多对选择的对齐的帧的多对相对应的共振峰参数组;且其中所述生成装置包括用于根据每对相对应的共振峰参数组生成一频率弯曲函数,并计算该各频率弯曲函数的平均,作为所述频率弯曲函数的装置。
26.根据权利要求23的装置,其中所述对齐装置包括:
用于从源说话者和目标说话者的训练语音中选择相对应的语音段的装置;以及
用于将所述相对应的语音段进行帧对齐装置,
其中所述相对应的语音段是在源说话者和目标说话者的训练语音中具有相同或相似上下文的相同或相似音素。
27.根据权利要求26的装置,其中所述相同或相似上下文包括相同或相似的相邻音素、相同或相似的在词中的位置、相同或相似的在词组中的位置、相同或相似的在句子中的位置中的至少一个。
28.根据权利要求26的装置,其中所述用于选择相对应的语音段的装置还用于当存在多对具有相同或相似上下文的相同或相似音素、且各对相同或相似音素之间彼此不同时,选择其共振峰参数的变化较小的相对应的相同或相似音素,作为所述相对应的语音段。
29.根据权利要26的装置,其中所述用于选择相对应的语音段的装置还用于当存在多对具有相同或相似上下文的相同或相似音素、且各对相同音素之间也彼此相同时,选择其上下文较小影响其共振峰参数的相对应的相同或相似音素,作为所述相对应的语音段的装置。
30.根据权利要求26的装置,其中所述用于选择对齐的帧的装置用于选择所述相对应的语音段的中间的对齐的帧。
31.根据权利要求23的装置,其中所述准备装置用于准备源说话者和目标说话者的相同内容的训练语音;且所述对齐装置用于使用动态时间规整算法(DTW)将源说话者和目标说话者的相同内容的所述训练语音进行帧对齐。
32.根据权利要求31的装置,其中所述选择装置用于从共振峰参数的变化较小的音素中进行选择、从其相邻音素较小影响其共振峰参数的音素中进行选择、从音素的中间部分进行选择、和选择具有最小声学差异的对齐的帧中的一个或多个。
33.根据权利要求32的装置,其中所述选择装置包括:
赋予装置,用于对于所述源说话者和目标说话者的训练语音中每对对齐的帧,分别根据该对帧所属的音素、该对帧的上下文、该对帧在其音素中的位置、该对帧之间的声学差异来赋予该对帧相应的成本;
计算装置,用于计算所述每对帧的所述各成本的加权和以获得每对帧的总成本;以及
选择装置,用于选择总成本最低的一对帧,作为用于提取相对应的共振峰参数组的所述对齐的帧。
34.一种进行频率弯曲的装置,包括:
用于获得源说话者的语音的频谱的装置;
根据权利要求23-33中任何一个的用于生成频率弯曲函数的装置;以及
用于使用所述频率弯曲函数转换所述源说话者的语音的频谱的装置。
35.一种语音转换系统,该系统包括根据权利要求34的进行频率弯曲的装置。
36.一种语音识别系统,该系统包括根据权利要求34的进行频率弯曲的装置。
CN2006100014669A 2006-01-17 2006-01-17 用于生成频率弯曲函数及进行频率弯曲的方法和装置 Expired - Fee Related CN101004911B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2006100014669A CN101004911B (zh) 2006-01-17 2006-01-17 用于生成频率弯曲函数及进行频率弯曲的方法和装置
US11/654,447 US8401861B2 (en) 2006-01-17 2007-01-17 Generating a frequency warping function based on phoneme and context

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2006100014669A CN101004911B (zh) 2006-01-17 2006-01-17 用于生成频率弯曲函数及进行频率弯曲的方法和装置

Publications (2)

Publication Number Publication Date
CN101004911A true CN101004911A (zh) 2007-07-25
CN101004911B CN101004911B (zh) 2012-06-27

Family

ID=38335117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006100014669A Expired - Fee Related CN101004911B (zh) 2006-01-17 2006-01-17 用于生成频率弯曲函数及进行频率弯曲的方法和装置

Country Status (2)

Country Link
US (1) US8401861B2 (zh)
CN (1) CN101004911B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101996631A (zh) * 2009-08-28 2011-03-30 国际商业机器公司 用于对齐文本的方法和装置
CN102623006A (zh) * 2011-01-27 2012-08-01 通用汽车有限责任公司 阻塞音语音能量到较低频率的映射
CN106062867A (zh) * 2014-02-26 2016-10-26 微软技术许可有限责任公司 语音字体说话者以及韵律插值
WO2017059694A1 (zh) * 2015-10-08 2017-04-13 重庆邮电大学 一种语音模仿方法和装置
CN111933116A (zh) * 2020-06-22 2020-11-13 厦门快商通科技股份有限公司 语音识别模型训练方法、系统、移动终端及存储介质

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4241736B2 (ja) * 2006-01-19 2009-03-18 株式会社東芝 音声処理装置及びその方法
CN101359473A (zh) 2007-07-30 2009-02-04 国际商业机器公司 自动进行语音转换的方法和装置
US8706496B2 (en) * 2007-09-13 2014-04-22 Universitat Pompeu Fabra Audio signal transforming by utilizing a computational cost function
CN101809652B (zh) * 2007-09-25 2013-07-10 日本电气株式会社 频率轴伸缩系数估计设备、系统方法
US8224648B2 (en) * 2007-12-28 2012-07-17 Nokia Corporation Hybrid approach in voice conversion
WO2010137385A1 (ja) * 2009-05-28 2010-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション 話者適応のための基本周波数の移動量学習装置、基本周波数生成装置、移動量学習方法、基本周波数生成方法及び移動量学習プログラム
KR20110028095A (ko) * 2009-09-11 2011-03-17 삼성전자주식회사 실시간 화자 적응을 통한 음성 인식 시스템 및 방법
CN102473416A (zh) * 2010-06-04 2012-05-23 松下电器产业株式会社 音质变换装置及其方法、元音信息制作装置及音质变换系统
JP5961950B2 (ja) * 2010-09-15 2016-08-03 ヤマハ株式会社 音声処理装置
US9984700B2 (en) * 2011-11-09 2018-05-29 Speech Morphing Systems, Inc. Method for exemplary voice morphing
US9263030B2 (en) * 2013-01-23 2016-02-16 Microsoft Technology Licensing, Llc Adaptive online feature normalization for speech recognition
US9621713B1 (en) * 2014-04-01 2017-04-11 Securus Technologies, Inc. Identical conversation detection method and apparatus
US10237399B1 (en) 2014-04-01 2019-03-19 Securus Technologies, Inc. Identical conversation detection method and apparatus
US10008216B2 (en) * 2014-04-15 2018-06-26 Speech Morphing Systems, Inc. Method and apparatus for exemplary morphing computer system background
US9922048B1 (en) 2014-12-01 2018-03-20 Securus Technologies, Inc. Automated background check via facial recognition
FR3062945B1 (fr) * 2017-02-13 2019-04-05 Centre National De La Recherche Scientifique Methode et appareil de modification dynamique du timbre de la voix par decalage en frequence des formants d'une enveloppe spectrale
US20190019500A1 (en) * 2017-07-13 2019-01-17 Electronics And Telecommunications Research Institute Apparatus for deep learning based text-to-speech synthesizing by using multi-speaker data and method for the same
CN113808595A (zh) * 2020-06-15 2021-12-17 颜蔚 一种从源说话人到目标说话人的声音转换方法及装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993018505A1 (en) * 1992-03-02 1993-09-16 The Walt Disney Company Voice transformation system
US6240384B1 (en) * 1995-12-04 2001-05-29 Kabushiki Kaisha Toshiba Speech synthesis method
US6336092B1 (en) * 1997-04-28 2002-01-01 Ivl Technologies Ltd Targeted vocal transformation
JP2986792B2 (ja) * 1998-03-16 1999-12-06 株式会社エイ・ティ・アール音声翻訳通信研究所 話者正規化処理装置及び音声認識装置
US6502066B2 (en) * 1998-11-24 2002-12-31 Microsoft Corporation System for generating formant tracks by modifying formants synthesized from speech units
US6618699B1 (en) * 1999-08-30 2003-09-09 Lucent Technologies Inc. Formant tracking based on phoneme information
US6836761B1 (en) * 1999-10-21 2004-12-28 Yamaha Corporation Voice converter for assimilation by frame synthesis with temporal alignment
US20030028380A1 (en) * 2000-02-02 2003-02-06 Freeland Warwick Peter Speech system
US20020065649A1 (en) * 2000-08-25 2002-05-30 Yoon Kim Mel-frequency linear prediction speech recognition apparatus and method
US7209882B1 (en) * 2002-05-10 2007-04-24 At&T Corp. System and method for triphone-based unit selection for visual speech synthesis
US7567675B2 (en) * 2002-06-21 2009-07-28 Audyssey Laboratories, Inc. System and method for automatic multiple listener room acoustic correction with low filter orders
US20050065784A1 (en) * 2003-07-31 2005-03-24 Mcaulay Robert J. Modification of acoustic signals using sinusoidal analysis and synthesis
US7664642B2 (en) * 2004-03-17 2010-02-16 University Of Maryland System and method for automatic speech recognition from phonetic features and acoustic landmarks
JP3913770B2 (ja) * 2004-05-11 2007-05-09 松下電器産業株式会社 音声合成装置および方法
US7716052B2 (en) * 2005-04-07 2010-05-11 Nuance Communications, Inc. Method, apparatus and computer program providing a multi-speaker database for concatenative text-to-speech synthesis
US20060259303A1 (en) * 2005-05-12 2006-11-16 Raimo Bakis Systems and methods for pitch smoothing for text-to-speech synthesis

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101996631A (zh) * 2009-08-28 2011-03-30 国际商业机器公司 用于对齐文本的方法和装置
CN101996631B (zh) * 2009-08-28 2014-12-03 国际商业机器公司 用于对齐文本的方法和装置
CN102623006A (zh) * 2011-01-27 2012-08-01 通用汽车有限责任公司 阻塞音语音能量到较低频率的映射
CN106062867A (zh) * 2014-02-26 2016-10-26 微软技术许可有限责任公司 语音字体说话者以及韵律插值
CN106062867B (zh) * 2014-02-26 2019-10-15 微软技术许可有限责任公司 语音字体说话者以及韵律插值
WO2017059694A1 (zh) * 2015-10-08 2017-04-13 重庆邮电大学 一种语音模仿方法和装置
CN106571145A (zh) * 2015-10-08 2017-04-19 重庆邮电大学 一种语音模仿方法和装置
US10818307B2 (en) 2015-10-08 2020-10-27 Tencent Technology (Shenzhen) Company Limited Voice imitation method and apparatus, and storage medium utilizing cloud to store, use, discard, and send imitation voices
CN111933116A (zh) * 2020-06-22 2020-11-13 厦门快商通科技股份有限公司 语音识别模型训练方法、系统、移动终端及存储介质

Also Published As

Publication number Publication date
CN101004911B (zh) 2012-06-27
US8401861B2 (en) 2013-03-19
US20070185715A1 (en) 2007-08-09

Similar Documents

Publication Publication Date Title
CN101004911B (zh) 用于生成频率弯曲函数及进行频率弯曲的方法和装置
CN105788589B (zh) 一种音频数据的处理方法及装置
Boril et al. Unsupervised equalization of Lombard effect for speech recognition in noisy adverse environments
CN104272382B (zh) 基于模板的个性化歌唱合成的方法和系统
Huang et al. Whistler: A trainable text-to-speech system
CN1121679C (zh) 用于语音合成的运行时声频单元选择方法和系统
CN101399044B (zh) 语音转换方法和系统
CN101578659B (zh) 音质转换装置及音质转换方法
JP4829477B2 (ja) 声質変換装置および声質変換方法ならびに声質変換プログラム
Panda et al. Automatic speech segmentation in syllable centric speech recognition system
CN101359473A (zh) 自动进行语音转换的方法和装置
Liu et al. High quality voice conversion through phoneme-based linear mapping functions with straight for mandarin
Aggarwal et al. Performance evaluation of sequentially combined heterogeneous feature streams for Hindi speech recognition system
Milner et al. Prediction of fundamental frequency and voicing from mel-frequency cepstral coefficients for unconstrained speech reconstruction
Pawar et al. Review of various stages in speaker recognition system, performance measures and recognition toolkits
Chittaragi et al. Acoustic-phonetic feature based Kannada dialect identification from vowel sounds
Shao et al. Pitch prediction from MFCC vectors for speech reconstruction
Duxans et al. Voice conversion of non-aligned data using unit selection
Sinha et al. Fusion of multi-stream speech features for dialect classification
Asakawa et al. Automatic recognition of connected vowels only using speaker-invariant representation of speech dynamics
Hsu et al. Speaker-dependent model interpolation for statistical emotional speech synthesis
Lingam Speaker based language independent isolated speech recognition system
Heo et al. Classification based on speech rhythm via a temporal alignment of spoken sentences
Mai et al. Design of Vietnamese speech corpus and current status
Shao et al. Predicting fundamental frequency from mel-frequency cepstral coefficients to enable speech reconstruction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: NEW ANST COMMUNICATION CO.,LTD.

Free format text: FORMER OWNER: INTERNATIONAL BUSINESS MACHINE CORP.

Effective date: 20090925

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20090925

Address after: Massachusetts, USA

Applicant after: Nuance Communications Inc

Address before: American New York

Applicant before: International Business Machines Corp.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120627

Termination date: 20170117

CF01 Termination of patent right due to non-payment of annual fee