JP2004062002A - Speech synthesizing method - Google Patents

Speech synthesizing method Download PDF

Info

Publication number
JP2004062002A
JP2004062002A JP2002222511A JP2002222511A JP2004062002A JP 2004062002 A JP2004062002 A JP 2004062002A JP 2002222511 A JP2002222511 A JP 2002222511A JP 2002222511 A JP2002222511 A JP 2002222511A JP 2004062002 A JP2004062002 A JP 2004062002A
Authority
JP
Japan
Prior art keywords
phoneme
waveform
pitch
unit
phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002222511A
Other languages
Japanese (ja)
Other versions
JP4056319B2 (en
Inventor
Hiroyuki Hirai
平井 啓之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002222511A priority Critical patent/JP4056319B2/en
Publication of JP2004062002A publication Critical patent/JP2004062002A/en
Application granted granted Critical
Publication of JP4056319B2 publication Critical patent/JP4056319B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speech synthesizing method capable of reducing the connection distortion of a phoneme based upon the position of a pitch mark. <P>SOLUTION: In the speech synthesizing method of selecting the combination of phoneme units which has the smallest sum of distortion from a target and connection distortion of the phoneme units among combinations of phoneme units and generating a synthesized speech waveform on a wavelength superposition basis according to the selected combination of phoneme units, phase information on the pitch waveform at the start end of each phoneme unit and phase information on the pitch waveform at the tail end of the phoneme unit are added to auxiliary information on the phoneme unit and the distance between the phase of the pitch waveform at the tail end of the precedent phoneme unit between two phoneme units to be connected together and the phase of the pitch information at the start end of the trailing phoneme unit is added as a parameter used to calculate the connection distortion of the phoneme units. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、任意のテキスト情報を合成音声で読み上げることのできる音声合成方法に関する。
【0002】
【従来の技術】
図1は、音声合成装置の概略構成を示している。
【0003】
入力された日本語仮名漢字混じりのテキストは、言語処理部1で形態素解析、係り受け解析が行なわれ、音素記号、アクセント記号等に変換せしめられる。
【0004】
韻律パターン生成部2では、音素記号、アクセント記号列および形態素解析結果から得られる入力テキストの品詞情報を用いて、音韻継続時間長(声の長さ DURT )、基本周波数(声の高さ FO T )、母音中心のパワー(声の大きさPOW T )等の推定が行なわれる。
【0005】
音素単位選択部3では、推定された音韻継続時間長 DURT 、基本周波数 FO T および母音中心のパワーPOW T に最も近く、かつ波形辞書5に蓄積されている音素単位( 音素片) を接続したときの歪みが最も小さくなる音素片の組み合わせがDP(動的プログラミング)を用いて選択される。
【0006】
音声波形生成部4では、選択された音素片の組み合わせにしたがって、ピッチを変換しつつ音素片の接続を行なうことによって音声が生成される。
【0007】
図2は、波形辞書5の内容を示している。
波形辞書5は、複数の音素片が格納された音素片格納部51と、音素片格納部51内の各音素片に関する補助情報が格納された補助情報格納部52とがある。補助情報には、音素片のパワー(POW Dic )、基本周波数( FO Dic )、継続時間長( DURDic )等がある。
【0008】
ところで、音素単位選択部3では、波形辞書5に蓄積されている音素片の組み合わせの中で、歪みが少なくなる組み合わせを選択しているが、この歪みには次のようなものがある。
【0009】
つまり、図3に示すように、ui−1 、ui 、ui+1 を波形辞書5から抽出した音素片として、ti−1 、ti 、ti+1 を実際に使用する環境( ターゲット)とすると、ui に対する歪みには、Ct  i と、Cc  i とがある。
【0010】
ここで、Ct  i は、i番目の音素について辞書から抽出した音素片(ui )と実際に使用する環境( ターゲットti )との間の歪みである。また、Cc  i は、i番目の音素片(ui )と、i−1番目の素片(ui−1 )とを接続したときに生じる歪みである。音素単位選択部3は、動的計画法(DP法)に用いて音素片を接続していき、入力された全ての音素に対するCt  i とCc  i との総和Call が最小となる素片の組み合わせを選択する。
【0011】
t  i は、次式(1)で表される。
【0012】
【数1】

Figure 2004062002
【0013】
上記式(1)において、各変数は、次のように定義される。
【0014】
t  POW (ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )のパワー(POW Dic (i) )と、実際に使用する環境(ターゲットti )のパワー(POW T (i) )との間の距離の自乗であり、{(POW Dic (i) )−(POW T (i) )}2 となる。
【0015】
t  POW は、Dt  POW (ti ,ui )に対する重み係数である。
【0016】
t  F0(ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )の基本周波数( FO Dic (i) )と、実際に使用する環境(ターゲットti )の基本周波数( FO T (i) )との間の距離の自乗であり、{( FO Dic (i) )−( FO T (i) )}2 となる。
【0017】
t  F0  は、Dt  F0(ti ,ui )に対する重み係数である。
【0018】
t  DUR (ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )の継続時間長( DURDic (i) )と、実際に使用する環境(ターゲットti )の継続時間長( DURT (i) )との間の距離の自乗であり、{( DURDic (i) )−( DURT (i) )}2 となる。
【0019】
t  DUR は、Dt  DUR (ti ,ui )に対する重み係数である。
【0020】
c  i は、次式(2)で表される。
【0021】
【数2】
Figure 2004062002
【0022】
上記式(2)において、各変数は、次のように定義される。
【0023】
c  POW (ui ,ui−1 )は、i番目の音素片(ui )の始端のパワー(POW DicS(i) )と、i−1番目の音素片(ui−1 )の終端のパワー(POW DicE(i−1) )との間の距離の自乗であり、{(POW DicS(i) )−(POW DicE(i−1) )}2 となる。
【0024】
c  POW は、Dc  POW (ui ,ui−1 )に対する重み係数である。
【0025】
c  F0(ui ,ui−1 )は、i番目の音素片(ui )の始端の基本周波数( FO DicS(i) )と、i−1番目の音素片(ui−1 )の終端の基本周波数(FODicE (i−1))との間の距離の自乗であり、{( FO DicS(i) )−(FODicE (i−1))}2 となる。
【0026】
c  F0は、Dc  F0(ui ,ui−1 )に対する重み係数である。
【0027】
c  SPC (ui ,ui−1 )は、i番目の音素片(ui )の始端のスペクトル(SPCDicS(i,j), j=1 〜16  )と、i−1番目の音素片(ui−1 )の終端のスペクトル( SPCDicE(i−1,j) , j =1 〜16)との間の距離の自乗であり、{( SPCDicS(i,j) )−( SPCDicE(i−1,j) )}2 となる。
【0028】
c  SPC は、Dc  SPC (ui ,ui−1 )に対する重み係数である。
【0029】
入力された全ての音素に対するCt  i とCc  i との総和Call は、次式(3)で表される。
【0030】
【数3】
Figure 2004062002
【0031】
音声波形生成部4は、ここでは、波形重畳方式を用いて音声を合成する。波形重畳方式とは、選択された音素片を目標とする基本周波数F0T 、継続時間長DURT に合うように変形する方式の1つである。つまり、図4に示すように、音素片を生成するための元波形のピッチに同期して2ピッチの幅の窓(w1,w2,w3…)を、元波形に乗じてピッチ波形(x1,x2,x3…)を取り出す。
【0032】
このようにして元波形から取り出されたピッチ波形群が元波形に対応する1つの音素片として波形辞書5に登録されている。それらのピッチ波形を目標とする基本周波数F0T の間隔で、継続時間長DURT に合うように同じ波形を繰り返したり間引いたりしながら、再配置し加え合わせることで目的の波形を得る。ここで、窓を乗ずる位置は、1ピッチごとに設定されたピッチマークと呼ばれる位置が窓の中心となるように設定される。
【0033】
【発明が解決しようとする課題】
ところで、音素片を生成するための元波形において、基本周波数、パワー、周波数エンベロープが等しければ、同じ形状の波形(音素片)が得られるはずである。しかしながら、ピッチマークの付与の仕方が異なると抽出したピッチ波形(音素片)は異なる形状を示し、音素片を接続した場合に歪みとなる可能性がある。ピッチマークの付与は非常に困難な作業であり、すべてを相対的に等しく付与することは不可能である。
【0034】
なお、ピッチマークの位置は、次のようにして決定されている。つまり、ピッチマークの間隔が元波形のピッチ周期間隔に近く、ピッチマークの間隔が急激に変化することなく、元波形の1ピッチ内で最も大きな波形の山の直前で、かつ右上がりのゼロクロスの位置を、ピッチマークとして手作業で設定している。
【0035】
音声波形は、発声する言葉によって形状が変化するので、全ての条件を満足するようにピッチマークを設定することは不可能である。そこで、それぞれの条件を適当に妥協しながら、ピッチマークを設定している。また、どの条件を妥協するかは、合成した音声の音質を元に決定しているので、音素によって妥協する条件が異なる場合がある。その結果、同じ音素でも、その元波形を抽出した音声波形において、その音素の前側にある音素の種類によって、ピッチマークの位置が異なるといったことが生ずる。
【0036】
この発明は、ピッチマークの位置に基づく音素片の接続歪みを小さくできる音声合成方法を提供することを目的とする。
【0037】
【課題を解決するための手段】
この発明による音声合成方法は、複数の音素単位と、各音素単位毎にターゲットとの間の歪みおよび音素単位の接続歪みを算出するために用いられる補助情報とが波形辞書に格納されており、波形辞書に格納されている音素単位の組み合わせの中で、ターゲットとの間の歪みおよび音素単位の接続歪みとの和が最も少なくなる組み合わせを選択し、選択した音素単位の組み合わせに基づいて、波長重畳方式で合成音声波形を生成する音声合成方法において、各音素単位の補助情報に、音素単位の始端のピッチ波形の位相情報と音素単位の終端のピッチ波形の位相情報とを追加しておき、音素単位の接続歪みを算出する際のパラメータとして、接続される2つの音素単位のうちの前側の音素単位の終端のピッチ波形の位相と、接続される後側の音声単位の始端のピッチ波形の位相との間の距離を追加したことを特徴とする。
【0038】
ピッチ波形の位相情報としては、たとえば、音素単位の元波形に元波形のピッチに同期した窓を乗じて、音素単位を形成するピッチ波形を取り出す際に、元波形の1ピッチ内で形状的な特徴を表す特徴点と、窓の中心の位置であるピッチマークとの時間的な距離に関する情報が用いられる。
【0039】
【発明の実施の形態】
以下、この発明の実施の形態について説明する。
【0040】
音声合成装置の全体構成は、図1と同じである。
【0041】
この実施の形態では、次の点(1)、(2)が従来と異なっている。
【0042】
(1) 図5に示すように、各音素片の補助情報に、音素片のピッチ波形の位相PHASDic   i )を追加する。音素片のピッチ波形の位相PHASDic (ui )には、音素片の始端のピッチ波形の位相PHASDicS(ui )と、音素片の終端のピッチ波形の位相PHASDicE(ui )とが含まれている。
【0043】
ここで、ピッチ波形の位相とは、図6に示すように、元波形に窓を掛けてピッチ波形を取り出すときの窓の中心の位置(ピッチマークの位置)と1ピッチ内で形状的な特徴を表す位置(特徴点)との時間的な距離を示す数値である。特徴点としては、たとえば、1ピッチ内の最大値の直前のゼロクロスの位置が用いられる。なお、図6において、ピッチ波形1は窓1を用いた場合に得られるピッチ波形であり、ピッチ波形2は窓2を用いた場合に得られるピッチ波形である。
【0044】
(2) 接続歪みCc  i に、位相の歪みDc  phas(ui ,ui−1 )をパラメータとして加える。
【0045】
つまり、接続歪みCc  i は、次式(4)で表わされる。
【0046】
【数4】
Figure 2004062002
【0047】
上記式(4)において、Wc  phasは、Dc  phas(ui ,ui−1 )に対する重み計数である。また、Dc  phas(ui ,ui−1 )は、i番目の音素片ui の始端のピッチ波形の位相PHASDicS(ui )と、i−1番目の音素片ui−1 の終端のピッチ波形の位相PHASDicE(ui−1 )との間の距離の自乗であり、次式(5)で表される。
【0048】
【数5】
Figure 2004062002
【0049】
つまり、この実施の形態では、音素片のピッチ波形の位相情報も、接続歪みCc  i のパラメータとして追加し、そのパラメータによる歪みが小さくなるように音素片が選択される。このため、音素片を接続した際の聴感的な歪みを減少させることができる。
【0050】
例えば、図7に示すように、i−1番目の音素片ui−1 の終端のピッチ波形がX0であるとする。また、i番目の音素片ui としては、波形X11、X12およびX13の候補があるとする。
【0051】
波形X13はi−1番目の音素片ui−1 とスペクトルが異なる波形である。波形X12はi−1番目の音素片ui−1 とスペクトルは近いが、ピッチ波形の位相が異なる波形である。波形X11はi−1番目の音素片ui−1 とスペクトルが近くかつピッチ波形の位相もほぼ等しい波形である。したがって、この場合には、i番目の音素片ui としては、接続歪みが最も小さくなる波形X11が選択される。
【0052】
【発明の効果】
この発明によれば、ピッチマークの位置に基づく音素片の接続歪みを小さくできるようになる。
【図面の簡単な説明】
【図1】音声合成装置の全体構成を示すブロック図である。
【図2】波形辞書5の内容を示す模式図である。
【図3】音素単位選択部3において、音素片の組み合わせを選択するために用いられる2種の歪みCt  i 、Cc  i を説明するための模式図である。
【図4】波形重畳方式を説明するための模式図である。
【図5】音素片の補助情報に、音素片の始端のピッチ波形の位相PHASDicS(ui )と、音素片の終端のピッチ波形の位相PHASDicE(ui )が追加された様子を示す模式図である。
【図6】ピッチ波形の位相を説明するための模式図である。
【図7】音素片の選択例を示す模式図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a speech synthesis method capable of reading out arbitrary text information with synthesized speech.
[0002]
[Prior art]
FIG. 1 shows a schematic configuration of the speech synthesizer.
[0003]
The input text mixed with Japanese kana and kanji is subjected to morphological analysis and dependency analysis by the language processing unit 1 and converted into phoneme symbols, accent symbols, and the like.
[0004]
The prosody pattern generation unit 2 uses a phoneme symbol, an accent symbol string, and the part-of-speech information of the input text obtained from the morphological analysis result to obtain a phoneme duration (voice length DUR T ), a fundamental frequency (voice pitch FO). T ), the power at the center of the vowel (loudness POW T ), and the like are estimated.
[0005]
In the phoneme unit selector 3, and connect the estimated phoneme duration DUR T, fundamental frequency FO T and closest to the power POW T vowel center, and phonemes stored in the waveform dictionary 5 (phoneme) The combination of phoneme segments that minimizes the distortion at that time is selected using DP (dynamic programming).
[0006]
The speech waveform generation unit 4 generates speech by connecting the phonemes while converting the pitch in accordance with the combination of the selected phonemes.
[0007]
FIG. 2 shows the contents of the waveform dictionary 5.
The waveform dictionary 5 includes a phoneme unit storage unit 51 in which a plurality of phoneme units are stored, and an auxiliary information storage unit 52 in which auxiliary information on each phoneme unit in the phoneme unit storage unit 51 is stored. The auxiliary information includes the power of the phoneme segment (POW Dic ), the fundamental frequency (FO Dic ), the duration (DUR Dic ), and the like.
[0008]
By the way, the phoneme unit selection unit 3 selects a combination that reduces distortion among combinations of phonemic pieces stored in the waveform dictionary 5, and the following distortions are available.
[0009]
That is, as shown in FIG. 3, u i-1, u i, as phoneme extracting the u i + 1 from the waveform dictionary 5, t i-1, t i, and environment (target) actually using the t i + 1 Then, distortions for ui include C t i and C c i .
[0010]
Here, C t i is the distortion between the phoneme segment (u i ) extracted from the dictionary for the i-th phoneme and the environment actually used (target t i ). Also, C c i is, i-th speech segment and (u i), a strain generated when connecting the i-1 th segment (u i-1). Phoneme unit selector 3, dynamic programming is used to (DP method) will connect the speech segments, containing the sum C all of the C t i and C c i for all the phonemes inputted is minimized Select a combination of pieces.
[0011]
C t i is expressed by the following equation (1).
[0012]
(Equation 1)
Figure 2004062002
[0013]
In the above equation (1), each variable is defined as follows.
[0014]
D t POW (t i , u i ) is the power of the phoneme fragment (u i ) extracted from the dictionary for the i-th phoneme, and the power (POW Dic (i)) of the actual use environment (target t i ). This is the square of the distance from the power (POW T (i)), and is {(POW Dic (i)) − (POW T (i))} 2 .
[0015]
w t POW is a weighting factor for D t POW (t i , u i ).
[0016]
D t F0 (t i, u i) , for i-th phoneme, phoneme extracted from the dictionary and the fundamental frequency of the (u i) (FO Dic ( i)), environment actually used (target t i) the fundamental frequency is the square of the distance between the (FO T (i)), the - a 2 {(FO Dic (i) ) (FO T (i))}.
[0017]
w t F 0 is a weight coefficient for D t F 0 (t i , u i ).
[0018]
D t DUR (t i, u i), for i-th phoneme, phoneme extracted from the dictionary duration of (u i) and (DUR Dic (i)), actually used environment (target t i ) Is the square of the distance to the duration (DUR T (i)), and {(DUR Dic (i)) − (DUR T (i))} 2 .
[0019]
w t DUR is a weighting factor for D t DUR (t i , u i ).
[0020]
C c i is represented by the following formula (2).
[0021]
(Equation 2)
Figure 2004062002
[0022]
In the above equation (2), each variable is defined as follows.
[0023]
D c POW (u i , u i-1 ) is the power (POW DicS (i)) at the beginning of the i-th phoneme segment (u i ) and the power of the i-th phoneme segment (u i-1 ). This is the square of the distance between the terminal power (POW DicE (i-1)) and {(POW DicS (i))-(POW DicE (i-1))} 2 .
[0024]
w c POW is a weighting factor for D c POW (u i, u i-1).
[0025]
D c F0 (u i, u i-1) is, i-th phoneme beginning of the fundamental frequency of (u i) (FO DicS ( i)) and, i-1 th phoneme (u i-1) Is the square of the distance from the fundamental frequency (FO DicE (i-1)) at the end of, and is {(FO DicS (i))-(FO DicE (i-1))} 2 .
[0026]
w c F0 is a weighting factor for D c F0 (u i, u i-1).
[0027]
D c SPC (u i, u i-1) , the starting end of the spectrum (SPC DicS (i, j) , j = 1 ~16) of i-th speech segment (u i) and, i-1 th phoneme Is the square of the distance between the spectrum (SPC DicE (i-1, j), j = 1 to 16) at the end of the piece (u i-1 ), and {(SPC DicS (i, j)) − ( SPC DicE (i-1, j))} 2 .
[0028]
w c SPC is a weighting factor for D c SPC (u i, u i-1).
[0029]
The sum C all of C t i and C c i for all input phonemes is represented by the following equation (3).
[0030]
[Equation 3]
Figure 2004062002
[0031]
Here, the audio waveform generation unit 4 synthesizes audio using a waveform superposition method. The waveform superposition method is one of methods in which a selected phoneme is deformed so as to conform to a target fundamental frequency F0 T and a duration time DUR T. In other words, as shown in FIG. 4, the original waveform is multiplied by a window (w1, w2, w3...) Having a width of two pitches in synchronization with the pitch of the original waveform for generating a phoneme segment, and the pitch waveform (x1, x2, x3 ...).
[0032]
The pitch waveform group extracted from the original waveform in this way is registered in the waveform dictionary 5 as one phoneme corresponding to the original waveform. At intervals of the fundamental frequency F0 T to those pitch waveforms and target, while or thinning or repeating the same waveform to match the duration DUR T, to obtain the desired waveform by summing rearranged. Here, the position on which the window is placed is set such that a position called a pitch mark set for each pitch becomes the center of the window.
[0033]
[Problems to be solved by the invention]
By the way, if the fundamental frequency, the power, and the frequency envelope are the same in the original waveform for generating a phoneme, a waveform (phoneme) having the same shape should be obtained. However, the extracted pitch waveform (phoneme piece) has a different shape if the way of adding the pitch mark is different, and there is a possibility that distortion occurs when the phoneme pieces are connected. The application of pitch marks is a very difficult task and it is not possible to apply everything relatively equally.
[0034]
The position of the pitch mark is determined as follows. In other words, the pitch mark interval is close to the pitch cycle interval of the original waveform, the pitch mark interval does not change rapidly, and immediately before the largest waveform peak in one pitch of the original waveform, and the zero-crossing of the rising right The position is manually set as a pitch mark.
[0035]
Since the shape of the speech waveform changes depending on the words spoken, it is impossible to set pitch marks so as to satisfy all conditions. Therefore, the pitch mark is set while appropriately compromising the respective conditions. Further, since the conditions to be compromised are determined based on the sound quality of the synthesized speech, the conditions to be compromised may differ depending on the phoneme. As a result, even in the same phoneme, in the voice waveform from which the original waveform is extracted, the position of the pitch mark differs depending on the type of the phoneme in front of the phoneme.
[0036]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a speech synthesis method capable of reducing connection distortion of phonemes based on the position of a pitch mark.
[0037]
[Means for Solving the Problems]
In the speech synthesis method according to the present invention, a plurality of phoneme units and auxiliary information used to calculate a distortion between a target and a connection strain of each phoneme unit for each phoneme unit are stored in a waveform dictionary. From the combinations of phoneme units stored in the waveform dictionary, select the combination that minimizes the sum of the distortion with the target and the connection distortion of the phoneme unit, and based on the selected combination of phoneme units, In the speech synthesis method of generating a synthesized speech waveform by the superposition method, in the auxiliary information of each phoneme unit, the phase information of the pitch waveform at the beginning of the phoneme unit and the phase information of the pitch waveform at the end of the phoneme unit are added, As parameters for calculating the connection distortion per phoneme unit, the phase of the pitch waveform at the end of the front phoneme unit of the two connected phoneme units and the connected rear Characterized in that adding the distance between the phase of the start of the pitch waveforms of the voice unit.
[0038]
As the phase information of the pitch waveform, for example, when the pitch waveform forming the phoneme unit is extracted by multiplying the original waveform of the phoneme unit by a window synchronized with the pitch of the original waveform, the shape information within one pitch of the original waveform is obtained. Information about a temporal distance between a feature point representing a feature and a pitch mark that is a center position of a window is used.
[0039]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described.
[0040]
The overall configuration of the speech synthesizer is the same as in FIG.
[0041]
In this embodiment, the following points (1) and (2) are different from the conventional one.
[0042]
(1) As shown in FIG. 5, the auxiliary information of each phoneme segment includes the phase PHAS Dic (    u i ). The phase PHAS Dic pitch waveforms phoneme (u i), and phase PHAS DICS the start of the pitch waveforms of phoneme (u i), but the phase PHAS DICE pitch waveform at the end of the speech segment (u i) include.
[0043]
Here, as shown in FIG. 6, the phase of the pitch waveform refers to the position of the center of the window (position of the pitch mark) when the original waveform is windowed and the pitch waveform is extracted, and the shape characteristic within one pitch. Is a numerical value indicating a temporal distance from a position (feature point) representing. As the feature point, for example, the position of the zero cross just before the maximum value within one pitch is used. In FIG. 6, a pitch waveform 1 is a pitch waveform obtained when the window 1 is used, and a pitch waveform 2 is a pitch waveform obtained when the window 2 is used.
[0044]
(2) to connect the strain C c i, adding distortion D c phas (u i, u i-1) of phase as a parameter.
[0045]
That is, the connection strain C c i is expressed by the following equation (4).
[0046]
(Equation 4)
Figure 2004062002
[0047]
In the above formula (4), W c phas is the weight counter for D c phas (u i, u i-1). Further, D c phas (u i, u i-1) is the i-th start of pitch waveforms of phoneme u i and phase PHAS DicS (u i), i -1 th phoneme u i-1 of It is the square of the distance between the phase of the pitch waveform at the end and PHAS DicE (u i-1 ), and is expressed by the following equation (5).
[0048]
(Equation 5)
Figure 2004062002
[0049]
That is, in this embodiment, also the phase information of the pitch waveforms of phoneme, added as a parameter of the connection strain C c i, speech segment such distortion is reduced by the parameter is selected. For this reason, it is possible to reduce audible distortion when the phoneme pieces are connected.
[0050]
For example, as shown in FIG. 7, it is assumed that the pitch waveform at the end of the (i-1) -th phoneme ui -1 is X0. As the i-th phoneme u i, and there is a candidate waveform X11, X12 and X13.
[0051]
The waveform X13 is a waveform having a spectrum different from that of the (i-1) -th phoneme piece ui -1 . The waveform X12 is a waveform whose spectrum is close to that of the (i-1) -th phoneme piece ui -1 but whose pitch waveform is different in phase. The waveform X11 is a waveform whose spectrum is close to that of the (i-1) -th phoneme piece ui -1 and whose pitch waveforms have almost the same phase. Therefore, in this case, the i-th phoneme u i, waveform X11 connection distortion is smallest is selected.
[0052]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the connection distortion of a phoneme piece based on the position of a pitch mark can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an overall configuration of a speech synthesizer.
FIG. 2 is a schematic diagram showing the contents of a waveform dictionary 5;
FIG. 3 is a schematic diagram for explaining two types of distortions C t i and C c i used for selecting a combination of phoneme segments in a phoneme unit selection unit 3;
FIG. 4 is a schematic diagram for explaining a waveform superposition method.
The auxiliary information of FIG. 5 phoneme indicates the phase PHAS DICS the start of the pitch waveforms of phoneme (u i), how the phase PHAS DICE pitch waveform at the end of the speech segment (u i) is added It is a schematic diagram.
FIG. 6 is a schematic diagram for explaining the phase of a pitch waveform.
FIG. 7 is a schematic diagram showing an example of selecting a phoneme segment.

Claims (2)

複数の音素単位と、各音素単位毎にターゲットとの間の歪みおよび音素単位の接続歪みを算出するために用いられる補助情報とが波形辞書に格納されており、波形辞書に格納されている音素単位の組み合わせの中で、ターゲットとの間の歪みおよび音素単位の接続歪みとの和が最も少なくなる組み合わせを選択し、選択した音素単位の組み合わせに基づいて、波長重畳方式で合成音声波形を生成する音声合成方法において、
各音素単位の補助情報に、音素単位の始端のピッチ波形の位相情報と音素単位の終端のピッチ波形の位相情報とを追加しておき、音素単位の接続歪みを算出する際のパラメータとして、接続される2つの音素単位のうちの前側の音素単位の終端のピッチ波形の位相と、接続される後側の音声単位の始端のピッチ波形の位相との間の距離を追加したことを特徴とする音声合成方法。
A plurality of phoneme units and auxiliary information used to calculate a distortion between a target for each phoneme unit and a connection distortion per phoneme unit are stored in the waveform dictionary, and the phonemes stored in the waveform dictionary are stored. Among the combinations of units, select the combination that minimizes the sum of the distortion with the target and the connection distortion of the phoneme unit, and generate a synthesized speech waveform by the wavelength superposition method based on the selected combination of phoneme units. In the speech synthesis method
The phase information of the pitch waveform at the beginning of the phoneme unit and the phase information of the pitch waveform at the end of the phoneme unit are added to the auxiliary information for each phoneme unit, and the connection is used as a parameter when calculating the connection distortion for the phoneme unit. The distance between the phase of the pitch waveform at the end of the front phoneme unit of the two phoneme units to be connected and the phase of the pitch waveform at the start end of the connected voice unit is added. Speech synthesis method.
ピッチ波形の位相情報は、音素単位の元波形に元波形のピッチに同期した窓を乗じて、音素単位を形成するピッチ波形を取り出す際に、元波形の1ピッチ内で形状的な特徴を表す特徴点と、窓の中心の位置であるピッチマークとの時間的な距離に関する情報であることを特徴とする請求項1に記載の音声合成方法。The phase information of the pitch waveform represents a geometric feature within one pitch of the original waveform when extracting the pitch waveform forming the phoneme unit by multiplying the original waveform of the phoneme unit by a window synchronized with the pitch of the original waveform. The speech synthesis method according to claim 1, wherein the information is information on a temporal distance between a feature point and a pitch mark that is a center position of the window.
JP2002222511A 2002-07-31 2002-07-31 Speech synthesis method Expired - Fee Related JP4056319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002222511A JP4056319B2 (en) 2002-07-31 2002-07-31 Speech synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002222511A JP4056319B2 (en) 2002-07-31 2002-07-31 Speech synthesis method

Publications (2)

Publication Number Publication Date
JP2004062002A true JP2004062002A (en) 2004-02-26
JP4056319B2 JP4056319B2 (en) 2008-03-05

Family

ID=31942514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002222511A Expired - Fee Related JP4056319B2 (en) 2002-07-31 2002-07-31 Speech synthesis method

Country Status (1)

Country Link
JP (1) JP4056319B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145685A (en) * 2006-12-08 2008-06-26 Mitsubishi Electric Corp Voice-synthesis device and voice-synthesis method
JP2008176672A (en) * 2007-01-22 2008-07-31 Fujitsu Ltd Block data synthesis device
WO2009031219A1 (en) * 2007-09-06 2009-03-12 Fujitsu Limited Sound signal generating method, sound signal generating device, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008145685A (en) * 2006-12-08 2008-06-26 Mitsubishi Electric Corp Voice-synthesis device and voice-synthesis method
JP2008176672A (en) * 2007-01-22 2008-07-31 Fujitsu Ltd Block data synthesis device
WO2009031219A1 (en) * 2007-09-06 2009-03-12 Fujitsu Limited Sound signal generating method, sound signal generating device, and computer program
US8280737B2 (en) 2007-09-06 2012-10-02 Fujitsu Limited Sound signal generating method, sound signal generating device, and recording medium

Also Published As

Publication number Publication date
JP4056319B2 (en) 2008-03-05

Similar Documents

Publication Publication Date Title
JP3361066B2 (en) Voice synthesis method and apparatus
US11410637B2 (en) Voice synthesis method, voice synthesis device, and storage medium
Bonada et al. Expressive singing synthesis based on unit selection for the singing synthesis challenge 2016
JP2009047957A (en) Pitch pattern generation method and system thereof
JP2018077283A (en) Speech synthesis method
JP3728173B2 (en) Speech synthesis method, apparatus and storage medium
JP2004062002A (en) Speech synthesizing method
JPH01284898A (en) Voice synthesizing device
JP2004347653A (en) Speech synthesizing method and system for the same as well as computer program for the same and information storage medium for storing the same
JP4684770B2 (en) Prosody generation device and speech synthesis device
JP2011141470A (en) Phoneme information-creating device, voice synthesis system, voice synthesis method and program
JP3515406B2 (en) Speech synthesis method and apparatus
JP5862667B2 (en) Waveform processing apparatus, waveform processing method, and waveform processing program
JP4963345B2 (en) Speech synthesis method and speech synthesis program
JP4454780B2 (en) Audio information processing apparatus, method and storage medium
JP6683103B2 (en) Speech synthesis method
JP2005091747A (en) Speech synthesizer
JP2004258660A (en) Method and device for speech synthesis
JP2007226174A (en) Singing synthesizer, singing synthesizing method, and program for singing synthesis
JP2008299266A (en) Speech synthesis device and method
JP3423276B2 (en) Voice synthesis method
JP2004125843A (en) Voice synthesis method
JP2011191528A (en) Rhythm creation device and rhythm creation method
JP2018077281A (en) Speech synthesis method
JPH07239698A (en) Device for synthesizing phonetic rule

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees