JP2004062002A - Speech synthesizing method - Google Patents
Speech synthesizing method Download PDFInfo
- Publication number
- JP2004062002A JP2004062002A JP2002222511A JP2002222511A JP2004062002A JP 2004062002 A JP2004062002 A JP 2004062002A JP 2002222511 A JP2002222511 A JP 2002222511A JP 2002222511 A JP2002222511 A JP 2002222511A JP 2004062002 A JP2004062002 A JP 2004062002A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- waveform
- pitch
- unit
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、任意のテキスト情報を合成音声で読み上げることのできる音声合成方法に関する。
【0002】
【従来の技術】
図1は、音声合成装置の概略構成を示している。
【0003】
入力された日本語仮名漢字混じりのテキストは、言語処理部1で形態素解析、係り受け解析が行なわれ、音素記号、アクセント記号等に変換せしめられる。
【0004】
韻律パターン生成部2では、音素記号、アクセント記号列および形態素解析結果から得られる入力テキストの品詞情報を用いて、音韻継続時間長(声の長さ DURT )、基本周波数(声の高さ FO T )、母音中心のパワー(声の大きさPOW T )等の推定が行なわれる。
【0005】
音素単位選択部3では、推定された音韻継続時間長 DURT 、基本周波数 FO T および母音中心のパワーPOW T に最も近く、かつ波形辞書5に蓄積されている音素単位( 音素片) を接続したときの歪みが最も小さくなる音素片の組み合わせがDP(動的プログラミング)を用いて選択される。
【0006】
音声波形生成部4では、選択された音素片の組み合わせにしたがって、ピッチを変換しつつ音素片の接続を行なうことによって音声が生成される。
【0007】
図2は、波形辞書5の内容を示している。
波形辞書5は、複数の音素片が格納された音素片格納部51と、音素片格納部51内の各音素片に関する補助情報が格納された補助情報格納部52とがある。補助情報には、音素片のパワー(POW Dic )、基本周波数( FO Dic )、継続時間長( DURDic )等がある。
【0008】
ところで、音素単位選択部3では、波形辞書5に蓄積されている音素片の組み合わせの中で、歪みが少なくなる組み合わせを選択しているが、この歪みには次のようなものがある。
【0009】
つまり、図3に示すように、ui−1 、ui 、ui+1 を波形辞書5から抽出した音素片として、ti−1 、ti 、ti+1 を実際に使用する環境( ターゲット)とすると、ui に対する歪みには、Ct i と、Cc i とがある。
【0010】
ここで、Ct i は、i番目の音素について辞書から抽出した音素片(ui )と実際に使用する環境( ターゲットti )との間の歪みである。また、Cc i は、i番目の音素片(ui )と、i−1番目の素片(ui−1 )とを接続したときに生じる歪みである。音素単位選択部3は、動的計画法(DP法)に用いて音素片を接続していき、入力された全ての音素に対するCt i とCc i との総和Call が最小となる素片の組み合わせを選択する。
【0011】
Ct i は、次式(1)で表される。
【0012】
【数1】
【0013】
上記式(1)において、各変数は、次のように定義される。
【0014】
Dt POW (ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )のパワー(POW Dic (i) )と、実際に使用する環境(ターゲットti )のパワー(POW T (i) )との間の距離の自乗であり、{(POW Dic (i) )−(POW T (i) )}2 となる。
【0015】
wt POW は、Dt POW (ti ,ui )に対する重み係数である。
【0016】
Dt F0(ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )の基本周波数( FO Dic (i) )と、実際に使用する環境(ターゲットti )の基本周波数( FO T (i) )との間の距離の自乗であり、{( FO Dic (i) )−( FO T (i) )}2 となる。
【0017】
wt F0 は、Dt F0(ti ,ui )に対する重み係数である。
【0018】
Dt DUR (ti ,ui )は、i番目の音素について、辞書から抽出した音素片(ui )の継続時間長( DURDic (i) )と、実際に使用する環境(ターゲットti )の継続時間長( DURT (i) )との間の距離の自乗であり、{( DURDic (i) )−( DURT (i) )}2 となる。
【0019】
wt DUR は、Dt DUR (ti ,ui )に対する重み係数である。
【0020】
Cc i は、次式(2)で表される。
【0021】
【数2】
【0022】
上記式(2)において、各変数は、次のように定義される。
【0023】
Dc POW (ui ,ui−1 )は、i番目の音素片(ui )の始端のパワー(POW DicS(i) )と、i−1番目の音素片(ui−1 )の終端のパワー(POW DicE(i−1) )との間の距離の自乗であり、{(POW DicS(i) )−(POW DicE(i−1) )}2 となる。
【0024】
wc POW は、Dc POW (ui ,ui−1 )に対する重み係数である。
【0025】
Dc F0(ui ,ui−1 )は、i番目の音素片(ui )の始端の基本周波数( FO DicS(i) )と、i−1番目の音素片(ui−1 )の終端の基本周波数(FODicE (i−1))との間の距離の自乗であり、{( FO DicS(i) )−(FODicE (i−1))}2 となる。
【0026】
wc F0は、Dc F0(ui ,ui−1 )に対する重み係数である。
【0027】
Dc SPC (ui ,ui−1 )は、i番目の音素片(ui )の始端のスペクトル(SPCDicS(i,j), j=1 〜16 )と、i−1番目の音素片(ui−1 )の終端のスペクトル( SPCDicE(i−1,j) , j =1 〜16)との間の距離の自乗であり、{( SPCDicS(i,j) )−( SPCDicE(i−1,j) )}2 となる。
【0028】
wc SPC は、Dc SPC (ui ,ui−1 )に対する重み係数である。
【0029】
入力された全ての音素に対するCt i とCc i との総和Call は、次式(3)で表される。
【0030】
【数3】
【0031】
音声波形生成部4は、ここでは、波形重畳方式を用いて音声を合成する。波形重畳方式とは、選択された音素片を目標とする基本周波数F0T 、継続時間長DURT に合うように変形する方式の1つである。つまり、図4に示すように、音素片を生成するための元波形のピッチに同期して2ピッチの幅の窓(w1,w2,w3…)を、元波形に乗じてピッチ波形(x1,x2,x3…)を取り出す。
【0032】
このようにして元波形から取り出されたピッチ波形群が元波形に対応する1つの音素片として波形辞書5に登録されている。それらのピッチ波形を目標とする基本周波数F0T の間隔で、継続時間長DURT に合うように同じ波形を繰り返したり間引いたりしながら、再配置し加え合わせることで目的の波形を得る。ここで、窓を乗ずる位置は、1ピッチごとに設定されたピッチマークと呼ばれる位置が窓の中心となるように設定される。
【0033】
【発明が解決しようとする課題】
ところで、音素片を生成するための元波形において、基本周波数、パワー、周波数エンベロープが等しければ、同じ形状の波形(音素片)が得られるはずである。しかしながら、ピッチマークの付与の仕方が異なると抽出したピッチ波形(音素片)は異なる形状を示し、音素片を接続した場合に歪みとなる可能性がある。ピッチマークの付与は非常に困難な作業であり、すべてを相対的に等しく付与することは不可能である。
【0034】
なお、ピッチマークの位置は、次のようにして決定されている。つまり、ピッチマークの間隔が元波形のピッチ周期間隔に近く、ピッチマークの間隔が急激に変化することなく、元波形の1ピッチ内で最も大きな波形の山の直前で、かつ右上がりのゼロクロスの位置を、ピッチマークとして手作業で設定している。
【0035】
音声波形は、発声する言葉によって形状が変化するので、全ての条件を満足するようにピッチマークを設定することは不可能である。そこで、それぞれの条件を適当に妥協しながら、ピッチマークを設定している。また、どの条件を妥協するかは、合成した音声の音質を元に決定しているので、音素によって妥協する条件が異なる場合がある。その結果、同じ音素でも、その元波形を抽出した音声波形において、その音素の前側にある音素の種類によって、ピッチマークの位置が異なるといったことが生ずる。
【0036】
この発明は、ピッチマークの位置に基づく音素片の接続歪みを小さくできる音声合成方法を提供することを目的とする。
【0037】
【課題を解決するための手段】
この発明による音声合成方法は、複数の音素単位と、各音素単位毎にターゲットとの間の歪みおよび音素単位の接続歪みを算出するために用いられる補助情報とが波形辞書に格納されており、波形辞書に格納されている音素単位の組み合わせの中で、ターゲットとの間の歪みおよび音素単位の接続歪みとの和が最も少なくなる組み合わせを選択し、選択した音素単位の組み合わせに基づいて、波長重畳方式で合成音声波形を生成する音声合成方法において、各音素単位の補助情報に、音素単位の始端のピッチ波形の位相情報と音素単位の終端のピッチ波形の位相情報とを追加しておき、音素単位の接続歪みを算出する際のパラメータとして、接続される2つの音素単位のうちの前側の音素単位の終端のピッチ波形の位相と、接続される後側の音声単位の始端のピッチ波形の位相との間の距離を追加したことを特徴とする。
【0038】
ピッチ波形の位相情報としては、たとえば、音素単位の元波形に元波形のピッチに同期した窓を乗じて、音素単位を形成するピッチ波形を取り出す際に、元波形の1ピッチ内で形状的な特徴を表す特徴点と、窓の中心の位置であるピッチマークとの時間的な距離に関する情報が用いられる。
【0039】
【発明の実施の形態】
以下、この発明の実施の形態について説明する。
【0040】
音声合成装置の全体構成は、図1と同じである。
【0041】
この実施の形態では、次の点(1)、(2)が従来と異なっている。
【0042】
(1) 図5に示すように、各音素片の補助情報に、音素片のピッチ波形の位相PHASDic ( ui )を追加する。音素片のピッチ波形の位相PHASDic (ui )には、音素片の始端のピッチ波形の位相PHASDicS(ui )と、音素片の終端のピッチ波形の位相PHASDicE(ui )とが含まれている。
【0043】
ここで、ピッチ波形の位相とは、図6に示すように、元波形に窓を掛けてピッチ波形を取り出すときの窓の中心の位置(ピッチマークの位置)と1ピッチ内で形状的な特徴を表す位置(特徴点)との時間的な距離を示す数値である。特徴点としては、たとえば、1ピッチ内の最大値の直前のゼロクロスの位置が用いられる。なお、図6において、ピッチ波形1は窓1を用いた場合に得られるピッチ波形であり、ピッチ波形2は窓2を用いた場合に得られるピッチ波形である。
【0044】
(2) 接続歪みCc i に、位相の歪みDc phas(ui ,ui−1 )をパラメータとして加える。
【0045】
つまり、接続歪みCc i は、次式(4)で表わされる。
【0046】
【数4】
【0047】
上記式(4)において、Wc phasは、Dc phas(ui ,ui−1 )に対する重み計数である。また、Dc phas(ui ,ui−1 )は、i番目の音素片ui の始端のピッチ波形の位相PHASDicS(ui )と、i−1番目の音素片ui−1 の終端のピッチ波形の位相PHASDicE(ui−1 )との間の距離の自乗であり、次式(5)で表される。
【0048】
【数5】
【0049】
つまり、この実施の形態では、音素片のピッチ波形の位相情報も、接続歪みCc i のパラメータとして追加し、そのパラメータによる歪みが小さくなるように音素片が選択される。このため、音素片を接続した際の聴感的な歪みを減少させることができる。
【0050】
例えば、図7に示すように、i−1番目の音素片ui−1 の終端のピッチ波形がX0であるとする。また、i番目の音素片ui としては、波形X11、X12およびX13の候補があるとする。
【0051】
波形X13はi−1番目の音素片ui−1 とスペクトルが異なる波形である。波形X12はi−1番目の音素片ui−1 とスペクトルは近いが、ピッチ波形の位相が異なる波形である。波形X11はi−1番目の音素片ui−1 とスペクトルが近くかつピッチ波形の位相もほぼ等しい波形である。したがって、この場合には、i番目の音素片ui としては、接続歪みが最も小さくなる波形X11が選択される。
【0052】
【発明の効果】
この発明によれば、ピッチマークの位置に基づく音素片の接続歪みを小さくできるようになる。
【図面の簡単な説明】
【図1】音声合成装置の全体構成を示すブロック図である。
【図2】波形辞書5の内容を示す模式図である。
【図3】音素単位選択部3において、音素片の組み合わせを選択するために用いられる2種の歪みCt i 、Cc i を説明するための模式図である。
【図4】波形重畳方式を説明するための模式図である。
【図5】音素片の補助情報に、音素片の始端のピッチ波形の位相PHASDicS(ui )と、音素片の終端のピッチ波形の位相PHASDicE(ui )が追加された様子を示す模式図である。
【図6】ピッチ波形の位相を説明するための模式図である。
【図7】音素片の選択例を示す模式図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a speech synthesis method capable of reading out arbitrary text information with synthesized speech.
[0002]
[Prior art]
FIG. 1 shows a schematic configuration of the speech synthesizer.
[0003]
The input text mixed with Japanese kana and kanji is subjected to morphological analysis and dependency analysis by the
[0004]
The prosody
[0005]
In the phoneme unit selector 3, and connect the estimated phoneme duration DUR T, fundamental frequency FO T and closest to the power POW T vowel center, and phonemes stored in the waveform dictionary 5 (phoneme) The combination of phoneme segments that minimizes the distortion at that time is selected using DP (dynamic programming).
[0006]
The speech waveform generation unit 4 generates speech by connecting the phonemes while converting the pitch in accordance with the combination of the selected phonemes.
[0007]
FIG. 2 shows the contents of the
The
[0008]
By the way, the phoneme unit selection unit 3 selects a combination that reduces distortion among combinations of phonemic pieces stored in the
[0009]
That is, as shown in FIG. 3, u i-1, u i, as phoneme extracting the u i + 1 from the waveform dictionary 5, t i-1, t i, and environment (target) actually using the t i + 1 Then, distortions for ui include C t i and C c i .
[0010]
Here, C t i is the distortion between the phoneme segment (u i ) extracted from the dictionary for the i-th phoneme and the environment actually used (target t i ). Also, C c i is, i-th speech segment and (u i), a strain generated when connecting the i-1 th segment (u i-1). Phoneme unit selector 3, dynamic programming is used to (DP method) will connect the speech segments, containing the sum C all of the C t i and C c i for all the phonemes inputted is minimized Select a combination of pieces.
[0011]
C t i is expressed by the following equation (1).
[0012]
(Equation 1)
[0013]
In the above equation (1), each variable is defined as follows.
[0014]
D t POW (t i , u i ) is the power of the phoneme fragment (u i ) extracted from the dictionary for the i-th phoneme, and the power (POW Dic (i)) of the actual use environment (target t i ). This is the square of the distance from the power (POW T (i)), and is {(POW Dic (i)) − (POW T (i))} 2 .
[0015]
w t POW is a weighting factor for D t POW (t i , u i ).
[0016]
D t F0 (t i, u i) , for i-th phoneme, phoneme extracted from the dictionary and the fundamental frequency of the (u i) (FO Dic ( i)), environment actually used (target t i) the fundamental frequency is the square of the distance between the (FO T (i)), the - a 2 {(FO Dic (i) ) (FO T (i))}.
[0017]
w t F 0 is a weight coefficient for D t F 0 (t i , u i ).
[0018]
D t DUR (t i, u i), for i-th phoneme, phoneme extracted from the dictionary duration of (u i) and (DUR Dic (i)), actually used environment (target t i ) Is the square of the distance to the duration (DUR T (i)), and {(DUR Dic (i)) − (DUR T (i))} 2 .
[0019]
w t DUR is a weighting factor for D t DUR (t i , u i ).
[0020]
C c i is represented by the following formula (2).
[0021]
(Equation 2)
[0022]
In the above equation (2), each variable is defined as follows.
[0023]
D c POW (u i , u i-1 ) is the power (POW DicS (i)) at the beginning of the i-th phoneme segment (u i ) and the power of the i-th phoneme segment (u i-1 ). This is the square of the distance between the terminal power (POW DicE (i-1)) and {(POW DicS (i))-(POW DicE (i-1))} 2 .
[0024]
w c POW is a weighting factor for D c POW (u i, u i-1).
[0025]
D c F0 (u i, u i-1) is, i-th phoneme beginning of the fundamental frequency of (u i) (FO DicS ( i)) and, i-1 th phoneme (u i-1) Is the square of the distance from the fundamental frequency (FO DicE (i-1)) at the end of, and is {(FO DicS (i))-(FO DicE (i-1))} 2 .
[0026]
w c F0 is a weighting factor for D c F0 (u i, u i-1).
[0027]
D c SPC (u i, u i-1) , the starting end of the spectrum (SPC DicS (i, j) , j = 1 ~16) of i-th speech segment (u i) and, i-1 th phoneme Is the square of the distance between the spectrum (SPC DicE (i-1, j), j = 1 to 16) at the end of the piece (u i-1 ), and {(SPC DicS (i, j)) − ( SPC DicE (i-1, j))} 2 .
[0028]
w c SPC is a weighting factor for D c SPC (u i, u i-1).
[0029]
The sum C all of C t i and C c i for all input phonemes is represented by the following equation (3).
[0030]
[Equation 3]
[0031]
Here, the audio waveform generation unit 4 synthesizes audio using a waveform superposition method. The waveform superposition method is one of methods in which a selected phoneme is deformed so as to conform to a target fundamental frequency F0 T and a duration time DUR T. In other words, as shown in FIG. 4, the original waveform is multiplied by a window (w1, w2, w3...) Having a width of two pitches in synchronization with the pitch of the original waveform for generating a phoneme segment, and the pitch waveform (x1, x2, x3 ...).
[0032]
The pitch waveform group extracted from the original waveform in this way is registered in the
[0033]
[Problems to be solved by the invention]
By the way, if the fundamental frequency, the power, and the frequency envelope are the same in the original waveform for generating a phoneme, a waveform (phoneme) having the same shape should be obtained. However, the extracted pitch waveform (phoneme piece) has a different shape if the way of adding the pitch mark is different, and there is a possibility that distortion occurs when the phoneme pieces are connected. The application of pitch marks is a very difficult task and it is not possible to apply everything relatively equally.
[0034]
The position of the pitch mark is determined as follows. In other words, the pitch mark interval is close to the pitch cycle interval of the original waveform, the pitch mark interval does not change rapidly, and immediately before the largest waveform peak in one pitch of the original waveform, and the zero-crossing of the rising right The position is manually set as a pitch mark.
[0035]
Since the shape of the speech waveform changes depending on the words spoken, it is impossible to set pitch marks so as to satisfy all conditions. Therefore, the pitch mark is set while appropriately compromising the respective conditions. Further, since the conditions to be compromised are determined based on the sound quality of the synthesized speech, the conditions to be compromised may differ depending on the phoneme. As a result, even in the same phoneme, in the voice waveform from which the original waveform is extracted, the position of the pitch mark differs depending on the type of the phoneme in front of the phoneme.
[0036]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a speech synthesis method capable of reducing connection distortion of phonemes based on the position of a pitch mark.
[0037]
[Means for Solving the Problems]
In the speech synthesis method according to the present invention, a plurality of phoneme units and auxiliary information used to calculate a distortion between a target and a connection strain of each phoneme unit for each phoneme unit are stored in a waveform dictionary. From the combinations of phoneme units stored in the waveform dictionary, select the combination that minimizes the sum of the distortion with the target and the connection distortion of the phoneme unit, and based on the selected combination of phoneme units, In the speech synthesis method of generating a synthesized speech waveform by the superposition method, in the auxiliary information of each phoneme unit, the phase information of the pitch waveform at the beginning of the phoneme unit and the phase information of the pitch waveform at the end of the phoneme unit are added, As parameters for calculating the connection distortion per phoneme unit, the phase of the pitch waveform at the end of the front phoneme unit of the two connected phoneme units and the connected rear Characterized in that adding the distance between the phase of the start of the pitch waveforms of the voice unit.
[0038]
As the phase information of the pitch waveform, for example, when the pitch waveform forming the phoneme unit is extracted by multiplying the original waveform of the phoneme unit by a window synchronized with the pitch of the original waveform, the shape information within one pitch of the original waveform is obtained. Information about a temporal distance between a feature point representing a feature and a pitch mark that is a center position of a window is used.
[0039]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described.
[0040]
The overall configuration of the speech synthesizer is the same as in FIG.
[0041]
In this embodiment, the following points (1) and (2) are different from the conventional one.
[0042]
(1) As shown in FIG. 5, the auxiliary information of each phoneme segment includes the phase PHAS Dic ( u i ). The phase PHAS Dic pitch waveforms phoneme (u i), and phase PHAS DICS the start of the pitch waveforms of phoneme (u i), but the phase PHAS DICE pitch waveform at the end of the speech segment (u i) include.
[0043]
Here, as shown in FIG. 6, the phase of the pitch waveform refers to the position of the center of the window (position of the pitch mark) when the original waveform is windowed and the pitch waveform is extracted, and the shape characteristic within one pitch. Is a numerical value indicating a temporal distance from a position (feature point) representing. As the feature point, for example, the position of the zero cross just before the maximum value within one pitch is used. In FIG. 6, a
[0044]
(2) to connect the strain C c i, adding distortion D c phas (u i, u i-1) of phase as a parameter.
[0045]
That is, the connection strain C c i is expressed by the following equation (4).
[0046]
(Equation 4)
[0047]
In the above formula (4), W c phas is the weight counter for D c phas (u i, u i-1). Further, D c phas (u i, u i-1) is the i-th start of pitch waveforms of phoneme u i and phase PHAS DicS (u i), i -1 th phoneme u i-1 of It is the square of the distance between the phase of the pitch waveform at the end and PHAS DicE (u i-1 ), and is expressed by the following equation (5).
[0048]
(Equation 5)
[0049]
That is, in this embodiment, also the phase information of the pitch waveforms of phoneme, added as a parameter of the connection strain C c i, speech segment such distortion is reduced by the parameter is selected. For this reason, it is possible to reduce audible distortion when the phoneme pieces are connected.
[0050]
For example, as shown in FIG. 7, it is assumed that the pitch waveform at the end of the (i-1) -th phoneme ui -1 is X0. As the i-th phoneme u i, and there is a candidate waveform X11, X12 and X13.
[0051]
The waveform X13 is a waveform having a spectrum different from that of the (i-1) -th phoneme piece ui -1 . The waveform X12 is a waveform whose spectrum is close to that of the (i-1) -th phoneme piece ui -1 but whose pitch waveform is different in phase. The waveform X11 is a waveform whose spectrum is close to that of the (i-1) -th phoneme piece ui -1 and whose pitch waveforms have almost the same phase. Therefore, in this case, the i-th phoneme u i, waveform X11 connection distortion is smallest is selected.
[0052]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the connection distortion of a phoneme piece based on the position of a pitch mark can be reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an overall configuration of a speech synthesizer.
FIG. 2 is a schematic diagram showing the contents of a
FIG. 3 is a schematic diagram for explaining two types of distortions C t i and C c i used for selecting a combination of phoneme segments in a phoneme unit selection unit 3;
FIG. 4 is a schematic diagram for explaining a waveform superposition method.
The auxiliary information of FIG. 5 phoneme indicates the phase PHAS DICS the start of the pitch waveforms of phoneme (u i), how the phase PHAS DICE pitch waveform at the end of the speech segment (u i) is added It is a schematic diagram.
FIG. 6 is a schematic diagram for explaining the phase of a pitch waveform.
FIG. 7 is a schematic diagram showing an example of selecting a phoneme segment.
Claims (2)
各音素単位の補助情報に、音素単位の始端のピッチ波形の位相情報と音素単位の終端のピッチ波形の位相情報とを追加しておき、音素単位の接続歪みを算出する際のパラメータとして、接続される2つの音素単位のうちの前側の音素単位の終端のピッチ波形の位相と、接続される後側の音声単位の始端のピッチ波形の位相との間の距離を追加したことを特徴とする音声合成方法。A plurality of phoneme units and auxiliary information used to calculate a distortion between a target for each phoneme unit and a connection distortion per phoneme unit are stored in the waveform dictionary, and the phonemes stored in the waveform dictionary are stored. Among the combinations of units, select the combination that minimizes the sum of the distortion with the target and the connection distortion of the phoneme unit, and generate a synthesized speech waveform by the wavelength superposition method based on the selected combination of phoneme units. In the speech synthesis method
The phase information of the pitch waveform at the beginning of the phoneme unit and the phase information of the pitch waveform at the end of the phoneme unit are added to the auxiliary information for each phoneme unit, and the connection is used as a parameter when calculating the connection distortion for the phoneme unit. The distance between the phase of the pitch waveform at the end of the front phoneme unit of the two phoneme units to be connected and the phase of the pitch waveform at the start end of the connected voice unit is added. Speech synthesis method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002222511A JP4056319B2 (en) | 2002-07-31 | 2002-07-31 | Speech synthesis method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002222511A JP4056319B2 (en) | 2002-07-31 | 2002-07-31 | Speech synthesis method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004062002A true JP2004062002A (en) | 2004-02-26 |
JP4056319B2 JP4056319B2 (en) | 2008-03-05 |
Family
ID=31942514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002222511A Expired - Fee Related JP4056319B2 (en) | 2002-07-31 | 2002-07-31 | Speech synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4056319B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008145685A (en) * | 2006-12-08 | 2008-06-26 | Mitsubishi Electric Corp | Voice-synthesis device and voice-synthesis method |
JP2008176672A (en) * | 2007-01-22 | 2008-07-31 | Fujitsu Ltd | Block data synthesis device |
WO2009031219A1 (en) * | 2007-09-06 | 2009-03-12 | Fujitsu Limited | Sound signal generating method, sound signal generating device, and computer program |
-
2002
- 2002-07-31 JP JP2002222511A patent/JP4056319B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008145685A (en) * | 2006-12-08 | 2008-06-26 | Mitsubishi Electric Corp | Voice-synthesis device and voice-synthesis method |
JP2008176672A (en) * | 2007-01-22 | 2008-07-31 | Fujitsu Ltd | Block data synthesis device |
WO2009031219A1 (en) * | 2007-09-06 | 2009-03-12 | Fujitsu Limited | Sound signal generating method, sound signal generating device, and computer program |
US8280737B2 (en) | 2007-09-06 | 2012-10-02 | Fujitsu Limited | Sound signal generating method, sound signal generating device, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4056319B2 (en) | 2008-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3361066B2 (en) | Voice synthesis method and apparatus | |
US11410637B2 (en) | Voice synthesis method, voice synthesis device, and storage medium | |
Bonada et al. | Expressive singing synthesis based on unit selection for the singing synthesis challenge 2016 | |
JP2009047957A (en) | Pitch pattern generation method and system thereof | |
JP2018077283A (en) | Speech synthesis method | |
JP3728173B2 (en) | Speech synthesis method, apparatus and storage medium | |
JP2004062002A (en) | Speech synthesizing method | |
JPH01284898A (en) | Voice synthesizing device | |
JP2004347653A (en) | Speech synthesizing method and system for the same as well as computer program for the same and information storage medium for storing the same | |
JP4684770B2 (en) | Prosody generation device and speech synthesis device | |
JP2011141470A (en) | Phoneme information-creating device, voice synthesis system, voice synthesis method and program | |
JP3515406B2 (en) | Speech synthesis method and apparatus | |
JP5862667B2 (en) | Waveform processing apparatus, waveform processing method, and waveform processing program | |
JP4963345B2 (en) | Speech synthesis method and speech synthesis program | |
JP4454780B2 (en) | Audio information processing apparatus, method and storage medium | |
JP6683103B2 (en) | Speech synthesis method | |
JP2005091747A (en) | Speech synthesizer | |
JP2004258660A (en) | Method and device for speech synthesis | |
JP2007226174A (en) | Singing synthesizer, singing synthesizing method, and program for singing synthesis | |
JP2008299266A (en) | Speech synthesis device and method | |
JP3423276B2 (en) | Voice synthesis method | |
JP2004125843A (en) | Voice synthesis method | |
JP2011191528A (en) | Rhythm creation device and rhythm creation method | |
JP2018077281A (en) | Speech synthesis method | |
JPH07239698A (en) | Device for synthesizing phonetic rule |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071211 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101221 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111221 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121221 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131221 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |