JPH032800A - Intonation control system for voice synthesizer - Google Patents
Intonation control system for voice synthesizerInfo
- Publication number
- JPH032800A JPH032800A JP13636489A JP13636489A JPH032800A JP H032800 A JPH032800 A JP H032800A JP 13636489 A JP13636489 A JP 13636489A JP 13636489 A JP13636489 A JP 13636489A JP H032800 A JPH032800 A JP H032800A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- accent
- intonation
- accent type
- target value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 claims description 5
- 241001417093 Moridae Species 0.000 abstract description 8
- 238000007619 statistical method Methods 0.000 abstract description 2
- 239000011295 pitch Substances 0.000 description 48
- 238000010586 diagram Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000167854 Bourreria succulenta Species 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000019693 cherries Nutrition 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Document Processing Apparatus (AREA)
Abstract
Description
【発明の詳細な説明】
A、産業上の利用分野
本発明は、規則合成方式による音声合成装置に係り、特
にアクセント型による抑揚制御方式に関する。DETAILED DESCRIPTION OF THE INVENTION A. Field of Industrial Application The present invention relates to a speech synthesis device using a rule synthesis method, and more particularly to an intonation control method using an accent type.
B1発明の概要
本発明は、イントネーションとアクセント型によって音
素又は音節のピッチ周波数を調節することで抑揚制御を
行う音声合成装置において、アクセント型成分の滝部の
調節分をアクセント型とモーラ数に応じて調節すること
により、実音声のピッチパターンに近づけた合成音声を
得るものである。B1 Summary of the Invention The present invention provides a speech synthesis device that performs intonation control by adjusting the pitch frequency of a phoneme or syllable depending on the intonation and accent type. By adjusting the pitch pattern, synthesized speech that approximates the pitch pattern of real speech can be obtained.
C1従来の技術
規則合成方式による音声合成装置は、入力文字列を構文
解析によって単語、文節に区切り、夫々にはイントネー
ション、アクセントを決定し、単語、文節を音節さらに
は音素にまで分解し、音節又は音素単位の音源波及び調
音フィルタのパラメータを求め、音源波に対する調音フ
ィルタの応答出力として合成音声を得るようにしている
。C1 A speech synthesis device using the conventional technical rule synthesis method divides an input character string into words and phrases by syntactic analysis, determines intonation and accent for each, breaks down the words and phrases into syllables and even phonemes, and converts them into syllables. Alternatively, the sound source wave and the parameters of the articulation filter are determined for each phoneme, and synthesized speech is obtained as a response output of the articulation filter to the sound source wave.
この種の音声合成装置は、例えば第3図に示す構成にさ
れる。日本語処理部lは人力された日本語文章に対して
文節の区切りや辞書を参照して読みがな変換等を行う。This type of speech synthesis device has, for example, the configuration shown in FIG. The Japanese language processing unit 1 performs pronunciation conversion, etc. on the manually written Japanese text by referring to the segmentation of phrases and a dictionary.
文章処理部2は文章にイントネーションを付与し、アク
セント処理部3では文、文節を構成する音節にアクセン
トを付ける。The sentence processing section 2 adds intonation to sentences, and the accent processing section 3 adds accents to syllables constituting sentences and clauses.
例えば、第4図に示すように、文章入力「学校の桜がき
れいに咲いた」に対して文イントネーションはその音節
数によって立上り点から対数特性等で低下していき、文
節アクセントは単語、文節によってアクセント型が決め
られ、これらイントネーショとアクセント型を合成しさ
らには呼気イントネーションやフィルタ処理による丸め
、ポーズ等を付加して合成イントネーションが求められ
る。For example, as shown in Figure 4, for the sentence input ``The cherry blossoms at school bloomed beautifully,'' the sentence intonation decreases from the rising point according to the number of syllables in a logarithmic manner, and the phrase accent changes depending on the word and phrase. An accent type is determined, and a composite intonation is obtained by synthesizing these intonations and accent types, and adding exhalation intonation, rounding by filter processing, pauses, etc.
音素処理部4は入力されたrsAj・・・等の各音節デ
ータに対して母音及び子音の単位である音素との対応関
係を規定した音節パラメータ格納部4゜内のデータを参
照して音素に分解する処理、例えば音節rsAJに対し
て音素rsJ、rAJに分解処理する。The phoneme processing section 4 converts each input syllable data, such as rsAj..., into a phoneme by referring to data in the syllable parameter storage section 4 that defines the correspondence relationship with phonemes, which are units of vowels and consonants. For example, the syllable rsAJ is decomposed into phonemes rsJ and rAJ.
補間処理部5は、音素処理部4からの音素列データに対
して、音素毎に音素パラメータ格納部51の音素パラメ
ータを抽出し、また音源パラメータ格納部5.の音源パ
ターンを抽出してこれらデータから補間処理によって音
源波形及び調音データを得る。音素パラメータは、例え
ば第5図に示すように、子音には各音素を3つの発声時
間帯01〜03に区分し、各時間帯毎に継続時間1.〜
t1、音源波の繰り返し周波数であるピッチP1〜P3
、この音源波のエネルギーE1〜E3、音源波パターン
G、〜G3及びピッチとエネルギーの時定数DP、−D
P*、DEI−DE3を有して音源波の離散的データを
得る。また、母音には1つの区分O^にして夫々ピッチ
時定数D P A 、エネルギーEA%エネルギー時定
数DEA、音源波パターンGAを有して音源波の離散的
データとする。このうち、音源波パターンは例えば第6
図に示すような音源波パターンG、〜G3、GAが対応
づけられ、各パターンに対して音源パラメータ格納部5
!には数十個のサンプルデータ列が用意されて音源波の
サンプルデータが取出される。また、エネルギー E
+〜E3、EAは音源波のレベルの大きさ即ち音の大き
さを規定し、ピッチP I”” P 5、PAは周波数
の高さ即ち音の高さを規定する。そして、これら音源波
データの規定は各時間帯O3〜03、OAでの1つの値
になり、各時間帯及び音素間のわたりには時定数DP、
〜D P 5、DPA1DEI〜DE、、DEAが与え
られて補間処理部5による補間処理によって連続した音
源波データ列が取出される。The interpolation processing unit 5 extracts phoneme parameters from the phoneme parameter storage unit 51 for each phoneme from the phoneme string data from the phoneme processing unit 4, and also extracts phoneme parameters from the phoneme parameter storage unit 51. A sound source pattern is extracted, and a sound source waveform and articulatory data are obtained from these data through interpolation processing. For example, as shown in FIG. 5, the phoneme parameters are such that each phoneme for consonants is divided into three utterance time periods 01 to 03, and the duration of each consonant is 1 to 03 for each time period. ~
t1, pitch P1 to P3 which is the repetition frequency of the sound source wave
, the energies E1 to E3 of this sound source wave, the sound source wave patterns G, to G3, and the pitch and energy time constants DP, -D
P*, DEI-DE3 to obtain discrete data of the sound source wave. Further, each vowel is divided into one division O^ and has a pitch time constant D P A , an energy EA% energy time constant DEA, and a sound source wave pattern GA to provide discrete data of the sound source wave. Among these, the sound source wave pattern is, for example, the 6th
The sound source wave patterns G, ~G3, and GA as shown in the figure are associated with each other, and the sound source parameter storage unit 5
! Several dozen sample data strings are prepared and sample data of the sound source wave is extracted. Also, energy E
+~E3, EA defines the magnitude of the level of the sound source wave, that is, the loudness of the sound, and the pitch P I"" P5, PA defines the height of the frequency, that is, the pitch of the sound. The regulation of these sound source wave data is one value for each time period O3 to 03 and OA, and the time constant DP,
~D P 5, DPA1 DEI ~ DE, , DEA are given, and a continuous sound source wave data string is extracted by interpolation processing by the interpolation processing section 5.
例えば、子音のピッチP1〜P3は第7図に示すように
区間O8−03毎の目標値として与えられ、各区間内の
ピッチPは時定数D P I−D P sの大きさによ
って実線や破線で示すような変化になるn回の補間処理
を行う。この補間演算は次の漸化式Pnk=DP (P
、、P 。−+) + P 。For example, the pitches P1 to P3 of consonants are given as target values for each interval O8-03 as shown in Fig. 7, and the pitch P in each interval is expressed as a solid line or Interpolation processing is performed n times resulting in changes as shown by broken lines. This interpolation calculation is performed using the following recurrence formula Pnk=DP (P
,,P. -+) +P.
但し、
Pnk;に回目のピッチ制御値
DP 、ピッチ時定数
Po ;今回のピッチ目標値
Pn−+:前回のピッチ目標値
によってn回演算を行ってP Hh、 P Hk+1・
・・のように夫々ピッチPnkを求める。However, Pnk is the pitch control value DP for the second time, pitch time constant Po is the current pitch target value Pn-+: calculation is performed n times using the previous pitch target value, and P Hh, P Hk+1.
The pitch Pnk is determined as follows.
次に、音素パラメータ格納部5Iには第5図に示すよう
に音響管モデル断面積のパラメータと時定数DAI〜D
A3、DA^も格納される。このパラメータは声道調音
等価フィルタのパラメータを与えるもので、人間の声道
(男性の場合は約17cm)を長さlCxの音響管17
個連接した調音モデルとして各時間帯毎に各音響管の断
面積A I−+〜A+?−IN A+−t〜A+、−*
、A I−3〜Al7−3として与えられる。これらパ
ラメータは音響管時定数と共に調音演算部6に与えられ
て音源波に対する調音演算がなされる。Next, as shown in FIG.
A3 and DA^ are also stored. This parameter gives the parameter of the vocal tract articulation equivalent filter, and the human vocal tract (approximately 17 cm in the case of a male) is
As an individually connected articulation model, the cross-sectional area of each acoustic tube for each time period A I-+ ~ A+? -IN A+-t~A+,-*
, A I-3 to Al7-3. These parameters are given to the articulation calculation unit 6 together with the acoustic tube time constant, and articulation calculations are performed on the sound source wave.
調音演算部6は、断面積パラメータを持つ音響管に対し
て音源波を与えたときの放射音声波形データ列を求め、
この波形デーをD/A変換器7によってアナログ信号に
変換して音声出力装置8から合成音声を得る。The articulation calculation unit 6 obtains a radiated sound waveform data string when a sound source wave is applied to an acoustic tube having a cross-sectional area parameter,
This waveform data is converted into an analog signal by the D/A converter 7, and synthesized speech is obtained from the speech output device 8.
ここで、合成音声の抑揚は文イントネーションとアクセ
ント型が音素のピッチ(第5図)PI〜P3、PAに夫
々加算又は乗算され、この演算結果でピッチ目標値が決
定され、さらに補間処理部5において前述の補間処理が
なされてピッチ周波数として算定される。Here, for the intonation of the synthesized speech, the sentence intonation and accent type are added or multiplied by the phoneme pitches (Fig. 5) PI to P3 and PA, respectively, and the pitch target value is determined by the result of this calculation, and the interpolation processing unit 5 The above-mentioned interpolation process is performed in , and the pitch frequency is calculated.
D0発明が解決しようとする課題
従来の抑揚制御は、イントネーションとアクセント型に
よるピッチ周波数の画一的な調節になり、音素又は音節
の組み合わせになる単語や文節によっては人の自然音声
による抑換から外れた制御になることがあった。D0 Problems to be Solved by the Invention Conventional intonation control involves uniform adjustment of pitch frequency based on intonation and accent type, and depending on the word or phrase that is a combination of phonemes or syllables, it may be difficult to control the intonation due to natural human speech. Sometimes things got out of control.
例えば、第8図に示すように、文節「このそうち」に対
してイントネーション成分■にアクセント型成分Aを重
畳した抑揚制御には各モーラのピッチ目標値が○印で示
すようになるし、目標値間の補間したピッチ周波数は実
線のピッチパターンPのようになる。このようなピッチ
パターンPにおいて、アクセント型Aによるピッチ目標
値の調節分は高低の2レベルにされ、アクセントの頂上
になる音節「のJでレベルSの高さを持たせ、音節「う
」でレベルOに戻す。このピッチパターンPではアクセ
ントの滝の下のモーラ「う」のアクセント成分による調
節分はレベルOになるが、実音声のピッチパターンでは
アクセントの滝部でのアクセント成分は零でなくある程
度の値を持ち、該部分でのイントネーションが不自然な
合成音声になる。For example, as shown in Fig. 8, for intonation control in which accent type component A is superimposed on intonation component ■ for the phrase ``Konosochi'', the pitch target value of each mora will be indicated by a circle, The pitch frequency interpolated between the target values becomes a pitch pattern P shown by a solid line. In such a pitch pattern P, the adjustment of the pitch target value by accent type A is made into two levels, high and low. Return to level O. In this pitch pattern P, the adjustment amount due to the accent component of the mora "u" below the accent waterfall is level O, but in the pitch pattern of the actual voice, the accent component at the accent waterfall part is not zero but has a certain value, and the The intonation in some parts becomes unnatural synthesized speech.
本発明の目的は、アクセント型の滝部のピッチパターン
を実音声のピッチパターンに近づけることで自然性の高
い合成音声を得ることができる抑揚制御方式を提供する
ことにある。An object of the present invention is to provide an intonation control method that can obtain highly natural synthesized speech by bringing the pitch pattern of an accent-type waterfall closer to the pitch pattern of real speech.
91課題を解決するための手段と作用
本発明は、上記目的を達成するため、入力文章にイント
ネーションとアクセント型の成分で該文章の音素又は音
節毎のピッチ目標値を調節して合成音声の抑揚を得る音
声合成装置において、単語又は文節のアクセント型とモ
ーラ数に応じた係数にを得る第1の手段と、前記アクセ
ント型の頂上によるピッチ周波数調節分Sに前記係数に
を乗算して該アクセント型の滝部のピッチ周波数調節分
Fを求める第2の手段とを備え、アクセント型の滝部の
ピッチ目標値を前記ピッチ周波数調節分で加算補正する
ようにし、アクセント型とモーラ数に応じて各文節のア
クセント滝部のピッチ目標値に値を持たせ、該滝部での
ピッチパターン変化を実音声のそれに近づける。91 Means and Effects for Solving the Problems In order to achieve the above object, the present invention adjusts the pitch target value of each phoneme or syllable of an input sentence using intonation and accent type components to inflect the synthesized speech. a first means for obtaining a coefficient according to the accent type and mora number of a word or phrase; and a first means for obtaining a coefficient according to the accent type and mora number of the word or phrase; and a second means for determining a pitch frequency adjustment amount F for the waterfall part of the accent type, the pitch target value of the waterfall part of the accent type is added and corrected by the pitch frequency adjustment amount, and each phrase is adjusted according to the accent type and the number of moras. A value is given to the pitch target value of the accent waterfall part, and the pitch pattern change at the accent waterfall part is brought closer to that of the actual voice.
F、実施例
第1図は本発明の一実施例を示すフローチャートである
。ステップSlによるイントネーション決定は、従来と
同様に文章処理部2によって行い、ステップS2による
アクセント型決定はアクセント処理部3によって行う。F. Embodiment FIG. 1 is a flowchart showing an embodiment of the present invention. The intonation determination in step S1 is performed by the sentence processing section 2 as in the prior art, and the accent type determination in step S2 is performed by the accent processing section 3.
ステップS3による滝部係数にの決定は、アクセント型
とモーラ数に応じてテーブルデータの参照により決定さ
れ、このテーブルデータはアクセント型とモーラ数をパ
ラメータとして統計的手法により求めたため実音声の値
として予め決められる。また、係数には正の実数でO<
K<1の範囲になる。The determination of the Takibe coefficient in step S3 is determined by referring to table data according to the accent type and the number of moras, and this table data is calculated in advance by a statistical method using the accent type and the number of moras as parameters, so it is determined in advance as the value of the actual voice. It can be decided. In addition, the coefficient is a positive real number O<
The range is K<1.
次に、ステップS4による滝部の値Fは補間処理部5に
より音素パラメータを参照したピッチ目標値を決定する
際に、アクセントの頂上になるピッチ周波数調節分Sに
滝部係数にを乗算して該滝部のピッチ目標値を加算補正
する。ステップS5による音源波確立等は、従来と同様
に補間処理部5による音源波合成を行うが、このときピ
ッチ周波数目標値には上述の補正されたピッチ目標値に
対する補間処理して音源波確立さらには調音演算部6に
よる調音演算等を行う。Next, when the interpolation processing unit 5 determines the pitch target value with reference to the phoneme parameters, the value F of the waterfall part in step S4 is calculated by multiplying the pitch frequency adjustment amount S at the top of the accent by the waterfall coefficient. The pitch target value of is added and corrected. To establish the sound source wave in step S5, the interpolation processing unit 5 synthesizes the sound source wave in the same manner as in the past, but at this time, the pitch frequency target value is interpolated with respect to the corrected pitch target value as described above to establish the sound source wave. performs articulation calculation etc. by the articulation calculation section 6.
上述のように、ステップS3及びS4によるピッチ目標
値の補正により、アクセントの滝部でのピッチパターン
を実音声のそれに近づけることができる。例えば、第2
図に示すように、文節「このそうち」の各モーラに対し
て、アクセントの頂上部の調節分Sに該アクセント型と
モーラ数によって決定した係数にを乗算した滝部値FF
’=SXK
が音節「う」のピッチ目標値の調節分にされ、ピッチ目
標値にアクセント成分を残して実音声のピッチパターン
に近いピッチパターンP′を得る。As described above, by correcting the pitch target value in steps S3 and S4, it is possible to bring the pitch pattern at the waterfall portion of the accent closer to that of the actual voice. For example, the second
As shown in the figure, for each mora of the phrase "Konosochi", the waterfall value FF is calculated by multiplying the adjustment amount S at the top of the accent by a coefficient determined based on the accent type and the number of moras.
'=SXK is set as the adjustment amount for the pitch target value of the syllable "u", and the accent component is left in the pitch target value to obtain a pitch pattern P' that is close to the pitch pattern of the actual speech.
G1発明の効果
以上のとおり、本発明によれば、アクセント型とモーラ
数に応じてアクセント型成分によるピッチ目標値をアク
セント型の滝部で加算補正するようにしたため、該滝部
でのピッチパターン変化を実音声に近づけることができ
、自然性の高い合成音声を得ることができる効果がある
。G1 Effects of the Invention As described above, according to the present invention, the pitch target value based on the accent type component is added and corrected at the waterfall part of the accent type according to the accent type and the number of moras. This has the effect of making it possible to obtain synthesized speech that is close to real speech and has a high degree of naturalness.
第1図は本発明の一実施例を示すフローチャート、第2
図は実施例の抑揚波形図、第3図は音声合成装置の構成
図、第4図はイントネーション波形図、第5図は音素パ
ラメータのデータ図、第6図は音源波パターンの波形図
、第7図は補間処理によるピッチ特性図、第8図は従来
の抑揚波形図である。
1・・・日本語処理部、2・・・文章処理部、3・・・
アクセント処理部、4・・・音素処理部、4.・・・音
節パラメータ格納部、5・・・補間処理部、5.・・・
音素パラメータ格納部、5.・・・音源パラメータ格納
部、6・・・調音演算部、7・・・D/A変換器、8・
・・音声出力装置。
外2名
第2図
実施例の抑揚波形図
□モーラ
第1図
実施例のフローチャート
第3図
音声合成装置の構成図
8−音声出力装置
第4図
イントネーション波形図
第6図
音源波パターンの波形図
第7図
補間処理によるピッチ特性図
第5図
音素パラメータのデータ図
第8図
従来の抑揚波形図
□モーラ
平成 2年1 月12日
平成1年特許願第136364号
発明の名称
音声合成装置の抑揚制御方式
3、補正をする者
事件との関係FIG. 1 is a flowchart showing one embodiment of the present invention, and FIG.
The figure is an intonation waveform diagram of the embodiment, Figure 3 is a configuration diagram of the speech synthesis device, Figure 4 is an intonation waveform diagram, Figure 5 is a data diagram of phoneme parameters, Figure 6 is a waveform diagram of the sound source wave pattern, and Figure 6 is a diagram of the intonation waveform. FIG. 7 is a pitch characteristic diagram obtained by interpolation processing, and FIG. 8 is a conventional intonation waveform diagram. 1... Japanese language processing section, 2... Text processing section, 3...
Accent processing unit, 4... Phoneme processing unit, 4. ... syllable parameter storage unit, 5... interpolation processing unit, 5. ...
Phoneme parameter storage unit, 5. ... Sound source parameter storage unit, 6... Articulation calculation unit, 7... D/A converter, 8.
...Audio output device. Figure 2 Intonation waveform diagram of the embodiment □ Mora Figure 1 Flowchart of the embodiment Figure 3 Configuration diagram of the speech synthesizer 8-Speech output device Figure 4 Intonation waveform diagram Figure 6 Waveform diagram of the sound source wave pattern Fig. 7: Pitch characteristics due to interpolation processing Fig. 5: Data diagram of phoneme parameters Fig. 8: Conventional intonation waveform diagram Control method 3, relationship with the person making the amendment
Claims (1)
分で該文章の音素又は音節毎のピッチ目標値を調節して
合成音声の抑揚を得る音声合成装置において、単語又は
文節のアクセント型とモーラ数に応じた係数にを得る第
1の手段と、前記アクセント型の頂上によるピッチ周波
数調節分Sに前記係数Kを乗算して該アクセント型の滝
部のピッチ周波数調節分Fを求める第2の手段とを備え
、アクセント型の滝部のピッチ目標値を前記ピッチ周波
数調節分で加算補正することを特徴とする音声合成装置
の抑揚制御方式。(1) In a speech synthesis device that adjusts the pitch target value of each phoneme or syllable of an input sentence using intonation and accent type components to obtain the intonation of synthesized speech, depending on the accent type and mora number of the word or phrase. and second means for multiplying the pitch frequency adjustment amount S by the top of the accent type by the coefficient K to obtain the pitch frequency adjustment amount F of the waterfall portion of the accent type. . An intonation control method for a speech synthesizer, characterized in that a pitch target value of an accent type waterfall portion is additionally corrected by the pitch frequency adjustment amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13636489A JPH032800A (en) | 1989-05-30 | 1989-05-30 | Intonation control system for voice synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13636489A JPH032800A (en) | 1989-05-30 | 1989-05-30 | Intonation control system for voice synthesizer |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH032800A true JPH032800A (en) | 1991-01-09 |
Family
ID=15173443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13636489A Pending JPH032800A (en) | 1989-05-30 | 1989-05-30 | Intonation control system for voice synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH032800A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004226505A (en) * | 2003-01-20 | 2004-08-12 | Toshiba Corp | Pitch pattern generating method, and method, system, and program for speech synthesis |
-
1989
- 1989-05-30 JP JP13636489A patent/JPH032800A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004226505A (en) * | 2003-01-20 | 2004-08-12 | Toshiba Corp | Pitch pattern generating method, and method, system, and program for speech synthesis |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6625575B2 (en) | Intonation control method for text-to-speech conversion | |
JPH04331997A (en) | Accent component control system of speech synthesis device | |
JP2000305582A (en) | Speech synthesizing device | |
JPH031200A (en) | Regulation type voice synthesizing device | |
JP2904279B2 (en) | Voice synthesis method and apparatus | |
JPH032800A (en) | Intonation control system for voice synthesizer | |
JPH0580791A (en) | Device and method for speech rule synthesis | |
JP2725381B2 (en) | Inflection control method for speech synthesizer | |
JPH032797A (en) | Intonation control system for voice synthesizer | |
JP2848604B2 (en) | Speech synthesizer | |
JPH032796A (en) | Intonation control system for voice synthesizer | |
JP3303428B2 (en) | Method of creating accent component basic table of speech synthesizer | |
JP3078073B2 (en) | Basic frequency pattern generation method | |
JP2961819B2 (en) | Inflection control method for speech synthesizer | |
JPH04170600A (en) | Vocalizing speed control method in regular voice synthesizer | |
JP2755478B2 (en) | Text-to-speech synthesizer | |
JP3267659B2 (en) | Japanese speech synthesis method | |
JP3286353B2 (en) | Voice synthesis method | |
JP3218639B2 (en) | Energy control method in rule speech synthesizer | |
JP3186263B2 (en) | Accent processing method of speech synthesizer | |
JPH032799A (en) | Pitch pattern coupling system for voice synthesizer | |
JPH056191A (en) | Voice synthesizing device | |
JPH06332490A (en) | Generating method of accent component basic table for voice synthesizer | |
JP3078074B2 (en) | Basic frequency pattern generation method | |
JPH02113299A (en) | Basic frequency pattern generating device |