JPH0833745B2 - Speech synthesizer - Google Patents

Speech synthesizer

Info

Publication number
JPH0833745B2
JPH0833745B2 JP61072106A JP7210686A JPH0833745B2 JP H0833745 B2 JPH0833745 B2 JP H0833745B2 JP 61072106 A JP61072106 A JP 61072106A JP 7210686 A JP7210686 A JP 7210686A JP H0833745 B2 JPH0833745 B2 JP H0833745B2
Authority
JP
Japan
Prior art keywords
speech
parameter
voice
string
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61072106A
Other languages
Japanese (ja)
Other versions
JPS62229199A (en
Inventor
成利 斉藤
典正 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP61072106A priority Critical patent/JPH0833745B2/en
Publication of JPS62229199A publication Critical patent/JPS62229199A/en
Publication of JPH0833745B2 publication Critical patent/JPH0833745B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は滑らかさのある合成音声を効果的に生成する
ことができる音声合成装置に関する。
DETAILED DESCRIPTION OF THE INVENTION Object of the Invention (Industrial field of use) The present invention relates to a speech synthesizer capable of effectively producing smooth synthetic speech.

(従来の技術) マン・マシン・インターフェースの重要な役割を担う
技術として音声の合成出力がある。
(Conventional Technology) There is a voice synthesis output as a technology that plays an important role of a man-machine interface.

この音声合成は、従来より専ら、予め録音してある音
声を編集処理して作成されているが、合成出力可能な単
語やフレーズの種類とその数に限りがあると云う問題が
ある。
Conventionally, this voice synthesis has been created by editing the voice that has been recorded in advance, but there is a problem that the types and number of words and phrases that can be synthesized and output are limited.

そこで任意の入力文字列を解析してその音韻情報と韻
律情報とを求め、これらの情報から予め定められた規則
に基いて合成音声を生成する手法が開発されている。こ
の手法は規則合成方式と称され、任意の単語やフレーズ
の合成音声を比較的簡単に生成し得ると云う利点があ
る。
Therefore, a method has been developed in which an arbitrary input character string is analyzed to obtain phonological information and prosody information thereof, and synthetic speech is generated from these information based on a predetermined rule. This method is called a rule synthesizing method, and has an advantage that a synthesized voice of an arbitrary word or phrase can be generated relatively easily.

然し乍ら、これによって生成された合成音声は上述し
た録音編集方式により生成された音声に比較して、その
品質が悪いと云う欠点がある。例えば了解度の点ではか
なり高い品質の合成音声を生成することができるが、そ
の滑らかさの点で難点があり、聞取り難いと云う問題が
ある。
However, there is a drawback in that the quality of the synthesized speech generated by this is lower than that of the speech generated by the recording and editing method described above. For example, in terms of intelligibility, it is possible to generate a synthesized voice having a considerably high quality, but there is a problem in smoothness and a problem that it is difficult to hear.

(発明が解決しようとする問題点) 本発明はこのような事情を考慮してなされたもので、
その目的とするところは、規則合成される音声の滑らか
さの向上を図り、その聞取り易さの向上を図ることので
きる音声合成装置を提供することにある。
(Problems to be Solved by the Invention) The present invention has been made in consideration of such circumstances.
It is an object of the present invention to provide a voice synthesizing device capable of improving smoothness of regularly synthesized voices and improving audibility thereof.

[発明の構成] 本発明は入力文字列を解析して求められる音韻記号列
から音声パラメータを生成するに際し、音声合成の単位
となる音声素片が置かれている環境を考慮して、独立に
存在する音声素片を格納した語頭用の音声素片ファイ
ル、音声直前母音に応じて求められた音声素片を格納し
た音声素片ファイル、および無声直前母音に応じて求め
られた音声素片を格納した音声素片ファイルからなるパ
ラメータファイルを用い、音韻記号列の直前母音の種類
に従って上記音声素片ファイルを選択的に用いてその音
声パラメータを求めるようにしたものである。
[Configuration of the Invention] The present invention, when generating a voice parameter from a phoneme symbol string obtained by analyzing an input character string, considers an environment in which a voice unit, which is a unit of voice synthesis, is placed, and independently. A speech unit file for the beginning of a word that stores existing speech units, a speech unit file that stores the speech units determined according to the immediately preceding vowels, and a speech unit determined according to the unvoiced immediately preceding vowels. By using a parameter file consisting of the stored speech segment files, the speech parameters are obtained by selectively using the speech segment files according to the type of the vowel immediately preceding the phoneme symbol string.

(実施例) 以下、図面を参照して本発明の一実施例につき説明す
る。
Embodiment An embodiment of the present invention will be described below with reference to the drawings.

第1図は実施例装置の概略構成図である。 FIG. 1 is a schematic configuration diagram of the apparatus of the embodiment.

音声合成に供される単語またはフレーズは、それを表
現する文字列として入力される。文字列解析部1はこの
入力文字列を解析し、入力文字列に対応する音韻記号列
および韻律記号列をそれぞれ生成している。
A word or phrase provided for speech synthesis is input as a character string expressing it. The character string analysis unit 1 analyzes the input character string and generates a phoneme symbol string and a prosodic symbol string corresponding to the input character string, respectively.

音声パラメータ列生成装置2は上記音韻記号列を入力
し、音声合成の単位となるパラメータファイル3(音声
素片ファイル3a,3b,〜3h)を参照してその音声素片パラ
メータを求め、これらの音声素片パラメータを結合して
音声の声道特性を近似して表現する音声パラメータ列を
生成している。尚、上記音声素片パラメータの結合は、
例えば直線補間法等を用いて行われる。
The speech parameter sequence generation device 2 inputs the above phoneme symbol sequence, refers to the parameter file 3 (speech segment files 3a, 3b, to 3h), which is a unit of speech synthesis, to obtain the speech segment parameters, A speech parameter string that approximates the vocal tract characteristics of the speech is generated by combining the speech unit parameters. The combination of the above speech unit parameters is
For example, a linear interpolation method or the like is used.

具体的には、例えば音声素片を音節とした場合、音韻
記号列から検出される音節語ごとに、その直前の音節の
母音を判定し、その判定結果に従って前記音声素片ファ
イル3a,3b,〜3hを選択的に参照して音節パラメータを求
め、これらの音節パラメータを結合して音声パラメータ
列を生成している。
Specifically, for example, when a speech unit is a syllable, for each syllable word detected from the phonological symbol string, the vowel of the syllable immediately before that is determined, and the speech unit file 3a, 3b, according to the determination result. The syllable parameters are obtained by selectively referring to ~ 3h, and these syllable parameters are combined to generate a speech parameter string.

一方、韻律パラメータ列生成装置4は、上記文字列解
析部1で求められた韻律記号列に従ってその韻律パラメ
ータ列を生成している。
On the other hand, the prosody parameter string generation device 4 generates the prosody parameter string according to the prosody symbol string obtained by the character string analysis unit 1.

音声合成器5は、このようにして生成された音声パラ
メータ列と韻律パラメータ列とに従って、所定の合成音
声規則を適用して前記入力文字列に対応した合成音声を
生成している。
The voice synthesizer 5 applies a predetermined synthetic voice rule in accordance with the voice parameter sequence and the prosody parameter sequence thus generated to generate a synthetic voice corresponding to the input character string.

ここでパラメータファイル3を構成する8つの音声素
片ファイル3a,3b,〜3hについて説明する。
Here, the eight speech unit files 3a, 3b, to 3h forming the parameter file 3 will be described.

音声素片ファイル3aは、語頭用の音声素片を格納した
もので、例えば単独発声された単語の最初の音節データ
を切出し、これを分析して求められる音節素片が格納さ
れる。
The speech unit file 3a stores a speech unit for the beginning of a word, and stores, for example, a syllable unit obtained by cutting out the first syllable data of a single uttered word and analyzing it.

また音声素片ファイル3b,〜3fは、その直前母音が有
声である場合の音節データを求め、この音声データを分
析して求められる音声素片が、その母音の種類に応じて
分類されてそれぞれ格納される。例えば直前母音が/i/
である音節の音声素片は、『池;いけ』等の自然音声を
分析し、その音韻記号列「ike」の第2音節/ke/の部分
の分析結果を抽出し、これをパラメータ化してその音声
素片が求められる。
In addition, the speech unit files 3b to 3f obtain syllable data when the immediately preceding vowel is voiced, and the speech units obtained by analyzing this speech data are classified according to the type of the vowel. Is stored. For example, the last vowel is / i /
For the syllable speech unit, the natural speech such as "ike;ike" is analyzed, and the analysis result of the second syllable / ke / portion of the phonological symbol string "ike" is extracted and parameterized. The speech unit is required.

このような音声素片パラメータの抽出処理によって、
音声素片ファイル3bは直前母音が/a/のときの音声素片
が、音声素片ファイル3cには直前母音が/i/のときの音
声素片が、音声素片ファイル3dには直前母音が/u/のと
きの音声素片が、音声素片ファイル3eには直前母音が/e
/のときの音声素片が、そして音声素片ファイル3fには
直前母音が/o/のときの音声素片がそれぞれ格納され
る。
By such a voice segment parameter extraction process,
The voice unit file 3b is the voice unit when the last vowel is / a /, the voice unit file 3c is the voice unit when the last vowel is / i /, and the voice unit file 3d is the last vowel. Is / u /, the last vowel is / e in the speech unit file 3e.
The voice unit when / is stored, and the voice unit file 3f stores the voice unit when the immediately preceding vowel is / o /.

また音声素片ファイル3g,3hには、その直前母音が無
声である場合の音節データを求め、この音声データを分
析して求められる音声素片が、その母音の種類に応じて
分類されてそれぞれ格納される。具体的には音声素片フ
ァイル3gには、その直前母音が無声の//である場合
の音声素片が格納され、音声素片ファイル3hには、その
直前母音が無声の//である場合の音声素片が格納さ
れる。
In the speech unit files 3g and 3h, syllable data when the immediately preceding vowel is unvoiced is obtained, and the speech units obtained by analyzing this speech data are classified according to the type of the vowel, Is stored. Specifically, the speech unit file 3g stores the speech unit when the immediately preceding vowel is unvoiced //, and the speech unit file 3h when the immediately preceding vowel is unvoiced // Is stored.

この直前母音が無声である場合の音声素片も、先の分
析処理と同様にして行われる。例えば『額;ひたい』等
の自然音声を分析し、その音韻記号列「hitai」の第2
音節/ta/の部分の分析結果を抽出し、これをパラメータ
化してその音声素片が求められる。
The speech segment in the case where the immediately preceding vowel is unvoiced is also performed in the same manner as the above analysis processing. For example, a natural voice such as “forehead; taitai” is analyzed, and the second part of the phoneme symbol string “hitai”
The analysis result of the syllable / ta / part is extracted, and the speech unit is obtained by parameterizing this.

しかして音声パラメータ列生成装置2は、与えられた
音韻記号列の各音節について、その直前に存在する母音
の種別を判定し、その判定結果に従って上述した音声素
片ファイル3a,3b,〜3hを選択的に用いて、その音声パラ
メータを求めている。
Then, the speech parameter sequence generation device 2 determines the type of vowel existing immediately before each syllable of the given phoneme symbol sequence, and according to the determination result, the speech unit files 3a, 3b, to 3h described above are generated. It is selectively used to obtain the voice parameter.

具体的には第2図(a)に示すように『適確;てきか
く』なる入力文字列が与えられた場合には、先ずその音
韻記号列[tekikaku]が求められる。ここで音声合成の
単位である音声素片が、例えば子音(C)と母音(V)
との組合せ(CV)によって定義されるものとする。音声
パラメータ生成装置2は、この音韻記号列[tekikaku]
の子音音韻記号/t/ /k/と、母音音韻記号/e/ /i/ /a
/ /u/とをそれぞれ判定し、これを上記定義に従って音
節単位に分割する。この音節の区切りを[・]で示すも
のとすると前記音韻記号列[tekikaku]は、 [te・ki・ka・ku] なる4つの音節に分解される。これらの各音節につい
て、その音節パラメータが次のようにしてそれぞれ求め
られる。
Specifically, when an input character string "appropriate;precise" is given as shown in FIG. 2 (a), the phoneme symbol string [tekikaku] is first obtained. Here, the voice unit, which is a unit of voice synthesis, is, for example, a consonant (C) and a vowel (V).
Shall be defined by the combination with (CV). The voice parameter generation device 2 uses this phoneme symbol string [tekikaku].
The consonant phoneme symbol / t / / k / and the vowel phoneme symbol / e / / i / / a
/ / u / is judged respectively and this is divided into syllable units according to the above definition. If the syllables are delimited by [.], The phonological symbol string [tekikaku] is decomposed into four syllables [te.ki.ka.ku]. For each of these syllables, its syllable parameter is obtained as follows.

即ち、1番目の音節[te]についてはその直前に母音
が存在しないことから語頭用の音声素片ファイル3aを用
いてその音節パラメータが求められる。次に2番目の音
節[ki]についてはその直前の母音が/e/であることか
ら音声素片ファイル3eを用いてその音節パラメータが求
められる。同様にして3番目の音節[ka]についてはそ
の直前の母音が/i/であることから音声素片ファイル3c
を用いてその音節パラメータが求められ、4番目の音節
[ku]についてはその直前の母音が/a/であることから
音声素片ファイル3bを用いてその音節パラメータが求め
られる。
That is, since there is no vowel immediately before the first syllable [te], the syllable parameter is obtained using the speech segment file 3a for the beginning of the word. Next, since the vowel immediately before the second syllable [ki] is / e /, its syllable parameter is obtained using the speech unit file 3e. Similarly, for the third syllable [ka], since the vowel immediately before it is / i /, the speech unit file 3c
Is used to determine the syllable parameter. For the fourth syllable [ku], the vowel immediately before that is / a /, and therefore the syllable parameter is determined using the speech unit file 3b.

そしてこれらの音節パラメータを結合して、上記入力
文字列『適確;てきかく』に対応する音声パラメータ列
を求めている。
Then, these syllable parameters are combined to obtain a voice parameter string corresponding to the input character string "appropriate;

また第2図(b)に示すように『幕府;ばくふ』なる
入力文字列が与えられた場合には、同様にしてその音韻
記号列から音節の系列[ba・ku・fu]を求め、1番目の
音節[ba]についてはその直前に母音が存在しないこと
から語頭用の音声素片ファイル3aを用いてその音節パラ
メータを求め、2番目の音節[ku]についてはその直前
の母音が/a/であることから音声素片ファイル3bを用い
てその音節パラメータを求め、更に3番目の音節[fu]
についてはその直前の母音が無声の//であることか
ら音声素片ファイル3hを用いてその音節パラメータを求
めている。
When an input character string “Bakufu; Bakufu” is given as shown in FIG. 2 (b), a syllable sequence [ba, ku, fu] is similarly obtained from the phonological symbol string, For the first syllable [ba], since there is no vowel immediately before that, the syllable parameter is obtained using the speech segment file 3a for the beginning of the word, and for the second syllable [ku], the immediately preceding vowel is /. Since it is a /, the syllable parameter is obtained using the speech unit file 3b, and the third syllable [fu]
With respect to, since the vowel immediately before it is unvoiced //, its syllable parameter is obtained using the speech unit file 3h.

かくしてこのように構成された本装置によれば、音声
素片である音節についてそれぞれ求められる音節パラメ
ータが、その直前の音節の母音による変化、環境変化の
影響を考慮したものとなるから、各音声素片ファイル3
a,3b,〜3hからそれぞれ求められた音声素片に基いて規
則合成される合成音節は非常に滑らかなものとなる。特
に、直前に存在する母音の種類のみならず、その母音が
有声であるか無声であるかによって、その音節について
求める音声素片のファイルを選択しているので、その規
則合成される音声が非常に滑らかな自然性の高いものと
なる。
Thus, according to the present apparatus configured as described above, the syllable parameter obtained for each syllable that is a speech unit is considered in consideration of the influence of the vowel of the syllable immediately before it and the influence of the environmental change. Fragment file 3
The synthesized syllables that are regularly synthesized based on the speech units obtained from a, 3b, and 3h are very smooth. Especially, not only the type of vowel existing immediately before but also the voiced or unvoiced vowel is used to select the voice unit file to be searched for that syllable. It will be smooth and highly natural.

従って了解度が非常に高く、しかも滑らかで自然性の
高い合成音声を簡易に、且つ効果的に得ることが可能と
なる。
Therefore, it is possible to easily and effectively obtain a synthetic voice having a very high intelligibility, smoothness and high naturalness.

尚、本発明は上述した実施例に限定されるものではな
い。ここでは規則合成の単位となる音声素片を音節とし
て説明したが、音素を音声素片としても同様に実施する
ことができる。この場合には、音素の繋がりである(C
V)や(VCV)を考慮して音声素片ファイルを構成するよ
うにすれば良い。また実施例では有声の直前母音の種別
に応じて、その音声素片ファイルを別々に構成したが、
例えば音声近時特性から、口の横方向の拡がりを伴う母
音/i//e/を除く、/a/ /o/ /u/のファイルを1まとめ
にして、そのパラメータファイル3の構成の簡略化を図
るようにしても良い。その他、本発明はその要旨を逸脱
しない範囲で種々変形して実施することができる。
The present invention is not limited to the above embodiment. Here, the description has been made assuming that the phoneme as a unit of rule synthesis is a syllable, but the phoneme may be a phoneme as well. In this case, it is a phoneme connection (C
V) and (VCV) should be taken into consideration when constructing the speech unit file. Further, in the embodiment, the voice unit files are separately configured according to the type of the voiced immediately preceding vowel,
For example, the vowel / i // e /, which is accompanied by the lateral spread of the mouth, is excluded from the characteristics of the near-term voice, and the / a / / o / / u / files are grouped together to simplify the configuration of the parameter file 3. It may be possible to achieve this. In addition, the present invention can be variously modified and implemented without departing from the gist thereof.

[発明の効果] 以上説明したように本発明によれば、その直前に存在
する母音の種類に応じて音声素片パラメータが求められ
るので、音声の環境に応じた滑らかで自然性の高い合成
音声を生成することが可能となる。これ故、その聞取り
易さの向上を図ることが可能となり、マン・マシン・イ
ンターフェースとして多大なる効果が奏せられる。
[Effects of the Invention] According to the present invention as described above, a speech unit parameter is obtained according to the type of vowel existing immediately before it, so that a smooth and highly natural synthesized speech according to the environment of the speech. Can be generated. Therefore, it becomes possible to improve the easiness of hearing, and a great effect can be obtained as a man-machine interface.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の一実施例装置の概略構成図、第2図
(a)(b)はそれぞれ実施例装置における音声パラメ
ータ列の生成過程を模式的に示す図である。 1……文字列解析装置、2……音声パラメータ列生成装
置、3……パラメータファイル、3a,3b,〜3h……音声素
片ファイル、4……韻律パラメータ生成装置、5……音
声合成器。
FIG. 1 is a schematic configuration diagram of an embodiment apparatus of the present invention, and FIGS. 2 (a) and 2 (b) are diagrams schematically showing a process of generating a voice parameter sequence in the embodiment apparatus. 1 ... Character string analysis device, 2 ... Speech parameter string generation device, 3 ... Parameter file, 3a, 3b, to 3h ... Speech element file, 4 ... Prosodic parameter generation device, 5 ... Speech synthesizer .

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】入力文字列を解析して前記入力文字列に対
応する音韻記号列と韻律情報とを求める文字列解析手段
と、 独立に存在する音声素片を格納した語頭用の音声素片フ
ァイル、有声直前母音に応じて求められた音声素片を格
納した音声素片ファイル、及び無声直前母音に応じて求
められた音声素片を格納した音声素片ファイルからな
り、各音声素片が子音(C)と母音(V)との組み合わ
せ(CV)のみによって定義されたパラメータファイル
と、 前記パラメータファイルを参照して前記文字列解析手段
によって求められた前記音韻記号列に対して、各音韻の
位置、及び直前母音が有声であるか無声であるかに従っ
て前記音声素片ファイルを選択的に用いて、音声の声道
特性を近似して表現する音声パラメータ列を生成する音
声パラメータ列生成手段と、 前記文字列解析手段によって求められた前記韻律情報に
従って韻律パラメータ列を生成する韻律パラメータ列生
成手段と、 前記音声パラメータ列生成手段によって求められた音声
パラメータ列と前記韻律パラメータ列生成手段によって
求められた韻律パラメータ列とに従って音声を規則合成
する音声合成手段と、 を具備したことを特徴とする音声合成装置。
1. A character string analysis means for analyzing an input character string to obtain a phonological symbol string and prosodic information corresponding to the input character string, and a speech segment for the beginning of a word in which independently existing speech segments are stored. It consists of a file, a speech segment file that stores the speech segment determined according to the immediately preceding vowel, and a speech segment file that stores the speech segment determined according to the unvoiced immediately preceding vowel. A parameter file defined only by a combination (CV) of consonants (C) and vowels (V), and each phoneme for the phoneme symbol string obtained by the character string analysis means with reference to the parameter file. , And a voice parameter for generating a voice parameter sequence that approximates the vocal tract characteristics of the voice by selectively using the voice segment file according to whether the immediately preceding vowel is voiced or unvoiced. String generation means, prosody parameter string generation means for generating a prosody parameter string in accordance with the prosody information calculated by the character string analysis means, speech parameter string and prosody parameter string generation calculated by the speech parameter string generation means A voice synthesizing device comprising: a voice synthesizing unit for regularly synthesizing a voice according to the prosody parameter sequence obtained by the means.
JP61072106A 1986-03-29 1986-03-29 Speech synthesizer Expired - Lifetime JPH0833745B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61072106A JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61072106A JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Publications (2)

Publication Number Publication Date
JPS62229199A JPS62229199A (en) 1987-10-07
JPH0833745B2 true JPH0833745B2 (en) 1996-03-29

Family

ID=13479809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61072106A Expired - Lifetime JPH0833745B2 (en) 1986-03-29 1986-03-29 Speech synthesizer

Country Status (1)

Country Link
JP (1) JPH0833745B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50134311A (en) * 1974-04-10 1975-10-24
JPS5643700A (en) * 1979-09-19 1981-04-22 Nippon Telegraph & Telephone Voice synthesizer
JPS5868099A (en) * 1981-10-19 1983-04-22 富士通株式会社 Voice synthesizer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS50134311A (en) * 1974-04-10 1975-10-24
JPS5643700A (en) * 1979-09-19 1981-04-22 Nippon Telegraph & Telephone Voice synthesizer
JPS5868099A (en) * 1981-10-19 1983-04-22 富士通株式会社 Voice synthesizer

Also Published As

Publication number Publication date
JPS62229199A (en) 1987-10-07

Similar Documents

Publication Publication Date Title
JPH0833744B2 (en) Speech synthesizer
JP4516863B2 (en) Speech synthesis apparatus, speech synthesis method and program
JP2000206982A (en) Speech synthesizer and machine readable recording medium which records sentence to speech converting program
JPH05181491A (en) Speech synthesizing device
US6212501B1 (en) Speech synthesis apparatus and method
JP4287785B2 (en) Speech synthesis apparatus, speech synthesis method and program
JPH08335096A (en) Text voice synthesizer
van Rijnsoever A multilingual text-to-speech system
JP2005018036A (en) Device and method for speech synthesis and program
JPH06318094A (en) Speech rule synthesizing device
JP2536169B2 (en) Rule-based speech synthesizer
JPH0833745B2 (en) Speech synthesizer
JP2006349787A (en) Method and device for synthesizing voices
JPH0731509B2 (en) Voice analyzer
JP2703253B2 (en) Speech synthesizer
JP2577372B2 (en) Speech synthesis apparatus and method
JPH0863187A (en) Speech synthesizer
JPS62284398A (en) Sentence-voice conversion system
JP3292218B2 (en) Voice message composer
JPH0756589A (en) Voice synthesis method
JP2624708B2 (en) Speech synthesizer
JP3297221B2 (en) Phoneme duration control method
JP2675883B2 (en) Voice synthesis method
JP2573585B2 (en) Speech spectrum pattern generator
JPH0756597A (en) Editing type voice synthesizer

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term