JPS6037500B2 - voice typewriter - Google Patents

voice typewriter

Info

Publication number
JPS6037500B2
JPS6037500B2 JP53049485A JP4948578A JPS6037500B2 JP S6037500 B2 JPS6037500 B2 JP S6037500B2 JP 53049485 A JP53049485 A JP 53049485A JP 4948578 A JP4948578 A JP 4948578A JP S6037500 B2 JPS6037500 B2 JP S6037500B2
Authority
JP
Japan
Prior art keywords
vowel
section
voice
pattern
consonant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP53049485A
Other languages
Japanese (ja)
Other versions
JPS54141524A (en
Inventor
博昭 迫江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP53049485A priority Critical patent/JPS6037500B2/en
Publication of JPS54141524A publication Critical patent/JPS54141524A/en
Publication of JPS6037500B2 publication Critical patent/JPS6037500B2/en
Expired legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)

Description

【発明の詳細な説明】 本発明は音声により文字状報を入力するための音声タイ
プラィタの改良に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an improvement in a voice typewriter for inputting text information by voice.

文字状報を計算機に入力する作業は情報処理業務の中で
重要な作業となっており、その高能率化は情報処理業務
全体の高能率化のため不可欠であるとされている。
The work of inputting text information into a computer is an important work in information processing work, and improving its efficiency is considered essential for improving the efficiency of the entire information processing work.

特に我国においてはタイプライタの使用が一般化してい
ないために新たな文字データ入力オベレ・‐夕の養成に
は大量な訓練が必要である。このため従来のキーボード
‘こかわる扱いやすい文字データ入力手段の開発が強く
望まれている。このための有力な候補として音声タイプ
ラィ夕の開発が試みられた。音声タイプラィタとは人間
が発声する音声を電子回路によって分析・識別するとい
うパタン認識処理によって文字データ符号に変換する装
置である。しかし、自然音声の認識は極めて困難な問題
であって経済的な音声タイプラィタが近い将来実現され
る可能性はほとんど無いと言われている。音声のパタン
認識を困難にしている最大の原因は子因の識別がむずか
しい点にある。例えばパ行音、力行音、タ行音等の間に
は、詳細な分析によっても、顕著でかつ安全な弁別的特
徴は得られず、最も識別困難な例と言える。これは子音
lpl、lkl、ltlの相互弁別が困難なためである
。本発明は認識困難な子音情報をキーボード等により入
力することによって子音認識の問題を解決し、これによ
って正確に動作しかっ安価な文字情報入力手段たる音声
タイプライタを実現し提供することを目的としている。
Particularly in our country, where typewriters are not commonly used, a large amount of training is required to develop a new character data entry skill. Therefore, it is strongly desired to develop an easy-to-use character data input means that replaces the conventional keyboard. Attempts were made to develop a voice typewriter as a promising candidate for this purpose. A voice typewriter is a device that converts human voice into character data codes through a pattern recognition process that analyzes and identifies the voice uttered by a human using an electronic circuit. However, recognizing natural speech is an extremely difficult problem, and it is said that there is almost no possibility that an economical speech typewriter will be realized in the near future. The biggest reason why speech pattern recognition is difficult is that it is difficult to identify the contributing factors. For example, even a detailed analysis does not yield significant and safe discriminative features among the pa, forced, and ta sounds, making them the most difficult to distinguish. This is because it is difficult to distinguish the consonants lpl, lkl, and ltl from each other. The present invention aims to solve the problem of consonant recognition by inputting difficult-to-recognize consonant information using a keyboard or the like, thereby realizing and providing a voice typewriter that is an accurate and inexpensive means of inputting character information. .

本発明による音声タイプラィタは、音声の母音部を認識
しコード化する機能を有する音声入力部と、子音情報を
入力するためのキーボード部と、上記両者によって与え
られる子音情報と母音情報を総合して文字情報を合成し
て出力する文字情報合成部とより構成される。
The voice typewriter according to the present invention has a voice input section that has a function of recognizing and encoding vowel parts of speech, a keyboard section for inputting consonant information, and a voice typewriter that integrates consonant information and vowel information provided by both of the above. It is composed of a character information synthesis section that synthesizes and outputs character information.

かくの如き構成によると、母音音声の認識は一段の音韻
認識に比して簡単であるから全体として小形かつ経済的
であり、かつキーボードでは子音部の弁別が可能であれ
ばよいのでキーボード数は少なく、したがって操作しや
すい文字情報入力手段が実現される。
According to such a configuration, the recognition of vowel sounds is simpler than the one-stage phoneme recognition, so the overall size is small and economical, and the number of keyboards can be reduced as the keyboard only needs to be able to discriminate consonant parts. A character information input means that is small in number and therefore easy to operate is realized.

以下に実施例の図面を参照しながら本発明の原理を詳述
する。
The principles of the present invention will be explained in detail below with reference to drawings of embodiments.

第1図は本発明による音声タイプラィタの全体的構成例
を示すブロック図である。
FIG. 1 is a block diagram showing an example of the overall configuration of a voice typewriter according to the present invention.

キーボード部10‘こは音韻の子音部を指定すべくキー
ボードが配例されている。このキーボードを選択打鍵す
ることによって子音情報信号Cが発生される。キーボー
ド部10上のキー配置は一例として第2図の如きものが
考えられる。文字“a”が記されたキーは母音及びそれ
に類似した音韻を指定する。例えば、音韻lal、l
il、lul、lel、l o l、lのl、lyul
、lyol、lwal、及びINl(ン)がこのキーに
よって選択される。以上の音韻と母音群と呼ぶことにす
る。文字“k”が記されたキーではlkal、lkil
、lkul、lkel、lkolの力行音が選択される
。以下同機にg(ガ行音)、s(サ行音)、z(ザ行音
)t(タ行音)、d(ダ行音)、n(ナ行音)、h(ハ
行音)(パ行音)、b(バ行音)、m(マ行音)、r(
ラ行音)等のキーが備えられている。別に通常のタイプ
ラィタと同様に句読点“ ”、“。”、“改行”、及び
“空白”等のキーが設えられていて良い。以上述べたキ
ーボード部の出力である子音信号Cは次のように定めら
れてもよい。a:0、k:1、g:2、s:3、z:4
、t:5、d:6、n:7、h:8、p:9、b:10
、m:11、r:12、・:13、o:14、改行:1
を空白:16例えばbのキーを押すと子音信号Cとして
は10なるコードが出力され、mのキーを押すと11な
るコードが出力される。
Keyboard section 10' is provided with a keyboard for specifying the consonant section of a phoneme. A consonant information signal C is generated by selectively pressing a key on this keyboard. An example of the key arrangement on the keyboard section 10 is as shown in FIG. 2. Keys marked with the letter "a" designate vowels and similar phonemes. For example, the phoneme lal, l
il, lul, lel, l o l, l of l, lyul
, lyol, lwal, and INl are selected by this key. We will call these phonemes and vowel groups. lkal, lkil for keys marked with the letter "k"
, lkul, lkel, and lkol are selected. Below, the same plane has g (ga sound), s (sa sound), z (za sound), t (ta sound), d (da sound), n (na sound), h (ha sound). (P sound), b (B sound), m (M sound), r (
It is equipped with keys such as ``La Gyon''. In addition, keys for punctuation marks "",".","linebreak","blank", etc. may be provided as in a normal typewriter. The consonant signal C, which is the output of the keyboard section described above, may be determined as follows. a: 0, k: 1, g: 2, s: 3, z: 4
, t: 5, d: 6, n: 7, h: 8, p: 9, b: 10
, m:11, r:12, .:13, o:14, line feed: 1
Blank: 16 For example, when the b key is pressed, the code 10 is output as the consonant signal C, and when the m key is pressed, the code 11 is output.

音声入力部はマイクロホン20と音声認識部30とより
構成されるこの音声タイプラィタの操作者は、例えば“
ギ’という文字を入力するためには“k”のキーを押す
と同時に“キ”と発声する。
The voice input section is composed of a microphone 20 and a voice recognition section 30. The operator of this voice typewriter, for example,
To input the character gi', simultaneously press the "k" key and say "ki".

この音声信号は第1図のマイクロホン2川こよって電気
的な信号iに変換され、音声認識部301こ送られる。
音声認識部30ではマイクロホン20より入力される音
声信号iを分析・識別処理してその母音部が前記母音群
lal、l il、!ul、l e l、l o l、
lyal、IWl、lyol、l船l、およびINIの
いずれに属するかを決定し母音信号vとして出力する。
この母音信号vには一例として次のコードが対応づけら
れる。la!:0、lil:1、lul:2、 l e l:3、l o l:4、lyal:5lWI
:6、lyol:7、lwal:8lNI:9この音声
認識部30は一例として次のように構成できる。
This audio signal is converted into an electrical signal i by the two microphones shown in FIG. 1, and sent to the audio recognition section 301.
The speech recognition unit 30 analyzes and identifies the speech signal i input from the microphone 20, and identifies the vowel parts of the vowel groups lal, l il,! ul, l e l, l o l,
It is determined which of lyal, IWl, lyol, lyal, and INI it belongs to and outputs it as a vowel signal v.
As an example, the following code is associated with this vowel signal v. la! :0, lil:1, lul:2, l e l:3, l o l:4, lyal:5lWI
:6, lyol:7, lwal:8lNI:9 The speech recognition unit 30 can be configured as follows, for example.

すなわち入力される音声信号iを周波数分析し、かつ時
間標本化することにより、時間軸と周波数軸とを有する
行列状のパタンに変換するための分析部と、入力される
行列状のパタンの始端の子音部を消去して母音部パタン
を作成するための母音切出し部、前記母音群の個々に対
し標準的な行列状パタンたる標準パタンを記憶するため
の標準パタン記憶部と、前記母音部パタンと標準パタン
とを比較する手段とを有し、比較の結果最も近いと判定
された標準パタンと同一母音であると判定する。なお、
母音部パタンの切出しは、音声のパワーレベルが高い、
有声音である(すなわちピッチ成分が存在する)、周波
数成分が定常的である、等の基準にもとづいて行なう。
文字情報合成部4川よキーボード部10より与えられる
子音信号cと音声認識部30より与えられる母音信号v
をもとにして文字情報を合成し文字コードrとして出力
する。
That is, an analysis unit for converting an input audio signal i into a matrix pattern having a time axis and a frequency axis by frequency analysis and time sampling, and a starting point of the input matrix pattern. a vowel extraction section for erasing the consonant section of the vowel section to create a vowel section pattern, a standard pattern storage section for storing a standard pattern that is a standard matrix pattern for each of the vowel group, and the vowel section pattern. and means for comparing the vowel and the standard pattern, and determines that the vowel is the same as the standard pattern that is determined to be the closest as a result of the comparison. In addition,
The vowel pattern is extracted when the power level of the voice is high.
This is performed based on criteria such as that the sound is voiced (that is, that a pitch component exists) and that the frequency component is stationary.
Character information synthesis section 4 River, consonant signal c given from the keyboard section 10 and vowel signal v given from the speech recognition section 30
Based on this, character information is synthesized and output as character code r.

例えば子音信号がc=1(k)で母音信号がv=4(l
ol)の時には“コ”なる文字コード(例えばJISコ
ード)を出力する。また、子音信号cが13,14,1
5,16すなわち、“ ”、“。”、“改行”、“空白
”のいずれかであった時は母音信号vの如何にかかわら
ず、子音信号で指定される特殊文字のコ−ドを出力する
ものとする。第3図は以上説明したごとき文字情報合成
部40を謙出し専用メモリーによって構成した例である
For example, the consonant signal is c=1(k) and the vowel signal is v=4(l
ol), the character code "ko" (for example, JIS code) is output. Also, the consonant signal c is 13, 14, 1
5, 16 In other words, if it is one of “ ”, “.”, “line feed”, or “blank”, the special character code specified by the consonant signal is output regardless of the vowel signal v. It shall be. FIG. 3 shows an example in which the character information synthesizing section 40 as described above is constructed by a memory exclusively used for displaying.

すなわち、子音信号cと母音信号vとによる2次元番地
指定(c,v)によって読み出されるが如く構成する。
子音信号は10〜16のコードを5ビットで指定し、母
音信号は0〜9のコードを4ビットで指定する。この読
出し専用メモリー41の(c,v)番地には、子音信号
cと母音信号vの組合せによって定まる文字のコードを
プログラムしてあるものとする。例えば上記の例に従が
うと(1,4)番地には“コ”なる文字のコードが記録
されている。また、(13,v)なる番地にはvの如何
にかかわらず“・”のコードがプログラムされている。
実際には如何なる時点で文字コードrを出力するかが問
題になる。
That is, it is configured so that it can be read out by two-dimensional address designation (c, v) using a consonant signal c and a vowel signal v.
The consonant signal specifies a code of 10 to 16 with 5 bits, and the vowel signal specifies a code of 0 to 9 with 4 bits. It is assumed that a character code determined by the combination of the consonant signal c and the vowel signal v is programmed into the address (c, v) of the read-only memory 41. For example, following the above example, the code for the character "K" is recorded at address (1, 4). Furthermore, the code "." is programmed at the address (13, v) regardless of v.
In reality, the problem is when to output the character code r.

一例としては、通常の文字の時は子音キーが押され、か
つ音声が入力されて母音部の認識が終了して以後の時点
で、また‘‘ ”、“。
For example, in the case of a normal character, the consonant key is pressed, the voice is input, the vowel part recognition is completed, and then ``'', ``'' again.

”等のように音声入力が不要な特殊文字ではキーが押さ
れた時点で文字コードrを出力するのが適当である。こ
のような出力時点の制御は簡単であるので省略する。第
4図は本発明による音声タイプラィタの一主要構成要素
である音声認識部30の一構成例を示す図である。
For special characters such as ", which do not require voice input, it is appropriate to output the character code r when the key is pressed. Controlling the output time in this way is simple, so we will omit it. Fig. 4 1 is a diagram showing an example of the configuration of a speech recognition section 30, which is one main component of the speech typewriter according to the present invention.

分析部31はスベクトラム分析機能を有し、入力音声波
形iのスベクトラム包絡を検出してそれを適当な次元の
ベクトルajとして表現し入力パタンバッファ32に一
定のフレーム周期で入力する。いま音声パタンが入力さ
れ終った時点で入力パタンバッファ32には次のような
音声パタンが入力されているとする。A=a,,a2,
…・・・ai……a, {11これを入
力パタンと称する。
The analysis unit 31 has a spectrum analysis function, detects the spectrum envelope of the input audio waveform i, expresses it as a vector aj of appropriate dimensions, and inputs it to the input pattern buffer 32 at a constant frame period. Assume that the following audio pattern has been input to the input pattern buffer 32 at the moment when the input of the audio pattern is finished. A=a,,a2,
...ai...a, {11 This is called an input pattern.

終端位置検出部33は上記入力パタンAの最終ベクトル
alが記憶されている入力パタンバッファ上の番地たる
終端位地eを決定してマッチング部35に送る。一方、
標準パタン記憶部34には前記の母音群に含まれる各音
韻の標準パタンが、入力パタンと同様にベクトルbiが
時系列の形式で記憶されている。いまその1個を代表し
てB=bQ、・・・・・・bi・・・・・・bJ
■と示す。
The end position detection section 33 determines the end position e, which is the address on the input pattern buffer where the final vector al of the input pattern A is stored, and sends it to the matching section 35. on the other hand,
The standard pattern storage unit 34 stores standard patterns of each phoneme included in the vowel group, and the vector bi is stored in a time-series format in the same way as the input pattern. Now, representing that one piece, B=bQ,...bi...bJ
Indicated by ■.

パタンマッチング部35では前記入力パタンAと標準パ
タンBとの比較を行ない両者の距離dを計算する。この
場合、前記終端位層eの情報にもとづいて両パタンの終
端を揃えて比較する。第5図は入力パターンAと標準パ
ターンBとの比較状況を示す概念図である。
The pattern matching section 35 compares the input pattern A and the standard pattern B and calculates the distance d between them. In this case, the ends of both patterns are aligned and compared based on the information of the end layer e. FIG. 5 is a conceptual diagram showing how input pattern A and standard pattern B are compared.

入力パタンAの主として母音の部分が標準パタン8と比
較される。したがって子音部が何であるかにあまり影響
されず、母音部同志を正鮫に比較することができる。よ
って、マッチング部35では入力パタンAと標準パタン
Bの間の距離を計算するものとする。
Mainly the vowel portion of the input pattern A is compared with the standard pattern 8. Therefore, vowel parts can be directly compared without being influenced much by the consonant part. Therefore, it is assumed that the matching unit 35 calculates the distance between the input pattern A and the standard pattern B.

ここに、ll ll‘まベクトル間の距離を示す。また
、分母のJは標準パタンの長さJが大であるほど分子の
総和が大となる傾向を補償するためのものである。この
ような距離計算は前記の標準パタン記憶部34に記憶さ
れるすべての標準パタンとの間で行なわれ、それら結果
は信号dとして順次判定部36へ送られる。判定部36
では順次入力される距離dを比較してその最小を定める
。この最小値に対応する母音を判定結果とし、そのコー
ドを母音信号vとして出力する。先の実施例では、あら
かじめ子音部と母音部を分離して後に母音部の認識を行
なう方法を述べたが、実際には子音と母音の分離には複
雑な手法が必要とされしかも完全に正しく行なえない場
合がある。
Here, the distance between the ll and ll' vectors is shown. Further, the denominator J is used to compensate for the tendency that the larger the length J of the standard pattern, the larger the sum of the numerators. Such distance calculations are performed with respect to all the standard patterns stored in the standard pattern storage section 34, and the results are sequentially sent to the determination section 36 as a signal d. Judgment section 36
Then, the distances d that are sequentially input are compared and the minimum value is determined. The vowel corresponding to this minimum value is taken as the determination result, and its code is output as the vowel signal v. In the previous example, a method was described in which the consonant part and the vowel part are separated in advance and the vowel part is recognized later, but in reality, separating the consonant part and vowel part requires a complicated method, and it cannot be done completely correctly. It may not be possible to do so.

第4図の構成の如く入力パタンと標準パタンの終端を揃
えてマッチングを行なうと、子音部と母音部の分離は不
要でしかも正確な認識が可能である。以上本発明の構成
を実施例をもとにして説明したがこれらの記載は本発明
の範囲を限定するものではない。
When matching is performed by aligning the ends of the input pattern and the standard pattern as in the configuration shown in FIG. 4, there is no need to separate the consonant and vowel parts, and accurate recognition is possible. Although the configuration of the present invention has been described above based on examples, these descriptions do not limit the scope of the present invention.

とくに、キーボードの配置、文字の表示等は第2図の例
に限られるものではない。さらには、ライトベン等の手
動入力手段であってもよい。また母音、子音の分類に関
しても他の方法が考えられ、本文の実施例に限定される
ものではない。さらにまた、以上の説明では、例えば“
キ”という文字を入力するときは“k”のキーを押して
かつ“キ”と発声するとしたが、母音部だけの“イ”と
いう発声にしてもよい。かくすると使用者に不自然な感
じを与えるであろうが、音声認識部を簡単化することが
できる。
In particular, the layout of the keyboard, the display of characters, etc. are not limited to the example shown in FIG. Furthermore, manual input means such as a light ben may be used. Further, other methods can be considered for classifying vowels and consonants, and the present invention is not limited to the examples described in the main text. Furthermore, in the above description, for example, “
When inputting the character ``K'', the user presses the ``k'' key and pronounces ``Ki'', but it is also possible to pronounce only the vowel part as ``i''.This may give the user an unnatural feeling. However, the speech recognition section can be simplified.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の基本的構成を説明するための実施例で
ある。 10はキーボード部、2川まマイクロホン、3川ま音声
認識部であり、40は文字情報合成部である。 第2図はキーボード部の一例を示す図である。 第3図は文字情報合成部の一構成例を示す。図における
ブロック41は読み出し専用メモリーである。第4図は
音声認識部の一構成例を示す図である。 31は分析部、32は入力パタンバッファ、33は終端
位置検出部、34は標準パタン記憶部、35はマッチン
グ部、36は判定部である。 第5図は入力パターンAと標準パタンBとの比較状況を
示す概念図である。多ー図 第2図 多3図 多4図 弟S図
FIG. 1 is an embodiment for explaining the basic configuration of the present invention. 10 is a keyboard section, a second microphone, a third speech recognition section, and 40 is a character information synthesis section. FIG. 2 is a diagram showing an example of a keyboard section. FIG. 3 shows an example of the configuration of the character information synthesis section. Block 41 in the figure is a read-only memory. FIG. 4 is a diagram showing an example of the configuration of the voice recognition section. 31 is an analysis section, 32 is an input pattern buffer, 33 is an end position detection section, 34 is a standard pattern storage section, 35 is a matching section, and 36 is a determination section. FIG. 5 is a conceptual diagram showing how input pattern A and standard pattern B are compared. Many drawings, 2nd drawing, 3rd drawing, 4th drawing, younger brother S drawing

Claims (1)

【特許請求の範囲】[Claims] 1 少なくとも子音情報を手動操作により指定入力する
ための手段と、音声入力された母音を認識するための音
声認識部と、上記両者によつて得られる子音情報と母音
情報を組合せて文字情報を生成して出力する手段とより
構成されることを特徴とする音声タイプライタ。
1. A means for manually inputting at least consonant information, a speech recognition unit for recognizing vowels input by voice, and generating character information by combining the consonant information and vowel information obtained by both of the above. A voice typewriter comprising: a means for outputting a voice.
JP53049485A 1978-04-25 1978-04-25 voice typewriter Expired JPS6037500B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP53049485A JPS6037500B2 (en) 1978-04-25 1978-04-25 voice typewriter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP53049485A JPS6037500B2 (en) 1978-04-25 1978-04-25 voice typewriter

Publications (2)

Publication Number Publication Date
JPS54141524A JPS54141524A (en) 1979-11-02
JPS6037500B2 true JPS6037500B2 (en) 1985-08-27

Family

ID=12832451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP53049485A Expired JPS6037500B2 (en) 1978-04-25 1978-04-25 voice typewriter

Country Status (1)

Country Link
JP (1) JPS6037500B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57102689A (en) * 1980-12-19 1982-06-25 Oki Electric Ind Co Ltd Single syllable voice input typewriter

Also Published As

Publication number Publication date
JPS54141524A (en) 1979-11-02

Similar Documents

Publication Publication Date Title
JP2815579B2 (en) Word candidate reduction device in speech recognition
US20080243474A1 (en) Speech translation apparatus, method and program
JP4038211B2 (en) Speech synthesis apparatus, speech synthesis method, and speech synthesis system
JP2008185805A (en) Technology for creating high quality synthesis voice
JPH0573100A (en) Method and device for synthesising speech
JPS6037500B2 (en) voice typewriter
Chen et al. A first study on neural net based generation of prosodic and spectral information for Mandarin text-to-speech
US20080249776A1 (en) Methods and Arrangements for Enhancing Machine Processable Text Information
JPH0210957B2 (en)
JPH0632019B2 (en) How to create voice code
JPS6037501B2 (en) voice input typewriter
JP3277522B2 (en) Voice recognition method
KR920009961B1 (en) Unlimited korean language synthesis method and its circuit
JP2862306B2 (en) Voice recognition device
JPS5958493A (en) Recognition system
JP2951332B2 (en) Clause candidate reduction method in speech recognition
JP2584222B2 (en) Speech synthesizer
CN118116365A (en) Prosodic text generation method and device applied to dialect
JPS6211732B2 (en)
JPH0731508B2 (en) Speech recognition response device
JPH06176023A (en) Speech synthesis system
JPH0285899A (en) Voice synthesizing device
Berdichevsky et al. A microcomputer-based speech synthesizer which speaks Spanish
Fadhil et al. Implementation of an unlimited English Speech Synthesizer by Rules
JPH07140999A (en) Device and method for voice synthesis