JP2584236B2 - Rule speech synthesizer - Google Patents

Rule speech synthesizer

Info

Publication number
JP2584236B2
JP2584236B2 JP62191952A JP19195287A JP2584236B2 JP 2584236 B2 JP2584236 B2 JP 2584236B2 JP 62191952 A JP62191952 A JP 62191952A JP 19195287 A JP19195287 A JP 19195287A JP 2584236 B2 JP2584236 B2 JP 2584236B2
Authority
JP
Japan
Prior art keywords
voice
basic
audio data
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62191952A
Other languages
Japanese (ja)
Other versions
JPS6435499A (en
Inventor
徹 北村
光男 藤本
正幸 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Denki Co Ltd
Original Assignee
Sanyo Denki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Denki Co Ltd filed Critical Sanyo Denki Co Ltd
Priority to JP62191952A priority Critical patent/JP2584236B2/en
Publication of JPS6435499A publication Critical patent/JPS6435499A/en
Application granted granted Critical
Publication of JP2584236B2 publication Critical patent/JP2584236B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (イ) 産業上の利用分野 本発明は音声合成装置に関する。とくに、任意の文章
から音声を合成する規則による音声合成装置に関する。
The present invention relates to a speech synthesizer. In particular, the present invention relates to a speech synthesizer based on rules for synthesizing speech from arbitrary sentences.

(ロ) 従来の技術 任意の文章を音声合成する規則音声合成装置の研究が
盛んであり、最近、新聞の校閲装置やパソコンに接続で
きる任意文章の音声出力装置の試作、商品化が行なわれ
ている。漢字かな混じり文やカナ文字が、キーボードな
どから文字コードとして、規則音声合成装置に入力され
ると、それらの文字列から基本音声単位の列と韻律制御
を行なうための記号が生成される。基本音声単位として
は、子音−母音連鎖などの音節に相当する単位(CV素片
と呼ばれる)や子音−母音−子音連鎖の単位(CVC素片
と呼ばれる)などが使用されている。また、韻律制御を
行なうための記号には、アクセント位置を示す記号、息
継ぎの位置を示す記号などがあり、カナ文字入力の場合
は、一般に、韻律制御を行なうための記号も、カナ文字
と同時に、外部から入力される。
(B) Conventional technology There has been active research on a rule-based speech synthesizer for synthesizing arbitrary sentences, and recently, trial production and commercialization of an optional sentence speech output device that can be connected to a newspaper review device or a personal computer have been performed. I have. When a sentence mixed with kanji or kana is input as a character code from a keyboard or the like to a rule speech synthesizer, a sequence of basic speech units and a symbol for performing prosody control are generated from those character strings. As the basic speech unit, a unit corresponding to a syllable such as a consonant-vowel chain (called a CV unit) or a unit of a consonant-vowel-consonant chain (called a CVC unit) is used. Symbols for controlling prosody include a symbol indicating an accent position and a symbol indicating a breathing position.In the case of Kana character input, in general, the symbol for performing prosody control is also used at the same time as the Kana character. , Input from outside.

一方、基本音声単位それぞれに対応する音声データ
は、記憶装置(以下基本音声データメモリと呼ぶ)に蓄
えられており、前記の基本音声単位の列に従って、先頭
から対応する音声データが読み出され、接続されながら
音声データバッファメモリに蓄えられる。尚、音声デー
タの接続の際には、接続部分で補間処理が行なわれる。
また、韻律制御を行なうための記号に従って、音声デー
タ中にポーズが挿入されたり、基本周波数パターンが生
成され、音声データバッファメモリ中の音声データに付
与される。
On the other hand, audio data corresponding to each of the basic audio units is stored in a storage device (hereinafter, referred to as a basic audio data memory), and the corresponding audio data is read from the beginning according to the column of the basic audio units, The data is stored in the audio data buffer memory while being connected. Note that when audio data is connected, interpolation processing is performed at the connection portion.
In addition, a pause is inserted in the audio data or a fundamental frequency pattern is generated according to the symbol for performing the prosody control, and is added to the audio data in the audio data buffer memory.

以上の処理により生成された音声データバッファメモ
リ中の音声データは、LSP、PARCOR等の音声合成回路を
介して音声に変換される。前記基本音声単位と前記基本
音声データメモリ中の音声データは一対一に対応してい
る場合もあるが、例えば語頭と語中の場合のように、音
韻環境により音声データの特徴は異なると考えられるの
で、昭和57年10月発行の音響学会講演論文集1−6−19
「CV音節とV音節を用いる音声合成」に示すように、同
一の基本音声単位に対して、文や単語中の存在位置によ
って、音声データを語頭用、語中用、語尾用など複数種
用意することにより、音質向上を図っているものもあ
る。
The audio data in the audio data buffer memory generated by the above processing is converted into audio via an audio synthesis circuit such as LSP or PARCOR. Although the basic voice unit and the voice data in the basic voice data memory may correspond one-to-one, the characteristics of the voice data are considered to be different depending on the phonemic environment, for example, in the case of the beginning and the middle of the word. So, 1-6-19 of the Acoustical Society of Japan, October 1982
As shown in "Speech synthesis using CV syllables and V syllables", multiple types of speech data are prepared for the same basic speech unit, such as for the beginning, middle, and end, depending on the location in the sentence or word. In some cases, the sound quality is improved.

(ハ) 発明が解決しようとする問題点 従来の技術の前者のように、基本音声単位に対して、
基本音声データメモリ内に音声データを一種類しか用意
していない場合は、例えば、基本音声データメモリ内の
音声データを、自然に発声した音声のうち、語頭で発声
されたものを利用して作成した場合、入力文章から生成
された基本音声単位のうち、文や単語の先頭にあるもの
は、同一の音韻環境で生成された音声データが利用され
るので、音質の劣化は小さいが、文や単語の語中、語尾
では、音韻環境が異なるので音質の劣化が大きい。
(C) Problems to be solved by the invention As in the former of the prior art, for the basic voice unit,
When only one type of voice data is prepared in the basic voice data memory, for example, the voice data in the basic voice data memory is created using naturally uttered voice uttered at the beginning of a word. In this case, among the basic speech units generated from the input sentence, those at the beginning of the sentence or word use the speech data generated in the same phoneme environment, so the sound quality is small, but the sentence At the end of a word, the sound quality is greatly degraded because the phonemic environment is different.

また、従来の技術の後者のように、劣化を防ぐため
に、同一の基本音声単位に対して、音声データを複数種
用意するためには、基本音声データメモリとして多くの
容量を必要とする。上記の論文の例においては、音声デ
ータの種類として、526種類用意し、9600kbpsのPARCOR
パラメータを用いた時、55KBのメモリ容量を必要として
いる。
Also, as in the latter case of the prior art, in order to prepare a plurality of types of audio data for the same basic audio unit in order to prevent deterioration, a large capacity is required as a basic audio data memory. In the example of the above paper, 526 types of audio data were prepared, and 9600kbps PARCOR
When using parameters, it requires a memory capacity of 55KB.

(ニ) 問題点を解決するための手段 本発明は、任意の文章を音声により出力するために、
文字列を入力する手段、音韻や音節などの基本音声単位
それぞれに対応する音声データを記憶する基本音声デー
タメモリ、入力された該文字列から基本音声単位の列を
生成する手段、該基本音声単位の列に対応する音声デー
タを基本音声データメモリから読み出す手段、読み出し
た音声データを順次蓄える音声データバッファメモリ、
該音声データバッファメモリに蓄えられた音声データか
ら音声を合成する音声合成手段、記基本音声単位の列に
対応する音声データを読み出すさいに、該基本音声単位
が文や単語などの先頭以外に存在するときは、該音声デ
ータのうち先頭の一部を削除して、音声バッファメモリ
に蓄える編集手段を備えたことを特徴とする。
(D) Means for Solving the Problems The present invention is to output an arbitrary sentence by voice,
Means for inputting a character string, basic sound data memory for storing sound data corresponding to each of basic sound units such as phonemes and syllables, means for generating a sequence of basic sound units from the input character string, and the basic sound unit Means for reading the audio data corresponding to the column from the basic audio data memory, an audio data buffer memory for sequentially storing the read audio data,
A voice synthesizing means for synthesizing voice from voice data stored in the voice data buffer memory; when reading voice data corresponding to a column of basic voice units, the basic voice unit exists other than at the beginning of a sentence or a word; In this case, there is provided an editing means for deleting a part of the head of the audio data and storing it in the audio buffer memory.

(ホ) 作用 本発明は、かかる編集手段を備えるので、少量の基本
音声データメモリで、文や単語中での存在位置に適した
音声データを生成することができる。例えば、自然に発
声した音声のうち、語頭で発声されたものを利用して、
基本音声データメモリ内の音声データを作成した場合、
文や単語の語頭に比べ、語中、語尾の方が劣化は大きい
が、語中、語尾のとき、基本音声データメモリ内の対応
する音声データの先頭の一部を削除することにより、従
来装置に比べ、音声データを一種類しか持たないことに
よる劣化を押さえることができる。
(E) Function Since the present invention is provided with such an editing means, it is possible to generate voice data suitable for a position in a sentence or word with a small amount of basic voice data memory. For example, using naturally uttered speech that is uttered at the beginning of a word,
If you create audio data in the basic audio data memory,
Deterioration is greater at the middle and end of words than at the beginning of a sentence or word. In comparison with the above, it is possible to suppress deterioration due to having only one type of audio data.

(ヘ) 実施例 第1図は、本発明を実現する規則音声合成装置の構成
例を示したものである。
(F) Embodiment FIG. 1 shows an example of the configuration of a rule speech synthesizer that realizes the present invention.

キーボード(1)より、例えば、“ソヨカゼ”という
単語が入力されると、ポインタ制御部(2)により文字
列バッファポインタ(3)が制御され、“ソヨカゼ”と
いう文字列が文字列バッファ(4)に蓄えられる。文字
種判定部(6)は文字列バッファ(4)に蓄えられた文
字を一文字ずつ読みだし、カナ文字であれば、スイッチ
(5)を閉じ、その文字に対応する基本音声単位のコー
ドをアドレスポインタ(7)にセットする。アドレステ
ーブル(8)には、各基本音声単位に対応する音声デー
タの基本音声データメモリ(10)中での存在位置が格納
されており、存在位置を示すアドレスが、アドレスポイ
ンタ(9)にセットされる。
When, for example, the word "Soyokaze" is input from the keyboard (1), the character string buffer pointer (3) is controlled by the pointer control unit (2), and the character string "Soyokaze" is stored in the character string buffer (4). Is stored in The character type determination unit (6) reads out the characters stored in the character string buffer (4) one by one, and if it is a kana character, closes the switch (5) and sets the code of the basic voice unit corresponding to the character to an address pointer. Set to (7). The address table (8) stores the location of the voice data corresponding to each basic voice unit in the basic voice data memory (10), and the address indicating the location is set in the address pointer (9). Is done.

一方、文字種判定部(6)でカナ文字と判定される
と、音声データ読み出し制御部(16)によって、スイッ
チ(11)が閉じられ、基本音声データメモリ(10)中の
基本音声単位に対応する音声データが、音声データバッ
ファメモリ(12)に蓄えられる。この際、語頭判定部
(17)によって、文や単語の語頭であることが判定され
ると、そのまま読み込まれるが、それ以外のときは、先
頭削除長テーブル(15)の内容に従い、読み出し前に、
音声データ読み出し制御部(16)によって、アドレスポ
インタ(9)の内容が増やされ、音声データの先頭の一
部を読み飛ばして、音声データバッファメモリに蓄えら
れる。
On the other hand, if the character type determination unit (6) determines that the character is a kana character, the voice data read control unit (16) closes the switch (11) and corresponds to the basic voice unit in the basic voice data memory (10). Audio data is stored in the audio data buffer memory (12). At this time, if the beginning-of-word determining unit (17) determines that it is the beginning of a sentence or a word, it is read as it is. Otherwise, according to the contents of the leading deletion length table (15), it is read before reading. ,
The content of the address pointer (9) is increased by the audio data read control unit (16), and a part of the head of the audio data is skipped and stored in the audio data buffer memory.

なお、先頭削除長テーブル(15)には、第2図に示す
如く、各基本音声単位ごとに、その基本音声単位が、文
や単語の語中、語尾に存在するときに、読み飛ばすべき
データ数(フレーム数)が格納されている。「第2図
は、先頭削除長テーブル(15)の一部を示したものであ
る。] 例えば、“ソヨカゼ”という入力に対しては、まず、
“ソ”という文字が、文字種判定部(6)に入力される
と、カナ文字であるので、基本音声単位“ソ”に対する
コードがアドレスポインタ(7)にセットされる。アド
レステーブル(8)には、“ソ”に対応する音声データ
のアドレスが格納されており、そのアドレスがアドレス
ポインタ(9)にセットされる。ここで、“ソ”が語頭
であることが、語頭判定部(17)でわかるので、音声デ
ータ読み出し制御部(16)の出力に従って、スイッチ
(11)を介して、音声データは、そのまま音声データバ
ッファメモリ(12)に蓄えられる。次ぎに、“ヨ”とい
う文字に対して、同様に、基本音声単位“ヨ”に対する
コードがアドレスポインタ(7)にセットされ、“ヨ”
に対応する音声データの基本音声データメモリ(10)中
のアドレスがアドレスポインタ(9)にセットされる
が、“ヨ”は語中である(語頭ではない)ので、語頭判
定部(17)の出力に従って、音声データ読みだし制御部
(16)は、先頭削除長テーブル(15)から、音声データ
の先頭を削除すべきフレーム数6[第2図の“ヨ”の欄
参照]を読みだし、その値だけアドレスポインタ(9)
の値を加える。従って、スイッチ(11)を介して、音声
データバッファメモリ(12)に蓄えられる“ヨ”に対応
する音声データは、先頭から6フレーム分だけ削除した
ものとなる。
As shown in FIG. 2, the head deletion length table (15) contains, for each basic voice unit, data to be skipped when the basic voice unit is present at the end of a sentence or word. The number (the number of frames) is stored. “FIG. 2 shows a part of the head deletion length table (15).” For example, for the input “Soyokaze”,
When the character "S" is input to the character type determination unit (6), since it is a Kana character, the code for the basic speech unit "S" is set in the address pointer (7). The address of the audio data corresponding to "SO" is stored in the address table (8), and the address is set in the address pointer (9). Here, since the beginning-of-word determining unit (17) knows that "so" is the beginning of the word, the voice data is directly converted to the voice data via the switch (11) according to the output of the voice data read control unit (16). Stored in the buffer memory (12). Next, for the character "Y", a code for the basic voice unit "Y" is similarly set in the address pointer (7), and "Y" is set.
Is set in the address pointer (9) in the basic voice data memory (10) of the voice data corresponding to the word "Y". In accordance with the output, the audio data reading control unit (16) reads the number of frames 6 (see the column "Y" in FIG. 2) from which the head of the audio data should be deleted from the head deletion length table (15), Address pointer by that value (9)
Add the value of. Therefore, the audio data corresponding to "Y" stored in the audio data buffer memory (12) via the switch (11) is deleted from the beginning by six frames.

同様の処理が、“カ”についても行なわれるが、先頭
削除長テーブル(15)の値が0であるので削除は行なわ
ず、そのまま、“カ”に対応する音声データが蓄積さ
れ、“ゼ”については、先頭から6フレームだけ削除し
た音声データが音声データバッファメモリ(12)に蓄え
られる。
A similar process is performed for "f", but since the value of the head deletion length table (15) is 0, the deletion is not performed, and the voice data corresponding to "f" is accumulated as it is, and With respect to the audio data, the audio data from which only six frames have been deleted from the beginning is stored in the audio data buffer memory (12).

第3図は、“ソヨカゼ”のそれぞれの基本音声単位に
対応する音声データと、音声データバッファメモリ(1
2)に蓄えられた音声データを図示したものである。図
に示すように音声データは、語中、語尾で先頭のデータ
がハッチング箇所で示したように削除されながら、接続
され、音声データバッファメモリ(12)に蓄えられる。
FIG. 3 shows the audio data corresponding to each basic audio unit of “Soyokaze” and the audio data buffer memory (1
This is a diagram illustrating the audio data stored in 2). As shown in the figure, the voice data is connected while the data at the end of the word at the end of the word is deleted as indicated by the hatched portions, and is stored in the voice data buffer memory (12).

なお、接続の際には、音声データの接続部分で補間処
理が行なわれ、最後に文字種判定部(6)により、文字
列の最後であることが判定されると、音声合成部(13)
に対して音声発声指示信号が送出される。音声合成部
(13)は、該音声発生指示信号を受け取ると、音声デー
タバッファメモリ(12)中の音声データを用いて、音声
を合成し、スピーカ(14)から音声として出力する。
At the time of connection, interpolation processing is performed at the connection part of the voice data, and when the character type determination unit (6) finally determines that it is the end of the character string, the voice synthesis unit (13)
Is sent a voice utterance instruction signal. Upon receiving the voice generation instruction signal, the voice synthesis unit (13) synthesizes voice using the voice data in the voice data buffer memory (12), and outputs the voice as voice from the speaker (14).

以上の説明に於いては、先頭削除長テーブル(15)、
音声データ読み出し制御部(16)、語頭判定部(17)に
て、基本音声データの先頭を削除する編集手段を例示し
たが、本発明はこれに限定されるものでなく、基本音声
データの後部の削除、あるいは適所の追加が実現され得
る。
In the above explanation, the head deletion length table (15),
Although the audio data read control unit (16) and the beginning-of-word determining unit (17) exemplify an editing unit for deleting the beginning of the basic audio data, the present invention is not limited to this. Can be deleted or added in place.

(ト) 発明の効果 以上のように、本発明の規則音声合成装置では、基本
音声単位に対応する音声データを接続して、文や単語に
対する音声データを生成する際に、その基本音声単位
の、文や単語中での存在位置に従って、音声データの一
部を削除するので、合成音声の劣化を抑えることができ
る。
(G) Effect of the Invention As described above, in the rule speech synthesizer of the present invention, when speech data corresponding to a basic speech unit is connected to generate speech data for a sentence or word, Since part of the voice data is deleted in accordance with the location in the sentence or word, the deterioration of the synthesized voice can be suppressed.

また、存在位置によって、各音声単位に対応する音声
データを複数種用意している場合と比較すると、一種類
しか用意していないので音声データを記憶するために必
要とするメモリ容量を大幅に減らすことができる。例え
ば、語頭用、語中用、語尾用の3種類を用意した場合と
比較すると約1/3のメモリ容量しか必要としない。
Also, compared to the case where a plurality of types of audio data corresponding to each audio unit are prepared depending on the existence position, only one type is prepared, so that the memory capacity required for storing the voice data is greatly reduced. be able to. For example, only about 1/3 of the memory capacity is required as compared to the case where three types, ie, for the beginning, middle, and end, are prepared.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明を実現するための規則合成装置の構成例
を示したブロック図、第2図は先頭削除長テーブルの一
部を示したメモリ図、第3図は“ソヨカゼ”のそれぞれ
の基本音声単位に対応する音声データと音声データバッ
ファメモリに蓄えられた音声データの関係を図示した模
式図である。 (1)…キーボート、(4)……文字列バッファ、 (6)……文字種判定部、(10)……基本音声データメ
モリ、(12)……音声データバッファメモリ、(15)…
…先頭削除長テーブル、(16)……音声データ読出し制
御部、(17)……語頭判定部。
FIG. 1 is a block diagram showing a configuration example of a rule synthesizing apparatus for realizing the present invention, FIG. 2 is a memory diagram showing a part of a head deletion length table, and FIG. FIG. 3 is a schematic diagram illustrating a relationship between audio data corresponding to a basic audio unit and audio data stored in an audio data buffer memory. (1) Keyboard, (4) Character string buffer, (6) Character type determination unit, (10) Basic audio data memory, (12) Audio data buffer memory, (15)
... Head deletion length table, (16)... Voice data read control unit, (17).

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】任意の文章を音声により出力するために、
文字列を入力する手段、音韻や音節などの基本音声単位
それぞれに対応する音声データを記憶する基本音声デー
タメモリ、入力された該文字列から基本音声単位の列を
生成する手段、該基本音声単位の列に対応する音声デー
タを基本音声データメモリから読み出す手段、読み出し
た音声データを順次蓄える音声データバッファメモリ、
該音声データバッファメモリに蓄えられた音声データか
ら音声を合成する音声合成手段、該基本音声単位の列に
対応する音声データを読み出すさいに、該基本音声単位
が文や単語などの先頭以外に存在するときは、該音声デ
ータのうち先頭の一部を削除して、音声バッファメモリ
に蓄える編集手段を備えたことを特徴とする規則音声合
成装置。
(1) To output an arbitrary sentence by voice,
Means for inputting a character string, basic sound data memory for storing sound data corresponding to each of basic sound units such as phonemes and syllables, means for generating a sequence of basic sound units from the input character string, and the basic sound unit Means for reading the audio data corresponding to the column from the basic audio data memory, an audio data buffer memory for sequentially storing the read audio data,
Voice synthesizing means for synthesizing voice from voice data stored in the voice data buffer memory, and when reading voice data corresponding to the column of the basic voice unit, the basic voice unit exists other than at the beginning of a sentence or a word. When performing the above, the rule speech synthesizer is provided with an editing means for deleting a part of the head of the speech data and storing it in a speech buffer memory.
JP62191952A 1987-07-30 1987-07-30 Rule speech synthesizer Expired - Lifetime JP2584236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62191952A JP2584236B2 (en) 1987-07-30 1987-07-30 Rule speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62191952A JP2584236B2 (en) 1987-07-30 1987-07-30 Rule speech synthesizer

Publications (2)

Publication Number Publication Date
JPS6435499A JPS6435499A (en) 1989-02-06
JP2584236B2 true JP2584236B2 (en) 1997-02-26

Family

ID=16283184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62191952A Expired - Lifetime JP2584236B2 (en) 1987-07-30 1987-07-30 Rule speech synthesizer

Country Status (1)

Country Link
JP (1) JP2584236B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5331561A (en) * 1976-09-04 1978-03-24 Mitsukawa Shiyouichi Method of manufacturing ssshaped springs
JPS5695299A (en) * 1979-12-28 1981-08-01 Fujitsu Ltd Voice edit*snythesis*and processing system
US4827517A (en) * 1985-12-26 1989-05-02 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech processor using arbitrary excitation coding

Also Published As

Publication number Publication date
JPS6435499A (en) 1989-02-06

Similar Documents

Publication Publication Date Title
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
JPH0833744B2 (en) Speech synthesizer
JP6003115B2 (en) Singing sequence data editing apparatus and singing sequence data editing method
JP3518898B2 (en) Speech synthesizer
JPH0419799A (en) Voice synthesizing device
JP2584236B2 (en) Rule speech synthesizer
JP2894447B2 (en) Speech synthesizer using complex speech units
JPS6184771A (en) Voice input device
JP2584236C (en)
JPS6014360B2 (en) voice response device
JP3870583B2 (en) Speech synthesizer and storage medium
JP3034554B2 (en) Japanese text-to-speech apparatus and method
JP2573585B2 (en) Speech spectrum pattern generator
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JP2000172286A (en) Simultaneous articulation processor for chinese voice synthesis
JP2006010849A (en) Speech synthesizer
JPH06176023A (en) Speech synthesis system
JPH05210482A (en) Method for managing sounding dictionary
JPS62284398A (en) Sentence-voice conversion system
JPH09230892A (en) Text-speech conversion device
JP2573586B2 (en) Rule-based speech synthesizer
JP3700743B2 (en) Recording medium and character input device
JPH04275B2 (en)
JPH07129620A (en) Voice electronic book
JPS60225198A (en) Voice synthesizer by rule

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071121

Year of fee payment: 11