JPS60225198A - Voice synthesizer by rule - Google Patents

Voice synthesizer by rule

Info

Publication number
JPS60225198A
JPS60225198A JP59080523A JP8052384A JPS60225198A JP S60225198 A JPS60225198 A JP S60225198A JP 59080523 A JP59080523 A JP 59080523A JP 8052384 A JP8052384 A JP 8052384A JP S60225198 A JPS60225198 A JP S60225198A
Authority
JP
Japan
Prior art keywords
speech
parameters
parameter
voice
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59080523A
Other languages
Japanese (ja)
Other versions
JP2840234B2 (en
Inventor
徹 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Sanyo Denki Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Sanyo Denki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd, Sanyo Denki Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP59080523A priority Critical patent/JP2840234B2/en
Publication of JPS60225198A publication Critical patent/JPS60225198A/en
Application granted granted Critical
Publication of JP2840234B2 publication Critical patent/JP2840234B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 イ)産業上の利用分野 本発明は規則による音声合成装置に関するものであり、
任意の文字列を装置に入力することにより、任意の合成
音声を得ることができるものである。
[Detailed Description of the Invention] A) Industrial Application Field The present invention relates to a speech synthesis device based on rules,
By inputting any character string into the device, any synthesized speech can be obtained.

口)従来技術 規則による音声合成装置は、音韻あるいは音節などの単
位の音声の特徴を表わす音声パラメータを記憶しており
、入力文字列に従って該音声パラメータを補間、長さの
調節等の処理を施して接続することにより、任意の文字
列に対し、合成音声を生成するものである。
(Example) A speech synthesis device according to conventional technology rules stores speech parameters representing the characteristics of speech in units such as phonemes or syllables, and performs processing such as interpolation and length adjustment on the speech parameters according to the input character string. By connecting these, synthesized speech can be generated for any string of characters.

従来、この種装置では、音韻あるいは音節の種類に対し
、五声パラメータが1対1の対応で決まるものと、音韻
あるいは音節の種類に対し、音声パラメータが1対多数
で対応しているもの、すなわち同一の音節に対し、複数
種の音声パラメータが対応しているものとがある。後者
は、同一の音韻あるいは音節に対し、語頭用、中間用、
語尾用など複数種の音声パラメータを記憶しており、該
音韻あるいは音節の語中の位置によって接続する音声パ
ラメータを選択するものである。
Conventionally, in this type of device, there are devices in which five tone parameters are determined in a one-to-one correspondence with the type of phoneme or syllable, and devices in which the phonetic parameters are determined in a one-to-many correspondence with the type of phoneme or syllable. That is, there are cases in which multiple types of speech parameters correspond to the same syllable. The latter is used for the same phoneme or syllable, for initial, middle, and
It stores a plurality of types of speech parameters, such as those for word endings, and selects speech parameters to be connected depending on the position of the phoneme or syllable in the word.

又、規則による音声合成装置で(J、さらに合成音声の
自然を向上させるために、単語のアクセント型などを指
定することにより、規則により語全体に対し、ビ・・i
チ周波数を設定し、前述の方法により生成される音声パ
ラメータに対し、ピ・ソチパラメータを付与する。たと
えば、同一の音声パラメータに対し、ピ・・lチ周波数
を表わすパラメータを変えることにより、語のアクセン
トを変えるわけである。
Furthermore, in order to further improve the naturalness of the synthesized speech, a speech synthesizer based on rules can specify the accent type of the word, etc.
A pisochi frequency is set, and a pisochi parameter is given to the audio parameter generated by the method described above. For example, for the same voice parameter, the accent of a word can be changed by changing the parameter representing the pitch frequency.

しかしながら、LSP、PARCOR等を音声パラメー
タとする方式では、ビnlチ周波数を表わすパラメータ
とそれ以外の音声パラメータが完全に独立していないの
で、記憶している音声パラメータに対し、ビ・リチ周波
数の高い値、あるいは低い値を付与した場合には音質の
劣化が生じる事が音響学会論文集(1−2−11,19
81年10月)に報告されている。
However, in a system that uses LSP, PARCOR, etc. as audio parameters, the parameter representing the vinyl frequency and other audio parameters are not completely independent. According to the Proceedings of the Acoustical Society of Japan (1-2-11, 19
(October 1981).

ハ)@明の目的 本発明は以上の問題点を解決するためになされたもので
あり、音質の劣化を防止した音声合成装置を提供するも
のである。
C) @Ming's Purpose The present invention has been made to solve the above problems, and provides a speech synthesis device that prevents deterioration of sound quality.

ニ)発明の構成 本発明の音声合成装置は音韻あるいは音節などの単位の
音声の特徴を表わす音声パラメータを記憶する音声パラ
メータ記憶部と、入力された文字列に従って該記憶部か
ら音声パラメータを読み出し接続する音声パラメータ接
続部と、該音声パラメータ接続部において生成される音
声パラメータに基づいて音声を合成する音声合成部とを
備えた規則による音声合成装置において同一の音韻ある
いは音節などの単位の音声の特徴を表わす音声パラメー
タを複数個記憶しており、ビ・リチ周波数の値により音
声パラメータを選択するものである。
D) Structure of the Invention The speech synthesis device of the present invention is connected to a speech parameter storage section that stores speech parameters representing characteristics of speech in units such as phonemes or syllables, and reads out speech parameters from the storage section according to input character strings. In a speech synthesis device based on rules, which includes a speech parameter connection section that synthesizes speech based on the speech parameters generated in the speech parameter connection section, and a speech synthesis section that synthesizes speech based on the speech parameters generated in the speech parameter connection section, It stores a plurality of audio parameters representing , and selects the audio parameter based on the value of the bi-rich frequency.

ホ)実施例 第1図に本発明の音声合成装置の一実施例を示ず。音声
メモリ選択チー プル(1)には、第2図に示す如く、
合成合成の音節数にほぼ対応するモーラ数とそのアクセ
ント型の組合わせごとに各音節に対応する音声パラメー
タとして、高音用音声メモリ(2)、中音用音声メモリ
(3)、低音用音声メモリ(4)のうち、どの音声メモ
リ中の音声パラメータを接続するかの「高」、「中」、
「低」で示す情報が蓄えられている。即ち、4音節の4
文字で表わされる音声は4モーラに属し、アクセント型
としては、各音節のいずれにもアクセントのないもの、
例えば1−おもかげ」はO型、第1の音節にアクセント
のあるもの、例えば「えんにち」は1型、第2の音節に
アクセントのあるもの、例えば「うぐいす」は2型、第
6の音節にアクセントのあるもの、例えば「ばんごう」
は6型、に分類されて詔り、これ等のアクセント位置と
ピ・・Jチ周波数が相対的に高くなるので、このアクセ
ント位置には高音用音声パラメータを設定し、又最後の
音節ではビηチ周波数は相対的に低くなるので低音用音
声パラメータを設定している。ここで第2図について説
明を加えると、同図は音声メモリ選択テーブル(1)を
模式的;こ示したものであり、モーラ数Mとアクセント
聖人ごとに各音節に対応する音声パラメータとして、ど
の音声パラメータを用いるかが「高」、「中」、「低」
で示す情報として蓄えられている。さらに第1図に於い
て、(5)は文字キーが配列されたキーボード、(6)
は該キーボード(5)からのキー操作信号を受けて、そ
のキーに対応する音節単位の文字信号に変換するデコー
ダである。
E) Embodiment FIG. 1 does not show an embodiment of the speech synthesis device of the present invention. As shown in Figure 2, the voice memory selection team (1) has the following information:
The number of moras that roughly corresponds to the number of syllables to be synthesized and the voice parameters corresponding to each syllable for each combination of accent type are: high-pitched voice memory (2), middle-tone voice memory (3), and low-pitched voice memory. Out of (4), select "High", "Medium", which audio parameter in the audio memory should be connected.
Information indicated by "low" is stored. i.e. 4 of 4 syllables
The sounds represented by letters belong to four moras, and the accent types include those in which there is no accent on any of the syllables,
For example, ``1-omokage'' is type O, with an accent on the first syllable, for example, ``ennichi'' is type 1, and with an accent on the second syllable, for example, ``Uguisu'' is type 2, and the 6th syllable is type 2. Something with an accent on the syllable, such as "bangou"
is classified as type 6, and the accent positions and the pitch, j, and chi frequencies are relatively high, so high pitch voice parameters are set for this accent position, and the pitch is set for the last syllable. Since the ηchi frequency is relatively low, bass audio parameters are set. To explain Fig. 2 here, it schematically shows the speech memory selection table (1), and it shows which number of moras M and which speech parameters correspond to each syllable for each accented saint. "High", "Medium", "Low" using audio parameters
The information is stored as shown in . Furthermore, in Figure 1, (5) is a keyboard with character keys arranged, (6)
is a decoder that receives key operation signals from the keyboard (5) and converts them into character signals in syllable units corresponding to the keys.

(7)は該デコーダ(6)からの文字信号と上記高音用
音声メモリ(2)、中音用音声メモ1月3)、低音用音
声メモリ(4)の中の合成パラメータの存在するアドレ
スとを関係づけた音声パラメータアドレステーブル、(
8)は音声パラメータアドレステーブル(7)よII)
Ieミ出される音声メモリ群+21 、 (3+ 、 
+41のアドレスカウンタである。
(7) is the address where the character signal from the decoder (6) and the synthesis parameters in the treble voice memory (2), medium tone voice memo (January 3), and bass voice memory (4) exist. The audio parameter address table associated with (
8) is the audio parameter address table (7) II)
Voice memory group +21, (3+,
+41 address counter.

一方、(9)は、合成音声のモーラ数とアクセント型よ
り決足される音声メモリ選択テーブル(1)のアドレス
カウンタであり、音声パラメータ読み出し制御回路(1
01は音声メモリ選択テーブル(1)の出力に従って、
アドレスカウンタ(8)の示すアドレスから音声パラメ
ータを読み出す。(!1)はパラメータ領域(111)
とビ・リチ預域(112)とからなる音声データバッフ
ァメモリであり、そのパラメータ領域(111)ボード
(5)からのキー人力に応答して、新たな音声パラメー
タが順次格納される事となる。又、ピッチパターン用メ
モリ112)には、前述のモーラ数、アクセント型に対
応してピ・リチ周彼数を示すパラメータの値が蓄えられ
ており、合成有声に応じたパラメータの値か読み出され
、時間方向に伸縮された形でピ・ソチ領域(112)に
格納される。(13)は上記キーボード(51のキー操
作信号の先生回数に対応したモーラ数をカウントするカ
ウンタ、(14)は合e、TS声のアクセント型を指定
するアクセント型指定スイッチである。(15)は上記
カウンタ(13)から得られるモーラ数と、上記アクセ
ント型指足スイ・ツチ(141にて指定さ者1だアクセ
ント型との組合わせ信号からなる信号を片声パラメータ
選択テーブル(])のアドレスカウンタ(9)とビづチ
パターン用メモリ0zのアドレスカウンタ(10に送出
するピッチパターン指定回路である。(171は音声合
成回路であり、上記音声データバ・リファメモリ01)
に格納された、音声パラメータに基づいて音声信号が合
成出力され、アンプ0秒を介してスピーカQ9)からこ
の合成音声が発生される。
On the other hand, (9) is an address counter of the voice memory selection table (1) determined based on the mora number and accent type of the synthesized voice, and is the address counter of the voice parameter readout control circuit (1).
01 according to the output of the audio memory selection table (1),
The audio parameters are read from the address indicated by the address counter (8). (!1) is the parameter area (111)
This is an audio data buffer memory consisting of a parameter area (111) and a bi-rich storage area (112), and new audio parameters are sequentially stored in response to key input from the board (5). . In addition, the pitch pattern memory 112) stores parameter values indicating the number of moras and the number of pitch patterns corresponding to the accent type, and the value of the parameter corresponding to the synthesized voicing can be read out. and stored in the Pisochi area (112) in a time-expanded form. (13) is a counter that counts the number of moras corresponding to the teacher's number of key operation signals on the keyboard (51), and (14) is an accent type designation switch that specifies the accent type of the TS voice. (15) is the combination signal of the mora number obtained from the counter (13) and the accent type (specified in 141) in the monophonic parameter selection table (]). Address counter (9) and address counter (10) of pitch pattern memory 0z. (171 is a speech synthesis circuit, and the above-mentioned speech data reference memory 01)
An audio signal is synthesized and output based on the audio parameters stored in the audio signal, and this synthesized audio is generated from the speaker Q9) via the amplifier.

次に「うぐいす」を音声合成する場合を例に挙げて動作
を説明するが、その前に、「うぐいす」なる自然音声を
分析して見ると、4モーラ2型であって、そのビ・リチ
パターンは第5図に示す如くなる。同図に依れば、低音
と中音とのしきい値S1を200H1,中音と高音との
しきい値S2を300Hzと設定した場合、「うJは中
音、「ぐ」は高音、「い」は中音、「す」は低音である
事がわかる。
Next, we will explain the operation using the case of speech synthesis for "Japanese warbler" as an example. But before that, we analyze the natural speech "Japanese warbler" and find that it is a 4-mora type 2, and its bi-rich pattern. is as shown in FIG. According to the figure, if the threshold S1 for bass and middle tones is set to 200H1, and the threshold S2 for middle and treble tones is set to 300Hz, "uJ" is a middle tone, "gu" is a high tone, You can see that "i" is a middle tone and "su" is a low tone.

而して、キーボード(5)より「う」、「ぐ」、「い」
、「す」なる文字列が入力される。この時カウンタOJ
は、キー操作信号の発生回数をカウントすることにより
、合成すべき音声が4モーラに設定される。又、操作者
はアクセント型指疋スイ・・Jチロ4)にてそのアクセ
ント型を2型に設定する。従って、4モーラ2型という
信号はピ・ソチパターン指定回路05)からアドレスカ
ウンタ(9)に送出され、アドレスカウンタ(9)で指
定される音声メモリ選択テーブル(1)のアドレスには
、4モーラ2現用のテーブルとして第5図のピ・ソチパ
ターンの実厚・1例と一致するように第3図に示すよう
な「中」、「高」、「中」、「低」を示すテーブルが蓄
えられている。
Then, "u", "gu", "i" from the keyboard (5)
, the character string "su" is input. At this time, counter OJ
The voice to be synthesized is set to 4 moras by counting the number of times the key operation signal is generated. Also, the operator sets the accent type to type 2 using the accent type command switch...J Chiro 4). Therefore, the signal 4 mora type 2 is sent from the Pi-Sochi pattern designation circuit 05) to the address counter (9), and the address of the audio memory selection table (1) specified by the address counter (9) contains the 4 mora type 2 signal. As a current table, a table showing "medium", "high", "medium", and "low" as shown in Fig. 3 is stored to match the actual thickness of the Pi-Sochi pattern in Fig. 5. ing.

一方、キーボード(51より入力された「う」なる文字
はデコーダ(6)1こより文字信号に変換され、第4図
に示すような音声パラメータアドレステーブル(7)に
依れは「ノ」なる音節の特徴を表わす五声パラメータは
ろ〔10番地に存在するのでアドレスカウンタ(8)に
300の値が設定される。
On the other hand, the character ``u'' input from the keyboard (51) is converted into a character signal by the decoder (6) 1, and the syllable ``ノ'' is determined by the voice parameter address table (7) as shown in Figure 4. Since the five-tone parameter representing the characteristics of Ro is present at address 10, a value of 300 is set in the address counter (8).

音声パラメータ読み出しi+i制御回路(IO+は11
声メモリ選択テーブル(1)により指定される4モーラ
2型の第1名節に対応する中音用音声メモリ(3)の3
0000番地音声パラメータを14.iみ出し、晋声デ
ータバ・ソファメモリ(11)のパラメータ領域(11
1)に格納する。
Audio parameter readout i+i control circuit (IO+ is 11
3 of the mid-tone voice memory (3) corresponding to the first phrase of the 4-mora type 2 specified by the voice memory selection table (1)
Set the address 0000 audio parameters to 14. Parameter area (11) of Jinsei data base/sofa memory (11)
1).

同様にして、つづく文字「ぐ」なる文字信号に対応して
高音用メモリ(2)から、[ぐJなる音節の特徴を表わ
す音声パラメータが読み出され、パラメータ領域(11
1)に格納され、同様にしてすべての文字に対する、音
声パラメータが格納されていく。
Similarly, in response to the character signal of the following character "gu", the voice parameter representing the characteristics of the syllable "gu" is read out from the treble memory (2), and the parameter area (11
1), and in the same way, audio parameters for all characters are stored.

一方、4モーラ2型なるビっチパターン指定回路(旧の
出力は、ピッチパターン用メモリa急のアドレスカウン
タDI;11ζ送出され、読み出されたどりチパターン
が時間方向で伸縮されたあと、ピッチ領域(112)に
格納される。
On the other hand, the output of the 4-mora type 2 bit pattern designation circuit (the old one was sent to the pitch pattern memory a sudden address counter DI; 112).

以上の処理により音声データバッファメモリ01)に格
納された音声パラメータは音声合成回路(171に送出
され、合成音声として、アンプ(+8)を介して、スピ
ーカ091から発生される。
The voice parameters stored in the voice data buffer memory 01) through the above processing are sent to the voice synthesis circuit (171), and are generated from the speaker 091 via the amplifier (+8) as synthesized voice.

へ)発明の効果 本発明の規則による音声合成装置は、以上の説明から明
らかな如く種々のビーフチ周波数をもつ語を合成する場
合、ピッチ周波数を示すパラメータの値によって、語中
の音韻あるいは音節の特徴を表わす音声パラメータとし
て最適な音声パラメータを選択使用するものであるので
、ピッチ周波数の違いによる音質の劣化を減少させるこ
とができ、良質の合成音声か得られる。
f) Effects of the Invention As is clear from the above explanation, when the speech synthesis device according to the rules of the present invention synthesizes words with various pitch frequencies, it is possible to synthesize the phoneme or syllable in the word by the value of the parameter indicating the pitch frequency. Since the optimum voice parameters are selected and used as the voice parameters representing the characteristics, deterioration in sound quality due to differences in pitch frequencies can be reduced, and high quality synthesized speech can be obtained.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の音声合成装置の一実施例の構成図、@
2図は音声メモリ選択テーブルの模式図、ff13[M
は4モーラ2型の音声メモリ選択テーブルの部分模式図
、第4図は音声パラメータアドレステーブルの模式図、
第5図は4モ一ラ2型単語「うくいす」のビ、、チ周波
数を曲線図である。 +21 、 (31、(4)・・音声メモリ、(51・
・キーボード、01)・・・音声データバ・リファメモ
リ、(12)・・・ピ・す+パターン用メモリ、(15
)・・ピ9チパターン指定回路、(1′TI・・音声合
成回路、09・・スピーカ。 出願人 三洋1!1m株式会社 代理人 弁理士 佐野静夫
FIG. 1 is a block diagram of an embodiment of the speech synthesis device of the present invention, @
Figure 2 is a schematic diagram of the audio memory selection table, ff13[M
is a partial schematic diagram of a 4-mora type 2 voice memory selection table, and FIG. 4 is a schematic diagram of a voice parameter address table.
FIG. 5 is a curve diagram of the bi, , and c frequencies of the 4-molar type 2 word ``ukuisu''. +21, (31, (4)... voice memory, (51...
・Keyboard, 01)...Audio data buffer memory, (12)...Pi-S+pattern memory, (15)
)...Pi9chi pattern designation circuit, (1'TI...speech synthesis circuit, 09...speaker. Applicant Sanyo 1!1m Co., Ltd. Agent Patent attorney Shizuo Sano

Claims (1)

【特許請求の範囲】[Claims] り音韻あるいは音節などの単位の音声の特徴を表わす音
声パラメータを記憶する音声パラメータ記憶部と、入力
された文字列に従って該記憶部から音声パラメータを読
み出し接続する音声パラメータ接続部と、該音声パラメ
ータ接続部において生成される音声パラメータに基づい
て音声を合成する音声合成部とを備えた規則による音声
合成装置において、上記音声パラメータ記憶部は同一の
音韻あるいは音節などの単位の音声の特徴を表わす音声
パラメータを複数個記憶しており、ビ・、チ周波数の値
によりこの記憶部の音声パラメータを選択使用すること
を特徴とする規則による音声合成装置。
a speech parameter storage section that stores speech parameters representing the characteristics of speech in units such as phonemes or syllables; a speech parameter connection section that reads and connects the speech parameters from the storage section according to an input character string; and the speech parameter connection section. In the speech synthesis device according to the rules, the speech parameter storage section is configured to store speech parameters representing characteristics of the speech of units such as the same phoneme or syllable. 1. A speech synthesis device based on rules, characterized in that a plurality of speech parameters are stored in the storage section, and the speech parameters in the storage section are selectively used according to the values of the B, C, and C frequencies.
JP59080523A 1984-04-20 1984-04-20 Rule-based speech synthesizer Expired - Lifetime JP2840234B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59080523A JP2840234B2 (en) 1984-04-20 1984-04-20 Rule-based speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59080523A JP2840234B2 (en) 1984-04-20 1984-04-20 Rule-based speech synthesizer

Publications (2)

Publication Number Publication Date
JPS60225198A true JPS60225198A (en) 1985-11-09
JP2840234B2 JP2840234B2 (en) 1998-12-24

Family

ID=13720671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59080523A Expired - Lifetime JP2840234B2 (en) 1984-04-20 1984-04-20 Rule-based speech synthesizer

Country Status (1)

Country Link
JP (1) JP2840234B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385797A (en) * 1986-09-30 1988-04-16 藤崎 博也 Voice synthesizer
JP2003122386A (en) * 2001-10-09 2003-04-25 Canon Inc Program, and device and method for speech synthesis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181098A (en) * 1982-04-16 1983-10-22 日本電信電話株式会社 Decision of paragraph accent
JPS593496A (en) * 1982-06-30 1984-01-10 富士通株式会社 Fundamental frequency control system for rule synthesization system
JPS5944099A (en) * 1982-09-06 1984-03-12 富士通株式会社 Voice synthesization system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181098A (en) * 1982-04-16 1983-10-22 日本電信電話株式会社 Decision of paragraph accent
JPS593496A (en) * 1982-06-30 1984-01-10 富士通株式会社 Fundamental frequency control system for rule synthesization system
JPS5944099A (en) * 1982-09-06 1984-03-12 富士通株式会社 Voice synthesization system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385797A (en) * 1986-09-30 1988-04-16 藤崎 博也 Voice synthesizer
JP2003122386A (en) * 2001-10-09 2003-04-25 Canon Inc Program, and device and method for speech synthesis

Also Published As

Publication number Publication date
JP2840234B2 (en) 1998-12-24

Similar Documents

Publication Publication Date Title
US6826530B1 (en) Speech synthesis for tasks with word and prosody dictionaries
JP2005070430A (en) Speech output device and method
JP3617603B2 (en) Audio information encoding method and generation method thereof
JPH0527789A (en) Voice synthesizer
JPH0419799A (en) Voice synthesizing device
JPS60225198A (en) Voice synthesizer by rule
JPH0549998B2 (en)
JP5560769B2 (en) Phoneme code converter and speech synthesizer
JPH11249679A (en) Voice synthesizer
JP3081300B2 (en) Residual driven speech synthesizer
JP3509601B2 (en) Tone generator
JP3265995B2 (en) Singing voice synthesis apparatus and method
JP3059751B2 (en) Residual driven speech synthesizer
JPH02153397A (en) Voice recording device
JP2797644B2 (en) Karaoke device with vocalization function
JPH0895588A (en) Speech synthesizing device
JP2008275836A (en) Document processing method and device for reading aloud
JP2584236B2 (en) Rule speech synthesizer
JP2844588B2 (en) Waveform editing type speech synthesizer
JP2809769B2 (en) Speech synthesizer
JP2573585B2 (en) Speech spectrum pattern generator
JP5481957B2 (en) Speech synthesizer
JPS6325698A (en) Electronic musical instrument
JPH0553595A (en) Speech synthesizing device
JPS6067998A (en) Voice synthesizer

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term