JPS59148094A - Voice synthesizer - Google Patents

Voice synthesizer

Info

Publication number
JPS59148094A
JPS59148094A JP58023264A JP2326483A JPS59148094A JP S59148094 A JPS59148094 A JP S59148094A JP 58023264 A JP58023264 A JP 58023264A JP 2326483 A JP2326483 A JP 2326483A JP S59148094 A JPS59148094 A JP S59148094A
Authority
JP
Japan
Prior art keywords
segment
synthesis
phoneme
character string
editing buffer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58023264A
Other languages
Japanese (ja)
Inventor
高井 紀代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP58023264A priority Critical patent/JPS59148094A/en
Publication of JPS59148094A publication Critical patent/JPS59148094A/en
Pending legal-status Critical Current

Links

Landscapes

  • Reciprocating, Oscillating Or Vibrating Motors (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は音声合成に関するものであり、特に任意の単語
・文章の合成を目的とする規則合成装置に適用できる。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to speech synthesis, and is particularly applicable to a rule synthesis device for the purpose of synthesizing arbitrary words and sentences.

従来例の構成とその問題点 数年来、音声合成の研究が盛んに行なわれている。音声
を分析して特徴パラメータを抽出し、そのパラメータか
ら音声を合成する分析合成が多く用いられているが、分
析合成では合成できる音声が眠られるとともに、ある一
定の情報量以下ζこ情報量圧縮を行なうと音質がいちじ
るしく低下し、情報量圧縮に限界があるという問題点が
あった。
Conventional configurations and their problems Research on speech synthesis has been actively conducted for several years. Analysis-synthesis is often used to analyze speech, extract feature parameters, and synthesize speech from those parameters.However, analysis-synthesis reduces the amount of speech that can be synthesized, and compresses the amount of information below a certain amount. However, there was a problem in that the sound quality deteriorated significantly and there was a limit to the amount of information compression.

そこで、任意の音声を少ない情報量で合成できる規則合
成についての研究がはじめられた。第1表は、音声デー
タを記憶する単位に基づいて、規則合成の3つの方法に
ついての比較をまとめたものである。
Therefore, research has begun on rule synthesis, which can synthesize arbitrary speech with a small amount of information. Table 1 summarizes a comparison of three methods of rule synthesis based on the unit of storing audio data.

方法(1)は、音声データを■cvの単位で記憶し母音
部分で結合する方法で、例えば、KOTOBA (言葉
)を合成、するノニ”KO’ 、  ’OTO’ 、 
’OBA’  ノ8第     1     表 つのVCV素片(以下■Cvのような基本となる単位を
素片という)を結合させて合成するものである。
Method (1) is a method of storing voice data in cv units and combining them at the vowel part. For example, to synthesize KOTOBA (word), Noni "KO", 'OTO',
'OBA' No. 8, Table 1 The VCV fragments (hereinafter, basic units such as ■Cv are referred to as fragments) are combined and synthesized.

この例では、語頭用CV(KO) +VCV (OTO
)+ VCV(OBA)で構成されている。この方法で
は、素片間の結合がすべて母音−母音で行なわれるため
、結合規則は比較的簡単になるが、素片が多く必要とい
う問題点があり、その素片数は約900個である。
In this example, the initial CV (KO) + VCV (OTO
) + VCV (OBA). In this method, all the connections between elementary fragments are done vowel-vowel, so the combination rules are relatively simple, but there is a problem that a large number of elementary fragments are required, and the number of such fragments is about 900. .

方法(2)は記憶の甲位としてcv(1音節)を用いる
もので、例えば、KOTOBA (言葉)はKO’ 。
Method (2) uses cv (one syllable) as the memorization level; for example, KOTOBA (word) is KO'.

’To’ 、 ’l(A’の8つのCV素片を結合させ
て合成される。この方法では、必要な素片数は約100
側で、方法(旧こ比べて少なくてよいが、母音から子音
への結合< V−C)が必要となるため、結合規則がや
や複雑になる。
It is synthesized by combining 8 CV fragments of 'To' and 'l(A'. In this method, the number of required fragments is approximately 100.
On the other hand, it requires a method (less than the old one, but vowel to consonant <V-C), making the combination rules a little more complicated.

方法(3)は記憶単位としてC,V(音素)を用いてお
り、KOTOBA < N葉)は、%に/ 、 0/ 
、 Tt。
Method (3) uses C and V (phonemes) as memory units, and KOTOBA < N leaves) is written in %/, 0/
, Tt.

%Q/ 、 %T3/ 、 %A/の6つの音素を結合
させて合成する。この方法に必要な素片数は約20個程
度であり、方法(1) 、 (2)に比べて素片数は非
常に少なくてよいが、V−Cの結合に加えて子音から母
音への結合(C−V)も1シ・要となるため、結合規則
が非常に複雑になる。
The six phonemes %Q/, %T3/, and %A/ are combined and synthesized. The number of elements required for this method is about 20, which is much smaller than methods (1) and (2). Since the combination (C-V) also requires one key, the combination rules become very complicated.

発明の目的 本発明は以上の問題点を解決し、少ない素片数と簡単な
結合規則で規則合成を可能とする音声合成装置を提供す
ることを目的とするものである。
OBJECTS OF THE INVENTION It is an object of the present invention to solve the above-mentioned problems and to provide a speech synthesis device that enables rule synthesis using a small number of fragments and simple combination rules.

発明の構成 素片の単位が小さくなるに従って結合規則が複雑になる
のは、音素そのものの種類、性質、14接する音素の種
類、性質によって結合規則が個々に異なるからであるこ
とに鑑み、かつ実験の結果。
In consideration of the fact that the connection rules become more complex as the units of the constituent elements of the invention become smaller, this is because the connection rules differ depending on the type and property of the phoneme itself, and the types and properties of the adjacent phonemes. The result.

音素によっては結合規則を限定しても、明瞭性のひどい
劣化をひき起さない事を見出したことから、本発明は、
文字列を入力する手段と、入力された文字列から合成に
必要な素片を選びだす文字列解析手段と、素片を記憶す
る記憶手段と、前記選ばれた素片を前記素片記憶部から
読みだす素片読〃。
The present invention has been made based on the discovery that, depending on the phoneme, even if the combination rules are limited, the intelligibility does not deteriorate significantly.
a means for inputting a character string, a character string analysis means for selecting a segment necessary for synthesis from the input character string, a storage means for storing the segment, and a storage unit for storing the selected segment. Simple reading from the beginning.

出し手段と、この読み出された素片を一時的に記憶する
編集バッファと、この編集バッファ信号を人力とし、そ
の結果を編集バッファに格納する発声時間長、韻律、振
幅伺与手段と、素片列を結合規則に従って結合する手段
と、音声波形を合成する手段を設け、前記素片記憶部に
記憶する単位は、音素そのものの種類、性質、隣接する
音素の種類。
an editing buffer for temporarily storing the read segment; a means for estimating utterance duration, prosody, and amplitude for manually inputting the editing buffer signal and storing the result in the editing buffer; Means for combining segment sequences according to a combination rule and means for synthesizing speech waveforms are provided, and the units stored in the segment storage unit include the type and property of the phoneme itself, and the type of adjacent phonemes.

性質に応じて、単一の音素のみにするか、あるいは、隣
接する音素の一部もしくは全部を含めるかを選択して決
定する構成にし、結合規則を限定できる音素に対しては
単一の音素を素片とし、そうでないものに対しては隣接
する音素の一部もしくは全部を含めて素片とすることに
よって簡単な結合規則と少ない素片世で規則合成を可能
としたものである。
Depending on the nature of the phoneme, the structure is configured to select and decide whether to include only a single phoneme or to include some or all of the adjacent phonemes, and for phonemes that can have limited combination rules, a single phoneme is used. By using a phoneme as a unit, and for other phonemes, including some or all of the adjacent phonemes, it is possible to synthesize rules using simple combination rules and a small number of units.

実施例の説明 以下本発明による規則音声合成装置の一実施例を図面に
基づいて説明する。第1図は本実施例のブロック図であ
る。入力部(])から合成すべき文字列をローマ字で入
力し、文字列解析部(2)で合成に必要な素片が選ばれ
る。次に素片読み出し部(4)で必要な素片が素片記憶
部(3)から読み出され、編集バッファ(5)に一時的
に格納される。編集バッファ(5)の信号を入力として
、時間長決定部(6)で隣接した音素の影響を考慮して
素片毎の時間長が決定され、結果を編集バッファ(5)
に格納する。同様に編集バッファ(5)の信号や入力と
して、韻律付与部(7)で基本周波数が決定され、振幅
付与部(8)で各素片の位置と種類を考慮して合成音の
強度を示す振幅を決定し、それらの結果をhli集バッ
フ1(5)に格納する。最後に結合部(9)で各素片の
結合規則に従って素片が結合され、合成部θQで合成さ
れて出力端01)に合成音声を得る。
DESCRIPTION OF THE EMBODIMENTS An embodiment of the regular speech synthesis apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of this embodiment. The character string to be synthesized is input in Roman letters from the input section (]), and the segment necessary for synthesis is selected in the string analysis section (2). Next, a necessary segment is read out from the segment storage section (3) by the segment reading section (4) and temporarily stored in the editing buffer (5). Using the signal from the editing buffer (5) as input, the time length determination unit (6) determines the time length for each segment by taking into account the influence of adjacent phonemes, and the result is sent to the editing buffer (5).
Store in. Similarly, as a signal or input to the editing buffer (5), the prosody adding section (7) determines the fundamental frequency, and the amplitude adding section (8) takes into account the position and type of each element and indicates the intensity of the synthesized sound. Determine the amplitude and store the results in hli collection buffer 1 (5). Finally, in a combining section (9), the segments are combined according to the connection rules for each segment, and in a synthesizing section θQ, synthesized speech is obtained at an output terminal 01).

合成部01で用いている合成方式はホルマント・ボコー
ダ方式で、合成に必要なパラメータは第1ホルマント、
第2ホルマント、第3ホルマント(以下Fl、F2.F
8と言う単位+(z )、各ホルマントのバンド幅(以
下B1,B2,B3という単位Hz)、名ホルマントの
振幅(以下A1,A2,A3という、単位DB)、強度
を示す振幅、基本周波数の11個であり、パラメータは
5msec毎に更新される。このうち、強度を示す振幅
および基本周波数は韻律付与部(7)、振幅付与部(8
)で与えられるので、素片記憶部(3)に記憶されてい
る素片が持つべきパラメータはF1,F2,F3,A1
,A2,A3,B1,B2,B3の計9個である。
The synthesis method used in the synthesis section 01 is a formant vocoder method, and the parameters required for synthesis are the first formant,
Second formant, third formant (hereinafter Fl, F2.F
8 + (z), bandwidth of each formant (hereinafter referred to as B1, B2, B3, unit Hz), amplitude of the famous formant (hereinafter referred to as A1, A2, A3, unit DB), amplitude indicating intensity, fundamental frequency There are 11 parameters, and the parameters are updated every 5 msec. Among these, the amplitude and fundamental frequency indicating the strength are determined by the prosody imparting section (7) and the amplitude imparting section (8).
), the parameters that the segment stored in the segment storage unit (3) should have are F1, F2, F3, A1
, A2, A3, B1, B2, and B3, nine in total.

次に、素片記憶部(3)について詳しく説明する。Next, the segment storage unit (3) will be explained in detail.

素片記憶部(3)に記憶される素片単位は、C−V結合
規則が後続母音毎(合成音声を日本語とするので、後続
音素を母音に限定する)に異なり、複雑である。‘g’
,‘d’,‘t゜,‘k’、の4音素については、後続
音素の一部を含めた‘ga’,‘do’というCV単位
を素片とする。‘g’,‘d’,‘t’,‘k’以外の
音素については、C−Vの結合規則が数種類に限定でき
るので、単一の音素のみを素片とする。即ち素片記憶部
(3)に記憶されている素片は、‘ga’,‘gi’,
‘gu’,‘ge’,‘go’,‘da’,‘de’,
‘do’,‘ta’,‘ti’,‘tu’,‘te’,
‘to’,‘ka’,‘ki’,‘ku’,‘ke’,
‘ko’、の18CV素片と、‘a’,‘i’,‘u’
,‘e’,‘o’,‘s7,‘z’,‘ch7,‘n’
,‘m’,‘p’,‘b’,‘r’,‘y’の14音素
(C,V)の計32素片である。拗音は子音+‘y’+
母音、あるいは‘g’,‘d’,‘t’,‘k’ならば
、例えば‘gi‘+母音および時間長の調節で構成し、
‘h’は振幅情報で構成する。
The segment units stored in the segment storage unit (3) are complex because the C-V combination rules are different for each subsequent vowel (since the synthesized speech is Japanese, the subsequent phonemes are limited to vowels). 'g'
, 'd', 't゜, and 'k', the CV units 'ga' and 'do', which include a part of the subsequent phoneme, are used as an elemental piece. For phonemes other than 'g', 'd', 't', and 'k', the C-V combination rules can be limited to several types, so only a single phoneme is used as a segment. That is, the fragments stored in the fragment storage unit (3) are 'ga', 'gi',
'gu', 'ge', 'go', 'da', 'de',
'do', 'ta', 'ti', 'tu', 'te',
'to', 'ka', 'ki', 'ku', 'ke',
18CV fragments of 'ko', 'a', 'i', 'u'
,'e','o','s7,'z','ch7,'n'
, 'm', 'p', 'b', 'r', 'y', 14 phonemes (C, V) in total, 32 phonemes. The consonant + 'y' +
For vowels, or 'g', 'd', 't', and 'k', for example, it is composed of 'gi' + vowel and time length adjustment,
'h' is composed of amplitude information.

撥音は‘n’を用い、促音は時間長の調節で構成する。The ``n'' is used for the ``n'' sound, and the consonant is constructed by adjusting the duration.

第2図に本装置で用いている素片の一例として素片‘a
′と‘KO’のパラメータを示す。F1,F2,F3は
ホルマント周波数、B1,B2,B3はバンド幅で単位
はHz、A1,A2,A3は振幅で単位はDBである。
Figure 2 shows an example of an elemental piece used in this device.
' and 'KO' parameters are shown. F1, F2, and F3 are formant frequencies, B1, B2, and B3 are bandwidths in Hz, and A1, A2, and A3 are amplitudes in DB.

合成部(10)は入力されるパラメータは5msec毎
に更新されるので、‘KO’のようにCVを素片単位と
するものは、素片として5msec毎のパラメータ列を
素片としてもつ。KO12の12は素片‘KO’がもっ
ているパラメータ列の長さを示す。
The synthesis unit (10) updates the input parameters every 5 msec, so when a CV is used as a segment unit, such as 'KO', a parameter sequence every 5 msec is provided as a segment. 12 in KO12 indicates the length of the parameter string that the elemental piece 'KO' has.

例えば、入力部(1)から入力された文字列‘KOTO
BA’は文字列解析部(2)で解析され、合成に必要な
素片として‘KO’,‘T’,‘B’,‘A’が選ばれ
る。そこで素片読み出し部(4)が素片記憶部(3)よ
り素片‘KO’,‘TO’,‘B’,‘A’のパラメー
タを読みだし、編集バッファ(5)に格納する。
For example, the character string 'KOTO' input from input section (1)
BA' is analyzed by the character string analysis unit (2), and 'KO', 'T', 'B', and 'A' are selected as the fragments necessary for synthesis. Then, the segment reading unit (4) reads the parameters of the segment 'KO', 'TO', 'B', and 'A' from the segment storage unit (3) and stores them in the editing buffer (5).

次に結合部(9)で用いる結合規則について説明する。Next, the coupling rules used in the coupling part (9) will be explained.

ここで用いる結合規則は以下の2つである。The following two combination rules are used here.

1.子音が‘p’および‘b’の場合、どのパラメータ
も補間しない。
1. If the consonants are 'p' and 'b', no parameters are interpolated.

2.その他の場合、線形補間を行なう。2. Otherwise, perform linear interpolation.

第3図(a)(b)は子音が‘p’および‘b’の場合
の結合規則1.とその他の場合の結合規則を示す。(1
)は先行音素のパラメータ値、(2)は後続音素のパラ
メータ値、t1、t2は各音素の継続時間長を示す。
Figures 3(a) and 3(b) show combination rule 1 when the consonants are 'p' and 'b'. and the combination rules for other cases. (1
) indicates the parameter value of the preceding phoneme, (2) indicates the parameter value of the subsequent phoneme, and t1 and t2 indicate the duration length of each phoneme.

ホルマント・ボコーダの場合、‘d’,‘c’,‘t’
,‘k′以外のC−C,V−Cの結合規則を上記の2つ
に限定しても明瞭性の劣化をひきおこさない事は実験に
より確かめられている。このように、素片の単位を子音
の性質によってCV,C,Vの適するものを用いる事に
より、わずか32素片と簡単な2つの規則で明瞭性の高
い層、則合成を可能にする事ができる。
For formant vocoder, 'd', 'c', 't'
, 'k', and it has been experimentally confirmed that the clarity does not deteriorate even if the combination rules of C-C and V-C other than 'k' are limited to the above two. In this way, by using CV, C, and V units of elemental fragments as appropriate depending on the nature of the consonant, it is possible to achieve highly clear layer and rule synthesis with only 32 elemental fragments and two simple rules. Can be done.

発明の効果 以上本発明によれば、素片の記憶単位を音素の特徴によ
って適宜選択する事により、少ない素片数と簡単な結合
規則で、規則合成を可能にする事ができる。
Effects of the Invention According to the present invention, by appropriately selecting the storage unit of the phoneme according to the characteristics of the phoneme, it is possible to perform rule synthesis using a small number of phonemes and a simple combination rule.

本実施例では、合成方式としてホルマント・ボコーダ、
記憶単位としてCV,C,Vを用いたが、その他の合成
方式および記憶単位についても本発明は適用可能である
In this example, the synthesis method is a formant vocoder,
Although CV, C, and V are used as storage units, the present invention is also applicable to other composition methods and storage units.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例を示す音声合成装置のブロッ
ク図、第2図は本発明に用いた素片の一例を示す図、第
3図は素片結合規則について示した図である。 (1)・・・入力部、(2)・・文字列解析部、(3)
・・素片記憶部、(4)・・・素片読み出し部、(5)
・・・編集バッファ、(6)・・・時間長決定部、(7
)・・・韻律付与部、(8)・・・振幅付与部、(9)
・・・結合部、(10)・・・合成部、(11)・・・
出力端代理人 森木義弘 第1図 第2図 A63310532491 / 60 60 5Q /
  50  70 110PI   F2  F3  
 AI  A2  A3   BI   B2 83第
3図 (&ン U貝“If(P、j)) 558−
FIG. 1 is a block diagram of a speech synthesis device showing an embodiment of the present invention, FIG. 2 is a diagram showing an example of a segment used in the present invention, and FIG. 3 is a diagram showing segment combination rules. . (1)...Input section, (2)...Character string analysis section, (3)
...Segment storage section, (4)...Segment reading section, (5)
... Edit buffer, (6) ... Time length determination section, (7
)... Prosody imparting section, (8)... Amplitude imparting section, (9)
...Joining part, (10)...Composition part, (11)...
Output agent Yoshihiro Moriki Figure 1 Figure 2 A63310532491 / 60 60 5Q /
50 70 110PI F2 F3
AI A2 A3 BI B2 83Figure 3 (&N U shell “If (P, j)) 558-

Claims (1)

【特許請求の範囲】 1、文字列を入力する手段と、入力された文字列から合
成に必要な素片を選びtごす文字列解析手段と、素片を
記憶する記憶手段と、前記選ばれた素片を前記素片記憶
部から読み出す素片読み出し手段と、この読み出された
素片を一時的に記憶する編集バッファと、この編集バソ
マア信号を入力とし、その結果を編集バッファに格納す
る発声時間長、韻律、振幅付与手段と、素片列を結合規
則に従って結合する手段と、音声波形を合成する手段を
備え、前記素片記憶部に記憶する単位は、音素そのもの
の種類、性質。 隣接する音素の種類、性質に応じて、単一の音素のみに
するか、あるいは、隣接する音素の一部もしくは全部を
含めるかを選択して決定されている音声合成装置。
[Claims] 1. A means for inputting a character string, a character string analysis means for selecting a segment necessary for synthesis from the input character string, a storage means for storing the segment, and a method for storing the selected segment. an editing buffer that temporarily stores the read out segment; an editing buffer that temporarily stores the read segment; and an editing buffer that receives the edited bassoma signal and stores the result in the editing buffer. The units to be stored in the segment storage unit are based on the type and property of the phoneme itself. . A speech synthesis device that selects and determines whether to include only a single phoneme or to include some or all of the adjacent phonemes, depending on the type and property of the adjacent phonemes.
JP58023264A 1983-02-14 1983-02-14 Voice synthesizer Pending JPS59148094A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58023264A JPS59148094A (en) 1983-02-14 1983-02-14 Voice synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58023264A JPS59148094A (en) 1983-02-14 1983-02-14 Voice synthesizer

Publications (1)

Publication Number Publication Date
JPS59148094A true JPS59148094A (en) 1984-08-24

Family

ID=12105736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58023264A Pending JPS59148094A (en) 1983-02-14 1983-02-14 Voice synthesizer

Country Status (1)

Country Link
JP (1) JPS59148094A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6478300A (en) * 1987-09-18 1989-03-23 Nippon Telegraph & Telephone Voice synthesization
JPH01136198A (en) * 1987-11-24 1989-05-29 A T R Jido Honyaku Denwa Kenkyusho:Kk Voice synthesizer
JPH02252000A (en) * 1989-03-27 1990-10-09 Nippon Telegr & Teleph Corp <Ntt> Formation of waveform element

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6478300A (en) * 1987-09-18 1989-03-23 Nippon Telegraph & Telephone Voice synthesization
JPH01136198A (en) * 1987-11-24 1989-05-29 A T R Jido Honyaku Denwa Kenkyusho:Kk Voice synthesizer
JPH02252000A (en) * 1989-03-27 1990-10-09 Nippon Telegr & Teleph Corp <Ntt> Formation of waveform element

Similar Documents

Publication Publication Date Title
JPS62160495A (en) Voice synthesization system
US6424937B1 (en) Fundamental frequency pattern generator, method and program
JPS59148094A (en) Voice synthesizer
JP4867076B2 (en) Compression unit creation apparatus for speech synthesis, speech rule synthesis apparatus, and method used therefor
JPS5868099A (en) Voice synthesizer
JPH0419799A (en) Voice synthesizing device
JPS5915996A (en) Voice synthesizer
JP2577372B2 (en) Speech synthesis apparatus and method
JPH0642158B2 (en) Speech synthesizer
JP3771565B2 (en) Fundamental frequency pattern generation device, fundamental frequency pattern generation method, and program recording medium
US6112178A (en) Method for synthesizing voiceless consonants
JP3081300B2 (en) Residual driven speech synthesizer
JP2847699B2 (en) Speech synthesizer
JPS5880699A (en) Voice synthesizing system
JPS6021098A (en) Synthesization of voice
JPH0836397A (en) Voice synthesizer
JPS59212899A (en) Voice synthesization
JPH05257494A (en) Voice rule synthesizing system
JP2002244693A (en) Device and method for voice synthesis
JPS6295595A (en) Voice response system
JP3345432B2 (en) Speech synthesis apparatus and method
JPH07210184A (en) Voice editor/synthesizer
JPS63208099A (en) Voice synthesizer
JPS60205596A (en) Voice synthesizer
JPS5945498A (en) Recording/editing type voice synthesizer