JPS62150398A - Voice rule synthesizer - Google Patents

Voice rule synthesizer

Info

Publication number
JPS62150398A
JPS62150398A JP60294311A JP29431185A JPS62150398A JP S62150398 A JPS62150398 A JP S62150398A JP 60294311 A JP60294311 A JP 60294311A JP 29431185 A JP29431185 A JP 29431185A JP S62150398 A JPS62150398 A JP S62150398A
Authority
JP
Japan
Prior art keywords
parameters
synthesis
sound source
audio
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60294311A
Other languages
Japanese (ja)
Inventor
竹内 貞二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP60294311A priority Critical patent/JPS62150398A/en
Publication of JPS62150398A publication Critical patent/JPS62150398A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Electric Motors In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (技術分野) 本発明は、任意の語を合成することができる音声規則合
成装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (Technical Field) The present invention relates to a speech rule synthesis device that can synthesize arbitrary words.

(従来技術) 一般に、任意の語を発声させる音声規則合成は以下の手
順で行なわれる。
(Prior Art) Generally, speech rule synthesis for uttering an arbitrary word is performed in the following steps.

■ 発声させたい文章を文字コード列(かなやローマ字
等のコード列)どして入力し、単語よシ小さな音声単位
、例えば音節(一般的に、子音中母音のように単母音を
除けば2音素のもの)などの合成の基本単位に付けられ
た名称(以下合成基本単位名と称す)列に変換する0 ■ その合成基本単位各列に対応して、あらかじめ記憶
しである合成基本単位の音声パラメータ(スペクトル・
パラメータ、ピッチ・パラメータ、音源振幅パラメータ
等)を読み出す0 ■ その音声パラメータをあらかじめ定められた規則に
基づいて結合し、文章として音声を合成する。
■ Input the sentence you want to utter as a character code string (Kana, Romaji, etc. code string), and then create a sound unit smaller than a word, such as a syllable (generally, if you exclude single vowels such as vowels in consonants, 2 0 ■ Corresponding to each column of the synthesis basic unit, name of the synthesis basic unit that is stored in advance (hereinafter referred to as synthesis basic unit name) string Audio parameters (spectrum/
parameters, pitch parameters, sound source amplitude parameters, etc.) 0 ■ The audio parameters are combined based on predetermined rules to synthesize audio as a sentence.

このようにして、任意の胎を合成するのである。In this way, any womb can be synthesized.

但し、手順■における合成基本単位間の音声パラメータ
の結合に際して、先行する合成基本単位の最終部分から
後続する合成基本単位の最初の部分までのわた9部にお
いて音声パラメータの補間を行なうことは、合成基本単
位境界での音声パラメータを滑らかに結合するために重
要である。
However, when combining audio parameters between synthesis basic units in step This is important for smoothly combining audio parameters at basic unit boundaries.

この従来方法を第1図と第2図に沿って、より詳細に説
明する。第1図は、従来方法を適用した音声規則合成装
置の一例を示すブロック構成図である。同図において、
10は文字コード列ヲキー等によシ入力する文字コード
列入力回路、20は文字コード列を合成基本単位名列に
変換する文字コード列−合成基本単位名列変換回路、3
0aは合成基本単位名列に対応した音声パラメータの記
憶アドレスを出力する音声パラメータ読み出し制御回路
、40は合成基本単位名に対応して音声パラメータを記
1している音声パラメータ・メモリ、51は音声パラメ
ータを音声合成回路60に直接送るか、補間回路52a
に送るか選択する音声パラメータ制御スイッチ、52a
は合成基本単位境界での音声パラメータを補間する補間
回路、53aは音声パラメータ結合回路50aの全体の
制動を司っている結合制御回路、50aは51,52a
、53aの回路を含んだ音声パラメータ結合回路、60
は音声パラメータを用いて音声を合成する音声合成回路
、70はロー・バス−フィルタ、アンプ及びスピーカか
らなる音声出力回路でおる。
This conventional method will be explained in more detail with reference to FIGS. 1 and 2. FIG. 1 is a block diagram showing an example of a speech rule synthesis device to which a conventional method is applied. In the same figure,
10 is a character code string input circuit for inputting character code strings using keys, etc.; 20 is a character code string-composite basic unit name string conversion circuit for converting the character code string into a composite basic unit name string; 3
0a is an audio parameter read control circuit that outputs the storage address of the audio parameter corresponding to the synthesis basic unit name string, 40 is an audio parameter memory in which audio parameters are written corresponding to the synthesis basic unit name, and 51 is an audio Either send the parameters directly to the speech synthesis circuit 60 or send them to the interpolation circuit 52a.
Audio parameter control switch 52a for selecting whether to send to
53a is an interpolation circuit that interpolates audio parameters at the synthesis basic unit boundary; 53a is a combination control circuit that controls the overall braking of the audio parameter combination circuit 50a; and 50a is 51, 52a.
, 53a, an audio parameter combination circuit 60
70 is a voice synthesis circuit that synthesizes voice using voice parameters, and 70 is a voice output circuit consisting of a low bass filter, an amplifier, and a speaker.

又、第2図は第1図の補間回路52aの入力部をよシ詳
細に説明したブロック構成図である。同図において、5
5はバッファ56とバッファ57の間で補間をする補間
器、56は先行する合成基本単位内の最終部分の音声パ
ラメータを入力するバッファ、57は後続する合成基本
単位内の最初の部分の音声パラメータを入力するバラ’
7%58は音声パラメータをバッファ56に入力するか
FIG. 2 is a block diagram illustrating the input section of the interpolation circuit 52a of FIG. 1 in more detail. In the same figure, 5
5 is an interpolator that performs interpolation between buffers 56 and 57; 56 is a buffer that inputs the audio parameters of the final part in the preceding basic synthesis unit; and 57 is the audio parameter of the first part in the subsequent basic synthesis unit. Enter 'Rose'
7% 58 inputs audio parameters to buffer 56?

バッファ57に入力するか選択するスイッチである。This is a switch for selecting whether to input data to the buffer 57.

次に、この構成に基づく動作を説明する。Next, the operation based on this configuration will be explained.

まず、発声させたい文章を文字コード列として文字コー
ド列入力回路lOよシ入力する0次に、文字コード列−
合成基本単位名列変換回路20は入力された文字コード
列を、合成基本単位名列に変換する。音声パラメータ読
み出し制御回路30aでは、その合成基本単位名に対応
する音声パラメータを格納している音声パラメータ・メ
モリ40上でのアドレスを発生する。そして、そのアド
レスを用いて音声パラメータ自メモリ40から音声パラ
メータを読み出し、音声合成回路60で音声を合成し、
音声合成回路70から出力する。
First, input the sentence to be uttered as a character code string into the character code string input circuit lO.Next, input the sentence as a character code string into the character code string
The composite basic unit name string conversion circuit 20 converts the input character code string into a composite basic unit name string. The audio parameter read control circuit 30a generates an address on the audio parameter memory 40 storing the audio parameter corresponding to the basic synthesis unit name. Then, using the address, the voice parameters are read from the voice parameter self-memory 40, and the voice is synthesized by the voice synthesis circuit 60,
It is output from the speech synthesis circuit 70.

一方、各合成基本単位の境界で、音声パラメータを結合
する際には、音声パラメータ読み出し制御回路30aは
音声パラメータの読み出しを中止し、結合制御回路53
aはスイッチ51 、補間回路52aとスイッチ58を
制御して、先行する合成基本単位内の最終部分の音声パ
ラメータをスイッチ58を通してバッファ56に入力し
、後続する合成基本単位内の最初の部分の音声パラメー
タをスイッチ58を通してバッファ57に入力する。
On the other hand, when combining audio parameters at the boundary of each basic synthesis unit, the audio parameter readout control circuit 30a stops reading the audio parameters, and the combination control circuit 53
A controls the switch 51, the interpolation circuit 52a, and the switch 58, inputs the audio parameters of the last part in the preceding synthesis basic unit to the buffer 56 through the switch 58, and inputs the audio parameters of the first part in the following synthesis basic unit. Parameters are input into buffer 57 through switch 58.

補間器55はバッファ56とバッファ57との間で補間
を行なう。そして、音声合成回路60は、その滑らかに
結合された音声パラメータを用いて音声を合成し、音声
出力回路70はその音声を出力する。
Interpolator 55 performs interpolation between buffer 56 and buffer 57. Then, the speech synthesis circuit 60 synthesizes speech using the smoothly combined speech parameters, and the speech output circuit 70 outputs the speech.

このように、一般的に、母音と母音間や母音と摩擦音間
等の結合を滑らかに行なうことによシ、自然性に優れた
音声が合成できる。
In this way, in general, speech with excellent naturalness can be synthesized by smoothly combining vowels and vowels, vowels and fricatives, etc.

しかしながら、後続する合成基本単位内の最初の音素の
振幅が急激な変化を特徴とする場合(立ち上がりが急峻
な例として、文章中の1T@の波形を第3図に示す)、
前述のように1他のパラメータと同様に音源振幅に関す
るパラメータを補間すると、その音素の明シよう性が悪
くなるという欠点を有していた。
However, if the amplitude of the first phoneme in the subsequent synthesis basic unit is characterized by a rapid change (as an example of a steep rise, the waveform of 1T@ in a sentence is shown in Figure 3),
As mentioned above, interpolation of the parameter related to the sound source amplitude in the same manner as the other parameters has the disadvantage that the clarity of the phoneme deteriorates.

(発明の目的) 本発明の目的は、振幅の急激な変化を特徴とする音素を
従来よシ忠実に再現することができる音声規則合成装置
を提供することである。
(Object of the Invention) An object of the present invention is to provide a speech rule synthesis device that can reproduce phonemes characterized by rapid changes in amplitude more faithfully than ever before.

(発明の構成) 任意の文章を文字コード列として入力する手段と、前記
入力された文字コード列を合成基本単位名列に変換する
手段と、合成基本単位名に対応して、音声パラメータ(
スペクトル・パラメータ。
(Structure of the Invention) A means for inputting an arbitrary sentence as a character code string, a means for converting the input character code string into a synthetic basic unit name string, and a voice parameter (
Spectral parameters.

音源振幅パラメータ、ピッチ会パラメータ等)をあらか
じめ記憶している音声パラメータ・メモリと、前記合成
基本単位名列から音声パラメータを読み出す手段と、前
記合成基本単位の音声パラメータを補間して結合する結
合手段と、前記結合された音声パラメータを用いて音声
を合成する手段とを有する音声規則合成装置において、
前記結合手段は、先行する合成基本単位の最終部分の音
源振幅パラメータを一時記憶する記憶手段1と、後続す
る合成基本単位の最初の部分の音源振幅パラメータを一
時記憶手段2と、あらかじめ定めた音源振幅値を発生す
る一定値発生手段と、後続する合成基本単位名に応じて
前記記憶手段の出力、もしくは前記一定値発生手段の出
力を選択し出力する選択手段と、前記選択手段lの出力
と前記記憶手段lの出力とを補間する補間手段とから成
る構成である。
a sound parameter memory that stores sound source amplitude parameters, pitch meeting parameters, etc.) in advance, means for reading out sound parameters from the synthesis basic unit name sequence, and combining means for interpolating and combining the sound parameters of the synthesis basic units. and means for synthesizing speech using the combined speech parameters,
The combining means includes a storage means 1 for temporarily storing the sound source amplitude parameter of the last part of the preceding basic synthesis unit, a temporary storage means 2 for the sound source amplitude parameter of the first part of the subsequent basic synthesis unit, and a predetermined sound source. constant value generation means for generating an amplitude value; selection means for selecting and outputting the output of the storage means or the output of the constant value generation means according to the name of the subsequent synthesis basic unit; and the output of the selection means l; This configuration includes interpolation means for interpolating the output of the storage means l.

(発明の作用及び効果) 各合成基本単位間で補間することは、音声パラメータを
滑らかに結合することができ、自然性に優れた合成音が
得られるが、さらに入力された文字コード列の中で、振
幅が急激に変化する音素(例えばI Tl 、 @ p
 1 、 @ K 1等の破裂音)と判別した場合、先
行する音素の振幅を一度Oに落とすことによシ、後続す
る音素の珈幅を急峻に立ち上げることができ自然音声波
形を忠実に再生することができるという効果がある。
(Operations and Effects of the Invention) Interpolating between each basic unit of synthesis allows voice parameters to be smoothly combined and a synthesized sound with excellent naturalness can be obtained, but it is also possible to interpolate between the input character code strings. , phonemes whose amplitude changes rapidly (e.g. I Tl , @p
1, @K 1, etc.), by once reducing the amplitude of the preceding phoneme to O, the amplitude of the following phoneme can be raised steeply, and the natural speech waveform can be faithfully reproduced. It has the effect of being able to be regenerated.

(実施例) 以下に、本発明の実施例を、第4図と第5図に沿って、
よシ詳細に説明する。
(Example) Examples of the present invention will be described below along with FIGS. 4 and 5.
Let me explain in detail.

第4図と第5図は本発明に適した音声合成装置の一実施
例を示すブロック構成図である。同図において、第1図
及び第2図と同じ番号を付けたものは同一の機能を有し
ているので、ここでは説明を省略する。その他、同図に
おいて、54は音源振幅がOである音源振幅パラメータ
を発生する音源振幅パラメータ発生回路で、30bと5
3bは第1図の音声パラメータ読み出し制御回路30a
と結合制御回路53aに前記の音源振幅パラメータ発生
回路54を制御するための回路を付は加えたものである
。又、第5図の補間回路52b内において、59は補間
器55にバッファ57からの内容を入力するか、音源振
幅パラメータ発生回路54から発生された値を入力する
かを選択するスイッチである。(以上のように回路の変
更をしたので、補間回路52aを52bに、音声パラメ
ータ結合回路50aを50bに変更した)。
FIGS. 4 and 5 are block diagrams showing an embodiment of a speech synthesis device suitable for the present invention. In the same figure, the parts given the same numbers as in FIGS. 1 and 2 have the same functions, so their explanation will be omitted here. In addition, in the same figure, 54 is a sound source amplitude parameter generation circuit that generates a sound source amplitude parameter whose sound source amplitude is O, and 30b and 5
3b is the audio parameter readout control circuit 30a in FIG.
A circuit for controlling the sound source amplitude parameter generation circuit 54 is added to the combination control circuit 53a. In the interpolation circuit 52b of FIG. 5, 59 is a switch for selecting whether to input the contents from the buffer 57 to the interpolator 55 or the value generated from the sound source amplitude parameter generation circuit 54. (Since the circuits were changed as described above, the interpolation circuit 52a was changed to 52b, and the audio parameter combination circuit 50a was changed to 50b).

次に、この構成に基づく動作を説明する。Next, the operation based on this configuration will be explained.

まず、任意の文章、例えばl’−AISATUJを文字
コード列入力回路lOよシ入力する。次に文字コード列
−合成基本単位名列変換回路20は入力されたl”Al
5ATUJをrAJ 、 r月、 「8AJ 。
First, an arbitrary sentence, for example l'-AISATUJ, is input to the character code string input circuit IO. Next, the character code string-synthesis basic unit name string conversion circuit 20 receives the input l”Al
5ATUJ to rAJ, r month, ``8AJ.

「TU」というように音節ごとの合成基本単位名列に変
換する。音声パラメータ読み出し制御回路30bでは、
そのrAJ 、 rIJ 、 r8AJ 、 rTUJ
の合成基本単位名にそれぞれ対応している音声パラメー
タを格納している音声パラメータ・メモリ40上でのア
ドレスを発生する。そして、そのアドレスを用いて音声
パラメータ・メモリ40から音声パラメータを読み出し
、音声合成回路60で音声に変更し、音声出力回路70
から出力する。
It is converted into a synthetic basic unit name string for each syllable, such as "TU". In the audio parameter readout control circuit 30b,
Its rAJ, rIJ, r8AJ, rTUJ
An address on the audio parameter memory 40 storing the audio parameters corresponding to the respective synthesis basic unit names is generated. Then, using that address, the voice parameters are read from the voice parameter memory 40, changed to voice by the voice synthesis circuit 60, and the voice parameters are changed to voice by the voice output circuit 70.
Output from.

一方、各合成基本単位の境界で、例えばrAJとrIJ
の境界で音声パラメータを結合する際に、音声パラメー
タ読み出し制御回路30bは音声パラメータの読み出し
を中止し、結合制御回路53bはスイッチ51と補間回
路52bを制御して、先行するrAJの最終部分の音声
パラメータと、後続するrIJの最初の部分の音声パラ
メータとをスイッチ51を通して、補間回路52bに入
力させる。その補間回路52b内では、その先行する「
A」の最終部分の音声パラメータをスイッチ58を通し
てバッファ56に入力し、後続する「工」の最初の部分
の音声パラメータをスイッチ58を通してバッファ57
に入力する補間器55はバッファ56とバッファ57の
内容を読み出し、補間を行なう。そして、音声合成回路
60f−j:その滑らかに結合された音声パラメータを
用いて音声を合成し、音声出力回路70はその音声を出
力する。又、次のrIJと[8AJの境界でも同様に結
合される。しかし、「sAJと「TU」の境界では、後
続する[TUJの最初の音素1’−TJは破裂音で、そ
の振幅は急峻な立ち上がシをしているので、前述のrA
JとrIJの境界のように補間を行なうと、その特徴が
薄れてしまう。そこで。
On the other hand, at the boundary of each basic unit of synthesis, for example, rAJ and rIJ
When combining audio parameters at the boundary of The parameters and the audio parameters of the first part of the following rIJ are inputted to the interpolation circuit 52b through the switch 51. In the interpolation circuit 52b, the preceding "
The audio parameters of the last part of "A" are inputted into the buffer 56 through the switch 58, and the audio parameters of the first part of the following "work" are inputted into the buffer 57 through the switch 58.
An interpolator 55 inputting the data reads the contents of the buffers 56 and 57 and performs interpolation. The speech synthesis circuit 60f-j synthesizes speech using the smoothly combined speech parameters, and the speech output circuit 70 outputs the speech. Further, the next boundary between rIJ and [8AJ is also connected in the same way. However, at the boundary between ``sAJ'' and ``TU'', the first phoneme 1'-TJ of the following ``TUJ'' is a plosive, and its amplitude has a steep rise.
If interpolation is performed on the boundary between J and rIJ, its characteristics will fade. Therefore.

「SAJと「T tlJの境界で音源振幅パラメータを
結合する際に、音声パラメータ読み出し回路3゜bは音
源振幅パラメータの読み出しを中止し、さらに後続する
l’−T UJの最初の音素ITJを破裂音と判別し、
その情報を結合制御回路53bに送る。結合制御回路5
3bはスイッチ51とスイッチ58を制御する。つまシ
、先行するl’−8AJの最終部分の音源振幅パラメー
タを、スイッチ51を通して補間回路52bに入力させ
、補間回路52b内ではスイッチ58を通してバッファ
56に入力させる。又、結合制御回路53bは同時に音
源振幅パラメータ発生回路54とスイッチ59を制御す
る。つやシ、音源振幅パラメータ発生回路54は音源振
幅値が0である音源振幅パラメータを発生し、スイッチ
59はその音源振幅パラメータを補間器55に入力させ
る。そして、補間器55はバッファ56の内容とその音
源振幅値が0である音源振幅パラメータとの間で補間を
行なう(音源振幅パラメータ以外の音声パラメータの補
間処理はrAJと「工」の境界での処理と同じである)
When combining the sound source amplitude parameters at the boundary between "SAJ" and "T tlJ, the speech parameter readout circuit 3゜b stops reading the sound source amplitude parameters and further ruptures the first phoneme ITJ of the following l'-T UJ. It is recognized as a sound,
The information is sent to the coupling control circuit 53b. Coupling control circuit 5
3b controls switch 51 and switch 58. Finally, the sound source amplitude parameter of the last part of the preceding l'-8AJ is inputted to the interpolation circuit 52b through the switch 51, and within the interpolation circuit 52b is inputted to the buffer 56 through the switch 58. Further, the combination control circuit 53b simultaneously controls the sound source amplitude parameter generation circuit 54 and the switch 59. The sound source amplitude parameter generation circuit 54 generates a sound source amplitude parameter whose sound source amplitude value is 0, and the switch 59 inputs the sound source amplitude parameter to the interpolator 55. Then, the interpolator 55 performs interpolation between the contents of the buffer 56 and the sound source amplitude parameter whose sound source amplitude value is 0 (the interpolation process for sound parameters other than the sound source amplitude parameter is performed at the boundary between rAJ and "work"). (same as processing)
.

この補間処理で振幅を一度0に落とし、次のrTJの最
初の音源振幅パラメータによシ急峻な立ち上がシの波形
を合成することができる。
With this interpolation process, the amplitude is once reduced to 0, and a waveform with a steep rise can be synthesized with the first sound source amplitude parameter of the next rTJ.

尚、本発明の実施例として、後続する音素が破裂音の場
合について説明してきたが、文章の終わシで振幅を00
ような一定値にする場合にも本発明を用いることができ
る。
In addition, as an example of the present invention, the case where the following phoneme is a plosive has been explained, but the amplitude is set to 00 at the end of the sentence.
The present invention can also be used when setting the value to a constant value.

(発明のまとめ) 以上、説明したように、本発明は、任意の語を合成する
音声規則合成装置において、合成単位の音声を結合して
いく場合に、急峻な立ち上がシを持った振幅を求める手
段として有効であシ、又、文章の終わシの振幅を除々に
落とす手段としても有効である。
(Summary of the Invention) As explained above, the present invention provides a speech rule synthesis device for synthesizing arbitrary words, in which an amplitude with a steep rise is generated when combining speech units of synthesis. This is effective as a means for determining the amplitude of the sentence, and is also effective as a means for gradually reducing the amplitude at the end of a sentence.

【図面の簡単な説明】[Brief explanation of drawings]

第1図と第2図は従来例を示すブロック図、第3図は文
章中の破裂音の波形例を示す図、第4図と第5図は本発
明の一実施例を示すフ“ロック図である。 10・・・・・・文字コード列入力回路、20・・・・
・・文字コード列−合成基本単位名列変換回路、30a
。 30b・・・・・・音声パラメータ読み出し制御回路、
40・・・・・・音声パラメータ・メモリ%  soa
、s。 b・・・・・・音声パラメータ結合回路、51・・・・
・・音声パラメータ制御スイッチ、52a、52b・・
・・・・補間回路、53a、53b・・・・・・結合制
御回路、54・・・・・・音源振幅パラメータ発生回路
、55・・・・・・補間器、56.57・・・・・・バ
ッファ、58.59・・・・・・スイッチ、60・・・
・・・音声合成回路、70・・・・・・音声出力回路。 −、ニー/
Figures 1 and 2 are block diagrams showing a conventional example, Figure 3 is a diagram showing an example of the waveform of a plosive in a sentence, and Figures 4 and 5 are block diagrams showing an example of the present invention. It is a figure. 10...Character code string input circuit, 20...
・Character code string-synthesis basic unit name string conversion circuit, 30a
. 30b...Audio parameter readout control circuit,
40...Audio parameter memory% soa
, s. b...Audio parameter combination circuit, 51...
...Audio parameter control switch, 52a, 52b...
...Interpolation circuit, 53a, 53b...Coupling control circuit, 54...Sound source amplitude parameter generation circuit, 55...Interpolator, 56.57... ...Buffer, 58.59...Switch, 60...
...Speech synthesis circuit, 70...Speech output circuit. -, knee/

Claims (1)

【特許請求の範囲】[Claims] 任意の文章を文字コード列として入力する手段と、前記
入力された文字コード列を合成基本単位名列に変換する
手段と、合成基本単位名に対応して、音声パラメータ(
スペクトル・パラメータ、音源振幅パラメータ、ピッチ
・パラメータ等)をあらかじめ記憶している音声パラメ
ータ・メモリと、前記合成基本単位名列から音声パラメ
ータを読み出す手段と、前記合成基本単位の音声パラメ
ータを補間して結合する結合手段と、前記結合された音
声パラメータを用いて音声を合成する手段とを有する音
声規則合成装置において、前記結合手段は、先行する合
成基本単位の最終部分の音源振幅パラメータを一時記憶
する記憶手段1と、後続する合成基本単位の最初の部分
の音源振幅パラメータを一時記憶する記憶手段2と、あ
らかじめ定めた音源振幅値を発生する一定値発生手段と
、後続する合成基本単位名に応じて前記記憶手段2の出
力、もしくは前記一定値発生手段の出力を選択し出力す
る選択手段と、前記選択手段の出力と前記記憶手段1の
出力とを補間する補間手段とを有することを特徴とする
音声規則合成装置。
means for inputting an arbitrary sentence as a character code string; means for converting the input character code string into a synthetic basic unit name string;
an audio parameter memory that stores in advance audio parameters (spectral parameters, sound source amplitude parameters, pitch parameters, etc.); means for reading audio parameters from the synthesis basic unit name sequence; and means for interpolating the audio parameters of the synthesis basic units. In a speech rule synthesis device comprising a coupling means for coupling and a means for synthesizing speech using the coupled speech parameters, the coupling means temporarily stores the sound source amplitude parameter of the final part of the preceding basic synthesis unit. a storage means 1, a storage means 2 for temporarily storing the sound source amplitude parameter of the first part of the subsequent basic synthesis unit, a constant value generation means for generating a predetermined sound source amplitude value, and a storage means 2 according to the name of the subsequent basic synthesis unit. and an interpolation means for interpolating the output of the selection means and the output of the storage means 1. A speech rule synthesizer that
JP60294311A 1985-12-25 1985-12-25 Voice rule synthesizer Pending JPS62150398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60294311A JPS62150398A (en) 1985-12-25 1985-12-25 Voice rule synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60294311A JPS62150398A (en) 1985-12-25 1985-12-25 Voice rule synthesizer

Publications (1)

Publication Number Publication Date
JPS62150398A true JPS62150398A (en) 1987-07-04

Family

ID=17806051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60294311A Pending JPS62150398A (en) 1985-12-25 1985-12-25 Voice rule synthesizer

Country Status (1)

Country Link
JP (1) JPS62150398A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01197799A (en) * 1988-02-02 1989-08-09 Meidensha Corp Articulation and sound source parameter producing method for sound synthesizer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01197799A (en) * 1988-02-02 1989-08-09 Meidensha Corp Articulation and sound source parameter producing method for sound synthesizer

Similar Documents

Publication Publication Date Title
JPS62160495A (en) Voice synthesization system
JPS62231998A (en) Voice synthesization method and apparatus
JP3518898B2 (en) Speech synthesizer
JPH0419799A (en) Voice synthesizing device
JPS62150398A (en) Voice rule synthesizer
JPH11249679A (en) Voice synthesizer
JPS6097396A (en) Voice synthesizer
JP2894447B2 (en) Speech synthesizer using complex speech units
JP2577372B2 (en) Speech synthesis apparatus and method
JP3241582B2 (en) Prosody control device and method
JPS5842099A (en) Voice synthsizing system
JPS6295595A (en) Voice response system
JPS6067998A (en) Voice synthesizer
JP2584236B2 (en) Rule speech synthesizer
KR920010446B1 (en) Method for making sentence of guidance apparatus
JP2573585B2 (en) Speech spectrum pattern generator
JPS58168096A (en) Multi-language voice synthesizer
JPS6132096A (en) Voice synthesization system for voice snthesizer
JPS6199198A (en) Voice analyzer/synthesizer
JPS6146997A (en) Voice reproduction system
JPH037999A (en) Voice output device
JPS58134697A (en) Waveform editting type voice synthesizer
JPH01118200A (en) Voice synthesization system
JPS59177597A (en) Musical note synthesizer
JPH03276194A (en) Text/sound converter