JPS6267600A - Voice synthesization - Google Patents
Voice synthesizationInfo
- Publication number
- JPS6267600A JPS6267600A JP60206585A JP20658585A JPS6267600A JP S6267600 A JPS6267600 A JP S6267600A JP 60206585 A JP60206585 A JP 60206585A JP 20658585 A JP20658585 A JP 20658585A JP S6267600 A JPS6267600 A JP S6267600A
- Authority
- JP
- Japan
- Prior art keywords
- syllable
- data
- storage device
- silent
- external storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Flexible Shafts (AREA)
- Liquid Developers In Electrophotography (AREA)
- Audible-Bandwidth Dynamoelectric Transducers Other Than Pickups (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明は音声合成方法に係り、特に音声合成装置の外部
記憶装置に格納された音節データを読み出して音声合成
する際、外部記憶装置に記憶する音節データ量金少くし
て、外部記憶装置を小型化するのに好適な音声合成方法
に関する。[Detailed Description of the Invention] [Field of Application of the Invention] The present invention relates to a speech synthesis method, and in particular, when syllable data stored in an external storage device of a speech synthesis device is read out and synthesized into speech, it is possible to read syllable data stored in the external storage device. The present invention relates to a speech synthesis method suitable for reducing the amount of syllable data and downsizing an external storage device.
最近の現金自動取引装置等は、音声によシ操作を案内す
るようになってきており、この場合の音声は電気的に合
成されたものである。従来の音声合成方法としては、外
部記憶装置から読み出された音節データを適宜組み合わ
せて順に読み出し、音声合成するものが知られている。Recent automated teller machines and the like have come to provide voice guidance for cash operations, and the voice in this case is electronically synthesized. As a conventional speech synthesis method, a method is known in which syllable data read from an external storage device is appropriately combined and sequentially read out to synthesize speech.
しかし、上記音節データの中には、実際には発音されな
い無音データも含まれているため、外部記憶装置に記憶
する音節データ量が多く、大容量の外部記憶装置が必要
になるという問題点があった。尚、上記した音声合成方
法に関連する先行技術としては、特開昭55−1570
60号公報及び特開昭56−38659号公報に開示さ
れた発明が存在する。However, since the syllable data mentioned above also includes silent data that is not actually pronounced, there is a problem that the amount of syllable data to be stored in the external storage device is large, requiring a large-capacity external storage device. there were. In addition, as a prior art related to the above-mentioned speech synthesis method, Japanese Patent Application Laid-Open No. 55-1570
There are inventions disclosed in Japanese Patent Publication No. 60 and Japanese Patent Application Laid-Open No. 56-38659.
本発明は上記した従来技術の問題点に鑑みなされたもの
で、音節データ量を減少させ、外部記憶装置を小型化す
るのに好適な音声合成方法を提供することを目的として
いる。The present invention has been made in view of the problems of the prior art described above, and aims to provide a speech synthesis method suitable for reducing the amount of syllable data and downsizing an external storage device.
本発明の音声合成方法は、外部記憶装置から読み出した
音節データに基づいて音声合成し、発音させるものであ
り、特に、上記音節データを、無音時間を示す音節定義
情報と発音内容を示す有効音節データとによって構成し
、発音時に、上記音節定義情報から無音時間を演算して
求め、各音節のつなが9をそこなうことなく音声合成す
ることを特徴としている。The speech synthesis method of the present invention synthesizes and produces speech based on syllable data read from an external storage device, and in particular, converts the syllable data into syllable definition information indicating silent time and effective syllables indicating pronunciation content. It is characterized in that during pronunciation, the silent time is calculated and determined from the syllable definition information, and speech is synthesized without damaging the connections 9 between each syllable.
以下、添付の図面に示す実施例により、更に詳細に本発
明について説明する。Hereinafter, the present invention will be explained in more detail with reference to embodiments shown in the accompanying drawings.
第2図は、本発明の音声合成方法を適用する音声合成装
置の具体例を示すブロック図である。この音声合成装置
は例えば現金自動取引装置の中に組み込まれるものであ
る。第2図において、1はフレキシブルディスク等の外
部記憶装置、2は補助記憶装置、3は演算装置、4は音
声合成装置、5はスピーカを示している。外部記憶装置
1には、第1図に示す形式の音節データA、B、C・・
・が格納されている。各音節データA、B、C・・・は
、有効音節データAl、Bl、CI・・・と無音時間を
表わす音節定義情報A2.B2.C2・・・とから構成
され、各音節データA、B、C・・・毎に外部記憶装置
1から読み出される。そして、第1図に示す様に、有効
音節データAI、Bl、CIの長さは、斜線で示す様に
まちまちとなっている。FIG. 2 is a block diagram showing a specific example of a speech synthesis device to which the speech synthesis method of the present invention is applied. This speech synthesis device is installed, for example, in an automated teller machine. In FIG. 2, 1 is an external storage device such as a flexible disk, 2 is an auxiliary storage device, 3 is an arithmetic device, 4 is a voice synthesis device, and 5 is a speaker. The external storage device 1 stores syllable data A, B, C, etc. in the format shown in FIG.
・ is stored. Each syllable data A, B, C... is composed of valid syllable data Al, Bl, CI... and syllable definition information A2. B2. C2..., and is read from the external storage device 1 for each syllable data A, B, C.... As shown in FIG. 1, the lengths of the effective syllable data AI, Bl, and CI vary as indicated by diagonal lines.
次に、第2図に示す音声合成装置において、音声合成す
る場合の動作について次に説明する。今、外部記憶装置
1から音声データA、D、Eの順番で読み出されるもの
とする。最初に音声データAが外部記憶装置1から読み
出され、補助記憶装置2に格納される。第3図は補助記
憶装置2に格納された音声データAを示しておシ、有効
音節データA1と音節定義情報A2が格納されている。Next, the operation of the speech synthesis apparatus shown in FIG. 2 when synthesizing speech will be described. It is now assumed that audio data A, D, and E are read out from the external storage device 1 in this order. First, audio data A is read from external storage device 1 and stored in auxiliary storage device 2 . FIG. 3 shows voice data A stored in the auxiliary storage device 2, in which valid syllable data A1 and syllable definition information A2 are stored.
演算装置3は、格納された音節定義情報A2から、第3
図に示す有効音節情報A1の先頭アドレスa1と最終ア
ドレス&2を求め、更に音節定義情報A2から無音時間
データL&を求め、音声合成装置4へ出力する。The arithmetic device 3 calculates the third syllable definition information from the stored syllable definition information A2.
The first address a1 and the last address &2 of the effective syllable information A1 shown in the figure are obtained, and silence time data L& is further obtained from the syllable definition information A2 and output to the speech synthesis device 4.
音声合成装置4は、有効音節情報A1の先頭アドレスa
1と最終アドレス&2と無音時間データLaを受け、そ
れぞれアナログ信号である有効データAI’と無音デー
タA 2’に変換して出力する。第4図は、有効データ
A I’と無音データA2’の出力状態を示す説明図で
あり、有効データAI’の後に無音データA 2’が出
力される。従って、スピーカ5は、有効データAI’の
音声発生に続いて、所定時間(Inに相当する時間)だ
け無音状態となる。The speech synthesis device 4 selects the starting address a of the effective syllable information A1.
1, final address &2, and silent time data La, and convert them into valid data AI' and silent data A2', which are analog signals, and output them, respectively. FIG. 4 is an explanatory diagram showing the output state of valid data AI' and silent data A2', and silent data A2' is output after valid data AI'. Therefore, the speaker 5 remains silent for a predetermined period of time (time corresponding to In) following the generation of the sound of the valid data AI'.
上記した様に、有、効音節データA1と音節定義情報A
2から、有効データAI’とそれに続く無音データA2
’が音声合成装置4で形成されている間に、続いて、・
外部記憶装置1から音節データDが読み出され、第3図
に示す様に補助記憶装置2内に格納される。演算装置3
は、音節データAの場合と全く同様に、有効音節情報D
1の先頭アト0レスd1と最終アドレスd2を求め、更
に音節定義情報A2から無音時間データLdを求め、音
節データAの出力終了報告を受けた後、音声合成装置4
へ出力される。音声合成装置4は、先頭アドレスdiと
最終アドレスd2と無音時間データLdを受け、アナロ
グ信号の有効データDI’と無音データD 2’に変換
して出力する。従って、第4因に示す様に、スピーカ5
は、無音状態(無音データA 2’に基づくもの)の後
、有効データD I’の音声発生を行ない、再び無音状
態(無音データD 2’に基づくもの)になる。以後、
同様の動作が、音節データEについても、実行される。As mentioned above, effective syllable data A1 and syllable definition information A
2, the valid data AI' and the following silent data A2
While ' is being formed in the speech synthesizer 4, subsequently...
Syllable data D is read from the external storage device 1 and stored in the auxiliary storage device 2 as shown in FIG. Arithmetic device 3
is valid syllable information D, just as in the case of syllable data A.
The first address d1 and the last address d2 of 1 are found, the silent time data Ld is found from the syllable definition information A2, and after receiving the report of the output end of the syllable data A, the speech synthesizer 4
Output to. The speech synthesis device 4 receives the first address di, the last address d2, and the silent time data Ld, converts them into valid data DI' and silent data D2' of analog signals, and outputs the converted data. Therefore, as shown in the fourth factor, the speaker 5
After the silent state (based on the silent data A 2'), the sound generation of the valid data DI' is performed, and the state becomes silent again (based on the silent data D 2'). From then on,
A similar operation is performed for the syllable data E as well.
以上の説明から明らかな様に、本実施例によれば、外部
記憶装置lに格納する音節データを発生音を示す有効音
節データと無音時間を示す音節定義情報とに分けて、デ
ィノタル信号で構成し、無音データを直接音節データに
含める構成をとらなかったため、音節データ量を少なく
することができる。そのため、外部記憶装置lを小型化
することが可能になる。また、音節r−夕に無音データ
を直接音める構成をとらなくても、音節毎のつながりを
そこなうことなく、なめらかに連続した音をスピーカか
ら発生することができる。As is clear from the above description, according to the present embodiment, the syllable data stored in the external storage device l is divided into effective syllable data indicating the generated sound and syllable definition information indicating the silent time, and is composed of dinotal signals. However, since the silent data is not directly included in the syllable data, the amount of syllable data can be reduced. Therefore, it becomes possible to downsize the external storage device l. Furthermore, even without a configuration in which silent data can be directly played on the syllable r-y, smooth continuous sounds can be generated from the speaker without damaging the connections between syllables.
本発明によれば、音節データごとに音節間の無音時間の
長さを示す音節定義情報を設けるとともに、音節定義情
報により音節データの無音時間の長さを演算で求める様
にしたため、音節データによる音声合成のなめらかさを
そこなうことなく、音節データ量を減少させることがで
き、その結果外部記憶装置を小型化することができる。According to the present invention, syllable definition information indicating the length of silent time between syllables is provided for each syllable data, and the length of silent time of syllable data is calculated using the syllable definition information. The amount of syllable data can be reduced without impairing the smoothness of speech synthesis, and as a result, the external storage device can be downsized.
第1図は本発明で用いる音節データの一例を示す説明図
、第2図は本発明を適用した音声合成装置を示すfロン
2図、第3図は第2図に示す補助記憶装置に格納された
音節データの一例を示す説明図、第4図は第2図に示す
スピーカから発音される音節のつながりの一例を示す説
明図でめる。
1・・・外部記憶装置、2・・補助記憶装置、3・・・
演算装置、4・・・音声合成装置、5・・・スピーカ、
A。
B、C・・・音節データ、AI、Bl、CI・・・有効
音節データ、A2. B2.C2・・・音節定義情報
、AI’、 Bl’、 C1’・・・有効データ、
A2’、 B2’、 C2’・・・無音データ、La
、Lb・・・無音時間データ。
代理人 弁理士 秋 本 正 実
第 1 図
第 3 ロFigure 1 is an explanatory diagram showing an example of syllable data used in the present invention, Figure 2 is a diagram showing a speech synthesis device to which the present invention is applied, and Figure 3 is stored in the auxiliary storage device shown in Figure 2. FIG. 4 is an explanatory diagram showing an example of the syllable data produced by the speaker, and FIG. 1...External storage device, 2...Auxiliary storage device, 3...
Arithmetic device, 4... Voice synthesizer, 5... Speaker,
A. B, C...Syllable data, AI, Bl, CI...Valid syllable data, A2. B2. C2...Syllable definition information, AI', Bl', C1'...Valid data,
A2', B2', C2'...silent data, La
, Lb... Silence time data. Agent Patent Attorney Tadashi Akimoto Jitsu No. 1 Figure 3 B
Claims (1)
合成し、発音させる音声合成方法において、上記音節デ
ータを、無音時間を示す音節定義情報と発音内容を示す
有効音節データとによって構成し、発音時に、上記音節
定義情報から無音時間を演算して求め、各音節のつなが
りをそこなうことなく音声合成することを特徴とする音
声合成方法。In a voice synthesis method for synthesizing and pronouncing syllable data based on syllable data read from an external storage device, the syllable data is constituted by syllable definition information indicating silent time and valid syllable data indicating pronunciation content, and at the time of pronunciation, A speech synthesis method characterized in that the silent time is calculated and determined from the syllable definition information, and the speech is synthesized without damaging the connection between each syllable.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60206585A JPS6267600A (en) | 1985-09-20 | 1985-09-20 | Voice synthesization |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP60206585A JPS6267600A (en) | 1985-09-20 | 1985-09-20 | Voice synthesization |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6267600A true JPS6267600A (en) | 1987-03-27 |
Family
ID=16525838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP60206585A Pending JPS6267600A (en) | 1985-09-20 | 1985-09-20 | Voice synthesization |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6267600A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55113099A (en) * | 1979-02-23 | 1980-09-01 | Hitachi Ltd | Voice record system |
JPS5797596A (en) * | 1980-12-10 | 1982-06-17 | Casio Computer Co Ltd | Silent sections processing system of voice synthesizer |
-
1985
- 1985-09-20 JP JP60206585A patent/JPS6267600A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS55113099A (en) * | 1979-02-23 | 1980-09-01 | Hitachi Ltd | Voice record system |
JPS5797596A (en) * | 1980-12-10 | 1982-06-17 | Casio Computer Co Ltd | Silent sections processing system of voice synthesizer |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH086592A (en) | Method and device for voice synthesis | |
US6085157A (en) | Reproducing velocity converting apparatus with different speech velocity between voiced sound and unvoiced sound | |
JPS6267600A (en) | Voice synthesization | |
JP2000081897A (en) | Method of recording speech information, speech information recording medium, and method and device of reproducing speech information | |
JPH11249679A (en) | Voice synthesizer | |
JPS6295595A (en) | Voice response system | |
JPH0895588A (en) | Speech synthesizing device | |
JPS60135998A (en) | Voice synthesization system | |
JP2536896B2 (en) | Speech synthesizer | |
JPH0758438B2 (en) | Long sound combination method | |
JP2709198B2 (en) | Voice synthesis method | |
JPS61278900A (en) | Voice synthesizer | |
JPH11311997A (en) | Sound reproducing speed converting device and method therefor | |
JP2002244693A (en) | Device and method for voice synthesis | |
JPS5945498A (en) | Recording/editing type voice synthesizer | |
JPS58134697A (en) | Waveform editting type voice synthesizer | |
JPS62150296A (en) | Voice synthesization system | |
JPH051956B2 (en) | ||
JPH04213499A (en) | Regular voice synthesizer | |
JPS5915100U (en) | Electronic sound/sound generator | |
JPS62150398A (en) | Voice rule synthesizer | |
JPS63271400A (en) | Voice synthesization output device | |
JPH01197793A (en) | Speech synthesizer | |
JPS6040638B2 (en) | speech synthesizer | |
JPS6143797A (en) | Voice editing output system |