JPS61166600A - Voice snthesizer - Google Patents

Voice snthesizer

Info

Publication number
JPS61166600A
JPS61166600A JP60007744A JP774485A JPS61166600A JP S61166600 A JPS61166600 A JP S61166600A JP 60007744 A JP60007744 A JP 60007744A JP 774485 A JP774485 A JP 774485A JP S61166600 A JPS61166600 A JP S61166600A
Authority
JP
Japan
Prior art keywords
syllable
parameter
speech
parameters
vowel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP60007744A
Other languages
Japanese (ja)
Other versions
JP2642617B2 (en
Inventor
大橋 秀紀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP60007744A priority Critical patent/JP2642617B2/en
Publication of JPS61166600A publication Critical patent/JPS61166600A/en
Application granted granted Critical
Publication of JP2642617B2 publication Critical patent/JP2642617B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (イ)産業上の利用分野 本発明は音声を合成する音声合成装置に関する。[Detailed description of the invention] (b) Industrial application fields The present invention relates to a speech synthesis device that synthesizes speech.

(ロ)従来の技術 従来の音声合成装置としては特願昭59−2291号に
て提案した如く1日本語の場合子背部並びに該子音部か
ら母音部に継がろ過渡部及び定常的な母音部が結合して
いる約100背節に対応しているLSP係数、PARO
OR係数等の音節パラメータをROM(リードオンリー
メモリ)に貯えておき、このROMから読み出した該音
節パラメータを接続することに依って単語及び文章単位
の音声を再合成するものがあった。この合成方式は一般
に規則合成方式として知られている。
(B) Prior art As proposed in Japanese Patent Application No. 59-2291, a conventional speech synthesis device has a filtering section and a regular vowel section in the case of the Japanese language, where the consonant section is passed from the consonant section to the vowel section. LSP coefficients corresponding to approximately 100 connected dorsal segments, PARO
There is a system that stores syllable parameters such as OR coefficients in a ROM (read only memory) and resynthesizes speech in units of words and sentences by connecting the syllable parameters read from the ROM. This synthesis method is generally known as a rule synthesis method.

斯様な音声合成装置は約100會節単位の音節パラメー
タをメモリに格納しておけばあらゆる日本語の音声が再
合成可能であるが、出力される音声は、ROM内に貯え
られた音節データであるので、その特徴を持った音声の
再合成しか行なえないという欠点があった。従って様々
な人物の特徴を持った合成音声を出力することはできな
いものであった。
Such a speech synthesizer can resynthesize any Japanese speech by storing syllable parameters for approximately 100 syllables in its memory, but the output speech is based on syllable data stored in the ROM. Therefore, it has the disadvantage that it can only perform resynthesis of voices that have those characteristics. Therefore, it has been impossible to output synthesized speech that has the characteristics of various people.

(ハ)発明が解決しようとする問題点 本発明は上述の点に鑑みてなされ、規則合成方式をもた
せる音声合成装置を供給するものである。
(c) Problems to be Solved by the Invention The present invention has been made in view of the above-mentioned points, and provides a speech synthesis device having a rule synthesis method.

に)問題点を解決するための手段 本発明の音声合成装置は、外部から音声を入力゛ して
個人性を示す特徴パラメータを抽出する特徴と、t−設
けたものである。
B) Means for Solving the Problems The speech synthesis device of the present invention has a feature of inputting speech from the outside and extracting characteristic parameters indicating individuality.

(ホ)作 用 本発明の音声合成装置は子音部と該子音部から子音部に
継がろ過渡部と定常的な母音部とが結合した音節パラメ
ータ’iROM(リードオンリーメモリ)に貯える。ま
た定常的な個人性を示す母音のパラメータを背戸入力部
、音声分析部より入力し、バッファーメモリに貯え、そ
の定常母音パラメータと上記音節パラメータより切り出
された子音部及び該子音部より母音部に継がろ過渡部と
を11・王 接続して1個人情報が付加された新たな音節単位へ の音節パラメータとする音節パラメータ生成部及びそれ
?貯える音節パラメータバッファーメモリ金持ち、上記
の音節パラメータ列及びそれに適合するピッチ・パラメ
ータにより音声を合成するものである。 ゛ (へ)実施例 第1図に本発明の音声合成装置の一実施例を示す。同図
に於て、 (1(lは背戸入力用マイクであり。
(e) Operation The speech synthesis device of the present invention stores syllable parameters in an iROM (read-only memory) in which a consonant part, a filter transition part from the consonant part to the consonant part, and a constant vowel part are combined. In addition, the vowel parameters indicating stationary individuality are input from the back door input unit and the speech analysis unit, and stored in the buffer memory, and the consonant part extracted from the stationary vowel parameter and the syllable parameter above, and the vowel part from the consonant part are input. A syllable parameter generation unit that connects Tsuguri and filtered Watabe to 11 and 1 and uses it as a syllable parameter to a new syllable unit with 1 personal information added, and is it? The syllable parameter buffer memory is used to synthesize speech using the above syllable parameter string and pitch parameters that match the syllable parameter string. (f) Embodiment FIG. 1 shows an embodiment of the speech synthesis apparatus of the present invention. In the same figure, (1 (l is the back door input microphone.

(11は該音声入力用マイクα〔より入力された定常母
音を分析しLSFパラメータ、PAROORパラメータ
等の音声の特徴パラメータを抽出するパラメータ抽出回
路である。(121は該パラメータ抽出回路a11によ
り、抽出された定常母音の特徴パラメータを一時的に貯
える定常母音バッファ−メモリ(RAM)である。
(11 is a parameter extraction circuit that analyzes the steady vowel input from the voice input microphone α and extracts voice characteristic parameters such as LSF parameters and PAROOR parameters. (121 is a parameter extraction circuit that This is a stationary vowel buffer memory (RAM) that temporarily stores characteristic parameters of stationary vowels.

また(4)は子音部と該子音部から母音部に継がる過渡
部及び定常的な母音部が結合している各種の音節パラメ
ータがアドレス付けされて貯7tられている標準音節パ
ラメータメモリである。(6)は該標準音節パラメータ
メモリ(4)中の音節パラメータよ     !。
Further, (4) is a standard syllable parameter memory in which various syllable parameters in which a consonant part, a transition part that continues from the consonant part to a vowel part, and a constant vowel part are combined are stored with addresses. . (6) is the syllable parameter in the standard syllable parameter memory (4)! .

シ子背部及び該子音部力・ら母音に継がろ過渡部のみを
抽出し、該抽出データと上記定常母音バッファーメモリ
[17J中の定常母音とを結合させ新たに(子音部)+
(過渡部)+(入力された定常母音)という定常母音入
力者の個人性情報を有する新たな音節パラメータを作り
だす音節パラメータ生成部である。(5)は音節パラメ
ータ生成部により作り出された個人性を有する音節パラ
メータを貯えておくユーザー汁節パラメータメモリ(R
AM)である。
Extract only the shiji dorsal part and the consonant part power/ra vowel, and combine the extracted data with the stationary vowel in the above stationary vowel buffer memory [17J and create a new (consonant part) +
This is a syllable parameter generation unit that generates a new syllable parameter having the personality information of the person who inputs the steady vowel: (transient part) + (input steady vowel). (5) is a user syllable parameter memory (R
AM).

一方(1)は文字キーが配列されたキーボード、(2)
は該キーボード(1)からのキー操作信号を受けてその
キーに対応する音節単位の文字信号に変換するデコーダ
である。(3)は該デコーダ(2)よりの文字信号と上
記標準音節パラメータメモリ(4)およびユーザー音節
パラメータメモ1月5)の各音節アドレスとを結びつけ
る音節アドレステーブルである。また(161は上記デ
コーダ(2)よりの音節単位の文字信号とその音節の発
生時間長とを対応づけた音節長テーブルである。
On the other hand, (1) is a keyboard with character keys arranged, (2)
is a decoder that receives key operation signals from the keyboard (1) and converts them into character signals in syllable units corresponding to the keys. (3) is a syllable address table that links the character signal from the decoder (2) with each syllable address in the standard syllable parameter memory (4) and user syllable parameter memo (January 5). Further, (161) is a syllable length table in which the character signal in syllable units from the decoder (2) is associated with the generation time length of that syllable.

また(7)は上記標準音節パラメータメモ1月4)もし
くはユーザー汁節パラメータメモリ(5)のいづれの音
節パラメータにより音声合成を行なうかを選択する合成
廿声選択部である。また(8)は音節長テーブル(16
1にて指定された音節の発生時間長に合致する如く音節
データ長を伸長又は圧縮する音節データ長制御部である
。(9)はパラメータ領域(9−a)とピッチ領域(9
−11)とから成る音声データバッファメモリであり、
パラメータ領域(9−a)には上記標準音節パラメータ
メモリ(4)もしくはユーザー音節パラメータメモ1月
5)が音節データ長制御部(8)により間部された状態
での音節パラメータとして格納され、これに続く上記キ
ーボード(1)よりのキー人力に応じて新たな音節パラ
メータが順次格納される。
Further, (7) is a synthesized voice selection unit which selects which syllable parameter from the standard syllable parameter memo (January 4) or the user's syllable parameter memory (5) is used for speech synthesis. Also, (8) is the syllable length table (16
This is a syllable data length control unit that expands or compresses the syllable data length so as to match the syllable generation time length specified in 1. (9) is the parameter area (9-a) and the pitch area (9
-11) is an audio data buffer memory consisting of
In the parameter area (9-a), the standard syllable parameter memory (4) or the user syllable parameter memo (January 5) is stored as a syllable parameter in a state where it is interleaved by the syllable data length control unit (8). New syllable parameters are sequentially stored in accordance with the subsequent key presses from the keyboard (1).

α3は合成音声のアクセント型を指定する為のアクセン
ト指定部である。α4はアクセント指定部(13により
指定されたアクセント及びキーボード(1)入力よシ得
られる合成音声の音節数で表わされるモーラ数との組合
せ信号からなるピッチパターン指定信号を生成するピッ
チパターン指定回路である。
α3 is an accent specification section for specifying the accent type of synthesized speech. α4 is a pitch pattern designation circuit that generates a pitch pattern designation signal consisting of a combination signal of the accent designated by the accent designation unit (13) and the number of moras represented by the number of syllables of the synthesized speech obtained by inputting the keyboard (1). be.

(Isは上記ピッチパターン指定回路[141よりのピ
ッチパターン指定信号より合成音声のイントネーション
及びアゲセン)を決定する標準的なピッチバク 、メー
タが納められているピッチテーブルであり。
(Is is a pitch table containing a standard pitch back and meter that determines the intonation and transition of the synthesized voice from the pitch pattern designation signal from the pitch pattern designation circuit [141]).

モーフ数とそのアクセント型の組合せ毎にピッチパラメ
ータがパターン化されて格納されている。
Pitch parameters are stored in patterns for each combination of morph number and accent type.

すなわち、アクセント位置のピッチ周波数が相対的に高
くなるように設定される。住ηは上記音節長テーブルt
t61からの各音節の時間長に基づいて、上記ピッチテ
ーブル住9よシ得られた合成音声の標準ピッチパターン
IH節毎に線形圧縮又は線形伸長するピッチパターンマ
ツチング回路であり、該回路にてマツチングされたマツ
チングピッチパターンが上記音声データバッファメモ1
月9)のピッチ領域(9−11)に格納され、このマツ
チング・ピッチパターンと上記パラメータ領域(9−I
L)の音節パラメータ列とが対応付けられる。
That is, the pitch frequency of the accent position is set to be relatively high. Sum η is the syllable length table t above.
This is a pitch pattern matching circuit that linearly compresses or linearly expands the standard pitch pattern IH of the synthesized speech obtained from the pitch table 9 based on the time length of each syllable from t61. The matched pitch pattern is the audio data buffer memo 1
This matching pitch pattern and the parameter area (9-I) are stored in the pitch area (9-11) of
L) is associated with the syllable parameter string.

賭は上記音声データバッファメモリ(9)に格納された
音節パラメータ列及びそれに対応したマツチングピッチ
パターンを入力することにより、上記キーボード(1)
入力に対応した音声信号を合成出力する音声合成部であ
る。(11は上記音声合成部叫よりの合成音声出力を増
幅するアンプであり、スピーカー圓より最終的な合成音
声が発生される。
The bet is made by inputting the syllable parameter string stored in the audio data buffer memory (9) and the matching pitch pattern corresponding thereto, using the keyboard (1).
This is a voice synthesis unit that synthesizes and outputs voice signals corresponding to input. (11 is an amplifier that amplifies the synthesized voice output from the voice synthesizer, and the final synthesized voice is generated from the speaker ring.

次に音節パラメータ生成部(6)における処理手順を#
IIz図のフローチャートに基−づいて、雲セ説明する
Next, the processing procedure in the syllable parameter generation unit (6) is #
A detailed explanation will be given based on the flowchart shown in Figure IIz.

まず、標準音節パラメータメモリ(4)よりノ(ラメー
タを抽出し、そのパラメータが子音部並びに該子音部か
ら子音部に継がろ過渡部であるか子音部であるかを判断
し、子音部もしくは子音部への過渡部であればユーザー
音節パラメータメモリ内に書き込んでゆく、これを定常
子音部への継続部のデータの最後まで行なう。また標準
音節パラメータメモリ(4)よりのパラメータが母音で
あれば、該パラメータに代わり定常母音バッファーメモ
リ+13よシ対応する定常母音パラメータを取り込んで
First, the parameter is extracted from the standard syllable parameter memory (4), and it is determined whether the parameter is a consonant part and whether the transition from the consonant part to the consonant part is a filtered part or a consonant part. If the transition part is a transition part, write it into the user syllable parameter memory, and do this until the end of the data of the continuation part to a stationary consonant part.Furthermore, if the parameter from the standard syllable parameter memory (4) is a vowel, Instead of this parameter, the stationary vowel buffer memory +13 imports the corresponding stationary vowel parameter.

SXS図に示す如くユーザー音節パラメータメモリ内0
対2す7′(子音部→゛(定常子音部″′継続    
   1部)のデータに続けて書き込んでゆく。この作
、        +を標準音節パフメータメモ1月4
)内のすべての音節バフメータについて行なう。それに
よりニーデー皆節パラメータメモ1月5)内には標準音
節パラメータメモリ(4)に対応する新しい個人性情報
を持った音節パラメータが生成される。
0 in the user syllable parameter memory as shown in the SXS diagram
pair 2s 7' (consonant part → ゛(stationary consonant part'') continued
Continuing to write the data in part 1). This work, + standard syllable puff meter memo January 4
) for all syllable buff meters. As a result, a syllable parameter having new individuality information corresponding to the standard syllable parameter memory (4) is generated in the needle all syllable parameter memo (January 5).

(ホ)発明の効果 本発明の音声合成装置は1以上の説明から明らかな如く
、外部から音声を入力して個人性を示す特徴パラメータ
を抽出する特徴パラメータ抽出部と、該抽出部にて得ら
れる特徴パラメータを用いて個人情報が付加された音節
パラメータを生成する音節パラメータ生成部とを設けた
ものであるので、ユーザーの個人性情報を含んだ音節パ
ラメータを基本単位として規則合成が可能となり、ユー
ザー自身の音声に近い合成音声を出力する事ができる。
(E) Effects of the Invention As is clear from the above description, the speech synthesis device of the present invention includes a feature parameter extraction section that inputs voice from the outside and extracts feature parameters indicating individuality, and a feature parameter extraction section that extracts feature parameters indicating personality. Since the system is equipped with a syllable parameter generation unit that generates syllable parameters to which personal information is added using the characteristic parameters of the user, it is possible to perform rule synthesis using syllable parameters that include the user's personal information as a basic unit. It is possible to output a synthesized voice that is close to the user's own voice.

【図面の簡単な説明】[Brief explanation of drawings]

@1図は本発明の音声合成装置の一実施例の構成を示す
ブロック図であり、第2図及び′@3図は本発明装置に
係る音節パラメータ生成部の処理手順を示すフローチャ
ート、及びそのメモリ図である。 (1)・・・キーボード、(2)・・・デコーダ、(3
)・・・音節アドレステーブル、(4)・・・標準音節
パラメータメモリ。 (5)・・・ユーザー音節パラメータメモリ、(6)・
・・音節パラメータ生成部、(7)・・・合成音声選択
部、(8)・・・音節データ長制御部、(9)・・・音
声データバックアメモリ。 (9−& )・・・パラメータ領域、(9−7))・・
・ピッチ領域、餞・・・音声入力用マイク、αト・パラ
メータ抽出回路、αト・定常母音バッファーメモリ、G
ト・アクセント指定部、α4・・・ピッチパターン指定
回路。 15・・・ピッチテーブル、aト=節長テーブル、(1
η・・・ピッチパターン・マツチング回路、Q81”−
f声合成部、(1!l・・・アンプ、■・・・スピーカ
Figure @1 is a block diagram showing the configuration of an embodiment of the speech synthesis device of the present invention, and Figures 2 and '@3 are flowcharts showing the processing procedure of the syllable parameter generation section according to the device of the present invention, and their flowcharts. It is a memory diagram. (1)... Keyboard, (2)... Decoder, (3
)...Syllable address table, (4)...Standard syllable parameter memory. (5)...User syllable parameter memory, (6)...
...Syllable parameter generation unit, (7)...Synthesized speech selection unit, (8)...Syllable data length control unit, (9)...Speech data backup memory. (9-&)...Parameter area, (9-7))...
・Pitch area, voice input microphone, α parameter extraction circuit, α constant vowel buffer memory, G
Accent specification section, α4...Pitch pattern specification circuit. 15... Pitch table, a = node length table, (1
η...Pitch pattern matching circuit, Q81"-
fVoice synthesis section, (1!l...Amplifier, ■...Speaker.

Claims (1)

【特許請求の範囲】[Claims] 音節単位の音声の特徴パラメータである音節パラメータ
を接続してなる音節パラメータ別に基づいて任意の単語
あるいは文章音声を合成する音声合成装置に於いて、外
部から音声を入力して個人性を示す特徴パラメータを抽
出する特徴パラメータ抽出部と、該抽出部にて得られる
特徴パラメータを用いて新たな個人性情報が付加された
音節パラメータを生成する音節パラメータ生成部と、を
備えた事を特徴とする音声合成装置。
In a speech synthesis device that synthesizes arbitrary word or sentence speech based on each syllable parameter formed by connecting syllable parameters, which are feature parameters of speech in syllable units, feature parameters indicating individuality are obtained by inputting speech from an external source. and a syllable parameter generation unit that uses the feature parameters obtained by the extraction unit to generate syllable parameters to which new personal information is added. Synthesizer.
JP60007744A 1985-01-19 1985-01-19 Speech synthesizer Expired - Lifetime JP2642617B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60007744A JP2642617B2 (en) 1985-01-19 1985-01-19 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60007744A JP2642617B2 (en) 1985-01-19 1985-01-19 Speech synthesizer

Publications (2)

Publication Number Publication Date
JPS61166600A true JPS61166600A (en) 1986-07-28
JP2642617B2 JP2642617B2 (en) 1997-08-20

Family

ID=11674204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60007744A Expired - Lifetime JP2642617B2 (en) 1985-01-19 1985-01-19 Speech synthesizer

Country Status (1)

Country Link
JP (1) JP2642617B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63212995A (en) * 1987-02-28 1988-09-05 シャープ株式会社 Voice synthesizer
JPH01211798A (en) * 1988-02-19 1989-08-24 A T R Jido Honyaku Denwa Kenkyusho:Kk Regular synthesizing device for voice
US5784171A (en) * 1992-06-24 1998-07-21 Sony Corporation Printing method, printing device, printing head, container vessel for containing printing object and printing method for cassettes

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60500A (en) * 1983-06-16 1985-01-05 松下電器産業株式会社 Voice analyzer/synthesizer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60500A (en) * 1983-06-16 1985-01-05 松下電器産業株式会社 Voice analyzer/synthesizer

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63212995A (en) * 1987-02-28 1988-09-05 シャープ株式会社 Voice synthesizer
JPH01211798A (en) * 1988-02-19 1989-08-24 A T R Jido Honyaku Denwa Kenkyusho:Kk Regular synthesizing device for voice
US5784171A (en) * 1992-06-24 1998-07-21 Sony Corporation Printing method, printing device, printing head, container vessel for containing printing object and printing method for cassettes
US5815282A (en) * 1992-06-24 1998-09-29 Sony Corporation Cassette having color-printed recessed and conveyed surfaces

Also Published As

Publication number Publication date
JP2642617B2 (en) 1997-08-20

Similar Documents

Publication Publication Date Title
WO2004066271A1 (en) Speech synthesizing apparatus, speech synthesizing method, and speech synthesizing system
JPH1138989A (en) Device and method for voice synthesis
JP2001034280A (en) Electronic mail receiving device and electronic mail system
El-Imam et al. Text-to-speech conversion of standard Malay
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JPS61166600A (en) Voice snthesizer
Chettri et al. Nepali text to speech synthesis system using esnola method of concatenation
Damper Speech technology—implications for biomedical engineering
JPH08335096A (en) Text voice synthesizer
Waghmare et al. Analysis of pitch and duration in speech synthesis using PSOLA
JPS5972494A (en) Rule snthesization system
JP2856769B2 (en) Speech synthesizer
JP3113101B2 (en) Speech synthesizer
Dessai et al. Development of Konkani TTS system using concatenative synthesis
JPH037995A (en) Generating device for singing voice synthetic data
JP2900454B2 (en) Syllable data creation method for speech synthesizer
JPH0358100A (en) Rule type voice synthesizer
Kaur et al. BUILDING AText-TO-SPEECH SYSTEM FOR PUNJABI LANGUAGE
JPS62284398A (en) Sentence-voice conversion system
JPS5880699A (en) Voice synthesizing system
JP2002049386A (en) Text voice synthesizer, text voice synthesizing method and recording medium with the method recorded thereon
Narvani et al. Study of Text-to-Speech (TTS) Conversion for Indic Languages
JPH03249800A (en) Text voice synthesizer
JPH0667685A (en) Speech synthesizing device
JP2573585B2 (en) Speech spectrum pattern generator

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term