JPH04180000A - Speech synthesizer - Google Patents

Speech synthesizer

Info

Publication number
JPH04180000A
JPH04180000A JP2309474A JP30947490A JPH04180000A JP H04180000 A JPH04180000 A JP H04180000A JP 2309474 A JP2309474 A JP 2309474A JP 30947490 A JP30947490 A JP 30947490A JP H04180000 A JPH04180000 A JP H04180000A
Authority
JP
Japan
Prior art keywords
parameter
sentence
control parameter
control
speech synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2309474A
Other languages
Japanese (ja)
Other versions
JP3090943B2 (en
Inventor
Tsutomu Mori
勉 森
Makoto Fujimoto
眞 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP02309474A priority Critical patent/JP3090943B2/en
Publication of JPH04180000A publication Critical patent/JPH04180000A/en
Application granted granted Critical
Publication of JP3090943B2 publication Critical patent/JP3090943B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To synthesize voice as a user intends by controlling the acoustic effect of the synthesized voice at an optional position of an input sentence. CONSTITUTION:A source sentence input means 21 inputs a source sentence given a synthesized sound control parameter and a decomposing means 22 decomposes the source sentence into the control parameter and a sentence which does not contain the control parameter. A voicing symbol generating means 23 processes the sentence containing no control parameters linguistically to generate a corresponding voice and a parameter adding means 24 adds an acoustic effect parameter and the control parameter to a voicing symbol corresponding to a synchronous point. Then a voice synthesizing parameter generating means is constituted. An acoustic effect parameter control member 26 controls the acoustic effect parameter with the key signal from an external input means 25 and the control parameter to generate the voice synthesis parameter. Consequently, the acoustic effect of the synthesized voice can be controlled at the optional position of the sentence.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、音声合成装置に関するものである。[Detailed description of the invention] Industrial applications The present invention relates to a speech synthesis device.

従来の技術 この種の音声合成装置は、文章を入力して音声を合成す
るものであるが、例えば、第3図の処理構成で実現され
る。
2. Description of the Related Art This type of speech synthesis device synthesizes speech by inputting sentences, and is realized, for example, by the processing configuration shown in FIG.

音声合成すべき原文は、キーボード等の入力部lによっ
て入力される。そして、略号・記号・数字処理部2で、
その原文中の略号・記号・数字が文字に変換される。
The original text to be voice synthesized is input through an input unit l such as a keyboard. Then, in the abbreviation/symbol/number processing section 2,
Abbreviations, symbols, and numbers in the original text are converted to characters.

次に、形態素分解処理部3て、単語を構成する意味のあ
る最小単位である形態素の辞書とのマツチングにより、
前記文中の文字列を形態素に分解する。
Next, the morpheme decomposition processing unit 3 matches the morphemes, which are the smallest meaningful units that make up a word, with a dictionary.
The character string in the sentence is decomposed into morphemes.

そして、構文解析部4により、前記文を句・単語に分解
し、発音記号生成部5で、前記文字列を分解した形態素
と前記辞書にあるその発音記号を用い、前記単語の発音
記号を生成する。この時、形態素と形態素の繋ぎ合わせ
が不自然にならないように調整する。また、形態素に分
解できない前記単語は、1文字づつ発音記号を生成する
Then, the sentence is decomposed into phrases and words by the syntactic analysis unit 4, and the phonetic symbol generation unit 5 generates the phonetic symbol of the word using the morphemes obtained by decomposing the character string and the phonetic symbol thereof in the dictionary. do. At this time, make adjustments so that the connection between morphemes does not look unnatural. Furthermore, for the words that cannot be broken down into morphemes, phonetic symbols are generated character by character.

次に、この発音記号の文は、音響効果パラメータ付与部
6て、前記文に単語間の休止時間であるポーズ、各音素
の発声継続時間、発声音の高さを決定する基本周波数を
付与される。
Next, the sentence with this phonetic symbol is given a fundamental frequency that determines the pause, which is the pause time between words, the utterance duration of each phoneme, and the pitch of the uttered sound, to the sentence by the sound effect parameter adding unit 6. Ru.

さらに、音声合成パラメータ生成部7て、前記発音記号
と前記ポーズ・発声継続時間・基本周波数により音声合
成パラメータを生成し、音声合成部8で、前記音声合成
パラメータにより音声を合成する。
Furthermore, a speech synthesis parameter generation section 7 generates speech synthesis parameters using the phonetic symbol, the pause, utterance duration time, and fundamental frequency, and a speech synthesis section 8 synthesizes speech using the speech synthesis parameters.

発明が解決しようとする課題 ところで、近年、コンピュータ刊用技術の発展により、
このような音声合成装置が多くの電子機器で利用される
ようになってきている。
Problems to be solved by the inventionIn recent years, with the development of computer publishing technology,
Such speech synthesis devices are increasingly being used in many electronic devices.

しかしながら、例えば、コンピュータデイスプレィ上に
表示された複数画面のテキストを、その表示画面切り替
えタイミングに応じて音声合成する等、他のデバイスの
動作に同期して音声を合成出力したい場合があるが、こ
のような利用形態では、従来の音声合成装置ではその原
理上適切な合成ができなかった。
However, there are cases where it is desired to synthesize and output audio in synchronization with the operations of other devices, such as synthesizing text on multiple screens displayed on a computer display in accordance with the timing of switching between display screens. In this type of usage, conventional speech synthesis devices cannot perform appropriate synthesis due to their principles.

すなわち、従来の音声合成装置は文の解析を行なった結
果だけて音声合成を行なう装置であるため、他のデバイ
スの動作に同期して音声合成させることを目指すと、文
の途中で分断した文を入力しなければならず、その文を
音声合成すると解析誤りを生じ、合成が不完全となると
いう課題がある。
In other words, conventional speech synthesis devices perform speech synthesis only based on the results of sentence analysis, so if you aim to synthesize speech in synchronization with the operations of other devices, There is a problem in that the input of a sentence must be input, and when that sentence is synthesized into speech, an analysis error occurs and the synthesis is incomplete.

このように、各種デバイスの動作に同期して運用される
音声合成装置が必要とされる機能は、マウス・キーボー
ド等による利用者の入力なとの外部入力に対し同期をと
って音声を合成する機能であり、そのためには、外部入
力により音声合成する文の任意の位置で合成音声の音響
効果を制御する装置が必要である。
In this way, the function that requires a speech synthesizer that operates in synchronization with the operations of various devices is to synthesize speech in synchronization with external input such as user input using a mouse or keyboard. This function requires a device that controls the sound effects of synthesized speech at any position in the sentence to be synthesized using external input.

以上のような状況に鑑み、本発明は、外部入力により文
の任意の位置で合成音声の音響効果を制御できる音声合
成装置を提供することを目的とする。
In view of the above-mentioned circumstances, an object of the present invention is to provide a speech synthesis device that can control the sound effects of synthesized speech at any position of a sentence using external input.

課題を解決するための手段 本発明は、音声合成する文に、マウス入力などの外部入
力に同期させる点に対応して、合成音の制御を行なうた
めの制御パラメータが付与された文を、合成のための原
文として入力する原文入力手段と、原文を制御パラメー
タ及び制御パラメータを含まない文に分解する分解手段
と、制御パラメータを含まない文を言語処理して、その
文に対応する発音記号を生成する発音記号生成手段と、
その生成された発音記号に音響効果パラメータを付与す
るとともに、制御パラメータを同門点に対応して付与す
るパラメータ付与手段と、外部入力を入力する外部入力
手段と、外部入力、制御パラメータ、音響効果パラメー
タ及び発音記号により音声合成パラメータを生成する音
声合成パラメータ生成手段と、音声合成パラメータによ
り音声合成する音声合成手段とを備えた音声合成装置で
あ作用 本発明によれば、外部入力により音響効果パラメータを
制御する制御パラメータを任意の位置に記述した文を原
文とすることにより、原文の任意の位置で音響パラメー
タを制御することができるにのことにより、文の任意の
位置で合成音声の音響効果を制御でき、各種デバイスの
動作に同期して音声合成できる。
Means for Solving the Problems The present invention synthesizes sentences to which control parameters for controlling synthesized speech are added in synchronization with external inputs such as mouse input. an original text input means for inputting the original text for the text; a decomposition means for disassembling the original text into control parameters and sentences that do not include the control parameters; a phonetic symbol generation means for generating;
a parameter assigning means for assigning a sound effect parameter to the generated phonetic symbol and a control parameter corresponding to the peer point; an external input means for inputting an external input; and an external input, a control parameter, and an acoustic effect parameter. According to the present invention, it is possible to generate sound effect parameters by external input. By using a sentence in which the control parameters to be controlled are written at any position as the original sentence, it is possible to control the acoustic parameters at any position in the original sentence.This allows us to control the acoustic parameters of the synthesized speech at any position in the sentence. It can be controlled and can synthesize speech in synchronization with the operation of various devices.

実施例 以下、本発明の実施例を図面を用いて詳細に説明する。Example Embodiments of the present invention will be described in detail below with reference to the drawings.

第2図は本発明の音声合成装置の一実施例を示すブロッ
ク図である。
FIG. 2 is a block diagram showing an embodiment of the speech synthesis device of the present invention.

原文入力手段21は、音声合成する文に、マウスなどの
外部入力に同期させる点に対応して合成音の制御を行な
うための制御パラメータが付与された原文を入力する手
段である。
The original text input means 21 is a means for inputting an original text in which a control parameter for controlling the synthesized sound is added to the sentence to be synthesized in accordance with synchronization with an external input such as a mouse.

次に、分解手段22は、前記原文を前記制御パラメータ
と前記制御パラメータを含まない文に分解する手段であ
る。
Next, the decomposition means 22 is a means for decomposing the original sentence into the control parameter and a sentence that does not include the control parameter.

発音記号生成手段23は、前記制御パラメータを含まな
い文を言語処理して、その文に対応する発音記号を生成
する手段である。
The phonetic symbol generating means 23 is a means for linguistically processing a sentence that does not include the control parameters to generate a phonetic symbol corresponding to the sentence.

パラメータ付与手段24は、前記発音記号に音響効果パ
ラメータと、前記制御パラメータを前記同期点に対応し
て、付与するパラメータ付与手段である。
The parameter providing means 24 is a parameter providing means that provides the sound effect parameter and the control parameter to the pronunciation symbol in correspondence with the synchronization point.

外部入力手段25は、キーボードからのキー信号を入力
する手段である。
The external input means 25 is means for inputting key signals from a keyboard.

このようにして得られた、発音記号、音響効果パラメー
タと制御パラメータ及び外部入力信号に基づき、音響効
果パラメータ制御部26において、前記外部入力と前記
制御パラメータにより前記音響効果パラメータを制御し
、音声合成パラメータ生成部27において、前記発音記
号とその制御された音響効果パラメータにより音声合成
パラメータを生成するようになっている。なお、音響効
果パラメータ制御部26と、音声合成パラメータ生成部
27とて、音声合成パラメータ生成手段を構成している
Based on the phonetic symbols, sound effect parameters, control parameters, and external input signals obtained in this way, the sound effect parameter control unit 26 controls the sound effect parameters using the external inputs and the control parameters, and synthesizes speech. The parameter generation unit 27 generates speech synthesis parameters using the phonetic symbols and their controlled sound effect parameters. Note that the sound effect parameter control section 26 and the speech synthesis parameter generation section 27 constitute speech synthesis parameter generation means.

音声合成手段28は、前記音声合成パラメータにより音
声合成する手段である。
The speech synthesis means 28 is a means for synthesizing speech using the speech synthesis parameters.

次に、第1図の音声合成装置の具体的な一実施例として
、コンピュータ利用者のマウス・キーボード入力に同期
して音声合成を行う場合を例に取って、上記実施例の動
作を説明する。
Next, as a specific example of the speech synthesis device shown in FIG. 1, the operation of the above embodiment will be explained by taking as an example a case where speech synthesis is performed in synchronization with mouse and keyboard input by a computer user. .

まず、第2図の31で示す文([Mouse C1ic
k]Th1s  is  a  pen、  [にey
  Pressコ Tt+is  is  a  de
sk)  を原文入力手段21て、入力する。ここで、
[マウスクリック(Mouse C11ck)]はマウ
スの入力に対する制御パラメータ、また[キーブレス(
Key Press)]はキー入力に対する制御パラメ
ータを表わす。
First, write the sentence shown at 31 in Figure 2 ([Mouse C1ic
k] Th1s is a pen, [niey
Press Tt+is is a de
sk) into the original text input means 21. here,
[Mouse C11ck] is a control parameter for mouse input, and [Keypress (
Key Press] represents a control parameter for key input.

次に、この31の文を、分解手段22て32の文と制御
パラメータに分解する。
Next, the decomposition means 22 decomposes these 31 sentences into 32 sentences and control parameters.

そして、この32の文を発音記号生成手段23て、33
の発音記号に変換する。
Then, the phonetic symbol generation means 23 converts these 32 sentences into 33
Convert to phonetic symbols.

そして、パラメータ付与手段24て、33の発音記号に
ポーズ・発声継続時間・基本周波数の音響効果パラメー
タと、前記制御パラメータを付与した、34の文を生成
する。
Then, the parameter assigning means 24 generates 34 sentences in which the 33 phonetic symbols are assigned sound effect parameters such as pause, utterance duration, and fundamental frequency, and the control parameters.

そこで、外部から入力信号があると、外部入力がマウス
入力の場合は、例えば、マウス入力に対する制御パラメ
ータ[マウスクリック(MouseCl 1ck)]の
位置から音声合成を開始し、次の制御パラメータが記述
されているところまでの文を、音声合成する。
Therefore, when there is an input signal from the outside, if the external input is a mouse input, for example, voice synthesis is started from the position of the control parameter [mouse click (MouseCl 1ck)] for the mouse input, and the next control parameter is written. Synthesizes the sentence up to the point where it is.

また、外部入力がキー入力の場合は、例えば、キー入力
に対する制御パラメータ[ヘーブしス(Key Pre
sS)]が記述されているところから、音声合成を開始
し、最後まで音声を合成する。このように、外部入力に
同期して、音声を合成させることが出来る。
In addition, if the external input is a key input, for example, the control parameter for the key input [Key Pre
Speech synthesis starts from the point where "sS)" is written and continues to synthesize speech until the end. In this way, audio can be synthesized in synchronization with external input.

なお、本発明の外部入力は、上記実施例ではマウスやキ
ーボードからの信号であったが、デイスプレィ装置の画
面切り替わり信号など、任意の外部入力信号であってよ
いことはいうまでもない。
Although the external input of the present invention is a signal from a mouse or a keyboard in the above embodiment, it goes without saying that it may be any external input signal such as a screen switching signal of a display device.

また、本発明の各手段は、通常コンピュータを利用して
、ソフトウェア的に実現されるが、各々の機能を有する
専用のハード回路を利用して実現してもよい。
Furthermore, although each means of the present invention is usually realized in software using a computer, it may also be realized using a dedicated hardware circuit having each function.

発明の詳細 な説明したように、本発明によれば、入力文の任意の位
置に含まれる制御パラメータにより、任意の位置で音響
パラメータを制御することができる。すなわち、入力文
の任意の位置で合成音声の音響効果を制御することによ
り利用者の意図に沿った音声を合成することが可能であ
り、その実用的効果は大きい。
DETAILED DESCRIPTION OF THE INVENTION According to the present invention, acoustic parameters can be controlled at any position by control parameters included at any position in an input sentence. That is, by controlling the acoustic effects of synthesized speech at any position of the input sentence, it is possible to synthesize speech that matches the user's intention, and this has great practical effects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の音声合成装置の概略を示すブロック図
、第2図は同音声合成装置の一実施例の動作を示すフロ
ーチャート、第3図は従来の音声合成装置の概略を示す
ブロック図である。 21・・・原文入力手段、22・・・分解手段、23・
・・発音記号生成手段、24・・・パラメータ付与手段
、25・・・外部入力手段、26・・・音響効果パラメ
ータ制御部、27・・・音声合成パラメータ生成部、2
8・・・音声合成手段。 代理人 弁理士 松 1)正 道 第1図
FIG. 1 is a block diagram showing an outline of the speech synthesis device of the present invention, FIG. 2 is a flowchart showing the operation of an embodiment of the same speech synthesis device, and FIG. 3 is a block diagram showing an outline of a conventional speech synthesis device. It is. 21... Original text input means, 22... Decomposition means, 23.
... Phonetic symbol generation means, 24 ... Parameter provision means, 25 ... External input means, 26 ... Sound effect parameter control section, 27 ... Speech synthesis parameter generation section, 2
8...Speech synthesis means. Agent Patent Attorney Matsu 1) Tadashi Michi Figure 1

Claims (1)

【特許請求の範囲】[Claims] 音声合成する文に、マウス入力などの外部入力に同期さ
せる点に対応して、合成音の制御を行なうための制御パ
ラメータが付与された文を、合成のための原文として入
力する原文入力手段と、前記原文を前記制御パラメータ
及び前記制御パラメータを含まない文に分解する分解手
段と、前記制御パラメータを含まない文を言語処理して
、その文に対応する発音記号を生成する発音記号生成手
段と、その生成された発音記号に音響効果パラメータを
付与するとともに、前記制御パラメータを前記同期点に
対応して付与するパラメータ付与手段と、前記外部入力
を入力する外部入力手段と、前記外部入力、前記制御パ
ラメータ、前記音響効果パラメータ及び前記発音記号に
より音声合成パラメータを生成する音声合成パラメータ
生成手段と、前記音声合成パラメータにより音声合成す
る音声合成手段とを備えたことを特徴とする音声合成装
置。
an original text input means for inputting a sentence to be synthesized as an original text for synthesis, in which a control parameter for controlling the synthesized sound is added to the sentence to be synthesized in synchronization with an external input such as a mouse input; , a decomposition unit that decomposes the original text into the control parameter and a sentence that does not include the control parameter, and a phonetic symbol generation unit that performs language processing on the sentence that does not include the control parameter to generate a phonetic symbol corresponding to the sentence. , a parameter assigning means for assigning a sound effect parameter to the generated phonetic symbol and assigning the control parameter corresponding to the synchronization point; an external input means for inputting the external input; A speech synthesis device comprising: a speech synthesis parameter generating means for producing a speech synthesis parameter from a control parameter, the sound effect parameter and the pronunciation symbol; and a speech synthesis means for synthesizing speech using the speech synthesis parameter.
JP02309474A 1990-11-14 1990-11-14 Speech synthesizer Expired - Fee Related JP3090943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02309474A JP3090943B2 (en) 1990-11-14 1990-11-14 Speech synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02309474A JP3090943B2 (en) 1990-11-14 1990-11-14 Speech synthesizer

Publications (2)

Publication Number Publication Date
JPH04180000A true JPH04180000A (en) 1992-06-26
JP3090943B2 JP3090943B2 (en) 2000-09-25

Family

ID=17993425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02309474A Expired - Fee Related JP3090943B2 (en) 1990-11-14 1990-11-14 Speech synthesizer

Country Status (1)

Country Link
JP (1) JP3090943B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9056494B2 (en) 2012-08-06 2015-06-16 Seiko Epson Corporation Tractor unit, conveyance device, and printer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9056494B2 (en) 2012-08-06 2015-06-16 Seiko Epson Corporation Tractor unit, conveyance device, and printer
US9469496B2 (en) 2012-08-06 2016-10-18 Seiko Epson Corporation Tractor unit, conveyance device, and printer

Also Published As

Publication number Publication date
JP3090943B2 (en) 2000-09-25

Similar Documents

Publication Publication Date Title
JP5198046B2 (en) Voice processing apparatus and program thereof
JPH04180000A (en) Speech synthesizer
CA2343071A1 (en) Device and method for digital voice processing
JP4026512B2 (en) Singing composition data input program and singing composition data input device
Huang et al. A Chinese text-to-speech synthesis system based on an initial-final model
JP4736524B2 (en) Speech synthesis apparatus and speech synthesis program
JP3862300B2 (en) Information processing method and apparatus for use in speech synthesis
JP3856675B2 (en) Electronic sound generator
JP3568972B2 (en) Voice synthesis method and apparatus
JPH02238494A (en) Voice synthesizing device
JP3870583B2 (en) Speech synthesizer and storage medium
JPH0229797A (en) Text voice converting device
JPH03196198A (en) Sound regulation synthesizer
JPH05210482A (en) Method for managing sounding dictionary
JPH02240699A (en) Voice synthesizer
JP2721018B2 (en) Voice rule synthesizer
JP2000029475A (en) Karaoke machine
JPH07152392A (en) Voice synthesis device
JPH07199982A (en) Information processor
JPH07219574A (en) Speech rule synthesis device
JPH0612094A (en) Speech synthesizing device
JPH01216399A (en) Voice synthesizing device
JPH05204390A (en) Accent giving device and voice synthesis device
JPH06318093A (en) Speech synthesizing device and reading granting device
JP2001282274A (en) Voice synthesizer and its control method, and storage medium

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees