JPS6024596A - Voice synthesizer - Google Patents

Voice synthesizer

Info

Publication number
JPS6024596A
JPS6024596A JP58133243A JP13324383A JPS6024596A JP S6024596 A JPS6024596 A JP S6024596A JP 58133243 A JP58133243 A JP 58133243A JP 13324383 A JP13324383 A JP 13324383A JP S6024596 A JPS6024596 A JP S6024596A
Authority
JP
Japan
Prior art keywords
information
character string
speech
utterance
added
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58133243A
Other languages
Japanese (ja)
Inventor
池呂 隆
金盛 亨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP58133243A priority Critical patent/JPS6024596A/en
Publication of JPS6024596A publication Critical patent/JPS6024596A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (1)発明の技術分野 本発明は文字列から音声合成を行うとき、標準的合成よ
り変化させて自然発声音に、より近い音を得る音声合成
装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (1) Technical Field of the Invention The present invention relates to a speech synthesis device which, when synthesizing speech from a character string, changes the speech from standard synthesis to obtain a sound closer to natural speech.

(2)従来技術と問題点 従来の音声合成装置においては、第1図に示すように、
発声すべき文字列を記録しているファイルFLから処理
装置CPUが読出し、同時に発声情報ファイルPFLか
ら一括指定情報を読出し、それらの合成信号を通信制御
装置NCUを介し、音声合成装置VCMへ送出する′。
(2) Prior art and problems In the conventional speech synthesis device, as shown in Fig. 1,
The processing unit CPU reads from the file FL that records the character string to be uttered, simultaneously reads the collective specification information from the utterance information file PFL, and sends the combined signal to the voice synthesizer VCM via the communication control unit NCU. '.

例えば文字列を「ヤマダ」とするとき、全体的にみて発
音時間、音の高さなどが自然発声された音に規則合成さ
れるように一括指定した情報を、文字列情報に付加する
。音声合成装置VCMでは通信制御装置NCUを介して
、前記情報が音韻情報設定部VSに与えられる。標準音
韻情報テーブルVSTにおいて音韻情報の標準値が予め
設定されているため、それを使用し、前述の一括指定情
報により制御された値でパラメータ合成部PMCを制御
する。パラメータ合成部PMCではパラメータファイル
PMFを読出し、前記制御情報Gこより更に制御された
パラメータ時系列を音声合成部VCに印加し、合成音声
を得てスピーカ或いは電話回線に送出する。
For example, when the character string is ``Yamada'', information is added to the character string information that collectively specifies the overall pronunciation time, pitch, etc. so that it can be systematically synthesized into naturally uttered sounds. In the speech synthesis device VCM, the information is given to the phoneme information setting section VS via the communication control device NCU. Since the standard value of the phoneme information is preset in the standard phoneme information table VST, it is used to control the parameter synthesis unit PMC with the value controlled by the above-mentioned batch designation information. The parameter synthesis section PMC reads the parameter file PMF and applies the parameter time series further controlled by the control information G to the voice synthesis section VC to obtain synthesized speech and send it to a speaker or telephone line.

このとき発声すべき文字列はカナの文字列であるから、
例えば「アメ」と送出されて来たとき、同音意義語のた
め雨・飴・天の区別ができず、何にも適用できるような
不確実な音声を合成することになる。
The character string to be uttered at this time is a kana character string, so
For example, when the word ``ame'' is sent, it is impossible to distinguish between rain, candy, and heaven because they are homophones, and an uncertain voice that can be applied to anything is synthesized.

(3)発明の目的 本発明の目的は前述の欠点を改善し、簡易な手段を付加
して同音意義語を区別し、自然発声音に、より近い音を
得る音声合成装置を提供することにある。
(3) Purpose of the Invention The purpose of the present invention is to improve the above-mentioned drawbacks, and to provide a speech synthesis device which adds simple means to distinguish between homophones and obtain sounds closer to naturally spoken sounds. be.

(4)発明の構成 前述の目的を達成するための本発明の構成は、発声すべ
き文字列が送られてきたとき予め設定されていた標準音
韻情報により発声用パラメータを合成する音声合成装置
において、文字列のうち1つのアクセント型をイ」与す
る単位毎に発声情報を付加する手段と、音声パラメータ
合成のとき前記付加された発声情報の有無を調べる手段
と、有りのとき前記標準音韻情報を変化させる手段とを
併有することである。
(4) Structure of the Invention The structure of the present invention to achieve the above-mentioned object is to provide a speech synthesis device that synthesizes speech parameters using standard phoneme information that is set in advance when a character string to be pronounced is sent. , means for adding pronunciation information to each unit that gives one accent type in the character string; means for checking the presence or absence of the added pronunciation information during speech parameter synthesis; It is also necessary to have a means for changing the

(5)発明の実施例 第2図は本発明の一実施例の構成を示すブロック図で、
第1図と対応して示されている。第1図と同一符号は同
様なものである。第2図では文章毎或いは所定文全体に
対してではなく、アクセント型を付与する単位毎例えば
文字列ヤマダのときヤ、マ、ダという個々の発音文字に
ついてその発声情報を付加して、新ファイルFLEに記
憶させる。この発声情報とは、発声のスピード、アクセ
ント、話調情報(抑揚情報)をコード化し組合せたもの
である。記憶情報を処理装置CPUが読み出すときこの
場合は従来の発声情報ファイルPFLを使用せず、ファ
イルFLEの情報を音声合成装置VCMへ送出する。音
声合成装置VCMでは音韻情報設定部VSにおいて、前
記発声情報が付加された文字列であるか否かを発声情報
処理部VCで判断する。付加されてないときは、到来文
字列について標準音韻情報テーブルVSTを検索し、そ
の情報をそのままバラメーク合成部PMCに送出する。
(5) Embodiment of the invention FIG. 2 is a block diagram showing the configuration of an embodiment of the invention.
It is shown in correspondence with FIG. The same reference numerals as in FIG. 1 are the same. In Figure 2, pronunciation information is added not to each sentence or to the entire predetermined sentence, but to each unit to which an accent type is assigned, for example, in the character string Yamada, the pronunciation information is added for each pronunciation character such as ya, ma, da, and a new file is created. Store it in FLE. This utterance information is a coded combination of utterance speed, accent, and tone information (intonation information). When the processing device CPU reads the stored information, in this case, the conventional utterance information file PFL is not used, but the information in the file FLE is sent to the speech synthesis device VCM. In the speech synthesis device VCM, in the phoneme information setting section VS, the utterance information processing section VC determines whether or not the character string has the utterance information added thereto. If it is not added, the standard phoneme information table VST is searched for the incoming character string, and the information is sent as is to the variation synthesis section PMC.

この場合は従来の発声情報が標準値に一括指定された形
になる。発声情報の付加された文字列であるときは、標
準音韻情報テーブルVSTを検索しその情報を得る。1
つのアクセント型の付与される単位、例えば「ヤ」につ
いての情報が送られて来るので、テーブルVSTにおけ
る標準情報を3つの変化装置によりそれぞれ変化させる
In this case, conventional utterance information is collectively designated as a standard value. If it is a character string to which utterance information has been added, the standard phoneme information table VST is searched to obtain that information. 1
Since information about a unit to which an accent type is given, for example, "ya" is sent, the standard information in table VST is changed by three changing devices.

即ち音声の種類として例えば男、女の声に別けて信号を
発する装置VCEと、音節間接続時間長設定装置TMに
より次の音節との時間長を変えるものと、音節のアクセ
ント情報と話調情報とにより音節毎の声の高さにより当
音節の周波数を変えるものHGとを使用する。これらの
装置により指定値に変更された各値がそれぞれパラメー
タ合成部PMCに入力される。以後パラメータ合成部に
おける動作は従来の第1図と比較し、合成がやや複雑化
する程度で大差はない。
That is, as for the type of voice, for example, there is a device VCE that emits signals separately for male and female voices, a device that changes the time length between syllables and the next syllable using an inter-syllable connection time length setting device TM, and syllable accent information and tone information. HG is used to change the frequency of each syllable depending on the pitch of the voice. Each value changed to a designated value by these devices is input to the parameter synthesis unit PMC. Thereafter, the operation in the parameter synthesis section is not much different from the conventional one shown in FIG. 1, except that the synthesis is slightly more complicated.

アクセント型を付与する単位毎に繰り返し動作を行わせ
て、滑らかな音声合成ができる。
Smooth speech synthesis is possible by repeating the operation for each unit to which an accent type is assigned.

(6)発明の効果 このようにして本発明によると、アクセント型を付与す
る単位毎に発声情報が付加され、それを使用して規則合
成を行うため自然発声音に、より近い音を容易に、得る
ことができる。
(6) Effects of the Invention In this way, according to the present invention, phonation information is added to each unit to which an accent type is assigned, and this information is used to perform rule synthesis, making it easy to create sounds that are closer to naturally spoken sounds. ,Obtainable.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は従来の音声合成装置を示す図、第2図は本発明
の一実施例の構成を示すブロック図である。 V CM、−一−・音声合成装置 FL、FLE・−文字列ファイル vs・−・−音韻情報設定部 VST・−標準音韻情報テーブル PMC−・・パラメータ合成部 PMF・・・パラメータファイル VC−・・発声情報処理部 v c E−音声種類発生装置 T M’−−一音節間時間長発生装置 HG−・音節周波数先住装置 特許出願人 富士通株式会社 代理人 弁理士 鈴木栄祐
FIG. 1 is a diagram showing a conventional speech synthesis device, and FIG. 2 is a block diagram showing the configuration of an embodiment of the present invention. V CM, -1- Speech synthesis device FL, FLE - Character string file vs - - Phonological information setting unit VST - Standard phonological information table PMC - Parameter synthesis unit PMF... Parameter file VC - -・Voice information processing unit v c E-Voice type generation device TM'--Syllable duration generation device HG--Syllable frequency native device Patent applicant Fujitsu Limited Agent Patent attorney Eisuke Suzuki

Claims (1)

【特許請求の範囲】[Claims] 発声すべき文字列が送られてきたとき予め設定されてい
た標準音韻情報により発声用パラメータを合成する音声
合成装置において、文字列のうち1つのアクセント型を
付与する単位毎に発声情報を付加する手段と、音声パラ
メータ合成のとき前記付加された発声情報の有無を調べ
る手段と、有りのとき前記標準音韻情報を変化させる手
段とを併有することを特徴とする音声合成装置。
When a character string to be uttered is sent, a speech synthesis device that synthesizes utterance parameters using preset standard phonological information adds utterance information to each unit of the character string to which one accent type is to be assigned. A speech synthesis device comprising: a means for checking the presence or absence of the added utterance information at the time of speech parameter synthesis; and a means for changing the standard phoneme information when the added utterance information is present.
JP58133243A 1983-07-21 1983-07-21 Voice synthesizer Pending JPS6024596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58133243A JPS6024596A (en) 1983-07-21 1983-07-21 Voice synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58133243A JPS6024596A (en) 1983-07-21 1983-07-21 Voice synthesizer

Publications (1)

Publication Number Publication Date
JPS6024596A true JPS6024596A (en) 1985-02-07

Family

ID=15100052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58133243A Pending JPS6024596A (en) 1983-07-21 1983-07-21 Voice synthesizer

Country Status (1)

Country Link
JP (1) JPS6024596A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6315297A (en) * 1986-07-08 1988-01-22 株式会社東芝 Voice synthesizer

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5688200A (en) * 1979-12-20 1981-07-17 Nippon Electric Co Accent pattern generator

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5688200A (en) * 1979-12-20 1981-07-17 Nippon Electric Co Accent pattern generator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6315297A (en) * 1986-07-08 1988-01-22 株式会社東芝 Voice synthesizer

Similar Documents

Publication Publication Date Title
JPS62160495A (en) Voice synthesization system
JPH08328813A (en) Improved method and equipment for voice transmission
JP2002202789A (en) Text-to-speech synthesizer and program-recording medium
Schwartz et al. Diphone synthesis for phonetic vocoding
JPS6024596A (en) Voice synthesizer
JP2894447B2 (en) Speech synthesizer using complex speech units
JPH07200554A (en) Sentence read-aloud device
JP2577372B2 (en) Speech synthesis apparatus and method
JPH03160500A (en) Speech synthesizer
JP2581130B2 (en) Phoneme duration determination device
JP2573586B2 (en) Rule-based speech synthesizer
JPH09230892A (en) Text-speech conversion device
JP3515268B2 (en) Speech synthesizer
JPH01118200A (en) Voice synthesization system
JPS6432299A (en) Unit voice editing type rule synthesizer
JP2573585B2 (en) Speech spectrum pattern generator
JPH06149283A (en) Speech synthesizing device
JPS60115997A (en) Voice synthesization system
JPS62215299A (en) Sentence reciting apparatus
JPH0553595A (en) Speech synthesizing device
JPS63262699A (en) Voice analyzer/synthesizer
JPS6067998A (en) Voice synthesizer
JPH04243299A (en) Voice output device
JPH0997093A (en) Accent varying method for synthesized voice and automatic broadcasting device for passenger guidance
JPS60225198A (en) Voice synthesizer by rule