JP2894447B2 - Speech synthesizer using complex speech units - Google Patents
Speech synthesizer using complex speech unitsInfo
- Publication number
- JP2894447B2 JP2894447B2 JP62202286A JP20228687A JP2894447B2 JP 2894447 B2 JP2894447 B2 JP 2894447B2 JP 62202286 A JP62202286 A JP 62202286A JP 20228687 A JP20228687 A JP 20228687A JP 2894447 B2 JP2894447 B2 JP 2894447B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- unit
- voice
- phoneme
- synthesis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
- Machine Translation (AREA)
Description
【発明の詳細な説明】
[産業上の利用分野]
この発明は複合音声単位を用いた音声合成装置に関
し、特に、音声単位の編集,結合,変形によって音声合
成を行なうような音声合成装置に関する。
[従来の技術]
従来の編集型音声合成方式,規則による音声合成方式
において種々の音声単位が提案されている。このような
音声単位には、短いものから順に、音素,CV(子音,母
音)音節,半音節(子音,母音連節および母音・子音連
接,VCV(母音・子音・母音)連接,CVC(子音,母音,子
音)連接,CVCV(子音,母音,子音・母音)連接,単
語,文節といったものがある。
従来の音声合成方式では、これらのうちのどれか1種
類の音声単位集合を基本とし、他の1〜2種類の音声単
位を補助的に使用する場合を含めても、たかだか2〜3
種類の音声単位の編集,結合,変形により音声を生成し
ていた。
[発明が解決しようとする問題点]
第4図は従来の各種の音声単位を単位長さの点で短い
ものと長いものの2種類に大別し、音声合成システム構
成上の優劣を比較した図である。第4図において、音声
合成システムを構成する上で問題となる単位の蓄積に必
要な記憶容量は少ない方が望ましく、音声単位の長さが
短いほど有利である。また、合成単位を作成する工数は
同じく音声単位の長さが短いほど有利である。単位重複
の利用可能性や柔軟性といった面からすれば、音声単位
が短いほど大きくなる。一方、音声品質を左右する単位
変形法や単位接続法などにおいては、音声単位の長さが
長いほど問題点を少なくすることができる。上述の対比
から明らかなように、2種類の音声単位だけでバランス
良く音声合成システムを構成することは極めて困難であ
った。
それゆえに、この発明の主たる目的は、種々の構造を
持つ多種類の音声単位とそれらに含まれる部分単位を使
用することにより、より効率の良い音声合成を得ること
のできるような複合音声単位を用いた音声合成装置を提
供することである。
[問題点を解決するための手段]
この発明は音声単位の編集により音声合成を行なうか
あるいは規則により任意語彙の音声合成を行なう複合音
声単位を用いた音声合成装置であって、音素レベルから
音節,形態素,単語,文節,文章に至るまでの種々の長
さ,構造を有する多数の音声単位を予め記憶する音声単
位ファイルと、合成箇所の音韻の部分単位が置かれた音
韻環境と韻律情報を基にして音声単位の部分を選ぶ抽出
環境,音韻の基本周波数,音韻時間長などの具体的条件
を与える規則および規則を適用するためのパラメータで
ある諸表を予め記憶する音声制御ファイルと、出力した
い音声内容に対応した声の高さ,速度,大きさを含む韻
律を示す韻律制御信号が入力されたことに応じて、音声
制御ファイルから与えられる規則および諸表に基づい
て、音声単位ファイルから合成に適した音声単位列を選
択する音声単位選択手段と、選択された音声単位列を結
合するための結合手段と、結合された合成単位列に基づ
いて、合成波形を生成するための合成波形生成手段とを
備えて構成される。
[作用]
この発明に係る複合音声単位を用いた音声合成装置
は、韻律制御信号が入力されたことに応じて、音声制御
ファイルから与えられる規則および諸表に基づいて、音
声単位ファイルから合成に適した音声単位列を選択して
合成し、結合した合成単位列に基づいて合成波形を生成
して音声合成を行なう。
[発明の実施例]
以下に、図面を参照してこの発明の実施例について詳
細に説明する。
第1図はこの発明の音声合成装置の概略ブロック図で
ある。第1図において、入力端子1には、出力したい音
声内容に対応した音韻系列信号,アクセント,息継ぎな
どの韻律制御信号が入力される。入力端子1に入力され
た韻律制御信号は音声単位選択部2に与えられる。この
音声単位選択部2は、入力情報を基にして、音声単位フ
ァイル3に予め蓄えられた種々の構造を持つ多数の音声
単位から合成に適した音声単位列を選択する。音声制御
知識ファイル4には、抽出環境,基本周波数,音韻時間
長などの具体的合成条件を与える規則,諸表が蓄えられ
ている。
そして、音声単位選択部2は、音声単位列の選択に際
して、音声制御知識ファイル4から、当該合成箇所の音
韻環境,韻律情報を基にして、望ましい合成単位の抽出
環境,基本周波数,音韻時間長などの具体的構成条件が
与えられ、これらの合成条件を単位選択の基準として用
いる。音声単位選択部2で選択された音声単位列は単位
結合部5に与えられ、選択された単位どうしの結合が行
なわれる。結合された音声単位は合成波形生成部6に与
えられ、単位結合部5で得られた合成単位系列を基にし
て合成波形を生成する。そして、生成された音声は出力
端子7に出力される。
また、この発明による方式は、種々の構造を持つ多種
類の単位を使用する点に特色があり、この発明による方
式を実施する際に用いられる音声単位を表現する音響パ
ラメータならびに単位選択に用いる種々の基準,音声制
御知識,音声波形を生成するための合成器については、
何らこれを規定するものではなく、すべてに適用可能で
ある。
第2図はこの発明に用いられる音声単位ファイルの具
体的な一例を示す図であり、特に、国語辞書内の見出語
中の音韻連接(連接数1〜4)のうち、高頻度のもの上
位50個を、その部分集合として含む音声単位セットとし
て示したものである。第2図において、各音韻連接の右
の数字は出現頻度を示し、各音韻連接数ごとに頻度の高
い順から並べてある。また、第2図において、丸印で囲
んだ音韻連接108個が単位ファイルを構成し、それらの
部分連接により、これら1〜4連接上位50個を包含して
いる。
より具体的に説明すると、連接数1の音韻“u"は連接
数2の音韻“ru"に包含されており、この音韻“ru"は連
接数3の音韻“eru"に含まれており、この音韻“eru"は
連接数4の音韻“keru"に含まれている。したがって、
音韻“u",“ru",“eru"については、音声単位ファイル
に蓄えておく必要がなく、音韻“keru"から部分単位と
して抽出することによって得られることになる。
第3図は第2図で示した例を音声単位セットとして使
用し、たとえば「桜が咲く」/sakuragasaku/を入力した
場合に選択される音声単位系列の一例を示す図である。
第3図に示すように、文頭の/sa/は4連接/saku/から
生成される部分列によって与えられ、/kura/は4連接/k
ura/によって与えられ、「桜」の音声単位列が実現され
る。さらに、「が」は4連接/gaku/中の/ga/によって実
現され、「咲く」は4連接/saku/によって同様に実現さ
れる。
[発明の効果]
以上のように、この発明によれば、音声単位の多様化
により、単位蓄積に許容される記憶容量,作成に許容さ
れる工数など作成上の要求条件に応じて、自由に効率良
く単位セットを規定できる利点を有するとともに、長い
音声単位中に含まれる短い連接の部分利用など,単位を
有効かつ柔軟に使用できる利点を有している。さらに、
より長い単位を利用するために、単位間の接続に起因す
る音声品質の劣化が少なく、良好な音声品質を期待でき
る。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech synthesis device using a complex speech unit, and more particularly to a speech synthesis device that performs speech synthesis by editing, combining, and transforming a speech unit. [Prior Art] Various speech units have been proposed in a conventional edit-type speech synthesis method and a rule-based speech synthesis method. Such speech units include phoneme, CV (consonant, vowel) syllable, semisyllable (consonant, vowel and vowel / consonant concatenation), VCV (vowel / consonant / vowel) concatenation, CVC (consonant) , Vowels and consonants), CVCV (consonants, vowels, consonants and vowels), words, and phrases, etc. In the conventional speech synthesis system, any one of these types of speech units is used as a base, Even if the other one or two types of audio units are used as a supplement, at most 2-3
Speech was generated by editing, combining, and transforming different types of speech units. [Problems to be Solved by the Invention] FIG. 4 is a diagram comparing conventional various voice units into two types, one having a short unit length and the other having a long unit length, and comparing the superiority and demerit in the configuration of a voice synthesis system. It is. In FIG. 4, it is desirable that the storage capacity required for storing units that are a problem in configuring the speech synthesis system be small, and the shorter the length of the speech unit is, the more advantageous. In addition, the man-hour for creating the synthesis unit is more advantageous as the length of the voice unit is shorter. In terms of the availability and flexibility of unit duplication, the shorter the voice unit, the larger the sound unit. On the other hand, in the unit transformation method, the unit connection method, and the like that affect the voice quality, the longer the length of the voice unit, the less the problem can be. As is clear from the above comparison, it has been extremely difficult to configure a speech synthesis system with only two types of speech units in a well-balanced manner. Therefore, a main object of the present invention is to provide a composite speech unit that can obtain more efficient speech synthesis by using various types of speech units having various structures and partial units included therein. An object of the present invention is to provide a speech synthesizer used. [Means for Solving the Problems] The present invention relates to a speech synthesizer using a complex speech unit for performing speech synthesis by editing speech units or for synthesizing an arbitrary vocabulary according to rules. , A morpheme, a word, a phrase, and a speech unit file that stores in advance a large number of speech units having various lengths and structures up to sentences, and a phonological environment and prosodic information in which partial units of the phonological unit of the synthesis location are placed. I want to output a speech control file that stores in advance an extraction environment for selecting a part of a speech unit, a rule that gives specific conditions such as a fundamental frequency of a phoneme, a phoneme time length, and tables that are parameters for applying the rule. When a prosody control signal indicating a prosody including the pitch, speed, and loudness of the voice corresponding to the voice content is input, rules and various rules given from the voice control file are input. Based on the table, a speech unit selection means for selecting a speech unit sequence suitable for synthesis from the speech unit file, a combination unit for combining the selected speech unit sequence, and based on the combined synthesis unit sequence, And a composite waveform generating means for generating a composite waveform. [Operation] The speech synthesizer using the composite speech unit according to the present invention is suitable for synthesis from a speech unit file based on rules and tables given from the speech control file in response to input of a prosody control signal. The synthesized speech unit sequence is selected and synthesized, and a synthesized waveform is generated based on the synthesized synthesis unit sequence to perform speech synthesis. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic block diagram of a speech synthesizer according to the present invention. In FIG. 1, a prosody control signal such as a phoneme sequence signal, an accent, and breathing corresponding to a speech content to be output is input to an input terminal 1. The prosody control signal input to the input terminal 1 is supplied to the voice unit selection unit 2. The voice unit selection unit 2 selects a voice unit string suitable for synthesis from a large number of voice units having various structures stored in the voice unit file 3 based on the input information. The speech control knowledge file 4 stores rules and tables for giving specific synthesis conditions such as an extraction environment, a fundamental frequency, and a phoneme time length. When selecting a speech unit sequence, the speech unit selection unit 2 extracts a desired synthesis unit extraction environment, a fundamental frequency, and a phoneme time length from the speech control knowledge file 4 based on the phoneme environment and the prosody information of the synthesis location. Specific composition conditions such as are given, and these synthesis conditions are used as criteria for unit selection. The voice unit sequence selected by the voice unit selection unit 2 is provided to the unit combining unit 5, and the selected units are combined. The combined speech unit is provided to a combined waveform generation unit 6, and a combined waveform is generated based on the combined unit sequence obtained by the unit combining unit 5. Then, the generated sound is output to the output terminal 7. Further, the method according to the present invention is characterized in that various types of units having various structures are used, and the acoustic parameters expressing the voice units used when implementing the method according to the present invention and various types used for unit selection are used. For the standard of speech, speech control knowledge, and synthesizer for generating speech waveforms,
It does not specify this at all and is applicable to all. FIG. 2 is a diagram showing a specific example of a speech unit file used in the present invention. The top 50 voice units are shown as a sound unit set including the subset. In FIG. 2, the number to the right of each phoneme connection indicates the appearance frequency, and the numbers are arranged in descending order of the frequency for each phoneme connection number. Further, in FIG. 2, 108 phoneme connections connected by a circle constitute a unit file, and the partial connection includes the top 50 of these 1 to 4 connections. More specifically, the phoneme “u” having the number of concatenation 1 is included in the phoneme “ru” having the number of concatenation 2, and this phoneme “ru” is included in the phoneme “eru” having the number of concatenation 3; This phoneme “eru” is included in the phoneme “keru” having four concatenations. Therefore,
The phonemes "u", "ru", and "eru" do not need to be stored in the voice unit file, and can be obtained by extracting the phonemes "keru" as partial units. FIG. 3 is a diagram showing an example of a voice unit sequence selected when the example shown in FIG. 2 is used as a voice unit set and, for example, "sakura blooms" / sakuragasaku / is input. As shown in FIG. 3, / sa / at the beginning of the sentence is given by a subsequence generated from four concatenations / saku /, and / kura / is four concatenations / k
Given by ura /, a voice unit sequence of "Sakura" is realized. Furthermore, "ga" is realized by / ga / of four connections / gaku /, and "blooming" is similarly realized by four connections / saku /. [Effects of the Invention] As described above, according to the present invention, the diversification of audio units allows free choice of storage capacity allowed for unit storage, man-hours allowed for creation, etc. In addition to the advantage that the unit set can be defined efficiently, there is an advantage that the unit can be used effectively and flexibly, such as partial use of a short connection included in a long audio unit. further,
Since a longer unit is used, there is little deterioration in voice quality due to connection between units, and good voice quality can be expected.
【図面の簡単な説明】
第1図はこの発明の方式を実施するための概略ブロック
図である。第2図は音声単位ファイルを構成する具体的
な一例を示す図である。第3図は入力音韻系列に対して
選択される音声単位系列の一例を示す図である。第4図
は音声合成単位長と音声合成システム構成上の問題点の
関係を示す図である。
図において、1は入力端子、2は音声単位選択部、3は
音声単位ファイル、4は音声制御知識ファイル、5は単
位結合部、6は合成波形生成部、7は出力端子を示す。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic block diagram for implementing the method of the present invention. FIG. 2 is a diagram showing a specific example of a sound unit file. FIG. 3 is a diagram showing an example of a speech unit sequence selected for an input phoneme sequence. FIG. 4 is a diagram showing the relationship between the speech synthesis unit length and problems in the speech synthesis system configuration. In the figure, 1 is an input terminal, 2 is a voice unit selection unit, 3 is a voice unit file, 4 is a voice control knowledge file, 5 is a unit combining unit, 6 is a synthesized waveform generation unit, and 7 is an output terminal.
Claims (1)
規則により任意語彙の音声合成を行なう複合音声単位を
用いた音声合成装置であって、 音素レベルから音節,形態素,単語,文節,文章に至る
までの種々の長さ,構造を有する多数の音声単位を予め
記憶する音声単位ファイル、 合成箇所の音韻の部分単位が置かれた音韻環境と韻律情
報を基にして、音声単位の部分を選ぶ抽出環境,音韻の
基本周波数,音韻時間長などの具体的条件を与える規則
および規則を適用するためのパラメータである諸表を予
め記憶する音声制御ファイル、 出力したい音声内容に対応した声の高さ,速度,大きさ
を含む韻律を示す韻律制御信号が入力されたことに応じ
て、前記音声制御ファイルから与えられる規則および諸
表に基づいて、前記音声単位ファイルから合成に適した
音声単位列を選択する音声単位選択手段、 前記音声単位選択手段によって選択された音声単位列を
結合するための結合手段、および 前記結合手段によって結合された合成単位列に基づい
て、合成波形を生成するための合成波形生成手段とを備
えた、複合音声単位を用いた音声合成装置。(57) [Claims] This is a speech synthesizer that uses a complex speech unit that synthesizes speech by editing speech units or synthesizes an arbitrary vocabulary according to rules. The speech synthesizer uses various sounds ranging from phoneme levels to syllables, morphemes, words, phrases, and sentences. A speech unit file that stores a number of speech units having the length and structure in advance, a phoneme environment in which the phoneme subunits of the synthesis location are placed, and an extraction environment that selects speech unit parts based on prosodic information. A voice control file that stores in advance rules that give specific conditions such as the fundamental frequency and phoneme time length of the voice and tables that are parameters for applying the rules, the pitch, speed, and loudness of the voice corresponding to the voice content that you want to output In response to the input of a prosody control signal indicating a prosody including, based on rules and tables given from the voice control file, Based on a speech unit selection unit that selects a speech unit sequence suitable for synthesis, a combination unit for combining the speech unit sequences selected by the speech unit selection unit, and a synthesis unit sequence combined by the combination unit. A speech synthesizer using a composite speech unit, comprising: a synthesized waveform generating unit for generating a synthesized waveform.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62202286A JP2894447B2 (en) | 1987-08-12 | 1987-08-12 | Speech synthesizer using complex speech units |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62202286A JP2894447B2 (en) | 1987-08-12 | 1987-08-12 | Speech synthesizer using complex speech units |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6444498A JPS6444498A (en) | 1989-02-16 |
JP2894447B2 true JP2894447B2 (en) | 1999-05-24 |
Family
ID=16455021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62202286A Expired - Lifetime JP2894447B2 (en) | 1987-08-12 | 1987-08-12 | Speech synthesizer using complex speech units |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2894447B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2738403B2 (en) * | 1995-05-12 | 1998-04-08 | 日本電気株式会社 | Voice recognition device |
JP2001100776A (en) | 1999-09-30 | 2001-04-13 | Arcadia:Kk | Vocie synthesizer |
KR20020002771A (en) * | 2000-06-30 | 2002-01-10 | 김종식 | Method for manufacturing clean material for printing machine |
JP5648347B2 (en) * | 2010-07-14 | 2015-01-07 | ヤマハ株式会社 | Speech synthesizer |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6014360A (en) * | 1983-07-04 | 1985-01-24 | Fujitsu Ltd | Disk cache controller |
-
1987
- 1987-08-12 JP JP62202286A patent/JP2894447B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPS6444498A (en) | 1989-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4125362B2 (en) | Speech synthesizer | |
US8219398B2 (en) | Computerized speech synthesizer for synthesizing speech from text | |
JP2001034283A (en) | Voice synthesizing method, voice synthesizer and computer readable medium recorded with voice synthesis program | |
JP3518898B2 (en) | Speech synthesizer | |
JP2894447B2 (en) | Speech synthesizer using complex speech units | |
JPH08335096A (en) | Text voice synthesizer | |
JP3681111B2 (en) | Speech synthesis apparatus, speech synthesis method, and speech synthesis program | |
JP2006349787A (en) | Method and device for synthesizing voices | |
JPH05224688A (en) | Text speech synthesizing device | |
JP2880507B2 (en) | Voice synthesis method | |
JP2577372B2 (en) | Speech synthesis apparatus and method | |
Dessai et al. | Development of Konkani TTS system using concatenative synthesis | |
JP3367906B2 (en) | Speech synthesis method, speech synthesis device, recording medium recording speech synthesis program and speech segment record, method for creating the same, and recording medium recording speech segment record creation program | |
JP3870583B2 (en) | Speech synthesizer and storage medium | |
JP2000056788A (en) | Meter control method of speech synthesis device | |
JP2573586B2 (en) | Rule-based speech synthesizer | |
JP2573585B2 (en) | Speech spectrum pattern generator | |
JP2001236086A (en) | Game device having text voice synthesis/output function | |
JP2000172286A (en) | Simultaneous articulation processor for chinese voice synthesis | |
JP2584236B2 (en) | Rule speech synthesizer | |
Butler et al. | Articulatory constraints on vocal tract area functions and their acoustic implications | |
Ren et al. | Emotional speech synthesis and its application to pervasive E-learning | |
JPH07140999A (en) | Device and method for voice synthesis | |
JPH08328578A (en) | Text voice synthesizer | |
JPS58168096A (en) | Multi-language voice synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080305 Year of fee payment: 9 |