JPH0887296A - Voice synthesizer - Google Patents

Voice synthesizer

Info

Publication number
JPH0887296A
JPH0887296A JP6221683A JP22168394A JPH0887296A JP H0887296 A JPH0887296 A JP H0887296A JP 6221683 A JP6221683 A JP 6221683A JP 22168394 A JP22168394 A JP 22168394A JP H0887296 A JPH0887296 A JP H0887296A
Authority
JP
Japan
Prior art keywords
pitch pattern
accent
point pitch
pitch
rule
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6221683A
Other languages
Japanese (ja)
Inventor
Tomoki Hamagami
知樹 濱上
Mitsuo Furumura
光夫 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP6221683A priority Critical patent/JPH0887296A/en
Publication of JPH0887296A publication Critical patent/JPH0887296A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To correct the fault of a point pitch model, to generate a natural pitch pattern and to produce a high quality synthesized sound in a voice synthesizer. CONSTITUTION: The voice synthesizer is provided with a first database section 21 which stores accent type point pitch patterns, a second database section 24 which stores the rule corresponding to the combination of the accent type and phoneme and a pitch pattern generating section 8 which retrieves a point pitch pattern corresponding to the paragraph, that is an object of the voice synthesis, from the section 21 and generates a new point pitch pattern based on the rule of the section 24 from the obtained point pitch pattern. Thus, pitches are given to not only the vowel centroid point but also to a phoneme boundary and the naturality in a head word in a synthesized sound and the vowel chain in an accent kernel is improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声合成装置に関し、
特に、音声合成装置におけるピッチパタンを生成する技
術に関するものである。本願発明の音声合成装置は、例
えば、セキュリティ機器における音声合成装置として使
用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech synthesizer,
In particular, it relates to a technique for generating a pitch pattern in a speech synthesizer. The speech synthesizer of the present invention is used, for example, as a speech synthesizer in security equipment.

【0002】[0002]

【従来の技術】従来、音声規則合成のピッチ制御は、母
音の中心位置におけるピッチ周波数を与え、母音間を線
形に補間する「点ピッチモデル」(特開昭50−128
40号、特許第1087848号参照)が使われてい
た。点ピッチモデルを用いた音声合成とは、日本語のア
クセント型に対応した、いくつかのパタンをあらかじめ
数値化しデータベース化しておき、合成したい文節のア
クセント型の情報を基に、その数値化された点ピッチパ
タンを検索し、合成パラメータとして利用する方法であ
る。
2. Description of the Related Art Conventionally, in pitch control of speech rule synthesis, a "point-pitch model" which gives a pitch frequency at the center position of a vowel and linearly interpolates between vowels (Japanese Patent Laid-Open No. 50-128)
40, see Japanese Patent No. 1087848). Speech synthesis using the point-pitch model is a numerical digitization of several patterns corresponding to Japanese accent types in advance, which is digitized based on the accent type information of the phrase to be synthesized. In this method, the point pitch pattern is searched and used as a synthesis parameter.

【0003】点ピッチモデルは、母音のエネルギー中心
位置におけるピッチ周波数が人間の聴覚にとって支配的
であるという特徴を利用したモデルであり、ピッチ制御
にとって、効率のよい考え方といえる。
The point-pitch model is a model utilizing the characteristic that the pitch frequency at the energy center position of a vowel is dominant for human hearing, and can be said to be an efficient idea for pitch control.

【0004】[0004]

【発明が解決しようとする課題】ところが、自然の発声
においては、同じアクセント型、同じモーラ数の文節で
あっても、その文節を構成する音韻の並びによっては、
明らかに点ピッチパタンと異なったピッチパタンをとる
事がある。これは、自然の発声系における、ピッチと調
音機構の相互作用によって、聞こえのアクセント型が、
点ピッチパタンの形と必ずしも一致しない事による。
However, in natural utterance, even if the utterances of the same accent type and the same number of mora are used in the natural utterance, depending on the arrangement of the phonemes constituting the utterances,
Obviously, there may be a pitch pattern different from the point pitch pattern. This is due to the interaction of the pitch and articulatory mechanisms in the natural vocal system, resulting in a audible accent type.
This is because it does not always match the shape of the dot pitch pattern.

【0005】その結果、文節によっては、検索した点ピ
ッチパタンと文節本来のアクセントが必ずしも一致せ
ず、変にアクセントが強調され、イントネーションがお
かしくなることがある等の不自然性が問題になってい
た。本発明は、上記従来の点ピッチモデルの欠点を改良
し、自然なピッチパタンを生成し、高品質な合成音をつ
くり出すことを目的とする。
As a result, depending on the phrase, the retrieved point pitch pattern does not always match the original accent of the phrase, the accent is emphasized strangely, and the intonation may be strange. It was An object of the present invention is to improve the above-mentioned drawbacks of the conventional point-pitch model, generate a natural pitch pattern, and create a high-quality synthesized sound.

【0006】[0006]

【課題を解決するための手段】本発明は前記問題を解決
するために、従来の点ピッチパタンの解釈を拡大し、母
音重心点のみならず、音韻境界にもピッチを与えられる
モデルとする。これを拡張点ピッチモデルと呼び、与え
られるピッチを拡張点ピッチと呼ぶ事にする。拡張点ピ
ッチは、母音重心位置に与える点ピッチと、音韻の並び
から、音韻境界のピッチ(以下、「境界ピッチ」とい
う。)を規則によって決定し、合成パラメータとして利
用する。
In order to solve the above problems, the present invention expands the conventional interpretation of the point pitch pattern to provide a model in which not only the vowel center of gravity points but also the phonological boundaries are given pitches. This is called an extension point pitch model, and the given pitch is called an extension point pitch. The extension point pitch is determined by a rule from the point pitch given to the position of the center of gravity of the vowel and the arrangement of phonemes, and is used as a synthesis parameter by determining the pitch of the phoneme boundary (hereinafter referred to as “boundary pitch”).

【0007】本発明は、これを実現するため、音声合成
装置において、アクセント型による点ピッチパタンを記
憶した第1のデータベース部と、アクセント型と音韻の
結合に対応した規則を記憶した第2のデータベース部
と、音声合成の対象となる文節に対応した点ピッチパタ
ンを第1のデータベース部より検索し、得られた点ピッ
チパタンから第2のデータベース部の規則を基に新たな
点ピッチパタンを生成するピッチパタン生成部を設け
る。
In order to realize this, the present invention realizes, in a speech synthesizer, a first database section storing a point pitch pattern of an accent type and a second database section storing a rule corresponding to a combination of an accent type and a phoneme. The database unit and the point pitch pattern corresponding to the speech synthesis target phrase are searched from the first database unit, and a new point pitch pattern is obtained from the obtained point pitch pattern based on the rules of the second database unit. A pitch pattern generation unit for generating is provided.

【0008】また、本発明は、前記第2のデータベース
部に記憶されている規則を、アクセント型と音韻の結合
とモーラ数との組合せに対応したものとすることができ
る。さらに、前記第1のデータベース部に記憶されてい
る点ピッチパタンに下降成分を加えた後、前記第2のデ
ータベース部の規則を適用し、新たな点ピッチパタンを
生成することができる。
Further, according to the present invention, the rule stored in the second database section can correspond to a combination of a combination of accent type and phoneme and a mora number. Further, after adding the descending component to the point pitch pattern stored in the first database section, the rule of the second database section can be applied to generate a new point pitch pattern.

【0009】[0009]

【作用】第1のデータベース部より検索し得られた点ピ
ッチパタンに対して第2のデータベース部の規則を適用
することにより、与えられた点ピッチと音韻の並びから
境界ピッチを規則によって決定し、合成パラメータとし
て利用する。これにより、点ピッチパタンの母音重心点
のみならず、音韻境界にもピッチが与えられ、合成音に
おける語頭、アクセント核における母音連鎖の自然性を
向上させる。
By applying the rule of the second database section to the point pitch pattern obtained by searching from the first database section, the boundary pitch is determined by the rule from the given arrangement of point pitch and phoneme. , Used as a synthesis parameter. As a result, not only the vowel center point of the point pitch pattern but also the phonological boundaries are given pitches, which improves the naturalness of the beginning of a synthesized voice and the vowel chain in the accent nucleus.

【0010】また、第2のデータベースに記憶されてい
る規則を、アクセント型と音韻の結合とモーラ数との組
合せに対応させることにより、さらには、点ピッチパタ
ンに下降成分を加えることにより、アクセント型におけ
る母音連鎖の自然性を更に向上させることができる。
Further, the rule stored in the second database is made to correspond to the combination of the accent type and the phoneme combination and the mora number, and further, by adding the descending component to the point pitch pattern, the accent is added. The naturalness of the vowel chain in the pattern can be further improved.

【0011】[0011]

【実施例】以下、本発明の実施例について図面を参照し
て説明する。図2は本発明の実施例に係る日本語音声合
成システムの構成を示す図である。図において、文章入
力装置1は、音声合成をしようとする合成文章が入力さ
れる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a diagram showing the configuration of the Japanese speech synthesis system according to the embodiment of the present invention. In the figure, the text input device 1 receives a synthetic text for which voice synthesis is to be performed.

【0012】テキスト解析部2は、この合成文章を発音
情報生成規則3を用いて解析し、音声合成処理に必要な
アクセントの情報、ポーズ、母音の無音声化などといっ
た発音情報を加えた音韻記号列に変換する。音韻継続時
間長生成部4は、テキスト解析部2によって生成された
音韻記号列について、リズム規則5により音韻継続時間
長を決定する。音韻継続時間長生成部4の出力は、音源
振幅パタン生成部6、ピッチパタン生成部8、スペクト
ルパタン生成部11に入力される。
The text analysis unit 2 analyzes this synthetic sentence using the pronunciation information generation rule 3, and adds phoneme information such as accent information, pauses, and vowel devoicing necessary for speech synthesis processing. Convert to a column. The phoneme duration generating unit 4 determines the phoneme duration of the phoneme symbol string generated by the text analyzing unit 2 according to the rhythm rule 5. The output of the phoneme duration generation unit 4 is input to the sound source amplitude pattern generation unit 6, the pitch pattern generation unit 8, and the spectrum pattern generation unit 11.

【0013】音源振幅パタン生成部6は、音声のパワー
包絡をパワー規則7により決定する。なお、この音源振
幅パタン生成部6及びパワー規則7図の詳細について
は、本出願人が既に出願した特願平5−247994号
で説明されている。ピッチパタン生成部8は、韻律制御
規則9から各アクセント句について点ピッチパタンを決
めて、それらを補間して連続点ピッチパタンを生成す
る。
The sound source amplitude pattern generator 6 determines the power envelope of the voice according to the power rule 7. The details of the sound source amplitude pattern generation unit 6 and the power rule 7 are described in Japanese Patent Application No. 5-247994 filed by the present applicant. The pitch pattern generation unit 8 determines point pitch patterns for each accent phrase from the prosody control rule 9 and interpolates them to generate continuous point pitch patterns.

【0014】音源生成部10は、前記パワーパタンと前
記ピッチパタンを基に音源を生成する。スペクトルパタ
ン生成部11は、音韻性向上規則12により、母音・子
音といった音韻の種類から、音声合成基本単位データベ
ース13を検索し、音韻結合規則14により各音韻のス
ペクトルを結合し、フォルマントパタンを作成する。
The sound source generator 10 generates a sound source based on the power pattern and the pitch pattern. The spectrum pattern generation unit 11 searches the phonetic synthesis basic unit database 13 from the phoneme types such as vowels and consonants according to the phonological improvement rule 12, and combines the spectra of each phoneme according to the phonological combination rule 14 to create a formant pattern. To do.

【0015】音声合成器15は、前記音源生成部10か
ら得られた音源情報と前記スペクトルパタン生成部11
から得られたフォルマントパタンから合成音声を作成す
る。作成された合成音声はスピーカ16により外部に発
声される。次に本発明の特徴部であるピッチパタン生成
部8及び韻律制御規則9について図1を用いて説明す
る。
The voice synthesizer 15 includes the sound source information obtained from the sound source generation unit 10 and the spectrum pattern generation unit 11.
Create a synthetic speech from the formant pattern obtained from. The created synthetic voice is uttered to the outside by the speaker 16. Next, the pitch pattern generator 8 and the prosody control rule 9, which are the features of the present invention, will be described with reference to FIG.

【0016】韻律制御規則9は、正規化点ピッチパタン
を記憶した第1のデータベース21、アクセント句内下
降成分規則22、アクセント句間下降成分規則23及
び、変形規則を記憶した第2のデータベース24を具備
している。最初に、ピッチパタン生成部8の概略の動作
について説明をする。ピッチパタン生成部8は、韻律制
御規則9の第1のデータベース21に記憶された正規化
点ピッチパタンから、合成しようとしている文節のモー
ラ数及びアクセント型で決まる1つの正規化点ピッチパ
タンを検索する(ステップS1)。
The prosody control rule 9 includes a first database 21 storing a normalized point pitch pattern, a descending component rule within accent phrase 22, a descending component rule between accent phrases 23, and a second database 24 storing modification rules. It is equipped with. First, the general operation of the pitch pattern generation unit 8 will be described. The pitch pattern generation unit 8 searches the normalized point pitch pattern stored in the first database 21 of the prosody control rule 9 for one normalized point pitch pattern determined by the mora number and accent type of the phrase to be synthesized. Yes (step S1).

【0017】次に、ピッチパタン生成部8は、検索して
取り出した点ピッチパタンに対して、アクセント句内下
降成分規則22を用いて、アクセント句内下降成分を付
与し(ステップS2)、さらに、アクセント句間下降成
分規則23を用いて、アクセント句間下降成分を付与す
る(ステップS3)。最後に、ピッチパタン生成部8
は、点ピッチパタンに対して、第2のデータベース24
に記憶された規則を用い、点ピッチパタンのアクセント
型と音韻の結合とモーラ数に対応した変形を行う(ステ
ップS4)。
Next, the pitch pattern generating unit 8 gives the descending component within the accent phrase to the retrieved point pitch pattern using the descending component within accent phrase 22 (step S2), and , The inter-accent phrase descending component is added using the accent phrase descending component rule 23 (step S3). Finally, the pitch pattern generation unit 8
Is the second database 24 for the point pitch pattern.
Using the rules stored in step S4, the accent type of the point pitch pattern and the phoneme are combined and the transformation corresponding to the number of mora is performed (step S4).

【0018】以上簡単に説明した各処理について、以下
に詳細に説明をする。第1のデータベース21に記憶さ
れている正規化点ピッチパタンについて説明をする。正
規化点ピッチパタンは、あらかじめ自然発声の点ピッチ
を分析しておいて、これに正規化を施してデータベース
化してある。図3〜図6は、第1のデータベース21に
記憶された正規化点ピッチパタンの例を示し、アクセン
ト型Nごとにまとめて表示されている。図3は0型正規
化点ピッチパタン、図4は1型正規化点ピッチパタン、
図5は2型正規化点ピッチパタン、図6は3型正規化点
ピッチパタンを示す。以下図示は省略するが、本例では
9型正規化点ピッチパタンまでが用意される。
Each process briefly described above will be described in detail below. The normalized point pitch pattern stored in the first database 21 will be described. The normalized point pitch pattern is obtained by analyzing the point pitch of natural utterance in advance and normalizing it to create a database. 3 to 6 show examples of normalized point pitch patterns stored in the first database 21, which are collectively displayed for each accent type N. 3 is a 0-type normalized point pitch pattern, FIG. 4 is a 1-type normalized point pitch pattern,
FIG. 5 shows a type 2 normalized point pitch pattern, and FIG. 6 shows a type 3 normalized point pitch pattern. Although illustration is omitted below, in the present example, up to the 9-type normalized point pitch pattern is prepared.

【0019】ここで、アクセント型のNはアクセント核
の位置を表す。アクセント核とは、アクセントがついた
際に、周波数が下降する直前のモーラである。つまり、
図4の1型とはアクセント核が第1モーラであること、
図5の2型とはアクセント核が第2モーラであること、
図6の3型とはアクセント核が第3モーラであること、
図3の0型とはアクセント核がないことを意味する。
Here, the accent type N represents the position of the accent nucleus. The accent nucleus is the mora just before the frequency drops when an accent is applied. That is,
Type 1 in FIG. 4 means that the accent nucleus is the first mora,
Type 2 in Fig. 5 means that the accent nucleus is the second mora,
The type 3 in FIG. 6 means that the accent nucleus is the third mora,
Type 0 in FIG. 3 means that there is no accent nucleus.

【0020】また、図3〜図6には、1つのアクセント
型Nについてモーラ数Mの異なる複数のパタンが図示さ
れている。通常、それぞれのパタンをMモーラN型と呼
ぶ。以上の説明から明らかなように、パタンの種類は、
モーラ数Mとアクセント型N(ただし常にM>N>=
0)の組み合わせ数の和となる。通常、Mはたかだか1
<M<10程度なので、パタンの総数は1から10まで
の和(42)を超えることはない。
3 to 6 show a plurality of patterns with different mora numbers M for one accent type N. Generally, each pattern is called M-Mora N type. As is clear from the above explanation, the types of patterns are
Mora number M and accent type N (always M>N> =
It is the sum of the number of combinations of 0). Usually M is at most 1
Since <M <10, the total number of patterns does not exceed the sum (42) of 1 to 10.

【0021】図1のステップS1において、ピッチパタ
ン生成部8は、上記複数記憶された正規化点ピッチパタ
ンから、合成しようとしている文節のモーラ数及びアク
セント型で決まる1つの正規化点ピッチパタンを検索す
る。次に、図1のステップS2及びステップS3のピッ
チ下降成分の付与について説明する。
In step S1 of FIG. 1, the pitch pattern generation unit 8 creates one normalized point pitch pattern determined from the number of mora of the phrase to be synthesized and the accent type from the plurality of stored normalized point pitch patterns. Search for. Next, the application of the pitch lowering component in steps S2 and S3 of FIG. 1 will be described.

【0022】自然発声から分析された点ピッチパタン
は、呼気圧の減少による緩やかなピッチ下降成分が重畳
されている。そこで合成時に、自然発声音に近づけるた
めに、下降成分を点ピッチパタンに与える。ピッチパタ
ン生成部8は、検索により取り出した点ピッチパタンに
対して、アクセント句内下降成分規則22を用いて、ア
クセント句内での下降成分を付与する。
The point pitch pattern analyzed from the natural utterance has a gradual pitch down component due to a decrease in expiratory pressure. Therefore, at the time of synthesis, a falling component is given to the point pitch pattern in order to bring it closer to a natural vocal sound. The pitch pattern generation unit 8 adds the descending component in the accent phrase to the point pitch pattern extracted by the search using the accent component descending component rule 22.

【0023】下降成分は、1型以外のパタンについて
は、図7に示すように、1モーラ目を基準とし、右さが
りになる様に整形する。1型の場合、平均ピッチがほぼ
Mモーラの中央のM/2の位置で0となるようにシフト
させる。いずれの型についても、ダイナミックレンジは
一定値をとるようにする。さらに、ピッチパタン生成部
8は、アクセント句内下降成分を付与した点ピッチパタ
ンに対して、アクセント句間下降成分規則23を用い
て、図8に示すようにアクセント句間での下降成分を付
与する。
For patterns other than the 1st type, the descending component is shaped so that it becomes a sag to the right with reference to the 1st mora as shown in FIG. In the case of the 1st type, shift is performed so that the average pitch becomes 0 at the position of M / 2 at the center of the M mora. The dynamic range of each type should be a constant value. Further, the pitch pattern generation unit 8 uses the inter-accent phrase descending component rule 23 to attach the descending component between accent phrases to the point pitch pattern to which the in-accent phrase descending component is attached, as shown in FIG. To do.

【0024】次に、図1のステップS4の変形規則の適
用について説明する。ピッチパタン生成部8は、ステッ
プS3までで作られた点ピッチパタンに対し、第2のデ
ータベース24に記憶された変形規則を用いて、得られ
た点ピッチの値を基に、音韻境界に新たなピッチを与え
る、あるいは点ピッチパタンからあるピッチを削除する
というパタンの変形を行う。
Next, application of the transformation rule in step S4 of FIG. 1 will be described. The pitch pattern generation unit 8 uses the transformation rules stored in the second database 24 for the point pitch patterns created up to step S3, and newly creates a phonological boundary on the basis of the value of the obtained point pitch. The pattern is transformed by giving a different pitch or deleting a certain pitch from the point pitch pattern.

【0025】変形方法について図9〜11を用いて説明
をする。なお、以下の説明において、Vは母音、Nは撥
音を表す。 1.語頭における拡張方法の例を図9を用いて説明す
る。本例の規則は、文節のアクセント型、音韻結合、モ
ーラ数が以下の条件を満たすときに適用される。
The deformation method will be described with reference to FIGS. In the following description, V is a vowel and N is a sound repellency. 1. An example of the expansion method at the beginning of a word will be described with reference to FIG. The rule of this example is applied when the accent type, phonological combination, and number of mora of bunsetsu satisfy the following conditions.

【0026】条件 (1型以外)&(語頭におけるVV,VN,NV)&
(4モーラ以上) すなわち、アクセント型が1型以外のものであり、語頭
つまり、第1モーラと第2モーラが、V−V,V−N,
N−Vのいずれかで結合され、モーラ数が4以上である
という3つの条件を満たしたとき、点ピッチパタンは以
下の規則により操作される。
Condition (other than type 1) & (VV, VN, NV at the beginning of word) &
(4 or more mora) That is, the accent type is other than type 1, and the beginning of the word, that is, the first mora and the second mora are V-V, V-N,
The point pitch pattern is operated according to the following rules when three conditions are satisfied such that the number of moras is four or more and the number of moras is four or more.

【0027】操作規則 a.第1モーラの母音重心点ピッチは、そのアクセント
句のアクセント核ピッチとする。なお、アクセント句と
は、1つの点ピッチパタンに代表される最小単位をい
う。 b.ただし、0型の場合は、最終モーラに一致させる。
Operation Rule a. The vowel center point pitch of the first mora is the accent kernel pitch of the accent phrase. The accent phrase is a minimum unit represented by one point pitch pattern. b. However, in the case of type 0, it matches the final mora.

【0028】c.第2モーラの重心点ピッチを、第1、
第2モーラの境界点ピッチへ移動させる。 d.ただし、2型の場合は、元の第1モーラピッチとの
平均値を、第1、第2モーラの境界点ピッチとする。 e.第2モーラの重心点ピッチは破棄する 以上の操作の結果、図9(a)の点ピッチパタンは
(b)の拡張点ピッチパタンに変形される。なお、図中
のCは子音を表す。
C. The center of gravity pitch of the second mora is
Move to the boundary point pitch of the second mora. d. However, in the case of type 2, the average value with the original first mora pitch is the boundary point pitch between the first and second mora. e. Discarding the barycentric point pitch of the second mora As a result of the above operation, the point pitch pattern of FIG. 9A is transformed into the extended point pitch pattern of FIG. 9B. Note that C in the figure represents a consonant.

【0029】2.アクセント核における拡張方法の例を
図10を用いて説明する。本例の規則は、文節のアクセ
ント型及び音韻結合が以下の条件を満たすときに適用さ
れる。
2. An example of the extension method in the accent kernel will be described with reference to FIG. The rule of this example is applied when the accent type and phonological combination of bunsetsu satisfy the following conditions.

【0030】条件 (1型以外)&(アクセント核と後続モーラがVV,V
N,NV) すなわち、アクセント型が1型以外のものであり、アク
セント核とその直後のモーラが、VV,VN,NVのい
ずれかで結合されるという2つの条件を満たしたとき、
以下の規則により操作される。
Condition (other than type 1) & (accent kernel and subsequent mora are VV, V
N, NV) That is, when the accent type is other than type 1, and the accent kernel and the mora immediately after that satisfy the two conditions of being connected by either VV, VN, or NV,
It is operated according to the following rules.

【0031】操作規則 a.アクセント核モーラと後続モーラとの境界点ピッチ
は、アクセント核の重心点ピッチをそのまま使う。 b.後続モーラの重心ピッチは次の例外を除き破棄す
る。 b1.後続モーラの次のモーラが無声化される場合。
Operating Rule a. The pitch of the center of gravity of the accent kernel is used as it is as the boundary point pitch between the accent kernel mora and the subsequent mora. b. The center of gravity pitch of the following mora is discarded with the following exceptions. b1. The next mora of the following mora is devoiced.

【0032】b2.アクセント型が(アクセント句のモ
ーラ数−1)である場合。 以上の操作の結果、図10(a)の点ピッチパタンは
(b)の拡張点ピッチパタンに変形される。 3.1型アクセント句における拡張方法の例を図11を
用いて説明する。本例の規則は、文節のアクセント型及
び音韻結合が以下の条件を満たすときに適用される。
B2. When the accent type is (number of mora in accent phrase-1). As a result of the above operation, the point pitch pattern shown in FIG. 10A is transformed into the extended point pitch pattern shown in FIG. An example of the extension method in the 3.1 type accent phrase will be described with reference to FIG. The rule of this example is applied when the accent type and phonological combination of bunsetsu satisfy the following conditions.

【0033】条件 (1型である)&(第一モーラと第二モーラがVV,V
N,NV) すなわち、アクセント型が1型である場合、第1モーラ
と第2モーラが、VV,VN,NVのいずれかで結合さ
れるという2つの条件を満たしたとき、以下の規則によ
り操作される。
Condition (Type 1) & (First and second mora are VV, V
That is, when the accent type is type 1, when the two conditions that the first mora and the second mora are connected by VV, VN, NV are satisfied, the operation is performed according to the following rule. To be done.

【0034】操作規則 a.第1モーラ重心点ピッチを第1、第2モーラ境界ピ
ッチへ移動する。 b.第2モーラ重心点ピッチを破棄する。 c.ただし、2モーラ句の場合は、第2モーラの重心点
ピッチは保留する。 以上の操作の結果、図11(a)の点ピッチパタンは
(b)の拡張点ピッチパタンに変形される。
Operating Rule a. The pitch of the center of gravity of the first mora is moved to the boundary pitch of the first and second mora. b. Discard the second mora centroid pitch. c. However, in the case of the two-mora phrase, the center-of-gravity point pitch of the second mora is reserved. As a result of the above operation, the point pitch pattern of FIG. 11A is transformed into the extended point pitch pattern of FIG. 11B.

【0035】これらの規則は、自然音声の分析値観測の
結果から、経験的に得られたものであるが、生成された
拡張点ピッチパタンは、自然音と比べて遜色ないパタン
が得られており、合成された音声は従来の点ピッチモデ
ルに比べ自然性が向上されている。なお、以上の規則
は、アクセント型と音韻の結合のみに対応した規則とす
ることもできる。
These rules are obtained empirically from the result of observation of the analysis value of natural speech, but the generated extension point pitch pattern has a pattern comparable to that of natural sound. However, the synthesized speech has improved naturalness as compared with the conventional point-pitch model. It should be noted that the above rules may be rules corresponding only to the combination of accent type and phoneme.

【0036】この様に、拡張点ピッチモデルは、従来技
術の点ピッチモデルと同じピッチパタンデータベースを
用いながら、自然音声の現象に合致する様に制御の自由
度を上げ、規則によってそれを実現したものである。上
記で上げた変形規則は、品質に大きく影響する語頭やア
クセント核におけるVV結合であるが、この他にも、プ
ロミネンス制御、声質制御、促音化、無声化、発話速速
度変化によって変化する様々なピッチパタンを、本モデ
ルは表現する事が可能である。
As described above, the extended point pitch model uses the same pitch pattern database as the conventional point pitch model, but the degree of freedom of control is increased so as to match the phenomenon of natural speech, and it is realized by the rule. It is a thing. The above-mentioned transformation rules are VV coupling at the beginning of a word or accent nucleus, which greatly affects the quality, but in addition to this, various prominence control, voice quality control, consonantization, devoicing, and various changes in the speech speed speed are also possible. This model can express the pitch pattern.

【0037】[0037]

【発明の効果】以上で説明したように、本発明によれ
ば、従来方法の点ピッチパタンを用い、規則により境界
ピッチを設定する事によって、より自然音声に近いピッ
チパタンを得る事ができるようになる。その結果、合成
音の自然性は向上する。
As described above, according to the present invention, it is possible to obtain a pitch pattern closer to natural speech by using the point pitch pattern of the conventional method and setting the boundary pitch according to the rule. become. As a result, the naturalness of the synthetic sound is improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のピッチパタン生成部及び韻律
制御規則の詳細を示すブロック図。
FIG. 1 is a block diagram showing details of a pitch pattern generation unit and a prosody control rule according to an embodiment of the present invention.

【図2】本発明の実施例の日本語音声合成システム全体
の構成を示す図。
FIG. 2 is a diagram showing the overall configuration of a Japanese speech synthesis system according to an embodiment of the present invention.

【図3】正規化点ピッチパタンを示す図(その1)。FIG. 3 is a diagram (1) showing a normalized point pitch pattern.

【図4】正規化点ピッチパタンを示す図(その2)。FIG. 4 is a diagram showing a normalized point pitch pattern (No. 2).

【図5】正規化点ピッチパタンを示す図(その3)。FIG. 5 is a diagram showing a normalized point pitch pattern (No. 3).

【図6】正規化点ピッチパタンを示す図(その4)。FIG. 6 is a diagram showing a normalized point pitch pattern (No. 4).

【図7】アクセント句内での下降成分の付与方法を説明
する図。
FIG. 7 is a diagram illustrating a method of adding a descending component in an accent phrase.

【図8】アクセント句間での下降成分の付与方法を説明
する図。
FIG. 8 is a diagram illustrating a method of adding a descending component between accent phrases.

【図9】図1のピッチパタン生成部により実行される語
頭における拡張方法を説明するための図。
9 is a diagram for explaining an expansion method at the beginning of a word, which is executed by the pitch pattern generation unit in FIG.

【図10】図1のピッチパタン生成部により実行される
アクセント核における拡張方法を説明するための図。
10A and 10B are views for explaining an extension method in an accent kernel executed by the pitch pattern generation unit in FIG.

【図11】図1のピッチパタン生成部により実行される
1型アクセント句における拡張方法を説明するための
図。
FIG. 11 is a diagram for explaining an expansion method in a type 1 accent phrase executed by the pitch pattern generation unit in FIG. 1;

【符号の説明】[Explanation of symbols]

8…ピッチパタン生成部 9…韻律制御規則 21…第1のデータベース(正規化点ピッチパタン) 22…アクセント句内下降成分規則 23…アクセント句間下降成分規則 24…第2のデータベース(変形規則) 8 ... Pitch pattern generation unit 9 ... Prosody control rule 21 ... First database (normalized point pitch pattern) 22 ... Accent phrase descending component rule 23 ... Accent phrase descending component rule 24 ... Second database (transformation rule)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 音声合成装置において、アクセント型に
よる点ピッチパタンを記憶した第1のデータベース部
と、アクセント型と音韻の結合に対応した規則を記憶し
た第2のデータベース部と、音声合成の対象となる文節
に対応した点ピッチパタンを第1のデータベース部より
検索し、得られた点ピッチパタンから第2のデータベー
ス部の規則を基に新たな点ピッチパタンを生成するピッ
チパタン生成部を具備することを特徴とする音声合成装
置。
1. A speech synthesizer, comprising: a first database section storing a point pitch pattern according to an accent type; a second database section storing a rule corresponding to a combination of an accent type and a phoneme; and an object of speech synthesis. And a pitch pattern generation unit that generates a new point pitch pattern based on the rule of the second database unit from the obtained point pitch pattern based on the obtained point pitch pattern. A speech synthesizer characterized by:
【請求項2】 前記第2のデータベース部に記憶されて
いる規則は、アクセント型と音韻の結合とモーラ数との
組合せに対応したものであることを特徴とする請求項1
記載の音声合成装置。
2. The rules stored in the second database unit correspond to combinations of accent types, phoneme combinations, and mora numbers.
The described speech synthesizer.
【請求項3】 前記第1のデータベース部に記憶されて
いる点ピッチパタンに下降成分を加えた後、前記規則を
適用し、新たな点ピッチパタンを生成することを特徴と
する請求項1記載の音声合成装置。
3. The new point pitch pattern is generated by applying the rule after adding a descending component to the point pitch pattern stored in the first database section. Speech synthesizer.
JP6221683A 1994-09-16 1994-09-16 Voice synthesizer Pending JPH0887296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6221683A JPH0887296A (en) 1994-09-16 1994-09-16 Voice synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6221683A JPH0887296A (en) 1994-09-16 1994-09-16 Voice synthesizer

Publications (1)

Publication Number Publication Date
JPH0887296A true JPH0887296A (en) 1996-04-02

Family

ID=16770646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6221683A Pending JPH0887296A (en) 1994-09-16 1994-09-16 Voice synthesizer

Country Status (1)

Country Link
JP (1) JPH0887296A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169476A (en) * 1997-08-26 1999-03-09 Secom Co Ltd Artificial larynx for helping sound production
US7428411B2 (en) * 2000-12-19 2008-09-23 At&T Delaware Intellectual Property, Inc. Location-based security rules
US8843515B2 (en) 2012-03-07 2014-09-23 Snap Trends, Inc. Methods and systems of aggregating information of social networks based on geographical locations via a network
US8874140B2 (en) 2000-12-19 2014-10-28 At&T Intellectual Property I, L.P. Location blocking service from a wireless service provider
US8886226B2 (en) 2008-03-14 2014-11-11 William J. Johnson System and method for timely whereabouts determination by a mobile data processing system
US8887177B2 (en) 2008-03-14 2014-11-11 William J. Johnson System and method for automated content distribution objects
US8897742B2 (en) 2009-11-13 2014-11-25 William J. Johnson System and method for sudden proximal user interface
US8942732B2 (en) 2008-03-14 2015-01-27 William J. Johnson Location based exchange operating system
US8942693B2 (en) 2008-03-14 2015-01-27 William J. Johnson System and method for targeting data processing system(s) with data
US9466076B2 (en) 2000-12-19 2016-10-11 At&T Intellectual Property I, L.P. Location blocking service from a web advertiser
US9477991B2 (en) 2013-08-27 2016-10-25 Snap Trends, Inc. Methods and systems of aggregating information of geographic context regions of social networks based on geographical locations via a network
US9501780B2 (en) 2000-12-19 2016-11-22 At&T Intellectual Property I, L.P. Surveying wireless device users by location
US9571958B2 (en) 2000-06-30 2017-02-14 At&T Intellectual Propery I, L.P. Anonymous location service for wireless networks
US9584647B2 (en) 2000-12-19 2017-02-28 At&T Intellectual Property I, L.P. System and method for remote control of appliances utilizing mobile location-based applications
US9648454B2 (en) 2000-12-19 2017-05-09 At&T Intellectual Property I, L.P. System and method for permission to access mobile location information
US9894489B2 (en) 2013-09-30 2018-02-13 William J. Johnson System and method for situational proximity observation alerting privileged recipients
US10477994B2 (en) 2008-03-14 2019-11-19 William J. Johnson System and method for location based exchanges of data facilitiating distributed locational applications

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169476A (en) * 1997-08-26 1999-03-09 Secom Co Ltd Artificial larynx for helping sound production
US9571958B2 (en) 2000-06-30 2017-02-14 At&T Intellectual Propery I, L.P. Anonymous location service for wireless networks
US7428411B2 (en) * 2000-12-19 2008-09-23 At&T Delaware Intellectual Property, Inc. Location-based security rules
US10354079B2 (en) 2000-12-19 2019-07-16 Google Llc Location-based security rules
US8874140B2 (en) 2000-12-19 2014-10-28 At&T Intellectual Property I, L.P. Location blocking service from a wireless service provider
US10217137B2 (en) 2000-12-19 2019-02-26 Google Llc Location blocking service from a web advertiser
US9852450B2 (en) 2000-12-19 2017-12-26 At&T Intellectual Property I, L.P. Location blocking service from a web advertiser
US9763091B2 (en) 2000-12-19 2017-09-12 At&T Intellectual Property I, L.P. Location blocking service from a wireless service provider
US9648454B2 (en) 2000-12-19 2017-05-09 At&T Intellectual Property I, L.P. System and method for permission to access mobile location information
US9584647B2 (en) 2000-12-19 2017-02-28 At&T Intellectual Property I, L.P. System and method for remote control of appliances utilizing mobile location-based applications
US9501780B2 (en) 2000-12-19 2016-11-22 At&T Intellectual Property I, L.P. Surveying wireless device users by location
US9466076B2 (en) 2000-12-19 2016-10-11 At&T Intellectual Property I, L.P. Location blocking service from a web advertiser
US9253597B2 (en) 2008-03-14 2016-02-02 William J. Johnson System and method for determining mobile users of interest
US9456303B2 (en) 2008-03-14 2016-09-27 William J. Johnson System and method for service access via hopped wireless mobile device(s)
US9078095B2 (en) 2008-03-14 2015-07-07 William J. Johnson System and method for location based inventory management
US9088868B2 (en) 2008-03-14 2015-07-21 William J. Johnson Location based exchange permissions
US9088869B2 (en) 2008-03-14 2015-07-21 William J. Johnson System and method for application search results by locational conditions
US9100792B2 (en) 2008-03-14 2015-08-04 William J. Johnson System and method for service-free location based applications
US9113295B2 (en) 2008-03-14 2015-08-18 William J. Johnson System and method for location based exchange vicinity interest specification
US9204275B2 (en) 2008-03-14 2015-12-01 William J. Johnson System and method for targeting data processing system(s) with data
US9014658B2 (en) 2008-03-14 2015-04-21 William J. Johnson System and method for application context location based configuration suggestions
US9392408B2 (en) 2008-03-14 2016-07-12 William J. Johnson System and method for location based exchanges of data facilitating distributed locational applications
US9445238B2 (en) 2008-03-14 2016-09-13 William J. Johnson System and method for confirming data processing system target(s)
US8887177B2 (en) 2008-03-14 2014-11-11 William J. Johnson System and method for automated content distribution objects
US8942733B2 (en) 2008-03-14 2015-01-27 William J. Johnson System and method for location based exchanges of data facilitating distributed location applications
US10477994B2 (en) 2008-03-14 2019-11-19 William J. Johnson System and method for location based exchanges of data facilitiating distributed locational applications
US8942693B2 (en) 2008-03-14 2015-01-27 William J. Johnson System and method for targeting data processing system(s) with data
US8942732B2 (en) 2008-03-14 2015-01-27 William J. Johnson Location based exchange operating system
US8923806B2 (en) 2008-03-14 2014-12-30 William J. Johnson System and method for presenting application data by data processing system(s) in a vicinity
US9584993B2 (en) 2008-03-14 2017-02-28 William J. Johnson System and method for vector processing on behalf of image aperture aim
US8886226B2 (en) 2008-03-14 2014-11-11 William J. Johnson System and method for timely whereabouts determination by a mobile data processing system
US9055406B2 (en) 2008-03-14 2015-06-09 William J. Johnson Server-less synchronized processing across a plurality of interoperating data processing systems
US10111034B2 (en) 2008-03-14 2018-10-23 Billjco Llc System and method for sound wave triggered content
US8897741B2 (en) 2009-11-13 2014-11-25 William J. Johnson System and method for mobile device usability by locational conditions
US8897742B2 (en) 2009-11-13 2014-11-25 William J. Johnson System and method for sudden proximal user interface
US9626446B2 (en) 2012-03-07 2017-04-18 Snap Trends, Inc. Methods and systems of advertising based on aggregated information of social networks within geographical locations via a network
US8843515B2 (en) 2012-03-07 2014-09-23 Snap Trends, Inc. Methods and systems of aggregating information of social networks based on geographical locations via a network
US9477991B2 (en) 2013-08-27 2016-10-25 Snap Trends, Inc. Methods and systems of aggregating information of geographic context regions of social networks based on geographical locations via a network
US9894489B2 (en) 2013-09-30 2018-02-13 William J. Johnson System and method for situational proximity observation alerting privileged recipients
US10194293B2 (en) 2013-09-30 2019-01-29 William J. Johnson System and method for vital signs alerting privileged recipients

Similar Documents

Publication Publication Date Title
US6470316B1 (en) Speech synthesis apparatus having prosody generator with user-set speech-rate- or adjusted phoneme-duration-dependent selective vowel devoicing
JP4302788B2 (en) Prosodic database containing fundamental frequency templates for speech synthesis
JP3361066B2 (en) Voice synthesis method and apparatus
JPH0887296A (en) Voice synthesizer
JP2008545995A (en) Hybrid speech synthesizer, method and application
JP3587048B2 (en) Prosody control method and speech synthesizer
JPH0632020B2 (en) Speech synthesis method and apparatus
US6975987B1 (en) Device and method for synthesizing speech
JP2003337592A (en) Method and equipment for synthesizing voice, and program for synthesizing voice
JPH01284898A (en) Voice synthesizing device
US6829577B1 (en) Generating non-stationary additive noise for addition to synthesized speech
JPH0887297A (en) Voice synthesis system
JP3437064B2 (en) Speech synthesizer
JPH09152884A (en) Speech synthesizing device
JPH07140996A (en) Speech rule synthesizer
Khalil et al. Arabic speech synthesis based on HMM
JPH0580791A (en) Device and method for speech rule synthesis
JPH06318094A (en) Speech rule synthesizing device
JPH037995A (en) Generating device for singing voice synthetic data
JP2755478B2 (en) Text-to-speech synthesizer
JP3368948B2 (en) Voice rule synthesizer
JP2995814B2 (en) Voice synthesis method
JP3308875B2 (en) Voice synthesis method and apparatus
IMRAN ADMAS UNIVERSITY SCHOOL OF POST GRADUATE STUDIES DEPARTMENT OF COMPUTER SCIENCE
JPH04350699A (en) Text voice synthesizing device