JPH1049193A - Natural speech voice waveform signal connecting voice synthesizer - Google Patents

Natural speech voice waveform signal connecting voice synthesizer

Info

Publication number
JPH1049193A
JPH1049193A JP9123822A JP12382297A JPH1049193A JP H1049193 A JPH1049193 A JP H1049193A JP 9123822 A JP9123822 A JP 9123822A JP 12382297 A JP12382297 A JP 12382297A JP H1049193 A JPH1049193 A JP H1049193A
Authority
JP
Japan
Prior art keywords
phoneme
speech
voice
waveform signal
feature parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9123822A
Other languages
Japanese (ja)
Other versions
JP3050832B2 (en
Inventor
Kiyanberu Nitsuku
ニック・キャンベル
Hanto Andoriyuu
アンドリュー・ハント
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
A T R ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Original Assignee
A T R ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by A T R ONSEI HONYAKU TSUSHIN KENKYUSHO KK filed Critical A T R ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Priority to JP9123822A priority Critical patent/JP3050832B2/en
Publication of JPH1049193A publication Critical patent/JPH1049193A/en
Application granted granted Critical
Publication of JP3050832B2 publication Critical patent/JP3050832B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the voice synthesizer in which a rhythm control rule is not used, no signal process is executed, an arbitrary phoneme string is converted into uttered voices and a voice quality close to natural is obtained. SOLUTION: A weighted coefficient learning section 11 computes the acoustic distance in second acoustic feature parameters between one target phoneme of same phoneme kinds and other phoneme candidates based on extracted first acoustic feature parameters and determines the weighted coefficient vectors which represent the degree of contribution in the second acoustic feature parameters by conducting a statistical analysis. A voice unit selecting section 12 retrieves the phoneme candidate columns which make the target cost, representing the approximate cost between a target phoneme and a phoneme candidate, and the cost including the connecting cost, representing the approximate cost between two phoneme candidates to be connected next to each other, become a minimum against the inputted phoneme columns and outputs the retrieved information. A voice synthesizing section 13 successively reads the voice segment of the voice waveform signals corresponding to the retrieved information, connects them and conducts a voice synthesis.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自然発話の音声波
形信号の音声セグメントを連結することにより任意の音
素列を音声合成する自然発話音声波形信号接続型音声合
成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a spontaneously uttered speech waveform signal connection type speech synthesizer for synthesizing an arbitrary phoneme string by connecting speech segments of a naturally uttered speech waveform signal.

【0002】[0002]

【従来の技術】図2は、従来例の音声合成装置のブロッ
ク図である。図2に示すように、学習用話者の信号波形
データに対して例えばLPC分析を実行し、16次ケプ
ストラム係数を含む特徴パラメータを抽出する。抽出さ
れた特徴パラメータは、バッファメモリである特徴パラ
メータメモリ62に記憶された後、当該メモリ62から
パラメータ時系列生成部52に入力される。次いで、パ
ラメータ時系列生成部52は、抽出された特徴パラメー
タに基づいて、時間正規化、及びメモリ63内の韻律制
御規則を用いたパラメータ時系列の生成処理などの信号
処理を実行することにより、音声合成に必要な、例えば
16次のケプストラム係数などのパラメータ時系列を生
成して音声合成部53に出力する。
2. Description of the Related Art FIG. 2 is a block diagram of a conventional speech synthesizer. As shown in FIG. 2, for example, LPC analysis is performed on the signal waveform data of the learning speaker to extract feature parameters including 16th-order cepstrum coefficients. The extracted feature parameters are stored in a feature parameter memory 62 which is a buffer memory, and then input from the memory 62 to the parameter time series generation unit 52. Next, the parameter time series generation unit 52 performs signal processing such as time normalization and generation processing of a parameter time series using the prosody control rules in the memory 63 based on the extracted feature parameters, A parameter time series such as a 16th-order cepstrum coefficient required for speech synthesis is generated and output to the speech synthesis unit 53.

【0003】音声合成部53は公知の音声合成装置であ
って、有声音を発生するためのパルス発生器53aと、
無声音を発生するための雑音発生器53bと、フィルタ
係数を変更可能なフィルタ53cとを備え、入力される
パラメータ時系列に基づいて、パルス発生器53aによ
って発生される有声音と、雑音発生器53bによって発
生される無声音とを切り換え、かつその振幅を制御し、
さらには、フィルタ53cの伝達関数に対応するフィル
タ係数を変化することにより、音声合成された音声信号
を発生して、スピーカ54からその音声を出力させる。
The speech synthesizer 53 is a known speech synthesizer, and includes a pulse generator 53a for generating a voiced sound,
A noise generator 53b for generating an unvoiced sound, and a filter 53c capable of changing a filter coefficient, wherein a voiced sound generated by the pulse generator 53a and a noise generator 53b Switch to the unvoiced sound generated by the
Further, by changing a filter coefficient corresponding to a transfer function of the filter 53c, a voice-synthesized voice signal is generated, and the voice is output from the speaker 54.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来例
の音声合成装置では、韻律制御規則を用いた信号処理を
必要とするために、また、処理された特徴パラメータに
基づいて音声合成しているために、声質がきわめて悪い
という問題点があった。
However, in the conventional speech synthesizer, signal processing using prosody control rules is required, and speech synthesis is performed based on the processed characteristic parameters. However, there was a problem that the voice quality was extremely poor.

【0005】本発明の目的は以上の問題点を解決し、韻
律制御規則を使わず、信号処理を実行することなく、任
意の音素列を発声音声に変換することができ、しかも従
来例に比較して自然に近い声質を得ることができる音声
合成装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems and to convert an arbitrary phoneme sequence into a uttered voice without using prosody control rules and without performing signal processing. To provide a speech synthesizer capable of obtaining a voice quality close to nature.

【0006】[0006]

【課題を解決するための手段】本発明に係る請求項1記
載の自然発話音声波形信号接続型音声合成装置は、自然
発話の音声波形信号の音声セグメントを記憶する第1の
記憶手段と、上記第1の記憶手段によって記憶された音
声波形信号の音声セグメントと、上記音声波形信号に対
応する音素列とに基づいて、上記音声波形信号における
音素毎の索引情報と、上記索引情報によって示された音
素毎の第1の音響的特徴パラメータと、上記索引情報に
よって示された音素毎の韻律的特徴パラメータとを抽出
して出力する音声分析手段と、上記音声分析手段から出
力される索引情報と、上記第1の音響的特徴パラメータ
と、上記韻律的特徴パラメータとを記憶する第2の記憶
手段と、上記第2の記憶手段によって記憶された第1の
音響的特徴パラメータと韻律的特徴パラメータとに基づ
いて、同一の音素種類の1つの目標音素とそれ以外の音
素候補との間の第2の音響的特徴パラメータにおける音
響的距離を計算し、上記計算した音響的距離に基づいて
各音素候補に対して上記第2の音響的特徴パラメータ毎
に所定の統計的解析を実行することにより、各音素候補
に対する上記第2の音響的特徴パラメータにおける寄与
度を表わす各目標音素毎の重み係数ベクトルを決定する
重み係数学習手段と、上記重み係数学習手段によって決
定された上記第2の音響的特徴パラメータにおける各目
標音素毎の重み係数ベクトルを記憶する第3の記憶手段
と、上記第3の記憶手段によって記憶された各目標音素
毎の重み係数ベクトルと、上記第2の記憶手段によって
記憶された韻律的特徴パラメータとに基づいて、入力さ
れる自然発話文の音素列に対して、目標音素と音素候補
との間の近似コストを表わす目標コストと、隣接して連
結されるべき2つの音素候補間の近似コストを表わす連
結コストとを含むコストが最小となる、音素候補の組み
合わせを検索して、検索した音素候補の組み合わせの索
引情報を出力する音声単位選択手段と、上記音声単位選
択手段から出力される索引情報に基づいて、当該索引情
報に対応する音声波形信号の音声セグメントを上記第1
の記憶手段から逐次読み出して連結して出力することに
より、上記入力された音素列に対応する音声を合成して
出力する音声合成手段とを備えたことを特徴とする。
According to the present invention, a spontaneously uttered speech waveform signal connection type speech synthesizing apparatus according to a first aspect of the present invention comprises: first storage means for storing a speech segment of a naturally uttered speech waveform signal; Based on the audio segment of the audio waveform signal stored by the first storage means and the phoneme string corresponding to the audio waveform signal, index information for each phoneme in the audio waveform signal and indicated by the index information Voice analysis means for extracting and outputting a first acoustic feature parameter for each phoneme and a prosodic feature parameter for each phoneme indicated by the index information; index information output from the voice analysis means; Second storage means for storing the first acoustic feature parameter and the prosodic feature parameter; and first acoustic feature parameter stored by the second storage means. The acoustic distance in the second acoustic feature parameter between one target phoneme of the same phoneme type and the other phoneme candidates is calculated based on the data and the prosodic feature parameter. By performing a predetermined statistical analysis on each phoneme candidate for each of the second acoustic feature parameters based on the distance, each target representing the degree of contribution of the second acoustic feature parameter to each phoneme candidate is obtained. Weight coefficient learning means for determining a weight coefficient vector for each phoneme; third storage means for storing a weight coefficient vector for each target phoneme in the second acoustic feature parameter determined by the weight coefficient learning means; The weight coefficient vector for each target phoneme stored by the third storage means, and the prosodic feature parameter stored by the second storage means. Based on the phoneme sequence of the input natural utterance sentence, a target cost representing an approximate cost between a target phoneme and a phoneme candidate and an approximate cost between two phoneme candidates to be connected adjacently are represented. A speech unit selection unit that searches for a combination of phoneme candidates that minimizes the cost including the connection cost, and outputs index information of the retrieved combination of phoneme candidates, and index information output from the speech unit selection unit. The audio segment of the audio waveform signal corresponding to the index information is
And a speech synthesizing means for synthesizing and outputting a speech corresponding to the input phoneme sequence by sequentially reading out from the storage means and outputting the combined speech.

【0007】また、請求項2記載の音声合成装置は、請
求項1記載の音声合成装置において、上記音声分析手段
は、入力される音声波形信号に基づいて上記音声波形信
号に対応する音素列を予測する音素予測手段を備えたこ
とを特徴とする。
According to a second aspect of the present invention, in the voice synthesizing apparatus according to the first aspect, the voice analyzing means generates a phoneme sequence corresponding to the voice waveform signal based on an input voice waveform signal. It is characterized by comprising a phoneme predicting means for predicting.

【0008】さらに、請求項3記載の音声合成装置は、
請求項1又は2記載の音声合成装置において、上記重み
係数学習手段は、上記計算した音響的距離に基づいて、
最良の上位複数N1個の音素候補を抽出した後、上記第
2の音響的特徴パラメータの各々に対して線形回帰分析
することにより、各音素候補に関する上記第2の音響的
特徴パラメータにおける寄与度を表わす各目標音素毎の
重み係数ベクトルを決定することを特徴とする。
[0008] Furthermore, the voice synthesizing device according to claim 3 is
3. The speech synthesizer according to claim 1, wherein the weighting factor learning unit is configured to calculate the weighting factor based on the calculated acoustic distance.
After extracting the best plurality of N1 phoneme candidates, a linear regression analysis is performed on each of the second acoustic feature parameters, so that the degree of contribution of each of the phoneme candidates in the second acoustic feature parameter is determined. It is characterized in that a weight coefficient vector for each target phoneme to be represented is determined.

【0009】さらに、請求項4記載の音声合成装置は、
請求項1又は2記載の音声合成装置において、上記重み
係数学習手段は、上記計算した音響的距離に基づいて、
最良の上位複数N1個の音素候補を抽出した後、上記第
2の音響的特徴パラメータの各々に対して所定のニュー
ラルネットワークを用いた統計的解析を実行することに
より、各音素候補に関する上記第2の音響的特徴パラメ
ータにおける寄与度を表わす各目標音素毎の重み係数ベ
クトルを決定することを特徴とする。
Further, the speech synthesizing apparatus according to claim 4 is
3. The speech synthesizer according to claim 1, wherein the weighting factor learning unit is configured to calculate the weighting factor based on the calculated acoustic distance.
After extracting the best top N1 phoneme candidates, a statistical analysis using a predetermined neural network is performed on each of the second acoustic feature parameters, thereby obtaining the second phoneme candidates for each phoneme candidate. And determining a weighting coefficient vector for each target phoneme, which represents the degree of contribution in the acoustic feature parameter.

【0010】また、請求項5記載の音声合成装置は、請
求項1乃至4のうちの1つに記載の音声合成装置におい
て、上記音声単位選択手段は、上記目標コストと上記連
結コストとを含むコストが最良の上位複数N2個の音素
候補を抽出した後、コストが最小となる音素候補の組み
合わせを検索することを特徴とする。
According to a fifth aspect of the present invention, in the voice synthesizing apparatus according to any one of the first to fourth aspects, the voice unit selecting means includes the target cost and the connection cost. After extracting the top N2 phoneme candidates with the best cost, a combination of phoneme candidates with the lowest cost is searched.

【0011】さらに、請求項6記載の音声合成装置は、
請求項1乃至5のうちの1つに記載の音声合成装置にお
いて、上記第1の音響的特徴パラメータは、ケプストラ
ム係数と、デルタケプストラム係数と、音素ラベルとを
含むことを特徴とする。さらに、請求項7記載の音声合
成装置は、請求項1乃至5のうちの1つに記載の音声合
成装置において、上記第1の音響的特徴パラメータは、
フォルマントパラメータと、声道音源パラメータとを含
むことを特徴とする。
Further, the speech synthesizer according to claim 6 is
The speech synthesizer according to any one of claims 1 to 5, wherein the first acoustic feature parameter includes a cepstrum coefficient, a delta cepstrum coefficient, and a phoneme label. Further, the speech synthesizer according to claim 7 is the speech synthesizer according to one of claims 1 to 5, wherein the first acoustic feature parameter is:
It is characterized by including a formant parameter and a vocal tract sound source parameter.

【0012】また、請求項8記載の音声合成装置は、請
求項1乃至7のうちの1つに記載の音声合成装置におい
て、上記韻律的特徴パラメータは、音素時間長と、音声
基本周波数F0と、パワーとを含むことを特徴とする。
According to an eighth aspect of the present invention, there is provided the speech synthesizer according to any one of the first to seventh aspects, wherein the prosodic feature parameters include a phoneme time length and a speech fundamental frequency F 0. And power.

【0013】さらに、請求項9記載の音声合成装置は、
請求項1乃至8のうちの1つに記載の音声合成装置にお
いて、上記第2の音響的特徴パラメータは、ケプストラ
ム距離を含むことを特徴とする。
Further, the speech synthesizing device according to claim 9 is
The speech synthesizer according to any one of claims 1 to 8, wherein the second acoustic feature parameter includes a cepstrum distance.

【0014】[0014]

【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。図1は、本発明に係る一
実施形態である自然発話音声波形信号接続型音声合成装
置のブロック図である。例えば図2に示した従来例の音
声合成装置では入力された発声音声に対応するテキスト
抽出から音声波形信号の生成までが一連の処理として行
なわれるのに対して、本実施形態では、大きく分類すれ
ば、次の4つの処理部に分類される。 (1)音声波形信号データベースメモリ21内の音声波
形信号データベースの音声波形信号データの音声分析、
具体的には、音素記号系列の生成、音素のアラインメン
ト、特徴パラメータの抽出を含む処理を実行する音声分
析部10。 (2)最適重み係数を学習しながら決定する重み係数学
習部11。 (3)入力される音素列に基づいて音声単位の選択を実
行して入力音素列に対応する音声波形信号データの索引
情報を出力する音声単位選択部12。 (4)音声単位選択部12から出力される索引情報に基
づいて音声波形信号データベースメモリ21内の音声波
形信号データベースをランダムにアクセスして最適とさ
れた各音素候補の音声波形信号を再生してスピーカ14
に出力する音声合成部13。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a spontaneously uttered speech waveform signal connection type speech synthesis apparatus according to an embodiment of the present invention. For example, in the conventional speech synthesizer shown in FIG. 2, from the extraction of the text corresponding to the input uttered speech to the generation of the speech waveform signal is performed as a series of processes, in the present embodiment, the speech is largely classified. For example, it is classified into the following four processing units. (1) voice analysis of voice waveform signal data in the voice waveform signal database in the voice waveform signal database memory 21;
Specifically, the speech analysis unit 10 performs processing including generation of a phoneme symbol sequence, alignment of phonemes, and extraction of feature parameters. (2) A weighting factor learning unit 11 that determines while learning the optimal weighting factor. (3) A voice unit selection unit 12 that selects a voice unit based on an input phoneme sequence and outputs index information of voice waveform signal data corresponding to the input phoneme sequence. (4) Based on the index information output from the voice unit selection unit 12, the voice waveform signal database in the voice waveform signal database memory 21 is randomly accessed to reproduce the voice waveform signal of each optimal phoneme candidate. Speaker 14
A voice synthesizer 13 for outputting to

【0015】具体的には、音声分析部10は、入力され
る自然発話の音声波形信号の音声セグメントと、上記音
声波形信号に対応する音素列とに基づいて、上記音声波
形信号における音素毎の索引情報と、上記索引情報によ
って示された音素毎の第1の音響的特徴パラメータと、
上記索引情報によって示された音素毎の第1の韻律的特
徴パラメータとを抽出して出力する。特徴パラメータメ
モリ30は、上記音声分析部10から出力される索引情
報と、上記第1の音響的特徴パラメータと、上記第1の
韻律的特徴パラメータとを記憶する。次いで、重み係数
学習部11は、特徴パラメータメモリ30に記憶された
第1の音響的特徴パラメータと韻律的特徴パラメータと
に基づいて、同一の音素種類の1つの目標音素とそれ以
外の音素候補との間の第2の音響的特徴パラメータにお
ける音響的距離を計算し、上記計算した音響的距離に基
づいて各音素候補に対して上記第2の音響的特徴パラメ
ータ毎に所定の統計的解析を実行することにより、各音
素候補に対する上記第2の音響的特徴パラメータにおけ
る寄与度を表わす各目標音素毎の重み係数ベクトルを決
定する。重み係数ベクトルメモリ31は、重み係数学習
部11によって決定された上記第2の音響的特徴パラメ
ータにおける各目標音素毎の重み係数ベクトルと、予め
与えられた、各音素候補に関する第2の韻律的特徴パラ
メータにおける寄与度を表わす各目標音素毎の重み係数
ベクトルとを記憶する。さらに、音声単位選択部12
は、重み係数ベクトルメモリ31に記憶された各目標音
素毎の重み係数ベクトルと、特徴パラメータメモリ30
に記憶された第1の韻律的特徴パラメータとに基づい
て、入力される自然発話文の音素列に対して、目標音素
と音素候補との間の近似コストを表わす目標コストと、
隣接して連結されるべき2つの音素候補間の近似コスト
を表わす連結コストとを含むコストが最小となる、音素
候補の組み合わせを検索して、検索した音素候補の組み
合わせの索引情報を出力する。そして、音声合成部13
は、音声単位選択部12から出力される索引情報に基づ
いて、当該索引情報に対応する音声波形信号の音声セグ
メントを音声波形信号データベースメモリ21から逐次
読み出して連結してスピーカ14に出力することによ
り、音声合成装置は、上記入力された音素列に対応する
音声を合成して出力する。
[0015] Specifically, the speech analysis unit 10 determines, for each phoneme in the speech waveform signal, the speech segment of the speech waveform signal of the natural utterance to be inputted and the phoneme sequence corresponding to the speech waveform signal. Index information, a first acoustic feature parameter for each phoneme indicated by the index information,
A first prosodic feature parameter for each phoneme indicated by the index information is extracted and output. The feature parameter memory 30 stores the index information output from the speech analysis unit 10, the first acoustic feature parameter, and the first prosodic feature parameter. Next, based on the first acoustic feature parameter and the prosodic feature parameter stored in the feature parameter memory 30, the weighting factor learning unit 11 generates one target phoneme of the same phoneme type and other phoneme candidates. Of the second acoustic feature parameter between the two, and performs a predetermined statistical analysis on each phoneme candidate for each of the second acoustic feature parameters based on the calculated acoustic distance. By doing so, a weight coefficient vector for each target phoneme, which indicates the degree of contribution of the second acoustic feature parameter to each phoneme candidate, is determined. The weight coefficient vector memory 31 stores a weight coefficient vector for each target phoneme in the second acoustic feature parameter determined by the weight coefficient learning unit 11 and a second given prosody characteristic for each phoneme candidate. A weight coefficient vector for each target phoneme, which represents the degree of contribution in the parameter, is stored. Further, the voice unit selection unit 12
Is the weight coefficient vector for each target phoneme stored in the weight coefficient vector memory 31 and the feature parameter memory 30
A target cost representing an approximate cost between a target phoneme and a phoneme candidate for a phoneme sequence of a natural utterance sentence based on the first prosodic feature parameter stored in
A combination of phoneme candidates that minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates to be connected adjacently is searched, and index information of the searched combination of phoneme candidates is output. Then, the voice synthesizer 13
Is based on the index information output from the audio unit selecting unit 12, by sequentially reading out the audio segments of the audio waveform signal corresponding to the index information from the audio waveform signal database memory 21, connecting them, and outputting them to the speaker 14. The speech synthesizer synthesizes and outputs speech corresponding to the input phoneme string.

【0016】ここで、音声分析部10の処理は新しい音
声波形信号データベースに対しては必ず一度行なう必要
があり、重み係数学習部11の処理は、一般に一度の処
理でよく、重み係数学習部11によって求めた最適重み
係数は異なる音声合成条件に対しても再利用が可能であ
る。さらに、音声単位選択部12と音声合成部13の処
理は、音声合成すべき入力音素列が変われば、その都度
実行される。
Here, the processing of the voice analysis unit 10 must be performed once for a new voice waveform signal database, and the processing of the weight coefficient learning unit 11 generally only needs to be performed once. The optimal weight coefficient obtained by the above can be reused even under different speech synthesis conditions. Further, the processing of the voice unit selection unit 12 and the voice synthesis unit 13 is executed each time the input phoneme sequence to be voice-synthesized changes.

【0017】本実施形態の音声合成装置は与えられたレ
ベルの入力に基づいて必要とする、すべての特徴パラメ
ータを予測し、所望の音声の特徴に最も近いサンプル
(すなわち、音素候補の音声波形信号)をメモリ21内
の音声波形信号データベースの中から選び出す。最低
限、音素ラベルの系列が与えられれば処理は可能である
が、音声基本周波数F0や音素時間長が予め与えられて
いれば、さらに高品質の合成音声が得られる。なお、入
力として単語の情報だけが与えられた場合には、例えば
音素隠れマルコフモデル(以下、隠れマルコフモデルを
HMMという。)などの辞書や規則に基づいて音素系列
を予測する必要がある。また、韻律特徴が与えられなか
った場合には音声波形信号データベース中のいろいろな
環境における音素の既知の特徴を基に標準的な韻律を生
成する。
The speech synthesizer according to the present embodiment predicts all necessary feature parameters based on the input of a given level, and obtains a sample closest to the desired speech feature (ie, a speech waveform signal of a phoneme candidate). ) Is selected from the audio waveform signal database in the memory 21. At a minimum, processing is possible if a sequence of phoneme labels is given, but if the basic speech frequency F 0 and phoneme time length are given in advance, higher quality synthesized speech can be obtained. When only word information is given as an input, it is necessary to predict a phoneme sequence based on a dictionary or a rule such as a phoneme hidden Markov model (hereinafter, a hidden Markov model is referred to as an HMM). If no prosodic feature is given, a standard prosody is generated based on known features of phonemes in various environments in the speech waveform signal database.

【0018】本実施形態では、音声波形信号データベー
スメモリ21内の録音内容を少なくとも正書法で記述さ
れたテキストデータが例えば、テキストデータベースメ
モリ22内のテキストデータベースのように存在するな
らば、あらゆる音声波形信号データベースが合成用の音
声波形信号データとして利用可能であるが、出力音声の
品質は録音状態、音声波形信号データベース中の音素の
バランス等に大きく影響を受け、メモリ21内の音声波
形信号データベースが豊富な内容であれば、より多様な
音声が合成でき、反対に音声波形信号データベースが貧
弱であれば、合成音声は不連続感が強く、ブツブツした
ものになる。
In the present embodiment, if at least text data in which the recorded content in the voice waveform signal database memory 21 is written in the orthographic format exists as in the text database in the text database memory 22, any voice waveform signal can be used. Although the database can be used as speech waveform signal data for synthesis, the quality of output speech is greatly affected by the recording state, the balance of phonemes in the speech waveform signal database, and the like, and the speech waveform signal database in the memory 21 is rich. If the content is appropriate, more diverse voices can be synthesized. Conversely, if the voice waveform signal database is poor, the synthesized voice will have a strong sense of discontinuity and will be jerky.

【0019】次いで、自然な発話音声に対する音素ラベ
ル付けについて説明する。音声単位の選択の善し悪しは
音声波形信号データベース中の音素のラベル付けと検索
の方法に依存する。ここで、好ましい実施例において
は、音声単位は、音素である。まず、録音された音声に
付与された正書法の発話内容を音素系列に変換し、さら
に音声波形信号に割り当てる。韻律的特徴パラメータの
抽出はこれに基づいて行なわれる。音声分析部10の入
力はメモリ22内の音素表記を伴ったメモリ21内の音
声波形信号データであり、出力は特徴ベクトル又は特徴
パラメータである。この特徴ベクトルは音声波形信号デ
ータベース中で音声サンプルを表す基本単位となり、最
適な音声単位の選択に用いられる。
Next, phoneme labeling for natural uttered speech will be described. The choice of speech unit depends on the method of labeling and searching phonemes in the speech waveform signal database. Here, in the preferred embodiment, the speech unit is a phoneme. First, the utterance content of the orthography given to the recorded voice is converted into a phoneme sequence, and further assigned to a voice waveform signal. Extraction of the prosodic feature parameters is performed based on this. The input of the voice analysis unit 10 is voice waveform signal data in the memory 21 accompanied by the phoneme notation in the memory 22, and the output is a feature vector or a feature parameter. This feature vector becomes a basic unit representing a voice sample in the voice waveform signal database, and is used for selecting an optimum voice unit.

【0020】音声分析部10の処理における第1段階に
おいては、正書法で書かれた発話内容が実際の音声波形
信号データでどのように発音されているかを記述するた
めの正書法テキストから音素記号への変換である。次い
で、第2段階においては、韻律的及び音響的特徴を計測
するために各音素の開始及び終了時点を決めるために、
各音素記号を音声波形信号に対応付ける処理である(以
下、当該処理を、音素のアラインメント処理とい
う。)。さらに、第3段階においては、各音素の特徴ベ
クトル又は特徴パラメータを生成することである。この
特徴ベクトルには、必須項目として音素ラベル、メモリ
30内の音声波形信号データベース中の各ファイルにお
ける当該音素の開始時刻(開始位置)、音声基本周波数
0、音素時間長、パワーの情報が記憶され、さらに、
特徴パラメータのオプションとしてストレス、アクセン
ト型、韻律境界に対する位置、スペクトル傾斜等の情報
が記憶される。以上の特徴パラメータを整理すると、例
えば、次の表1のようになる。
In the first stage of the processing of the speech analysis unit 10, the orthographic text to the phoneme symbols for describing how the utterance contents written in the orthography are pronounced in the actual speech waveform signal data. Conversion. Then, in a second stage, to determine the start and end times of each phoneme to measure prosodic and acoustic features,
This is a process of associating each phoneme symbol with a speech waveform signal (hereinafter, this process is referred to as a phoneme alignment process). Further, the third step is to generate a feature vector or feature parameter of each phoneme. The feature vector stores, as essential items, a phoneme label, start time (start position) of the phoneme in each file in the speech waveform signal database in the memory 30, speech fundamental frequency F 0 , phoneme time length, and power information. And
Information such as stress, accent type, position with respect to the prosodic boundary, and spectrum inclination are stored as options of the feature parameter. The above characteristic parameters are arranged as shown in Table 1 below, for example.

【0021】[0021]

【表1】 ─────────────────────────────────── 索引情報: 索引番号(1つのファイルに対して付与) メモリ30内の音声波形信号データベース中の各ファイルにおける 当該音素の開始時刻(開始位置) ─────────────────────────────────── 第1の音響的特徴パラメータ: 12次メルケプストラム係数 12次Δメルケプストラム係数 音素ラベル 弁別素性: 母音性(vocalic)(+)/非母音性(non-vocalic)(−) 子音性(consonantal)(+)/非子音性(non-consonantal)(−) 中断性(interrupted)(+)/連続性(continuant)(−) 抑止性(checked)(+)/非抑止性(unchecked)(−) 粗擦性(strident)(+)/円熟性(mellow)(−) 有声(voiced)(+)/無声(unvoiced)(−) 集約性(compact)(+)/拡散性(diffuse)(−) 低音調性(grave)(+)/高音調性(acute)(−) 変音調性(flat)(+)/常音調性(plain)(−) 嬰音調性(sharp)(+)/常音調性(plain)(−) 緊張性(tense)(+)/弛緩性(lax)(−) 鼻音性(nasal)(+)/口音性(oral)(−) ─────────────────────────────────── 第1の韻律的特徴パラメータ: 音素時間長 音声基本周波数F0 パワー ───────────────────────────────────[Table 1] 情報 Index information: Index number (for one file Start time (start position) of the phoneme in each file in the audio waveform signal database in the memory 30 ───────────────────────── ────────── First acoustic feature parameter: 12th-order mel-cepstral coefficient 12th-order メ ル -mel-cepstral coefficient Phoneme label Discrimination feature: vowel (vocalic) (+) / non-vocal (non-vocalic) ) (−) Consonant (+) / non-consonantal (−) interrupted (+) / continuity (continuant) (−) deterrent (checked) (+) / Unchecked (-) Rough (strident) (+) / Maturity (mellow) (-) Voiced (+) / Unvoiced (unvo iced) (-) Intensity (compact) (+) / Diffuse (-) Low tone (grave) (+) / High tone (acute) (-) Inflection (flat) (+) / Normal tone (plain) (-) sharp tone (sharp) (+) / normal tone (plain) (-) tension (tense) (+) / relaxation (lax) (-) nasal tone (nasal) ) (+) / Oral (oral) (-) ─────────────────────────────────── 1 Prosodic feature parameters of: phoneme time length voice fundamental frequency F 0 power ───────────────────────────────────

【0022】とって代わって、第1の音響的特徴パラメ
ータは、好ましくは、フォルマントパラメータと、声道
音源パラメータであってもよい。上記索引情報内の開始
時刻(開始位置)、第1の音響的特徴パラメータ及び第
1の韻律的特徴パラメータは、各音素毎に特徴パラメー
タメモリ30に記憶される。ここで、音素ラベルに付与
される、例えば12個の弁別素性の特徴パラメータは各
項目別に(+)又は(−)のパラメータ値が与えられ
る。さらに、音声分析部10の出力結果である特徴パラ
メータの一例を表2に示す。ここで、索引番号は、音声
波形信号データベースメモリ21において、例えば複数
の文からなる1つのパラグラフ又は1つの文のファイル
毎に、索引番号が付与され、そして、1つの索引番号が
付与されたファイル中の任意の音素の位置を示すために
当該ファイル内の開始時刻から計時された当該音素の開
始時刻及びその当該音素の音素時間長とを付与すること
により、当該音素の音声波形信号の音声セグメントを特
定することができる。
Alternatively, the first acoustic feature parameters may preferably be formant parameters and vocal tract sound source parameters. The start time (start position), the first acoustic feature parameter, and the first prosodic feature parameter in the index information are stored in the feature parameter memory 30 for each phoneme. Here, the parameter value of (+) or (-) is given to each of the feature parameters of, for example, 12 discrimination features added to the phoneme label for each item. Further, Table 2 shows an example of the characteristic parameter which is the output result of the voice analysis unit 10. Here, in the voice waveform signal database memory 21, for example, an index number is assigned to each paragraph of a plurality of sentences or a file of one sentence, and a file to which one index number is assigned is assigned. By adding the start time of the phoneme measured from the start time in the file to indicate the position of an arbitrary phoneme in the file and the phoneme time length of the phoneme, the speech segment of the speech waveform signal of the phoneme is added. Can be specified.

【0023】[0023]

【表2】音声分析部10の出力結果である特徴パラメー
タの一例 索引番号X0005 ────────────────────── 音素 時間長 基本周波数 パワー ……… ────────────────────── # 120 90 4.0 ……… s 175 98 4.7 ……… ei 95 102 6.5 ……… dh 30 114 4.9 ……… ih 75 143 6.9 ……… s 150 140 5.7 ……… p 87 137 5.1 ……… l 34 107 4.9 ……… ii 150 98 6.3 ……… z 140 87 5.8 ……… # 253 87 4.0 ……… ───────────────────────
[Table 2] An example of a feature parameter which is an output result of the voice analysis unit 10 Index number X0005 {phoneme time length fundamental frequency power ...} ... ────────────────────── # 120 90 4.0 ... s 175 98 4.7 ... ei 95 102 6.5 ... dh 30 114 4.9 ... ih 75 143 6.9 ... s 150 140 5.7 ... p 87 137 5.1 ... l 34 107 4.9 ... ii 150 98 6. 3 ... z 140 87 5.8 ... # 253 87 4.0 ...…

【0024】表2において、#はポーズを示す。音声単
位を選択する場合に、音響的及び韻律的な各特徴パラメ
ータがそれぞれの音素でどれだけの寄与をするかを予め
調べておくことが必要であり、第4段階では、このため
に音声波形信号データベース中のすべての音声サンプル
を用いて各特徴パラメータの重み係数を決定する。
In Table 2, # indicates a pause. When selecting a speech unit, it is necessary to check in advance how much each acoustic and prosodic feature parameter contributes to each phoneme. In the fourth step, the speech waveform A weighting factor for each feature parameter is determined using all speech samples in the signal database.

【0025】音声分析部10における音素記号系列の生
成処理においては、上述した通り、本実施形態では、少
なくとも録音内容が正書法で記述されたものがあれば、
あらゆる音声波形信号データベースが合成用の音声波形
信号データとして利用可能である。入力として単語の情
報だけが与えられた場合には辞書や規則に基づいて音素
系列を予測する必要がある。また、音声分析部10にお
ける音素のアラインメント処理においては、読み上げ音
声の場合、各単語がそれぞれの標準の発音に近く発音さ
れることが多く、躊躇したり、言い淀んだりすることも
まれである。このような音声波形信号データの場合には
簡単な辞書検索によって音素ラベリングが正しく行なわ
れ、音素アラインメント用の音素HMMの音素モデルの
学習が可能となる。
In the process of generating a phoneme symbol sequence in the speech analysis unit 10, as described above, in the present embodiment, if at least one of the recorded contents is described in orthography,
Any audio waveform signal database can be used as audio waveform signal data for synthesis. If only word information is given as input, it is necessary to predict phoneme sequences based on dictionaries and rules. Further, in the phoneme alignment processing in the speech analysis unit 10, in the case of a read-aloud speech, each word is often pronounced close to its standard pronunciation, and it is rare to hesitate or stutter. In the case of such speech waveform signal data, phoneme labeling is correctly performed by a simple dictionary search, and learning of a phoneme model of a phoneme HMM for phoneme alignment becomes possible.

【0026】音素アラインメント用の音素モデルの学習
では完全な音声認識の場合と異なり、学習用の音声波形
信号データとテスト用の音声波形信号データとを完全に
分離する必要はなく、すべての音声波形信号データを用
いて学習を行なうことができる。まず、別の話者用のモ
デルを初期モデルとし、すべての単語について標準発音
か限られた発音変化のみを許し、適切なセグメンテーシ
ョンが行なわれるように、全音声波形信号データを用い
てビタビの学習アルゴリズムを用いて音素のアライメン
トを行ない、特徴パラメータの再推定を行なう。単語間
のポーズは単語間ポーズ生成規則によって処理するが、
単語内にポーズがあってアライメントが失敗した場合に
は人手により修正する必要がある。
In training a phoneme model for phoneme alignment, unlike perfect speech recognition, it is not necessary to completely separate speech waveform signal data for training and speech waveform signal data for testing. Learning can be performed using the signal data. First, a model for another speaker is used as an initial model. Viterbi learning is performed using all voice waveform signal data so that only standard pronunciation or limited pronunciation changes are allowed for all words, and appropriate segmentation is performed. The phonemes are aligned using an algorithm, and the feature parameters are re-estimated. Pauses between words are processed according to the rules for generating pauses between words.
If alignment fails due to a pause in the word, it must be corrected manually.

【0027】どういう音素ラベルを音素表記として用い
るかは選択が必要である。もし良く学習されたHMMモ
デルが利用できるような音素セットが存在するなら、そ
れを用いることが有利である。反対に、音声合成装置が
完全な辞書を持っているなら、音声波形信号データベー
スのラベルを完全に辞書と照合する方法も有効である。
我々は、重み係数の学習に対して選択の余地があるか
ら、後で音声合成装置が予測したものと等価なものを音
声波形信号データベースの中から照合できるかどうかを
最も重要な規準とすれば良い。発音の微妙な違いはその
発音の韻律的環境によって自動的に把握されるため、特
に手作業で音素のラベル付けを行なう必要はない。
It is necessary to select what phoneme label is to be used as phoneme notation. If a phoneme set exists for which a well-learned HMM model can be used, it is advantageous to use it. Conversely, if the speech synthesizer has a complete dictionary, a method of completely collating the label of the speech waveform signal database with the dictionary is also effective.
We have a choice for learning the weighting factor, so if the most important criterion is whether the speech synthesizer can match what is predicted by the speech synthesizer later in the speech waveform signal database. good. Subtle differences in pronunciation are automatically identified by the prosodic environment of the pronunciation, so there is no need to manually label phonemes.

【0028】前処理の次の段階として、個々の音素の調
音的な特徴を記述するための韻律特徴パラメータの抽出
を行なう。従来の音声学では、調音位置や調音様式とい
った素性で言語音を分類した。これに対して、ファース
(Firth)学派のような韻律を考慮した音声学で
は、韻律的文脈の違いから生ずる細かな音質の違いをと
らえるために、明瞭に調音されている箇所や強調が置か
れている箇所を区別する。これらの違いを記述する方法
はいろいろなものがあるが、ここでは以下の2つの方法
を用いる。まず低次のレベルでは、1次元の特徴を求め
るために、パワー、音素時間長の伸び及び音声基本周波
数F0を、ある音素について平均した値を用いる。一
方、高次のレベルでは、韻律特徴における上記の違いを
考慮した韻律境界や強調箇所をマークする方法を用い
る。これらの2種類の特徴は相互に密接に関係している
ため一方から他方を予測することができるが、両者は共
に各音素の特徴に強い影響を与えている。
As the next stage of the preprocessing, prosodic feature parameters for describing the articulatory features of individual phonemes are extracted. In conventional phonetics, language sounds are classified based on features such as articulation position and articulation style. On the other hand, phonetics that take into account the prosody, such as the First School, place clear articulations and emphasis in order to capture small differences in sound quality arising from differences in prosody context. To distinguish where they are. Although there are various methods for describing these differences, the following two methods are used here. First, in the low-order level, in order to obtain a one-dimensional feature, power, stretch and voice fundamental frequency F 0 of the phoneme duration, a value obtained by averaging for a phoneme. On the other hand, at a higher level, a method of marking prosody boundaries and emphasis points in consideration of the above differences in prosody features is used. Since these two types of features are closely related to each other, one can predict the other, but both have a strong influence on the characteristics of each phoneme.

【0029】音声波形信号データベースを記述するため
の音素セットの規定法に自由度があるのと同様に、韻律
的特徴パラメータの記述方法についても自由度がある
が、これらの選び方は音声合成装置の予測能力に依存す
る。もし音声波形信号データベースが予めラベリングさ
れているなら、音声合成装置の仕事は内部表現から音声
波形信号データベース中の実音声をいかに行なうかを適
切に学習することである。これに対して、もし音声波形
信号データベースが音素のラベル付けがなされていない
なら、どのような特徴パラメータを使えば音声合成装置
が最も適切な音声単位を予測できるかから検討すること
が必要となる。この検討及び最適な特徴パラメータの重
みの決定学習は、各特徴パラメータに対する重み係数を
学習しながら決定する重み係数学習部11において実行
される。
Just as there is a degree of freedom in a method of describing a prosodic feature parameter as well as in a method of defining a phoneme set for describing a speech waveform signal database, the method of selecting these is determined by a speech synthesizer. Depends on predictive ability. If the speech waveform signal database is pre-labeled, the task of the speech synthesizer is to properly learn from the internal representation how to perform the actual speech in the speech waveform signal database. On the other hand, if the speech waveform signal database is not labeled with phonemes, it is necessary to consider from what feature parameters the speech synthesizer can predict the most appropriate speech unit. . This study and the learning of the determination of the optimal feature parameter weight are executed by the weight coefficient learning unit 11 which determines the weight while learning the weight coefficient for each feature parameter.

【0030】次いで、重み係数学習部11によって実行
される重み係数学習処理について述べる。与えられた目
標音声の音響的及び韻律的な環境に最適なサンプルを音
声波形信号データベースから選択するために、まずどの
特徴がどれだけ寄与しているかを音素的及び韻律的な環
境の違いによって決める必要がある。これは音素の性質
によって重要な特徴パラメータの種類が変化するため
で、例えば、音声基本周波数F0は有声音の選択には極
めて有効であるが、無声音の選択にはほとんど影響がな
い。また、摩擦音の音響的特徴は前後の音素の種類によ
って影響が変わる。最適な音素を選択するためにそれぞ
れの特徴にどれだけの重みを置くかを最適重み決定処
理、すなわち重み係数学習処理で自動的に決定する。
Next, the weight coefficient learning processing executed by the weight coefficient learning section 11 will be described. In order to select the optimal sample for the acoustic and prosodic environment of a given target speech from the speech waveform signal database, first determine which features and how much are contributed by the difference between phonemic and prosodic environments. There is a need. This is because the types of important feature parameters change depending on the characteristics of phonemes. For example, the fundamental voice frequency F 0 is extremely effective for selecting voiced sounds, but has little effect on selecting unvoiced sounds. Further, the acoustic characteristics of the fricative sound vary depending on the types of the phonemes before and after. In order to select an optimal phoneme, how much weight is given to each feature is automatically determined by an optimal weight determination process, that is, a weight coefficient learning process.

【0031】重み係数学習部11によって実行される最
適重み係数の決定処理で、最初に行なわれることは音声
波形信号データベース中で該当するすべての発話サンプ
ルの中から最適なサンプルを選ぶときに使われる特徴を
リストアップすることである。ここでは、調音位置や調
音様式等の音素的特徴と先行音素、当該音素、及び後続
音素の音声基本周波数F0、音素時間長、パワー等の韻
律的特徴パラメータ等を用いる。具体的には、詳細後述
する第2の韻律的特徴パラメータを用いる。次いで、第
2段階では各音素毎に、最適な候補を選ぶ際にどの特徴
パラメータがどれだけ重要かを決定するために、1つの
音声サンプル(又は音素の音声波形信号)に着目し、他
のすべての音素サンプルとの音素時間長の差をも含む音
響的距離を求め、上位N2個の最良の類似音声サンプ
ル、すなわちN2ベストの音素候補の音声波形信号の音
声セグメントを選び出す。
In the process of determining the optimum weighting factor, which is performed by the weighting factor learning unit 11, what is performed first is used when selecting an optimum sample from all corresponding speech samples in the speech waveform signal database. It is to list features. Here, phonemic features such as articulation positions and articulation styles, and prosodic feature parameters such as the preceding phoneme, the phoneme fundamental frequency F 0 , the phoneme time length, and the power of the succeeding phoneme are used. Specifically, a second prosodic feature parameter, which will be described in detail later, is used. Next, in the second stage, for each phoneme, one voice sample (or a voice waveform signal of a phoneme) is focused on, and another feature parameter is determined in order to determine which feature parameter is important in selecting an optimal candidate. The acoustic distance including the difference of the phoneme time length from all the phoneme samples is obtained, and the top N2 best similar speech samples, that is, the speech segment of the speech waveform signal of the N2 best phoneme candidate is selected.

【0032】さらに、第3段階では線形回帰分析を行な
い、それらの類似音声サンプルを用いて種々の音響的及
び韻律的環境におけるそれぞれの特徴パラメータの重要
度を示す重み係数を求める。当該線形回帰分析処理にお
ける韻律的特徴パラメータとして、例えば、次の特徴パ
ラメータ(以下、第2の韻律的特徴パラメータとい
う。)を用いる。 (1)処理すべき当該音素から1つだけ先行する先行音
素(以下、先行音素という。)の第1の韻律的特徴パラ
メータ; (2)処理すべき当該音素から1つだけ後続する後続音
素(以下、後続音素という。)の音素ラベルの第1の韻
律的特徴パラメータ; (3)当該音素の音素時間長; (4)当該音素の音声基本周波数F0; (5)先行音素の音声基本周波数F0;及び、 (6)後続音素の音声基本周波数F0。 ここで、先行音素は、当該音素から1つだけ先行する音
素としているが、これに限らず、複数の音素だけ先行す
る音素を含んでもよい。また、後続音素は、当該音素か
ら1つだけ後続する音素としているが、これに限らず、
複数の音素だけ後続する音素を含んでもよい。さらに、
後続音素の音声基本周波数F0を除外してもよい。以上
の実施形態においては、線形回帰分析を行って、重み係
数を求めているが、本発明はこれに限らず、例えば、所
定のニューラルネットワークを用いた統計的解析などの
種々の統計的解析を用いて、重み係数を求めてもよい。
Further, in the third stage, a linear regression analysis is performed, and a weight coefficient indicating the importance of each feature parameter in various acoustic and prosodic environments is obtained by using the similar speech samples. For example, the following feature parameter (hereinafter, referred to as a second prosodic feature parameter) is used as the prosodic feature parameter in the linear regression analysis processing. (1) a first prosodic feature parameter of a preceding phoneme (hereinafter, referred to as a preceding phoneme) that precedes the phoneme to be processed by one; (2) a succeeding phoneme that follows by only one from the phoneme to be processed ( (Hereinafter, referred to as a succeeding phoneme.) The first prosodic feature parameter of the phoneme label of (3) the phoneme time length of the phoneme; (4) the speech fundamental frequency F 0 of the phoneme; F 0 ; and (6) the fundamental sound frequency F 0 of the succeeding phoneme. Here, the preceding phoneme is a phoneme that precedes the phoneme by one, but is not limited to this, and may include a phoneme that precedes by a plurality of phonemes. Further, the succeeding phoneme is a phoneme following only one phoneme from the phoneme, but is not limited thereto.
A phoneme following only a plurality of phonemes may be included. further,
The voice fundamental frequency F 0 of the following phoneme may be excluded. In the above embodiment, the linear regression analysis is performed to determine the weighting coefficient. However, the present invention is not limited to this. For example, various statistical analyzes such as a statistical analysis using a predetermined neural network are performed. The weighting factor may be used to determine the weighting factor.

【0033】次いで、自然な音声サンプルの選択を行う
音声単位選択部12の処理について説明する。従来例の
音声合成装置では目的の発話に対して音素系列を決定
し、さらに韻律制御のためのF0と音素時間長の目標値
が計算された。これに対して、本実施形態では最適の音
声サンプルを適切に選択するために韻律が計算されるだ
けで、直接韻律を制御することは行なわれない。
Next, a description will be given of the processing of the voice unit selection unit 12 for selecting a natural voice sample. In the conventional speech synthesizer, a phoneme sequence is determined for a target utterance, and a target value of F 0 and a phoneme time length for prosody control is calculated. On the other hand, in the present embodiment, only the prosody is calculated in order to appropriately select the optimum speech sample, but the prosody is not directly controlled.

【0034】図3は、図1の音声単位選択部12の処理
の入力は、目的発話の音素系列と、それぞれの音素毎に
求めた各特徴に対する重みベクトル及び音声波形信号デ
ータベース中の全サンプルを表す特徴ベクトルである。
一方、出力は音声波形信号データベース中での音素サン
プルの位置を表す索引情報であって、音声波形信号の音
声セグメントを接続するためのそれぞれの音声単位(具
体的には音素、場合により複数の音素の系列が連続して
選択され、一つの音声単位となることがある)の開始位
置と音声単位時間長を示したものである。
FIG. 3 shows that the input of the processing of the speech unit selection unit 12 in FIG. 1 is performed by inputting the phoneme sequence of the target utterance, the weight vector for each feature obtained for each phoneme, and all the samples in the speech waveform signal database. This is the feature vector to be represented.
On the other hand, the output is index information indicating the position of the phoneme sample in the speech waveform signal database, and each speech unit for connecting speech segments of the speech waveform signal (specifically, a phoneme, and in some cases, a plurality of phonemes). Are successively selected and may become one voice unit) and the voice unit time length.

【0035】最適な音声単位は目的発話との差の近似コ
ストを表す目標コストと、隣接音声単位間での不連続性
の近似コストを表す連結コストの和を最小化するパスと
して求められる。経路探索には公知のビタビの学習アル
ゴリズムが利用される。目的とする目標音声t1 n=(t
1,…,tn)に対しては、目標コストと連結コストの和
を最小化することで、各特徴が目的音声に近く、しかも
音声単位間の不連続性が少ない音声波形信号データベー
ス中の音声単位の組合せu1 n=(u1,…,un)を選ぶ
ことができ、これらの音声単位の音声波形信号データベ
ース内での位置を示すことにより、任意の発話内容の音
声合成が可能になる。
The optimum speech unit is obtained as a path that minimizes the sum of the target cost representing the approximation cost of the difference from the target utterance and the connection cost representing the approximation cost of discontinuity between adjacent speech units. For the route search, a known Viterbi learning algorithm is used. The target sound t 1 n = (t
1 ,..., T n ), by minimizing the sum of the target cost and the connection cost, each feature is close to the target speech, and the discontinuity between speech units is small in the speech waveform signal database. A combination of voice units u 1 n = (u 1 ,..., U n ) can be selected. By indicating the positions of these voice units in the voice waveform signal database, voice synthesis of any uttered content is possible. become.

【0036】音声単位の選択コストは、図3に示すよう
に、目標コストCt(ui,ti)と連結コストCc(u
i-1,ui)からなり、目標コストCt(ui,ti)は、
音声波形信号データベース中の音声単位(音素候補)u
iと、合成音声として実現したい音声単位(目標音素)
iの間の差の予測値であり、連結コストCc(ui-1
i)は接続単位(接続する2つの音素)ui-1とui
の間の接続で起こる不連続の予測値である。例えば、本
出願人によって研究実用化された従来のATRν−Ta
lk音声合成システムも目標コストと連結コストを最小
化するという点では類似の考え方を取っていたが、韻律
的な特徴パラメータを直接に単位選択に用いるというこ
とは本実施形態の音声合成装置の新しい特徴となってい
る。
As shown in FIG. 3, the selection cost of each voice unit includes a target cost C t (u i , t i ) and a connection cost C c (u
i-1 , u i ), and the target cost C t (u i , t i ) is
Voice unit (phoneme candidate) u in voice waveform signal database
i and the speech unit to be realized as synthesized speech (target phoneme)
is the predicted value of the difference between t i and the consolidation cost C c (u i−1 ,
u i ) is a predicted value of the discontinuity that occurs in the connection between the connection unit (two connected phonemes) u i−1 and u i . For example, the conventional ATRν-Ta researched and put into practical use by the present applicant has
The lk speech synthesis system also took a similar idea in that the target cost and the connection cost were minimized, but using the prosodic feature parameters directly for unit selection is a new feature of the speech synthesis device of this embodiment. It is a feature.

【0037】次いで、コストの計算について述べる。目
標コストは実現したい音声単位の特徴ベクトルと音声波
形信号データベース中から選ばれた候補の音声単位の特
徴ベクトルの各要素の差の重み付き合計であり、各目標
サブコストCt j(ti,ui)の重み係数wt jが与えられ
た場合、目標コストCt(ti,ui)は次式で計算する
ことができる。
Next, the calculation of the cost will be described. Target cost is the weighted sum of the difference between the elements of the feature vectors of the speech units of the feature vector and the candidate selected from among the speech waveform signal database of speech units to be realized, each target sub-cost C t j (t i, u Given the weighting factor w t j of i ), the target cost C t (t i , u i ) can be calculated by the following equation.

【0038】[0038]

【数1】 (Equation 1)

【0039】ここで、特徴ベクトルの各要素の差はp個
の目標サブコストCt j(ti,ui)(ただし、jは1か
らpまでの自然数である。)で表され、特徴ベクトルの
次元数pは、好ましい実施例においては、20から30
の範囲で可変としている。より好ましい実施例において
は、次元数p=30であり、目標サブコストCt(ti
i)及び重み係数wt jにおける変数jの特徴ベクトル
又は特徴パラメータは、上述の第2の韻律的特徴パラメ
ータである。
Here, the difference between the elements of the feature vector is represented by p target sub-costs C t j (t i , u i ) (where j is a natural number from 1 to p). Is between 20 and 30 in a preferred embodiment.
Variable within the range. In a more preferred embodiment, the number of dimensions p = 30 and the target sub-cost C t (t i ,
The feature vector or feature parameter of the variable j in u i ) and the weight coefficient w t j is the above-mentioned second prosodic feature parameter.

【0040】一方、連結コストCc(ui-1,ui)も同
様にq個の連結サブコストCc j(ui-1,ui)(ただ
し、jは1からqまでの自然数である。)の重み付き合
計で表される。連結サブコストは接続する音声単位u
i-1とuiの音響的特徴から決定することができる。好ま
しい実施形態においては、連結サブコストとしては、
(1)音素接続点におけるケプストラム距離、(2)対
数パワーの差の絶対値、(3)音声基本周波数F0の差
の絶対値の3種類を用いており、すなわち、q=3であ
る。これら3種類の音響的特徴パラメータと、先行音素
の音素ラベルと、後続音素の音素ラベルとを、第3の音
響的特徴パラメータという。各連結サブコストCc j(u
i-1,ui)の重みwc jは予め経験的に(又は実験的に)
与えられ、この場合、連結コストCc(ui-1,ui)は
次式で計算することができる。
On the other hand, connection cost C c (u i-1, u i) likewise the q connecting subcost C c j (u i-1 , u i) ( although, j is a natural number from 1 to q ). The concatenated sub-cost is u
i-1 and u i can be determined from the acoustic features of. In a preferred embodiment, the consolidation sub-costs are:
(1) Cepstrum distance at phoneme connection point, (2) Absolute value of difference of logarithmic power, (3) Absolute value of difference of voice fundamental frequency F 0 , that is, q = 3. These three types of acoustic feature parameters, the phoneme label of the preceding phoneme, and the phoneme label of the succeeding phoneme are referred to as third acoustic feature parameters. Each consolidation sub-cost C c j (u
i-1 , u i ) weight w c j is empirically (or experimentally)
In this case, the connection cost C c (u i−1 , u i ) can be calculated by the following equation.

【0041】[0041]

【数2】 (Equation 2)

【0042】もし、音素候補ui-1とuiが音声波形信号
データベース中の連続する音声単位であった場合には、
接続は自然であり、連結コストは0になる。ここで、好
ましい実施例においては、連結コストは、特徴パラメー
タメモリ30内の第1の音響的特徴パラメータと第1の
韻律的特徴パラメータに基づいて決定され、連続量であ
る上記3つの第3の音響的特徴パラメータを取り扱うか
ら例えば0から1までの任意のアナログ量をとる一方、
目標コストは、それぞれの先行あるいは後続音素の弁別
素性が一致するか否かなどを示す上記30個の第2の音
響的特徴パラメータを取り扱うから、例えば0(特徴が
一致しているとき)又は1(特徴が一致していないと
き)のデジタル量で表される要素を含む。そして、N個
の音声単位の連結コストはそれぞれの音声単位の目標コ
ストと連結コストの和となり、次式で表される。
If the phoneme candidates u i-1 and u i are continuous speech units in the speech waveform signal database,
The connection is natural and the connection cost is zero. Here, in a preferred embodiment, the connection cost is determined based on the first acoustic feature parameter and the first prosodic feature parameter in the feature parameter memory 30, and is a continuous quantity of the third third feature parameter. Since it handles acoustic feature parameters, for example, while taking an arbitrary analog amount from 0 to 1,
Since the target cost deals with the above-mentioned 30 second acoustic feature parameters indicating whether or not the discriminating features of the preceding or succeeding phonemes match, for example, 0 (when the features match) or 1 (When the features do not match). Then, the connection cost of the N voice units is the sum of the target cost and the connection cost of each voice unit, and is expressed by the following equation.

【0043】[0043]

【数3】 (Equation 3)

【0044】このとき、Sはポーズを表しており、Cc
(S,u1)及びCc(un,S)はポーズから最初の音
声単位へ及び最後の音声単位からポーズへの接続におけ
る連結コストを表している。この表現からも明らかなよ
うに、本実施形態ではポーズも音声波形信号データベー
ス中の他の音素とまったく同じ扱い方をしている。さら
に上の式をサブコストで直接表現すると次式のようにな
る。
At this time, S represents a pause, and C c
(S, u 1) and C c (u n, S) represents the connection costs in connection to pause from the pause to the first speech unit and from the last speech unit. As is clear from this expression, in the present embodiment, the pose is handled in exactly the same way as other phonemes in the speech waveform signal database. Further, if the above equation is directly expressed by a sub-cost, the following equation is obtained.

【0045】[0045]

【数4】 (Equation 4)

【0046】音声単位選択処理は上式で決まる全体のコ
ストを最小にするような音声単位の組合せ/u1 nを決定
するためのものである。ここで、日本出願の明細書で
は、オーバーラインを記述することができないために、
オーバーラインの代わりに/を用いる。
The voice unit selection processing is for determining the combination of voice units / u 1 n that minimizes the overall cost determined by the above equation. Here, in the specification of the Japanese application, since the overline cannot be described,
Use / instead of the overline.

【0047】[0047]

【数5】/u1 n= min C(t1 n,u1 n) u1,u2,…,un [Number 5] / u 1 n = min C ( t 1 n, u 1 n) u 1, u 2, ..., u n

【0048】上記数5において、関数minは、当該関
数の引数であるC(t1 n,u1 n)を最小にする音素候補
の組み合わせ(すなわち、音素列候補)u1,u2,…,un
=/u1 nを表わす関数である。
In the above equation (5), the function min is a combination of phoneme candidates (ie, phoneme string candidates) u 1 , u 2 ,... Which minimizes the argument C (t 1 n , u 1 n ) of the function. , u n
= / U 1 n .

【0049】図1の重み係数学習部11における重み係
数の学習処理について以下説明する。目標サブコストの
重みは音響的距離に基づく線形回帰分析を用いて決定す
る。重み係数の学習処理ではすべての音素毎に異なる重
み係数を決めることもできるし、音素カテゴリ(例え
ば、すべての鼻音)毎に重み係数を決めることもでき
る。また、すべての音素について共通の重み係数を決め
ることもできるが、ここでは各音素で別々の重み係数を
用いることとする。特徴パラメータメモリ30内のデー
タベースにおける各トークン(又は各音声サンプル)
は、各トークンの音響的特徴に関係する第1の音響的特
徴パラメータと第1の韻律的特徴パラメータの組で記述
されている。重み係数は、第1の音響的特徴パラメータ
と第1の韻律的特徴パラメータの各パラメータと、トー
クン又はコンテキストにおける音素の第2の音響的特徴
パラメータにおける差又は音響的距離との間の関係の強
さ(寄与度)を決定するために学習される。以下に線形
回帰分析における処理の流れを示す。
The learning process of the weight coefficient in the weight coefficient learning section 11 of FIG. 1 will be described below. The weight of the target sub-cost is determined using a linear regression analysis based on the acoustic distance. In the weight coefficient learning process, a different weight coefficient can be determined for every phoneme, or a weight coefficient can be determined for each phoneme category (for example, all nasal sounds). Although a common weighting factor can be determined for all phonemes, different weighting factors are used here for each phoneme. Each token (or each voice sample) in the database in the feature parameter memory 30
Is described as a set of a first acoustic feature parameter and a first prosodic feature parameter related to the acoustic feature of each token. The weighting factor is the strength of the relationship between each of the first acoustic feature parameter and the first prosodic feature parameter and the difference or acoustic distance in the second acoustic feature parameter of the phoneme in the token or context. Learned to determine the contribution (degree of contribution). The processing flow in the linear regression analysis is shown below.

【0050】<1>現在学習を行なっている音素種類
(又は音素カテゴリ)に属する音声波形信号データベー
ス中のすべてのサンプルについて繰り返し以下の4つの
処理(a)乃至(d)を実行する。 (a)取り上げた音声サンプルを目的の発話内容と見な
す。 (b)音声波形信号データベース中の同一の音素種類
(カテゴリ)に属する他のすべてのサンプルと当該音声
サンプルとの音響的距離を計算する。 (c)目標音素に近いもの上位N1個(例えば、N1=
20個である。)の最良の音素候補を選び出す。 (d)目標音素自身tiと上記(c)で選んだ上位N1
個のサンプルについて目標サブコストCt j(ti,ui
を求める。 <2>すべての目標音素tiと上位N1個の最適サンプ
ルについて音響的距離と目標サブコストCt j(ti
i)を求める。 <3>p個の目標サブコストに対して線形回帰分析を実
行することにより、上記目標音素を表わす第1の音響的
特徴パラメータと第1の韻律的特徴パラメータの各特徴
パラメータにおける寄与度を予測して、当該音素種類
(カテゴリ)に対する、p個の目標サブコストの線形重
み係数を求める。 この重み係数を用いて上記コストを計算する。そして、
<1>から<3>までの処理をすべての音素種類(カテ
ゴリ)について繰り返す。
<1> The following four processes (a) to (d) are repeatedly performed for all samples in the speech waveform signal database belonging to the phoneme type (or phoneme category) currently being learned. (A) The taken voice sample is regarded as the target utterance content. (B) Calculate the acoustic distance between all other samples belonging to the same phoneme type (category) in the audio waveform signal database and the audio sample. (C) Top N1 items close to the target phoneme (for example, N1 =
There are 20. Select the best phoneme candidate in ()). (D) The target phoneme itself t i and the top N1 selected in (c) above
Target sub-cost C t j (t i , u i ) for samples
Ask for. <2> For all target phonemes t i and the top N1 optimal samples, acoustic distances and target sub-costs C t j (t i ,
u i ). <3> By performing a linear regression analysis on the p target sub-costs, the contribution of each of the first acoustic feature parameter and the first prosodic feature parameter representing the target phoneme to each other is predicted. Then, a linear weighting coefficient of p target sub-costs for the phoneme type (category) is obtained. The cost is calculated using the weight coefficient. And
The processing from <1> to <3> is repeated for all phoneme types (categories).

【0051】もし仮に目的音声単位の音響的距離が直接
求められた場合に最も近い音声サンプルを選び出すため
にはそれぞれの目標サブコストにどのような重み係数を
かければ良いのかを決定するのが、この重み係数学習部
11の目的である。本実施形態の利点は音声波形信号デ
ータベース中の音声波形信号の音声セグメントを直接的
に利用できることである。
If the acoustic distance of the target voice unit is directly obtained, a weight coefficient should be applied to each target sub-cost in order to select the closest voice sample. This is the purpose of the weight coefficient learning unit 11. The advantage of this embodiment is that the audio segments of the audio waveform signal in the audio waveform signal database can be used directly.

【0052】以上のように構成された図1の音声合成装
置において、音声分析部10と、重み係数学習部11
と、音声単位選択部12と、音声合成部13とは、例え
ば、マイクロプロセッシングユニット(MPU)などの
デジタル計算機又は演算制御装置によって構成される一
方、テキストデータベースメモリ22と、音素HMMメ
モリ23と、特徴パラメータメモリ30と、重み係数ベ
クトルメモリ31とは例えばハードディスクなどの記憶
装置で構成される。ここで、好ましい実施例において
は、音声波形信号データベースメモリ21は、CD−R
OMの形式の記憶装置である。以下、以上のように構成
された図1の音声合成装置の各処理部10乃至13にお
ける処理について説明する。
In the speech synthesizer of FIG. 1 configured as described above, the speech analysis unit 10 and the weight coefficient learning unit 11
The voice unit selecting unit 12 and the voice synthesizing unit 13 are configured by, for example, a digital computer or an arithmetic control unit such as a micro processing unit (MPU), while a text database memory 22, a phoneme HMM memory 23, The feature parameter memory 30 and the weight coefficient vector memory 31 are configured by a storage device such as a hard disk. Here, in the preferred embodiment, the audio waveform signal database memory 21 stores the CD-R
This is a storage device in the OM format. Hereinafter, processing in each of the processing units 10 to 13 of the speech synthesizer configured as described above and illustrated in FIG. 1 will be described.

【0053】図4は、図1の音声分析部10によって実
行される音声分析処理のフローチャートである。図4に
おいて、まず、ステップS11で、音声波形信号データ
ベースメモリ21から自然発話の音声波形信号の信号を
入力してA/D変換してデジタル音声波形信号データに
変換するとともに、当該音声波形信号の音声文を書き下
したテキストデータをテキストデータベースメモリ22
内のテキストデータベースから入力する。ここで、テキ
ストデータはなくてもよく、ない場合は、音声波形信号
から公知の音声認識装置を用いて音声認識してテキスト
データを得てもよい。なお、A/D変換した後のデジタ
ル音声波形信号データは、例えば10ミリ秒毎の音声セ
グメントに分割されている。そして、ステップS12
で、音素列が予測されているか否かが判断され、音素列
が予測されていないときは、ステップS13で例えば音
素HMMを用いて音素列を予測して記憶した後、ステッ
プS14に進む。ステップS12で音素列が予測されて
いる又は予め与えられている、もしくは手作業で音素ラ
ベルが付与されているときは、直接にステップS14に
進む。
FIG. 4 is a flowchart of the voice analysis processing executed by the voice analysis unit 10 of FIG. In FIG. 4, first, in step S11, a signal of a naturally uttered speech waveform signal is input from the speech waveform signal database memory 21 and A / D converted to be converted into digital speech waveform signal data. The text data in which the voice sentence is written is stored in the text database memory 22.
Input from the text database inside. Here, there is no need for text data, and in the case where there is no text data, text data may be obtained by performing voice recognition using a known voice recognition device from a voice waveform signal. The digital audio waveform signal data after the A / D conversion is divided into, for example, audio segments every 10 milliseconds. Then, step S12
Then, it is determined whether or not the phoneme sequence is predicted. If the phoneme sequence is not predicted, the process proceeds to step S14 after predicting and storing the phoneme sequence using, for example, a phoneme HMM in step S13. If the phoneme sequence is predicted or given in advance in step S12, or if a phoneme label is manually given, the process directly proceeds to step S14.

【0054】ステップS14では、各音素セグメントに
対する、音声波形信号の複数の文又は1つの文からなる
ファイルにおける開始位置と終了位置を記録し、当該フ
ァイルに索引番号を付与する。次いで、ステップS15
では、各音素セグメントに対する上記第1の音響的特徴
パラメータを例えば公知のピッチ抽出法を用いて抽出す
る。そして、ステップS16では、各音素セグメントに
対して音素ラベル付けを実行して、音素ラベルとそれに
対する第1の音響的特徴パラメータを記録する。さら
に、ステップS17では、各音素セグメントに対する第
1の音響的特徴パラメータと、音素ラベルと、音素ラベ
ルに対する上記第1の韻律的特徴パラメータを、ファイ
ルの索引番号と、ファイル内の開始位置と時間長ととも
に、特徴パラメータメモリ30に記憶する。最後に、ス
テップS18で、各音素セグメントに対して、ファイル
の索引番号とファイル内の開始位置と時間長とを含む索
引情報を付与して、当該索引情報を特徴パラメータメモ
リ30に記憶して、当該音声分析処理を終了する。
In step S14, the start position and the end position of a plurality of sentences or one sentence of the speech waveform signal for each phoneme segment are recorded, and an index number is assigned to the file. Next, step S15
Then, the first acoustic feature parameter for each phoneme segment is extracted using, for example, a known pitch extraction method. In step S16, phoneme labeling is performed on each phoneme segment, and the phoneme label and the first acoustic feature parameter corresponding to the phoneme label are recorded. Further, in step S17, a first acoustic feature parameter for each phoneme segment, a phoneme label, and the first prosodic feature parameter for the phoneme label are stored in a file index number, a start position in the file, and a time length. At the same time, it is stored in the feature parameter memory 30. Finally, in step S18, index information including a file index number, a start position in the file, and a time length is assigned to each phoneme segment, and the index information is stored in the feature parameter memory 30. The voice analysis processing ends.

【0055】図5及び図6は、図1の重み係数学習部1
1によって実行される重み係数学習処理のフローチャー
トである。図5において、まず、ステップS21で、特
徴パラメータメモリ30から1個の音素種類を選択す
る。次いで、ステップS22で、選択された音素種類と
同一の音素種類を有する音素の第1の音響的特徴パラメ
ータから第2の音響的特徴パラメータを取り出して目標
音素の第2の音響的特徴パラメータとする。そして、ス
テップS23で、同一の音素種類を有する目標音素以外
の残りの音素と、第2の音響的特徴パラメータにおける
目標音素との間の、音響的距離であるユークリッドケプ
ストラム距離と、底を2とする対数音素時間長とを計算
する。ステップS24では、すべての残りの音素につい
てステップS22及びS23の処理をしたか否かが判断
され、処理が完了していないときは、ステップS25で
別の残りの音素を選択してステップS23からの処理を
繰り返す。
FIGS. 5 and 6 show the weight coefficient learning unit 1 of FIG.
6 is a flowchart of a weight coefficient learning process executed by the first embodiment. In FIG. 5, first, at step S21, one phoneme type is selected from the feature parameter memory 30. Next, in step S22, a second acoustic feature parameter is extracted from the first acoustic feature parameter of the phoneme having the same phoneme type as the selected phoneme type, and is taken as the second acoustic feature parameter of the target phoneme. . Then, in step S23, the Euclidean cepstrum distance that is an acoustic distance between the remaining phonemes other than the target phoneme having the same phoneme type and the target phoneme in the second acoustic feature parameter, And logarithmic phoneme time length. In step S24, it is determined whether or not the processing in steps S22 and S23 has been performed for all the remaining phonemes. Repeat the process.

【0056】一方、ステップS24で処理が完了してい
るときは、ステップS26で、ステップS23で得られ
た距離及び時間長に基づいて、上位N1個の最良の音素
候補を選択する。次いで、ステップS27で選択された
上位N1個の最良の音素候補について1番目からN1番
目までランク付けする。そして、ステップS28で、ラ
ンク付けされたN1個の最良の音素候補に対して各距離
から中間値を引いてスケール変換値を計算する。そし
て、ステップS29において、すべての音素種類及び音
素についてステップS22からS28までの処理を完了
したか否かが判断され、完了していないときは、ステッ
プS30で別の音素種類又は音素を選択した後、ステッ
プS22からの処理を繰り返す。一方、ステップS29
で処理が完了しているときは、図6のステップS31に
進む。
On the other hand, if the processing is completed in step S24, the top N1 best phoneme candidates are selected in step S26 based on the distance and time length obtained in step S23. Next, the top N1 best phoneme candidates selected in step S27 are ranked from the first to the N1th. Then, in step S28, a scale conversion value is calculated by subtracting an intermediate value from each distance with respect to the ranked N1 best phoneme candidates. Then, in step S29, it is determined whether or not the processing from steps S22 to S28 has been completed for all phoneme types and phonemes. If not, another phoneme type or phoneme is selected in step S30. , The processing from step S22 is repeated. On the other hand, step S29
If the process has been completed in step, the process proceeds to step S31 in FIG.

【0057】図6において、ステップS31では、1個
の音素種類を選択する。次いで、ステップS32では、
選択された音素種類に対して各音素の第2の音響的特徴
パラメータを抽出する。そして、ステップS33で、選
択された音素種類に対するスケール変換値に基づいて線
形回帰分析を行うことにより、各第2の音響的特徴パラ
メータにおけるスケール変換値に対する寄与度を計算
し、計算された寄与度を目標音素毎の重み係数として重
み係数ベクトルメモリ31に記憶する。ステップS34
では、すべての音素種類について上記ステップS32及
びS33の処理を完了したか否かが判断され、完了して
いないときは、ステップS35で別の音素種類を選択し
た後、ステップS32からの処理を繰り返す。一方、ス
テップS34で処理が完了しているときは、当該重み係
数学習処理を終了する。なお、各第2の韻律的特徴パラ
メータにおける寄与度は経験的に(又は実験的に)予め
与えられて、当該寄与度を目標音素毎の重み係数ベクト
ルとして重み係数ベクトルメモリ31に記憶する。
In FIG. 6, in step S31, one phoneme type is selected. Next, in step S32,
A second acoustic feature parameter of each phoneme is extracted for the selected phoneme type. Then, in step S33, by performing a linear regression analysis based on the scale conversion value for the selected phoneme type, the contribution to the scale conversion value in each second acoustic feature parameter is calculated, and the calculated contribution is calculated. Is stored in the weight coefficient vector memory 31 as a weight coefficient for each target phoneme. Step S34
Then, it is determined whether or not the processes in steps S32 and S33 have been completed for all phoneme types. If not, another phoneme type is selected in step S35, and the process from step S32 is repeated. . On the other hand, if the processing has been completed in step S34, the weight coefficient learning processing ends. The contribution in each second prosodic feature parameter is given in advance empirically (or experimentally), and the contribution is stored in the weight coefficient vector memory 31 as a weight coefficient vector for each target phoneme.

【0058】図7は、図1の音声単位選択部12によっ
て実行される音声単位選択処理のフローチャートであ
る。図7において、まず、ステップS41で、入力され
た音素列のうち最初から1個目の音素を選択する。次い
で、ステップS42で、選択された音素と同一の音素種
類を有する音素の重み係数ベクトルを重み係数ベクトル
メモリ31から読み出し、目標サブコスト及び必要な特
徴パラメータを特徴パラメータメモリ30から読み出し
てリストアップする。そして、ステップS43ですべて
の音素について処理したか否かが判断され、完了してい
ないときはステップS44で次の音素を選択した後、ス
テップS42の処理を繰り返す。一方、ステップS43
で完了していないときは、ステップS45に進む。
FIG. 7 is a flowchart of the voice unit selection process executed by the voice unit selection unit 12 of FIG. In FIG. 7, first, in step S41, the first phoneme from the beginning is selected from the input phoneme sequence. Next, in step S42, the weight coefficient vector of the phoneme having the same phoneme type as the selected phoneme is read from the weight coefficient vector memory 31, and the target sub-cost and necessary feature parameters are read from the feature parameter memory 30 and listed. Then, it is determined in step S43 whether or not all phonemes have been processed. If the process has not been completed, the next phoneme is selected in step S44, and the process in step S42 is repeated. On the other hand, step S43
If not completed, the process proceeds to step S45.

【0059】ステップS45では、入力された音素列に
対して数4を用いて各音素候補における全体のコストを
計算する。次いで、ステップS46では、計算されたコ
ストに基づいて、上位N2個の最良の音素候補をそれぞ
れの目標音素に対して選択する。そして、ステップS4
7では、数5を用いてビタビサーチにより、全体のコス
トを最小にする音素候補の組み合わせの索引情報と、そ
の各音素の開始時刻と時間長とともに検索した後、音声
合成部13に出力して、当該音声単位選択処理を終了す
る。
In step S45, the total cost of each phoneme candidate is calculated using Equation 4 for the input phoneme sequence. Next, in step S46, the top N2 best phoneme candidates are selected for each target phoneme based on the calculated cost. Then, step S4
In step 7, by using Viterbi search using equation 5, index information of a combination of phoneme candidates that minimizes the overall cost is searched together with the start time and time length of each phoneme. Then, the voice unit selection process ends.

【0060】さらに、音声合成部13は、音声単位選択
部12から出力される索引情報と、その各音素の開始時
刻と時間長とに基づいて、音声波形信号データベースメ
モリ21に対してアクセスして単位選択された音素候補
のデジタル音声波形信号データを読み出して、逐次D/
A変換して変換後のアナログ音声信号をスピーカ14を
介して出力する。これにより、入力された音素列に対応
する音声合成された音声がスピーカ14から出力され
る。
Further, the speech synthesis unit 13 accesses the speech waveform signal database memory 21 based on the index information output from the speech unit selection unit 12 and the start time and time length of each phoneme. The digital audio waveform signal data of the unit-selected phoneme candidate is read out, and D /
The analog audio signal after the A conversion is converted and output via the speaker 14. As a result, the synthesized voice corresponding to the input phoneme sequence is output from the speaker 14.

【0061】以上説明したように、本実施形態の音声合
成装置においては、出力音声の自然性を最大にするため
に、大規模な自然音声のデータベースを用いて処理を最
小に抑える方法について述べた。本実施形態は4つの処
理部10乃至13から構成される。 <音声分析部10>正書法の書き起こしテキストを伴っ
た任意の音声波形信号データを入力とし、この音声波形
信号データベース中のすべての音素について、それらの
性質を記述する特徴ベクトルを与える処理部。 <重み係数学習部11>音声波形信号データベースの特
徴ベクトルと音声波形信号データベースの原波形を用い
て、目的の音声を合成する場合に最も適するように音声
単位を選ぶための、各特徴パラメータの最適重み係数を
重みベクトルとして決定する処理部。 <音声単位選択部12>音声波形信号データベースの全
音素の特徴ベクトルと重みベクトルと目的音声の発話内
容の記述から音声波形信号データベースメモリ21の索
引情報を作成する処理部。 <音声合成部13>作成された索引情報に従って、メモ
リ21内の音声波形信号データベース中の音声波形信号
データの音声セグメントに飛び飛びにアクセスし、目的
の音声波形信号の音声セグメントを連結しかつD/A変
換してスピーカ14に出力して音声を合成する処理部。
As described above, in the speech synthesizer of the present embodiment, a method for minimizing the processing using a large-scale natural speech database in order to maximize the naturalness of the output speech has been described. . This embodiment includes four processing units 10 to 13. <Speech analysis unit 10> A processing unit which receives arbitrary speech waveform signal data accompanied by the transcribed text in the orthography and inputs a feature vector describing the properties of all phonemes in the speech waveform signal database. <Weighting coefficient learning unit 11> Using feature vectors of the audio waveform signal database and original waveforms of the audio waveform signal database, optimization of each characteristic parameter for selecting an audio unit so as to be most suitable for synthesizing a target audio. A processing unit that determines a weight coefficient as a weight vector. <Speech unit selection unit 12> A processing unit that creates index information in the speech waveform signal database memory 21 from the description of the feature vectors and weight vectors of all phonemes in the speech waveform signal database and the utterance content of the target speech. <Speech synthesizing section 13> In accordance with the created index information, the audio segment of the audio waveform signal data in the audio waveform signal database in the memory 21 is jumped and accessed, the audio segment of the target audio waveform signal is connected, and A processing unit that performs A conversion, outputs the result to the speaker 14, and synthesizes voice.

【0062】本実施形態においては、音声波形信号の圧
縮や音声基本周波数F0や音素時間長の修正は不要にな
ったが、代わって音声サンプルを注意深くラベル付け
し、大規模な音声波形信号データベースの中から最適な
ものを選択することが必要となる。本実施形態の音声合
成方法の基本単位は音素であり、これは辞書やテキスト
−音素変換プログラムで生成されるが、同一の音素であ
っても音声波形信号データベース中に音素の十分なバリ
エーションを含んでいることが要求される。音声波形信
号データベースからの音声単位選択処理では目的の韻律
的環境に適合し、しかも接続したときに隣接音声単位間
での不連続性が最も低い音素サンプルの組合せが選ばれ
る。このために、音素毎に各特徴パラメータの最適重み
係数が決定される。
In the present embodiment, the compression of the audio waveform signal and the modification of the audio fundamental frequency F 0 and the phoneme time length are not required. However, the audio samples are carefully labeled instead, and a large-scale audio waveform signal database is used. It is necessary to select the optimal one from among the above. The basic unit of the speech synthesis method of the present embodiment is a phoneme, which is generated by a dictionary or a text-phoneme conversion program. Even if the same phoneme is included in the speech waveform signal database, a sufficient variation of the phoneme is included. Is required. In the process of selecting a speech unit from the speech waveform signal database, a combination of phoneme samples that match the target prosodic environment and have the lowest discontinuity between adjacent speech units when connected is selected. For this purpose, an optimal weight coefficient of each feature parameter is determined for each phoneme.

【0063】本実施形態の音声合成装置の特徴は、次の
通りである。 <単位選択規準としての韻律的情報の利用>スペクトル
的特徴は韻律的特徴と不可分であるとの立場から、音声
単位の選択規準に韻律的な特徴を導入した。 <音響的及び韻律的特徴パラメータの重み係数の自動学
習>音素環境や音響的特徴、韻律的特徴等の各種の特徴
量が音声単位の選択にどれだけの寄与があるかを音声波
形信号データベース中の全音声サンプルを利用すること
で自動的に決定し、コーパスを基本とする音声合成装置
を構築した。 <音声波形信号の直接接続>上記の自動学習により、大
規模音声波形信号データベースから最適な音声サンプル
を選び出すことにより、何らの信号処理も利用しない任
意音声合成装置を構築した。 <音声波形信号データベースの外部情報化>音声波形信
号データベースを完全に外部情報として取り扱うことに
より、単にCD−ROM等に記憶した音声波形信号デー
タを取り替えることで任意の言語、任意の話者に利用で
きる音声合成装置を構築した。
The features of the speech synthesizer of the present embodiment are as follows. <Use of prosodic information as unit selection criterion> From the standpoint that spectral features are inseparable from prosodic features, prosodic features were introduced into speech unit selection criteria. <Automatic learning of weighting factors for acoustic and prosodic feature parameters> In the speech waveform signal database, it is determined how much various feature amounts such as phoneme environment, acoustic features, and prosodic features contribute to the selection of speech units. A speech synthesizer based on a corpus was automatically determined by using all the speech samples. <Direct Connection of Speech Waveform Signal> By the automatic learning described above, an optimum speech sample was selected from a large-scale speech waveform signal database, thereby constructing an arbitrary speech synthesis apparatus that does not use any signal processing. <External information conversion of speech waveform signal database> By completely treating the speech waveform signal database as external information, simply replacing the speech waveform signal data stored in a CD-ROM or the like enables use in any language and any speaker. We built a speech synthesizer that can do it.

【0064】[0064]

【実施例】本実施形態の音声合成装置を用いて、発明者
はこれまで4カ国語を含む各種の音声波形信号データベ
ースで評価を行なっている。周知の通り、従来は女性話
者の音声を用いて高品質の音声を合成することは技術的
に大変難しかったが、本実施形態の方法では性別や年齢
などによる差がなくなった。現在のところ、日本語では
若年の女性話者が短い物語を読み上げた音声波形信号デ
ータベースを用いた場合に最も高品質の合成音声が得ら
れている。一方、ドイツ語については韻律ラベルと詳細
な音素ラベルが付与された読み上げ文のCD−ROMデ
ータを用いた合成音声を出力している。これは特別に音
声合成用に録音した音声波形信号データではなく、本実
施形態の音声合成装置が既存の各種の音声波形信号デー
タを技術的には自由に利用できることを示している。ま
た、英語ではボストン大学のニュース・コーパスのラジ
オ・アナウンサの45分間の音声波形信号データで最も
良い音質が得られている。なお、韓国語については短い
物語の読み上げ音声を用いている。
EXAMPLES Using the speech synthesizer of this embodiment, the inventor has evaluated various speech waveform signal databases including four languages so far. As is well known, conventionally, it was technically very difficult to synthesize a high-quality voice using the voice of a female speaker, but with the method of the present embodiment, there was no difference due to gender or age. At present, in Japanese, the highest quality synthesized speech is obtained when using a speech waveform signal database in which a young female speaker reads a short story. On the other hand, for German, a synthesized speech is output using CD-ROM data of a sentence to which a prosody label and a detailed phoneme label are added. This indicates that the speech synthesizer of the present embodiment can technically freely use various existing speech waveform signal data, instead of speech waveform signal data recorded specifically for speech synthesis. Also, in English, the best sound quality is obtained with a 45-minute audio waveform signal data of a radio announcer of the Boston University News Corpus. For Korean, a short story is read aloud.

【0065】[0065]

【発明の効果】以上詳述したように本発明に係る請求項
1記載の自然発話音声波形信号接続型音声合成装置によ
れば、自然発話の音声波形信号の音声セグメントを記憶
する第1の記憶手段と、上記第1の記憶手段によって記
憶された音声波形信号の音声セグメントと、上記音声波
形信号に対応する音素列とに基づいて、上記音声波形信
号における音素毎の索引情報と、上記索引情報によって
示された音素毎の第1の音響的特徴パラメータと、上記
索引情報によって示された音素毎の韻律的特徴パラメー
タとを抽出して出力する音声分析手段と、上記音声分析
手段から出力される索引情報と、上記第1の音響的特徴
パラメータと、上記韻律的特徴パラメータとを記憶する
第2の記憶手段と、上記第2の記憶手段によって記憶さ
れた第1の音響的特徴パラメータと韻律的特徴パラメー
タとに基づいて、同一の音素種類の1つの目標音素とそ
れ以外の音素候補との間の第2の音響的特徴パラメータ
における音響的距離を計算し、上記計算した音響的距離
に基づいて各音素候補に対して上記第2の音響的特徴パ
ラメータ毎に所定の統計的解析を実行することにより、
各音素候補に対する上記第2の音響的特徴パラメータに
おける寄与度を表わす各目標音素毎の重み係数ベクトル
を決定する重み係数学習手段と、上記重み係数学習手段
によって決定された上記第2の音響的特徴パラメータに
おける各目標音素毎の重み係数ベクトルを記憶する第3
の記憶手段と、上記第3の記憶手段によって記憶された
各目標音素毎の重み係数ベクトルと、上記第2の記憶手
段によって記憶された韻律的特徴パラメータとに基づい
て、入力される自然発話文の音素列に対して、目標音素
と音素候補との間の近似コストを表わす目標コストと、
隣接して連結されるべき2つの音素候補間の近似コスト
を表わす連結コストとを含むコストが最小となる、音素
候補の組み合わせを検索して、検索した音素候補の組み
合わせの索引情報を出力する音声単位選択手段と、上記
音声単位選択手段から出力される索引情報に基づいて、
当該索引情報に対応する音声波形信号の音声セグメント
を上記第1の記憶手段から逐次読み出して連結して出力
することにより、上記入力された音素列に対応する音声
を合成して出力する音声合成手段とを備える。従って、
韻律制御規則を使わず、信号処理を実行することなく、
任意の音素列を発声音声に変換することができ、しかも
従来例に比較して自然に近い声質を得ることができる。
As described above in detail, according to the spontaneously uttered speech waveform signal connection type speech synthesizer according to the first aspect of the present invention, the first storage for storing the speech segment of the speech waveform signal of the naturally uttered speech. Means, index information for each phoneme in the audio waveform signal based on the audio segment of the audio waveform signal stored by the first storage means, and a phoneme sequence corresponding to the audio waveform signal; A first acoustic feature parameter for each phoneme indicated by, and a prosodic feature parameter for each phoneme indicated by the index information, and output. Second storage means for storing the index information, the first acoustic feature parameter, and the prosodic feature parameter; and the first acoustic feature stored by the second storage means. Calculating an acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate based on the signature parameter and the prosodic feature parameter; By performing a predetermined statistical analysis for each of the second acoustic feature parameters for each phoneme candidate based on the target distance,
Weighting factor learning means for determining a weighting factor vector for each target phoneme representing the degree of contribution of the second acoustic feature parameter to each phoneme candidate; and the second acoustic feature determined by the weighting factor learning means A third storing a weighting coefficient vector for each target phoneme in the parameter;
A natural utterance sentence based on a weighting coefficient vector for each target phoneme stored by the third storage means and a prosodic feature parameter stored by the second storage means. A target cost representing an approximate cost between the target phoneme and the phoneme candidate for the phoneme sequence of
A speech that searches for a combination of phoneme candidates that minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates to be connected adjacently and that outputs index information of the searched combination of phoneme candidates. Based on the unit selection means and the index information output from the audio unit selection means,
Speech synthesis means for synthesizing and outputting speech corresponding to the input phoneme sequence by sequentially reading out speech segments of a speech waveform signal corresponding to the index information from the first storage means, and connecting and outputting the speech segments. And Therefore,
Without using prosody control rules and without performing signal processing,
An arbitrary phoneme sequence can be converted into a uttered voice, and a voice quality that is more natural than that of the conventional example can be obtained.

【0066】また、請求項2記載の音声合成装置におい
ては、請求項1記載の音声合成装置において、上記音声
分析手段は、好ましくは、入力される音声波形信号に基
づいて上記音声波形信号に対応する音素列を予測する音
素予測手段を備える。従って、予め音素列を与える必要
がないので、手作業の部分を簡単化することができる。
In the voice synthesizing device according to the second aspect, the voice analyzing means preferably corresponds to the voice waveform signal based on an input voice waveform signal. Phoneme prediction means for predicting a phoneme sequence to be executed. Therefore, since it is not necessary to provide a phoneme sequence in advance, the manual operation can be simplified.

【0067】さらに、請求項3記載の音声合成装置にお
いては、請求項1又は2記載の音声合成装置において、
上記重み係数学習手段は、好ましくは、上記計算した音
響的距離に基づいて、最良の上位複数N1個の音素候補
を抽出した後、上記第2の音響的特徴パラメータにおい
て線形回帰分析することにより、各音素候補に関する上
記第2の音響的特徴パラメータにおける寄与度を表わす
各目標音素毎の重み係数ベクトルを決定する。従って、
韻律制御規則を使わず、信号処理を実行することなく、
任意の音素列を発声音声に変換することができ、しかも
より自然に近い声質を得ることができる。
Further, in the speech synthesizing apparatus according to the third aspect, in the speech synthesizing apparatus according to the first or second aspect,
The weighting coefficient learning means preferably extracts the best plurality of N1 phoneme candidates based on the calculated acoustic distance, and then performs a linear regression analysis on the second acoustic feature parameter. A weight coefficient vector for each target phoneme, which represents the degree of contribution in the second acoustic feature parameter for each phoneme candidate, is determined. Therefore,
Without using prosody control rules and without performing signal processing,
An arbitrary phoneme sequence can be converted into a uttered voice, and a more natural voice quality can be obtained.

【0068】さらに、請求項4記載の音声合成装置にお
いては、請求項1又は2記載の音声合成装置において、
上記重み係数学習手段は、好ましくは、上記計算した音
響的距離に基づいて、最良の上位複数N1個の音素候補
を抽出した後、上記第2の音響的特徴パラメータの各々
に対して所定のニューラルネットワークを用いた統計的
解析を実行することにより、各音素候補に関する上記第
2の音響的特徴パラメータにおける寄与度を表わす各目
標音素毎の重み係数ベクトルを決定する。従って、韻律
制御規則を使わず、信号処理を実行することなく、任意
の音素列を発声音声に変換することができ、しかもより
自然に近い声質を得ることができる。
Further, in the voice synthesizing device according to the fourth aspect, in the voice synthesizing device according to the first or second aspect,
Preferably, the weighting coefficient learning unit extracts a plurality of N1 best phonemes based on the calculated acoustic distance, and then performs a predetermined neural processing on each of the second acoustic feature parameters. By executing a statistical analysis using a network, a weighting coefficient vector for each target phoneme, which indicates the degree of contribution of the second acoustic feature parameter for each phoneme candidate, is determined. Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained.

【0069】またさらに、請求項5記載の音声合成装置
においては、請求項1乃至4のうちの1つに記載の音声
合成装置において、上記音声単位選択手段は、好ましく
は、上記目標コストと上記連結コストとを含むコストが
最良の上位複数N2個の音素候補を抽出した後、コスト
が最小となる音素候補の組み合わせを検索する。従っ
て、韻律制御規則を使わず、信号処理を実行することな
く、任意の音素列を発声音声に変換することができ、し
かもより自然に近い声質を得ることができる。
According to a fifth aspect of the present invention, in the voice synthesizing apparatus according to any one of the first to fourth aspects, it is preferable that the voice unit selecting means includes the target cost and the target cost. After extracting the top N2 phoneme candidates having the best cost including the connection cost, a combination of phoneme candidates with the lowest cost is searched. Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施形態である自然発話音声
波形信号接続型音声合成装置のブロック図である。
FIG. 1 is a block diagram of a spontaneously uttered speech waveform signal connection type speech synthesis apparatus according to an embodiment of the present invention.

【図2】 従来例の音声合成装置のブロック図である。FIG. 2 is a block diagram of a conventional speech synthesizer.

【図3】 図1の音声単位選択部によって計算される音
声単位選択コストの定義を示すモデル図である。
FIG. 3 is a model diagram showing a definition of a voice unit selection cost calculated by a voice unit selection unit in FIG. 1;

【図4】 図1の音声分析部によって実行される音声分
析処理のフローチャートである。
FIG. 4 is a flowchart of a voice analysis process executed by the voice analysis unit of FIG. 1;

【図5】 図1の重み係数学習部によって実行される重
み係数学習処理の第1の部分のフローチャートである。
FIG. 5 is a flowchart of a first part of a weight coefficient learning process executed by the weight coefficient learning unit in FIG. 1;

【図6】 図1の重み係数学習部によって実行される重
み係数学習処理の第2の部分のフローチャートである。
FIG. 6 is a flowchart of a second part of the weight coefficient learning process executed by the weight coefficient learning unit in FIG. 1;

【図7】 図1の音声単位選択部によって実行される音
声単位選択処理のフローチャートである。
FIG. 7 is a flowchart of a voice unit selection process executed by the voice unit selection unit of FIG. 1;

【符号の説明】[Explanation of symbols]

10…音声分析部、 11…重み係数学習部、 12…音声単位選択部、 13…音声合成部、 14…スピーカ、 21…音声波形信号データベースメモリ、 22…テキストデータベースメモリ、 23…音素HMMメモリ、 30…特徴パラメータメモリ、 31…重み係数ベクトル。 Reference Signs List 10: voice analysis unit, 11: weight coefficient learning unit, 12: voice unit selection unit, 13: voice synthesis unit, 14: speaker, 21: voice waveform signal database memory, 22: text database memory, 23: phoneme HMM memory, 30: Feature parameter memory 31: Weight coefficient vector

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 自然発話の音声波形信号の音声セグメン
トを記憶する第1の記憶手段と、 上記第1の記憶手段によって記憶された音声波形信号の
音声セグメントと、上記音声波形信号に対応する音素列
とに基づいて、上記音声波形信号における音素毎の索引
情報と、上記索引情報によって示された音素毎の第1の
音響的特徴パラメータと、上記索引情報によって示され
た音素毎の韻律的特徴パラメータとを抽出して出力する
音声分析手段と、 上記音声分析手段から出力される索引情報と、上記第1
の音響的特徴パラメータと、上記韻律的特徴パラメータ
とを記憶する第2の記憶手段と、 上記第2の記憶手段によって記憶された第1の音響的特
徴パラメータと韻律的特徴パラメータとに基づいて、同
一の音素種類の1つの目標音素とそれ以外の音素候補と
の間の第2の音響的特徴パラメータにおける音響的距離
を計算し、上記計算した音響的距離に基づいて各音素候
補に対して上記第2の音響的特徴パラメータ毎に所定の
統計的解析を実行することにより、各音素候補に対する
上記第2の音響的特徴パラメータにおける寄与度を表わ
す各目標音素毎の重み係数ベクトルを決定する重み係数
学習手段と、 上記重み係数学習手段によって決定された上記第2の音
響的特徴パラメータにおける各目標音素毎の重み係数ベ
クトルを記憶する第3の記憶手段と、 上記第3の記憶手段によって記憶された各目標音素毎の
重み係数ベクトルと、上記第2の記憶手段によって記憶
された韻律的特徴パラメータとに基づいて、入力される
自然発話文の音素列に対して、目標音素と音素候補との
間の近似コストを表わす目標コストと、隣接して連結さ
れるべき2つの音素候補間の近似コストを表わす連結コ
ストとを含むコストが最小となる、音素候補の組み合わ
せを検索して、検索した音素候補の組み合わせの索引情
報を出力する音声単位選択手段と、 上記音声単位選択手段から出力される索引情報に基づい
て、当該索引情報に対応する音声波形信号の音声セグメ
ントを上記第1の記憶手段から逐次読み出して連結して
出力することにより、上記入力された音素列に対応する
音声を合成して出力する音声合成手段とを備えたことを
特徴とする自然発話音声波形信号接続型音声合成装置。
A first storage unit for storing a speech segment of a naturally uttered speech waveform signal; a speech segment of the speech waveform signal stored by the first storage unit; and a phoneme corresponding to the speech waveform signal. Based on the sequence, index information for each phoneme in the audio waveform signal, a first acoustic feature parameter for each phoneme indicated by the index information, and a prosodic feature for each phoneme indicated by the index information Voice analysis means for extracting and outputting the parameter; index information output from the voice analysis means;
Based on the first acoustic feature parameter and the prosodic feature parameter stored by the second storage means, and An acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate is calculated, and the above-mentioned acoustic distance is calculated for each phoneme candidate based on the calculated acoustic distance. A weighting factor for determining a weighting factor vector for each target phoneme that represents the contribution of the second acoustic feature parameter to each phoneme candidate by performing a predetermined statistical analysis for each second acoustic feature parameter Learning means, and a third coefficient storing a weight coefficient vector for each target phoneme in the second acoustic feature parameter determined by the weight coefficient learning means. Storage means; a weighting coefficient vector for each target phoneme stored by the third storage means; and a prosodic feature parameter stored by the second storage means. For the phoneme sequence, the cost including the target cost representing the approximate cost between the target phoneme and the phoneme candidate and the connection cost representing the approximate cost between two phoneme candidates to be connected adjacently is minimized. A voice unit selecting means for searching for a combination of phoneme candidates and outputting index information of the searched combination of phoneme candidates; and a voice corresponding to the index information based on the index information output from the voice unit selecting means. By sequentially reading the audio segments of the waveform signal from the first storage means, connecting them, and outputting them, the speech corresponding to the input phoneme sequence is synthesized and output. Natural speech waveform signal, characterized in that a voice synthesizing means connected speech synthesis device.
【請求項2】 上記音声分析手段は、入力される音声波
形信号に基づいて上記音声波形信号に対応する音素列を
予測する音素予測手段を備えたことを特徴とする請求項
1記載の音声合成装置。
2. The speech synthesis device according to claim 1, wherein said speech analysis means comprises phoneme prediction means for predicting a phoneme sequence corresponding to said speech waveform signal based on an inputted speech waveform signal. apparatus.
【請求項3】 上記重み係数学習手段は、上記計算した
音響的距離に基づいて、最良の上位複数N1個の音素候
補を抽出した後、上記第2の音響的特徴パラメータの各
々に対して線形回帰分析することにより、各音素候補に
関する上記第2の音響的特徴パラメータにおける寄与度
を表わす各目標音素毎の重み係数ベクトルを決定するこ
とを特徴とする請求項1又は2記載の音声合成装置。
3. The weighting factor learning means extracts a plurality of N1 best phoneme candidates based on the calculated acoustic distance, and then linearly extracts each of the second acoustic feature parameters. 3. The speech synthesizer according to claim 1, wherein a weighting coefficient vector for each target phoneme, which represents a degree of contribution of the phoneme candidate in the second acoustic feature parameter, is determined by performing a regression analysis.
【請求項4】 上記重み係数学習手段は、上記計算した
音響的距離に基づいて、最良の上位複数N1個の音素候
補を抽出した後、上記第2の音響的特徴パラメータの各
々に対して所定のニューラルネットワークを用いた統計
的解析を実行することにより、各音素候補に関する上記
第2の音響的特徴パラメータにおける寄与度を表わす各
目標音素毎の重み係数ベクトルを決定することを特徴と
する請求項1又は2記載の音声合成装置。
4. The weighting factor learning means extracts a plurality of N1 best phoneme candidates based on the calculated acoustic distance, and then determines a predetermined number of N1 phoneme candidates for each of the second acoustic feature parameters. A weighting coefficient vector for each target phoneme, which represents a degree of contribution in the second acoustic feature parameter for each phoneme candidate, is determined by performing a statistical analysis using the neural network. 3. The speech synthesizer according to 1 or 2.
【請求項5】 上記音声単位選択手段は、上記目標コス
トと上記連結コストとを含むコストが最良の上位複数N
2個の音素候補を抽出した後、コストが最小となる音素
候補の組み合わせを検索することを特徴とする請求項1
乃至4のうちの1つに記載の音声合成装置。
5. The voice unit selecting means includes a plurality of top Ns having the best cost including the target cost and the connection cost.
2. The method according to claim 1, wherein after extracting two phoneme candidates, a combination of phoneme candidates having a minimum cost is searched.
5. The speech synthesizer according to any one of claims 1 to 4.
【請求項6】 上記第1の音響的特徴パラメータは、ケ
プストラム係数と、デルタケプストラム係数と、音素ラ
ベルとを含むことを特徴とする請求項1乃至5のうちの
1つに記載の音声合成装置。
6. The apparatus according to claim 1, wherein the first acoustic feature parameter includes a cepstrum coefficient, a delta cepstrum coefficient, and a phoneme label. .
【請求項7】 上記第1の音響的特徴パラメータは、フ
ォルマントパラメータと、声道音源パラメータとを含む
ことを特徴とする請求項1乃至5のうちの1つに記載の
音声合成装置。
7. The apparatus according to claim 1, wherein the first acoustic feature parameter includes a formant parameter and a vocal tract sound source parameter.
【請求項8】 上記韻律的特徴パラメータは、音素時間
長と、音声基本周波数F0と、パワーとを含むことを特
徴とする請求項1乃至7のうちの1つに記載の音声合成
装置。
8. The speech synthesizer according to claim 1, wherein the prosodic feature parameters include a phoneme time length, a speech fundamental frequency F 0 , and power.
【請求項9】 上記第2の音響的特徴パラメータは、ケ
プストラム距離を含むことを特徴とする請求項1乃至8
のうちの1つに記載の音声合成装置。
9. The method according to claim 1, wherein the second acoustic feature parameter includes a cepstrum distance.
A speech synthesizer according to one of the preceding claims.
JP9123822A 1996-05-15 1997-05-14 Speech synthesizer with spontaneous speech waveform signal connection Expired - Fee Related JP3050832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9123822A JP3050832B2 (en) 1996-05-15 1997-05-14 Speech synthesizer with spontaneous speech waveform signal connection

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-120113 1996-05-15
JP12011396 1996-05-15
JP9123822A JP3050832B2 (en) 1996-05-15 1997-05-14 Speech synthesizer with spontaneous speech waveform signal connection

Publications (2)

Publication Number Publication Date
JPH1049193A true JPH1049193A (en) 1998-02-20
JP3050832B2 JP3050832B2 (en) 2000-06-12

Family

ID=26457742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9123822A Expired - Fee Related JP3050832B2 (en) 1996-05-15 1997-05-14 Speech synthesizer with spontaneous speech waveform signal connection

Country Status (1)

Country Link
JP (1) JP3050832B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055692A (en) * 2000-06-30 2002-02-20 Nokia Mobile Phones Ltd Method for composing message for speech output
JP2002530703A (en) * 1998-11-13 2002-09-17 ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ Speech synthesis using concatenation of speech waveforms
JP2004139033A (en) * 2002-09-25 2004-05-13 Nippon Hoso Kyokai <Nhk> Voice synthesizing method, voice synthesizer, and voice synthesis program
JP2004279436A (en) * 2003-03-12 2004-10-07 Japan Science & Technology Agency Speech synthesizer and computer program
JP2005331775A (en) * 2004-05-20 2005-12-02 Nippon Hoso Kyokai <Nhk> Voice synthesizer and voice synthesis program
US7143038B2 (en) 2003-04-28 2006-11-28 Fujitsu Limited Speech synthesis system
JP2007171765A (en) * 2005-12-26 2007-07-05 Kenwood Corp Speech database producing device, speech database, speech segment restoring device, speech database producing method, speech segment restoring method, and program
JP2008046636A (en) * 2006-08-14 2008-02-28 Pentax Corp Japanese speech synthesizing method and system using accent phrase matching prior select
WO2011126809A3 (en) * 2010-04-05 2011-12-22 Microsoft Corporation Pre-saved data compression for tts concatenation cost

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002530703A (en) * 1998-11-13 2002-09-17 ルノー・アンド・オスピー・スピーチ・プロダクツ・ナームローゼ・ベンノートシャープ Speech synthesis using concatenation of speech waveforms
JP2002055692A (en) * 2000-06-30 2002-02-20 Nokia Mobile Phones Ltd Method for composing message for speech output
JP4532862B2 (en) * 2002-09-25 2010-08-25 日本放送協会 Speech synthesis method, speech synthesizer, and speech synthesis program
JP2004139033A (en) * 2002-09-25 2004-05-13 Nippon Hoso Kyokai <Nhk> Voice synthesizing method, voice synthesizer, and voice synthesis program
JP2004279436A (en) * 2003-03-12 2004-10-07 Japan Science & Technology Agency Speech synthesizer and computer program
US7143038B2 (en) 2003-04-28 2006-11-28 Fujitsu Limited Speech synthesis system
JP4603290B2 (en) * 2004-05-20 2010-12-22 日本放送協会 Speech synthesis apparatus and speech synthesis program
JP2005331775A (en) * 2004-05-20 2005-12-02 Nippon Hoso Kyokai <Nhk> Voice synthesizer and voice synthesis program
JP2007171765A (en) * 2005-12-26 2007-07-05 Kenwood Corp Speech database producing device, speech database, speech segment restoring device, speech database producing method, speech segment restoring method, and program
JP2008046636A (en) * 2006-08-14 2008-02-28 Pentax Corp Japanese speech synthesizing method and system using accent phrase matching prior select
WO2011126809A3 (en) * 2010-04-05 2011-12-22 Microsoft Corporation Pre-saved data compression for tts concatenation cost
CN102822889A (en) * 2010-04-05 2012-12-12 微软公司 Pre-saved data compression for tts concatenation cost
US8798998B2 (en) 2010-04-05 2014-08-05 Microsoft Corporation Pre-saved data compression for TTS concatenation cost

Also Published As

Publication number Publication date
JP3050832B2 (en) 2000-06-12

Similar Documents

Publication Publication Date Title
US6366883B1 (en) Concatenation of speech segments by use of a speech synthesizer
CN111566656B (en) Speech translation method and system using multi-language text speech synthesis model
US6173263B1 (en) Method and system for performing concatenative speech synthesis using half-phonemes
US10741169B1 (en) Text-to-speech (TTS) processing
US8015011B2 (en) Generating objectively evaluated sufficiently natural synthetic speech from text by using selective paraphrases
EP1168299A2 (en) Method and system for preselection of suitable units for concatenative speech
Khan et al. Concatenative speech synthesis: A review
JP5148026B1 (en) Speech synthesis apparatus and speech synthesis method
JP4829477B2 (en) Voice quality conversion device, voice quality conversion method, and voice quality conversion program
KR100362292B1 (en) Method and system for english pronunciation study based on speech recognition technology
JP3050832B2 (en) Speech synthesizer with spontaneous speech waveform signal connection
Ipsic et al. Croatian HMM-based speech synthesis
Nakano et al. A drum pattern retrieval method by voice percussion
GB2313530A (en) Speech Synthesizer
JP2975586B2 (en) Speech synthesis system
Abdelmalek et al. High quality Arabic text-to-speech synthesis using unit selection
JP3091426B2 (en) Speech synthesizer with spontaneous speech waveform signal connection
KR20100085433A (en) High quality voice synthesizing method using multiple target prosody
JP2806364B2 (en) Vocal training device
JP2003186489A (en) Voice information database generation system, device and method for sound-recorded document creation, device and method for sound recording management, and device and method for labeling
JP3459600B2 (en) Speech data amount reduction device and speech synthesis device for speech synthesis device
Maia et al. An HMM-based Brazilian Portuguese speech synthesizer and its characteristics
Houidhek et al. Statistical modelling of speech units in HMM-based speech synthesis for Arabic
Houidhek et al. Evaluation of speech unit modelling for HMM-based speech synthesis for Arabic
Ng Survey of data-driven approaches to Speech Synthesis

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140331

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees