JP3091426B2 - Speech synthesizer with spontaneous speech waveform signal connection - Google Patents
Speech synthesizer with spontaneous speech waveform signal connectionInfo
- Publication number
- JP3091426B2 JP3091426B2 JP09048769A JP4876997A JP3091426B2 JP 3091426 B2 JP3091426 B2 JP 3091426B2 JP 09048769 A JP09048769 A JP 09048769A JP 4876997 A JP4876997 A JP 4876997A JP 3091426 B2 JP3091426 B2 JP 3091426B2
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- speech
- feature parameter
- voice
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、自然発話の音声波
形信号の音声セグメントを連結することにより任意の音
素列を音声合成する自然発話音声波形信号接続型音声合
成装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a spontaneous speech sound waveform signal connection type speech synthesizer for synthesizing an arbitrary phoneme sequence by connecting speech segments of a spontaneous speech waveform signal.
【0002】[0002]
【従来の技術】図2は、従来例の音声合成装置のブロッ
ク図である。図2に示すように、学習用話者の信号波形
データに対して例えばLPC分析を実行し、16次ケプ
ストラム係数を含む特徴パラメータを抽出する。抽出さ
れた特徴パラメータは、バッファメモリである特徴パラ
メータメモリ62に記憶された後、当該メモリ62から
パラメータ時系列生成部52に入力される。次いで、パ
ラメータ時系列生成部52は、抽出された特徴パラメー
タに基づいて、時間正規化、及びメモリ63内の韻律制
御規則を用いたパラメータ時系列の生成処理などの信号
処理を実行することにより、音声合成に必要な、例えば
16次のケプストラム係数などのパラメータ時系列を生
成して音声合成部53に出力する。2. Description of the Related Art FIG. 2 is a block diagram of a conventional speech synthesizer. As shown in FIG. 2, for example, LPC analysis is performed on the signal waveform data of the learning speaker to extract feature parameters including 16th-order cepstrum coefficients. The extracted feature parameters are stored in a feature parameter memory 62 which is a buffer memory, and then input from the memory 62 to the parameter time series generation unit 52. Next, the parameter time series generation unit 52 executes signal processing such as time normalization and generation processing of a parameter time series using the prosody control rules in the memory 63 based on the extracted feature parameters, A parameter time series such as a 16th-order cepstrum coefficient required for speech synthesis is generated and output to the speech synthesis unit 53.
【0003】音声合成部53は公知の音声合成装置であ
って、有声音を発生するためのパルス発生器53aと、
無声音を発生するための雑音発生器53bと、フィルタ
係数を変更可能なフィルタ53cとを備え、入力される
パラメータ時系列に基づいて、パルス発生器53aによ
って発生される有声音と、雑音発生器53bによって発
生される無声音とを切り換え、かつその振幅を制御し、
さらには、フィルタ53の伝達関数に対応するフィルタ
係数を変化することにより、音声合成された音声信号を
発生して、スピーカ54からその音声を出力させる。The speech synthesizer 53 is a known speech synthesizer, and includes a pulse generator 53a for generating a voiced sound,
A noise generator 53b for generating an unvoiced sound; and a filter 53c capable of changing a filter coefficient. Based on an input parameter time series, a voiced sound generated by a pulse generator 53a and a noise generator 53b Switch to the unvoiced sound generated by the
Further, by changing a filter coefficient corresponding to a transfer function of the filter 53, a voice-synthesized voice signal is generated, and the voice is output from the speaker.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来例
の音声合成装置では、韻律制御規則を用いた信号処理を
必要とするために、また、処理された特徴パラメータに
基づいて音声合成しているために、声質がきわめて悪い
という問題点があった。However, in the conventional speech synthesizer, signal processing using prosody control rules is required, and speech synthesis is performed based on the processed characteristic parameters. However, there was a problem that the voice quality was extremely poor.
【0005】この問題点を解決するために、本特許出願
人は、特願平8−120113号の特許出願(以下、比
較例という。)において、自然発話の音声波形信号のセ
グメントを連結することにより音声合成する音声合成装
置を提案している。しかしながら、当該比較例において
は、より自然なイントネーションで音声合成することが
難しいという問題点があった。[0005] In order to solve this problem, the applicant of the present invention disclosed in Japanese Patent Application No. 8-120113 (hereinafter referred to as a comparative example) a method of connecting segments of a naturally uttered speech waveform signal. Has proposed a speech synthesizer that synthesizes speech by using. However, in the comparative example, there was a problem that it was difficult to synthesize speech with more natural intonation.
【0006】本発明の目的は以上の問題点を解決し、韻
律制御規則を使わず、信号処理を実行することなく、任
意の音素列を発声音声に変換することができ、しかも従
来例に比較して自然に近い声質を得ることができ、比較
例に比較してより自然なイントネーションで音声合成す
ることができる音声合成装置を提供することにある。SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems and to convert an arbitrary phoneme sequence into a uttered voice without using prosody control rules and without performing signal processing. Another object of the present invention is to provide a speech synthesizer which can obtain a voice quality close to nature and can synthesize speech with more natural intonation as compared with the comparative example.
【0007】[0007]
【課題を解決するための手段】本発明に係る請求項1記
載の自然発話音声波形信号接続型音声合成装置は、自然
発話の音声波形信号の音声セグメントを記憶する第1の
記憶手段と、上記第1の記憶手段によって記憶された音
声波形信号の音声セグメントと、上記音声波形信号に対
応する音素列とに基づいて、上記音声波形信号における
音素毎の索引情報と、上記索引情報によって示された音
素毎の第1の音響的特徴パラメータと、上記索引情報に
よって示された音素毎の第1の韻律的特徴パラメータと
を抽出して出力する音声分析手段と、上記音声分析手段
から出力される索引情報と、上記第1の音響的特徴パラ
メータと、上記第1の韻律的特徴パラメータとを記憶す
る第2の記憶手段と、上記第2の記憶手段によって記憶
された第1の音響的特徴パラメータに基づいて、同一の
音素種類の1つの目標音素とそれ以外の音素候補との間
の第2の音響的特徴パラメータにおける音響的距離を計
算し、計算した音響的距離に基づいて上記第2の音響的
特徴パラメータにおいて線形回帰分析することにより、
各音素候補に関する上記第2の音響的特徴パラメータに
おける寄与度を表わす各目標音素毎の重み係数ベクトル
を決定する重み係数学習手段と、上記重み係数学習手段
によって決定された上記第2の音響的特徴パラメータに
おける各目標音素毎の重み係数ベクトルと、予め与えら
れた、各音素候補に関する第2の韻律的特徴パラメータ
における寄与度を表わす各目標音素毎の重み係数ベクト
ルとを記憶する第3の記憶手段と、上記第3の記憶手段
によって記憶された各目標音素毎の重み係数ベクトル
と、上記第2の記憶手段によって記憶された第1の韻律
的特徴パラメータとに基づいて、入力される自然発話文
の音素列に対して、目標音素と音素候補との間の近似コ
ストを表わす目標コストと、隣接して連結されるべき2
つの音素候補間の近似コストを表わす連結コストとを含
むコストが最小となる、音素候補の組み合わせを検索し
て、検索した音素候補の組み合わせの索引情報を出力す
る音声単位選択手段と、上記音声単位選択手段から出力
される索引情報に基づいて、当該索引情報に対応する音
声波形信号の音声セグメントを上記第1の記憶手段から
逐次読み出して連結して出力することにより、上記入力
された音素列に対応する音声を合成して出力する音声合
成手段とを備え、上記音声単位選択手段は、目標音素の
音声基本周波数F0と音素候補の音声基本周波数F0との
傾きの差を目標コストに加算することを特徴とする。According to the present invention, a spontaneously uttered speech waveform signal connection type speech synthesizing apparatus according to a first aspect of the present invention comprises: first storage means for storing a speech segment of a naturally uttered speech waveform signal; Based on the audio segment of the audio waveform signal stored by the first storage means and the phoneme string corresponding to the audio waveform signal, index information for each phoneme in the audio waveform signal and indicated by the index information Voice analysis means for extracting and outputting a first acoustic feature parameter for each phoneme and a first prosodic feature parameter for each phoneme indicated by the index information, and an index output from the voice analysis means Second storage means for storing information, the first acoustic feature parameter, and the first prosodic feature parameter; and first sound information stored by the second storage means. Based on the characteristic parameters, an acoustic distance in a second acoustic characteristic parameter between one target phoneme of the same phoneme type and another phoneme candidate is calculated, and based on the calculated acoustic distance, By performing a linear regression analysis on the two acoustic feature parameters,
Weighting factor learning means for determining a weighting factor vector for each target phoneme representing the degree of contribution of the second acoustic feature parameter for each phoneme candidate; and the second acoustic feature determined by the weighting factor learning means A third storage unit for storing a weight coefficient vector for each target phoneme in the parameters and a weight coefficient vector for each target phoneme that indicates a degree of contribution in a second prosody characteristic parameter for each phoneme candidate given in advance; A natural utterance sentence based on the weighting coefficient vector for each target phoneme stored by the third storage means and the first prosodic feature parameter stored by the second storage means. And a target cost representing the approximate cost between the target phoneme and the phoneme candidate,
Voice unit selection means for searching for a combination of phoneme candidates which minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates and outputting index information of the searched combination of phoneme candidates; Based on the index information output from the selection means, the audio segments of the audio waveform signal corresponding to the index information are sequentially read out from the first storage means, connected and output, so that Voice synthesis means for synthesizing and outputting a corresponding voice, wherein the voice unit selection means adds a difference in inclination between the voice basic frequency F 0 of the target phoneme and the voice basic frequency F 0 of the phoneme candidate to the target cost. It is characterized by doing.
【0008】本発明に係る請求項2記載の自然発話音声
波形信号接続型音声合成装置は、自然発話の音声波形信
号の音声セグメントを記憶する第1の記憶手段と、上記
第1の記憶手段によって記憶された音声波形信号の音声
セグメントと、上記音声波形信号に対応する音素列とに
基づいて、上記音声波形信号における音素毎の索引情報
と、上記索引情報によって示された音素毎の第1の音響
的特徴パラメータと、上記索引情報によって示された音
素毎の第1の韻律的特徴パラメータとを抽出して出力す
る音声分析手段と、上記音声分析手段から出力される索
引情報と、上記第1の音響的特徴パラメータと、上記第
1の韻律的特徴パラメータとを記憶する第2の記憶手段
と、上記第2の記憶手段によって記憶された第1の音響
的特徴パラメータに基づいて、同一の音素種類の1つの
目標音素とそれ以外の音素候補との間の第2の音響的特
徴パラメータにおける音響的距離を計算し、計算した音
響的距離に基づいて上記第2の音響的特徴パラメータに
おいて線形回帰分析することにより、各音素候補に関す
る上記第2の音響的特徴パラメータにおける寄与度を表
わす各目標音素毎の重み係数ベクトルを決定する重み係
数学習手段と、上記重み係数学習手段によって決定され
た上記第2の音響的特徴パラメータにおける各目標音素
毎の重み係数ベクトルと、予め与えられた、各音素候補
に関する第2の韻律的特徴パラメータにおける寄与度を
表わす各目標音素毎の重み係数ベクトルとを記憶する第
3の記憶手段と、上記第3の記憶手段によって記憶され
た各目標音素毎の重み係数ベクトルと、上記第2の記憶
手段によって記憶された第1の韻律的特徴パラメータと
に基づいて、入力される自然発話文の音素列に対して、
目標音素と音素候補との間の近似コストを表わす目標コ
ストと、隣接して連結されるべき2つの音素候補間の近
似コストを表わす連結コストとを含むコストが最小とな
る、音素候補の組み合わせを検索して、検索した音素候
補の組み合わせの索引情報を出力する音声単位選択手段
と、上記音声単位選択手段から出力される索引情報に基
づいて、当該索引情報に対応する音声波形信号の音声セ
グメントを上記第1の記憶手段から逐次読み出して連結
して出力することにより、上記入力された音素列に対応
する音声を合成して出力する音声合成手段とを備え、上
記音声単位選択手段は、目標音素の音声基本周波数F0
の中央値と、音素候補の音声基本周波数F0の中央値の
差が所定のしきい値以上であるとき、所定のペナルティ
ーコストを目標コストに加算することを特徴とする。According to a second aspect of the present invention, a spontaneously uttered speech waveform signal connection type speech synthesizer includes a first storage unit for storing a speech segment of a naturally uttered speech waveform signal, and the first storage unit. Based on the stored speech segment of the speech waveform signal and the phoneme sequence corresponding to the speech waveform signal, index information for each phoneme in the speech waveform signal and a first phoneme for each phoneme indicated by the index information. Voice analysis means for extracting and outputting an acoustic feature parameter and a first prosodic feature parameter for each phoneme indicated by the index information; index information output from the voice analysis means; Storage means for storing the acoustic characteristic parameters of the first and second prosody characteristic parameters, and the first acoustic characteristic parameters stored by the second storage means An acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate based on the calculated acoustic distance. Coefficient learning means for determining a weight coefficient vector for each target phoneme representing a contribution in the second acoustic feature parameter for each phoneme candidate by performing a linear regression analysis on the characteristic feature parameters, and the weight coefficient learning means Weighting factor vector for each target phoneme in the second acoustic feature parameter determined by the above, and weighting for each target phoneme representing the degree of contribution in the second prosodic feature parameter for each phoneme candidate given in advance Third storage means for storing a coefficient vector, and a weight coefficient vector for each target phoneme stored by the third storage means , Based on the first prosodic feature parameters stored by said second storage means, with respect to a sequence of phonemes natural speech statement being input,
A combination of phoneme candidates that minimizes a cost including a target cost representing an approximate cost between a target phoneme and a phoneme candidate and a connection cost representing an approximate cost between two phoneme candidates to be connected adjacently. A voice unit selecting means for outputting index information of a combination of searched phoneme candidates, and a voice segment of a voice waveform signal corresponding to the index information based on the index information output from the voice unit selecting means. A voice synthesizing means for sequentially synthesizing and outputting a voice corresponding to the input phoneme string by sequentially reading out from the first storage means, connecting and outputting, and the voice unit selecting means includes a target phoneme. Voice fundamental frequency F 0
When the difference between the median value of the phoneme candidate and the median value of the voice fundamental frequency F 0 of the phoneme candidate is equal to or greater than a predetermined threshold value, a predetermined penalty cost is added to the target cost.
【0009】本発明に係る請求項3記載の自然発話音声
波形信号接続型音声合成装置は、自然発話の音声波形信
号の音声セグメントを記憶する第1の記憶手段と、上記
第1の記憶手段によって記憶された音声波形信号の音声
セグメントと、上記音声波形信号に対応する音素列とに
基づいて、上記音声波形信号における音素毎の索引情報
と、上記索引情報によって示された音素毎の第1の音響
的特徴パラメータと、上記索引情報によって示された音
素毎の第1の韻律的特徴パラメータとを抽出して出力す
る音声分析手段と、上記音声分析手段から出力される索
引情報と、上記第1の音響的特徴パラメータと、上記第
1の韻律的特徴パラメータとを記憶する第2の記憶手段
と、上記第2の記憶手段によって記憶された第1の音響
的特徴パラメータに基づいて、同一の音素種類の1つの
目標音素とそれ以外の音素候補との間の第2の音響的特
徴パラメータにおける音響的距離を計算し、計算した音
響的距離に基づいて上記第2の音響的特徴パラメータに
おいて線形回帰分析することにより、各音素候補に関す
る上記第2の音響的特徴パラメータにおける寄与度を表
わす各目標音素毎の重み係数ベクトルを決定する重み係
数学習手段と、上記重み係数学習手段によって決定され
た上記第2の音響的特徴パラメータにおける各目標音素
毎の重み係数ベクトルと、予め与えられた、各音素候補
に関する第2の韻律的特徴パラメータにおける寄与度を
表わす各目標音素毎の重み係数ベクトルとを記憶する第
3の記憶手段と、上記第3の記憶手段によって記憶され
た各目標音素毎の重み係数ベクトルと、上記第2の記憶
手段によって記憶された第1の韻律的特徴パラメータと
に基づいて、入力される自然発話文の音素列に対して、
目標音素と音素候補との間の近似コストを表わす目標コ
ストと、隣接して連結されるべき2つの音素候補間の近
似コストを表わす連結コストとを含むコストが最小とな
る、音素候補の組み合わせを検索して、検索した音素候
補の組み合わせの索引情報を出力する音声単位選択手段
と、上記音声単位選択手段から出力される索引情報に基
づいて、当該索引情報に対応する音声波形信号の音声セ
グメントを上記第1の記憶手段から逐次読み出して連結
して出力することにより、上記入力された音素列に対応
する音声を合成して出力する音声合成手段とを備え、上
記音声単位選択手段は、連続する2つの目標音素の音声
基本周波数F0の差分と、連続する2つの音素候補の音
声基本周波数F0の差分との加算値の絶対値を連結コス
トに加算することを特徴とする。According to a third aspect of the present invention, there is provided a spontaneously uttered speech waveform signal connection type speech synthesizing apparatus, comprising: a first storage unit for storing a speech segment of a naturally uttered speech waveform signal; and the first storage unit. Based on the stored speech segment of the speech waveform signal and the phoneme sequence corresponding to the speech waveform signal, index information for each phoneme in the speech waveform signal and a first phoneme for each phoneme indicated by the index information. Voice analysis means for extracting and outputting an acoustic feature parameter and a first prosodic feature parameter for each phoneme indicated by the index information; index information output from the voice analysis means; Storage means for storing the acoustic characteristic parameters of the first and second prosody characteristic parameters, and the first acoustic characteristic parameters stored by the second storage means An acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate based on the calculated acoustic distance. Coefficient learning means for determining a weight coefficient vector for each target phoneme representing a contribution in the second acoustic feature parameter for each phoneme candidate by performing a linear regression analysis on the characteristic feature parameters, and the weight coefficient learning means Weighting factor vector for each target phoneme in the second acoustic feature parameter determined by the above, and weighting for each target phoneme representing the degree of contribution in the second prosodic feature parameter for each phoneme candidate given in advance Third storage means for storing a coefficient vector, and a weight coefficient vector for each target phoneme stored by the third storage means , Based on the first prosodic feature parameters stored by said second storage means, with respect to a sequence of phonemes natural speech statement being input,
A combination of phoneme candidates that minimizes a cost including a target cost representing an approximate cost between a target phoneme and a phoneme candidate and a connection cost representing an approximate cost between two phoneme candidates to be connected adjacent to each other. A voice unit selecting means for outputting index information of a combination of searched phoneme candidates, and a voice segment of a voice waveform signal corresponding to the index information based on the index information output from the voice unit selecting means. Voice synthesizing means for sequentially synthesizing and outputting the speech corresponding to the input phoneme string by sequentially reading out from the first storage means, outputting the combined speech, and the speech unit selecting means Adding the absolute value of the sum of the difference between the basic voice frequencies F 0 of two target phonemes and the basic voice frequency F 0 of two consecutive phoneme candidates to the connection cost. Features.
【0010】また、請求項4記載の音声合成装置は、請
求項1記載の音声合成装置において、上記音声単位選択
手段は、目標音素の音声基本周波数F0の中央値と、音
素候補の音声基本周波数F0の中央値の差が所定のしき
い値以上であるとき、所定のペナルティーコストを目標
コストにさらに加算することを特徴とする。According to a fourth aspect of the present invention, in the voice synthesizing apparatus according to the first aspect, the voice unit selecting means includes a central value of a basic voice frequency F 0 of a target phoneme and a basic voice of a phoneme candidate. When the difference between the median values of the frequencies F 0 is equal to or greater than a predetermined threshold value, a predetermined penalty cost is further added to the target cost.
【0011】さらに、請求項5記載の音声合成装置は、
請求項1又は4記載の音声合成装置において、上記音声
単位選択手段は、連続する2つの目標音素の音声基本周
波数F0の差分と、連続する2つの音素候補の音声基本
周波数F0の差分との加算値の絶対値を連結コストに加
算することを特徴とする。Further, the speech synthesizing device according to claim 5 is
In speech synthesis device according to claim 1 or 4, wherein said speech unit selection means comprises: a difference between the voice fundamental frequency F 0 of the two target phonemes consecutive and voice fundamental frequency F 0 of two consecutive phonemes candidate difference Is added to the connection cost.
【0012】またさらに、請求項6記載の音声合成装置
は、請求項1乃至5のうちの1つに記載の音声合成装置
において、上記音声単位選択手段は、上記目標コストと
上記連結コストとを含むコストが最良の上位複数N2個
の音素候補を抽出した後、コストが最小となる音素候補
の組み合わせを検索することを特徴とする。Further, in the speech synthesizer according to the present invention, in the speech synthesizer according to any one of the first to fifth aspects, the voice unit selecting means determines the target cost and the connection cost. After extracting the top N2 phoneme candidates with the highest included cost, a combination of phoneme candidates with the lowest cost is searched.
【0013】また、請求項7記載の音声合成装置は、請
求項1乃至6のうちの1つに記載の音声合成装置におい
て、上記音声分析手段は、入力される音声波形信号に基
づいて上記音声波形信号に対応する音素列を予測する音
素予測手段を備えたことを特徴とする。According to a seventh aspect of the present invention, in the voice synthesizing apparatus according to any one of the first to sixth aspects, the voice analyzing means is configured to output the voice based on an input voice waveform signal. It is characterized by comprising a phoneme predicting means for predicting a phoneme sequence corresponding to the waveform signal.
【0014】さらに、請求項8記載の音声合成装置は、
請求項1乃至7のうちの1つに記載の音声合成装置にお
いて、上記重み係数学習手段は、上記計算した音響的距
離に基づいて、最良の上位複数N1個の音素候補を抽出
した後、上記第2の音響的特徴パラメータにおいて線形
回帰分析することにより、各音素候補に関する上記第2
の音響的特徴パラメータにおける寄与度を表わす各目標
音素毎の重み係数ベクトルを決定することを特徴とす
る。Further, the speech synthesizing apparatus according to claim 8 is
8. The speech synthesizer according to claim 1, wherein the weighting factor learning unit extracts a plurality of N1 best phoneme candidates based on the calculated acoustic distance. By performing a linear regression analysis on the second acoustic feature parameter, the second
And determining a weighting coefficient vector for each target phoneme, which represents the degree of contribution in the acoustic feature parameter.
【0015】またさらに、請求項9記載の音声合成装置
は、請求項1乃至8のうちの1つに記載の音声合成装置
において、上記第1の音響的特徴パラメータは、ケプス
トラム係数と、デルタケプストラム係数と、音素ラベル
とを含むことを特徴とする。According to a ninth aspect of the present invention, in the speech synthesizer according to any one of the first to eighth aspects, the first acoustic feature parameter is a cepstrum coefficient and a delta cepstrum. It is characterized by including a coefficient and a phoneme label.
【0016】また、請求項10記載の音声合成装置は、
請求項1乃至9のうちの1つに記載の音声合成装置にお
いて、上記第1の韻律的特徴パラメータは、音素時間長
と、音声基本周波数F0と、パワーとを含むことを特徴
とする。[0016] The speech synthesizing apparatus according to claim 10 is
In speech synthesis device according to one of claims 1 to 9, the first prosodic feature parameters of a phoneme duration, a voice fundamental frequency F 0, characterized in that it comprises a power.
【0017】さらに、請求項11記載の音声合成装置
は、請求項1乃至10のうちの1つに記載の音声合成装
置において、上記第2の音響的特徴パラメータは、
(a)処理すべき当該音素から先行する先行音素の音素
ラベルと、(b)当該音素から後続する後続音素の音素
ラベルと、(c)音素間の接続点におけるケプストラム
距離と、(d)音素間の対数パワーの差の絶対値と、
(e)音素間の音声基本周波数F0の差の絶対値とを含
むことを特徴とする。Further, the speech synthesizer according to claim 11 is the speech synthesizer according to any one of claims 1 to 10, wherein the second acoustic feature parameter is:
(A) a phoneme label of a preceding phoneme preceding the phoneme to be processed, (b) a phoneme label of a succeeding phoneme following the phoneme, (c) a cepstrum distance at a connection point between the phonemes, and (d) a phoneme. The absolute value of the difference in log power between
(E) It is characterized by including the absolute value of the difference of the voice fundamental frequency F 0 between phonemes.
【0018】またさらに、請求項12記載の音声合成装
置は、請求項1乃至11のうちの1つに記載の音声合成
装置において、上記第2の韻律的特徴パラメータは、
(a)処理すべき当該音素から先行する先行音素の第1
の韻律的特徴パラメータと、(b)当該音素から後続す
る後続音素の音素ラベルの第1の韻律的特徴パラメータ
と、(c)当該音素の音素時間長と、(d)当該音素の
音声基本周波数F0と、(e)先行音素の音声基本周波
数F0と、を含むことを特徴とする。Still further, a speech synthesizer according to claim 12 is the speech synthesizer according to any one of claims 1 to 11, wherein the second prosodic feature parameter is:
(A) The first phoneme preceding the phoneme to be processed
(B) a first prosodic feature parameter of a phoneme label of a succeeding phoneme following the phoneme, (c) a phoneme time length of the phoneme, and (d) a speech fundamental frequency of the phoneme. F 0 and (e) a basic sound frequency F 0 of the preceding phoneme.
【0019】[0019]
【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。図1は、本発明に係る一
実施形態である自然発話音声波形信号接続型音声合成装
置のブロック図である。例えば図2に示した従来例の音
声合成装置では入力された発声音声に対応するテキスト
抽出から音声波形信号の生成までが一連の処理として行
なわれるのに対して、本実施形態では、大きく分類すれ
ば、次の4つの処理部に分類される。 (1)音声波形信号データベースメモリ21内の音声波
形信号データベースの音声波形信号データの音声分析、
具体的には、音素記号系列の生成、音素のアラインメン
ト、特徴パラメータの抽出を含む処理を実行する音声分
析部10。 (2)最適重み係数を学習しながら決定する重み係数学
習部11。 (3)入力される音素列に基づいて音声単位の選択を実
行して入力音素列に対応する音声波形信号データの索引
情報を出力する音声単位選択部12。 (4)音声単位選択部12から出力される索引情報に基
づいて音声波形信号データベースメモリ21内の音声波
形信号データベースをランダムにアクセスして最適とさ
れた各音素候補の音声波形信号を再生してスピーカ14
に出力する音声合成部13。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a spontaneously uttered speech waveform signal connection type speech synthesis apparatus according to an embodiment of the present invention. For example, the conventional speech synthesizer shown in FIG. 2 performs a series of processes from extraction of a text corresponding to an input uttered speech to generation of a speech waveform signal, whereas the present embodiment largely classifies the speech. For example, it is classified into the following four processing units. (1) voice analysis of voice waveform signal data in the voice waveform signal database in the voice waveform signal database memory 21;
Specifically, the speech analysis unit 10 performs processing including generation of a phoneme symbol sequence, alignment of phonemes, and extraction of feature parameters. (2) A weighting factor learning unit 11 that determines while learning the optimal weighting factor. (3) A voice unit selection unit 12 that selects a voice unit based on an input phoneme sequence and outputs index information of voice waveform signal data corresponding to the input phoneme sequence. (4) Based on the index information output from the voice unit selection unit 12, the voice waveform signal database in the voice waveform signal database memory 21 is randomly accessed to reproduce the voice waveform signal of each optimal phoneme candidate. Speaker 14
A voice synthesizer 13 for outputting to
【0020】具体的には、音声分析部10は、入力され
る自然発話の音声波形信号の音声セグメントと、上記音
声波形信号に対応する音素列とに基づいて、上記音声波
形信号における音素毎の索引情報と、上記索引情報によ
って示された音素毎の第1の音響的特徴パラメータと、
上記索引情報によって示された音素毎の第1の韻律的特
徴パラメータとを抽出して出力する。特徴パラメータメ
モリ30は、上記音声分析部10から出力される索引情
報と、上記第1の音響的特徴パラメータと、上記第1の
韻律的特徴パラメータとを記憶する。次いで、重み係数
学習部11は、特徴パラメータメモリ30に記憶された
第1の音響的特徴パラメータに基づいて、同一の音素種
類の1つの目標音素とそれ以外の音素候補との間の第2
の音響的特徴パラメータにおける音響的距離を計算し、
計算した音響的距離に基づいて上記第2の音響的特徴パ
ラメータにおいて線形回帰分析することにより、各音素
候補に関する上記第2の音響的特徴パラメータにおける
寄与度を表わす各目標音素毎の重み係数ベクトルを決定
する。重み係数ベクトルメモリ31は、重み係数学習部
11によって決定された上記第2の音響的特徴パラメー
タにおける各目標音素毎の重み係数ベクトルと、予め与
えられた、各音素候補に関する第2の韻律的特徴パラメ
ータにおける寄与度を表わす各目標音素毎の重み係数ベ
クトルとを記憶する。さらに、音声単位選択部12は、
重み係数ベクトルメモリ31に記憶された各目標音素毎
の重み係数ベクトルと、特徴パラメータメモリ30に記
憶された第1の韻律的特徴パラメータとに基づいて、入
力される自然発話文の音素列に対して、目標音素と音素
候補との間の近似コストを表わす目標コストと、隣接し
て連結されるべき2つの音素候補間の近似コストを表わ
す連結コストとを含むコストが最小となる、音素候補の
組み合わせを検索して、検索した音素候補の組み合わせ
の索引情報を出力する。そして、音声合成部13は、音
声単位選択部12から出力される索引情報に基づいて、
当該索引情報に対応する音声波形信号の音声セグメント
を音声波形信号データベースメモリ21から逐次読み出
して連結してスピーカ14に出力することにより、上記
入力された音素列に対応する音声を合成して出力する。More specifically, the speech analysis unit 10 determines a phoneme for each phoneme in the speech waveform signal on the basis of the speech segment of the speech waveform signal of the natural utterance input and the phoneme sequence corresponding to the speech waveform signal. Index information, a first acoustic feature parameter for each phoneme indicated by the index information,
A first prosodic feature parameter for each phoneme indicated by the index information is extracted and output. The feature parameter memory 30 stores the index information output from the speech analysis unit 10, the first acoustic feature parameter, and the first prosodic feature parameter. Next, based on the first acoustic feature parameter stored in the feature parameter memory 30, the weighting factor learning unit 11 determines whether the second phoneme between one target phoneme of the same phoneme type and another phoneme candidate is different.
Calculating the acoustic distance in the acoustic feature parameters of
By performing a linear regression analysis on the second acoustic feature parameter based on the calculated acoustic distance, a weight coefficient vector for each target phoneme representing a contribution degree in the second acoustic feature parameter for each phoneme candidate is obtained. decide. The weight coefficient vector memory 31 stores a weight coefficient vector for each target phoneme in the second acoustic feature parameter determined by the weight coefficient learning unit 11 and a second given prosody characteristic for each phoneme candidate. A weight coefficient vector for each target phoneme, which represents the degree of contribution in the parameter, is stored. Further, the voice unit selection unit 12
On the basis of the weight coefficient vector for each target phoneme stored in the weight coefficient vector memory 31 and the first prosodic feature parameter stored in the feature parameter memory 30, a phoneme sequence of a natural utterance sentence is input. A phoneme candidate having a minimum cost including a target cost representing an approximate cost between a target phoneme and a phoneme candidate and a connection cost representing an approximate cost between two phoneme candidates to be connected adjacently. The combination is searched, and index information of the searched combination of phoneme candidates is output. Then, based on the index information output from the voice unit selection unit 12, the voice synthesis unit 13
The voice segments of the voice waveform signal corresponding to the index information are sequentially read out from the voice waveform signal database memory 21, connected and output to the speaker 14, thereby synthesizing and outputting the voice corresponding to the input phoneme string. .
【0021】ここで、音声分析部10の処理は新しい音
声波形信号データベースに対しては必ず一度行なう必要
があり、重み係数学習部11の処理は、一般に一度の処
理でよく、重み係数学習部11によって求めた最適重み
係数は異なる音声合成条件に対しても再利用が可能であ
る。さらに、音声単位選択部12と音声合成部13の処
理は、音声合成すべき入力音素列が変われば、その都度
実行される。Here, the processing of the voice analysis unit 10 must always be performed once for a new voice waveform signal database, and the processing of the weighting coefficient learning unit 11 generally only needs to be performed once. The optimal weight coefficient obtained by the above can be reused even under different speech synthesis conditions. Further, the processing of the voice unit selection unit 12 and the voice synthesis unit 13 is executed each time the input phoneme sequence to be voice-synthesized changes.
【0022】本実施形態の音声合成装置は与えられたレ
ベルの入力に基づいて必要とする、すべての特徴パラメ
ータを予測し、所望の音声の特徴に最も近いサンプル
(すなわち、音素候補の音声波形信号)をメモリ21内
の音声波形信号データベースの中から選び出す。最低
限、音素ラベルの系列が与えられれば処理は可能である
が、音声基本周波数F0や音素時間長が予め与えられて
いれば、さらに高品質の合成音声が得られる。なお、入
力として単語の情報だけが与えられた場合には、例えば
音素隠れマルコフモデル(以下、隠れマルコフモデルを
HMMという。)などの辞書や規則に基づいて音素系列
を予測する必要がある。また、韻律特徴が与えられなか
った場合には音声波形信号データベース中のいろいろな
環境における音素の既知の特徴を基に標準的な韻律を生
成する。The speech synthesizer according to the present embodiment predicts all necessary feature parameters based on the input of a given level, and obtains a sample closest to a desired speech feature (ie, a speech waveform signal of a phoneme candidate). ) Is selected from the audio waveform signal database in the memory 21. At a minimum, processing is possible if a sequence of phoneme labels is given, but higher quality synthesized speech can be obtained if the speech fundamental frequency F 0 and phoneme time length are given in advance. When only word information is given as an input, it is necessary to predict a phoneme sequence based on a dictionary or rule such as a phoneme hidden Markov model (hereinafter, a hidden Markov model is referred to as HMM). If no prosodic feature is given, a standard prosody is generated based on known features of phonemes in various environments in the speech waveform signal database.
【0023】本実施形態では、音声波形信号データベー
スメモリ21内の録音内容を少なくとも正書法で記述さ
れたテキストデータが例えば、テキストデータベースメ
モリ22内のテキストデータベースのように存在するな
らば、あらゆる音声波形信号データベースが合成用の音
声波形信号データとして利用可能であるが、出力音声の
品質は録音状態、音声波形信号データベース中の音素の
バランス等に大きく影響を受け、メモリ21内の音声波
形信号データベースが豊富な内容であれば、より多様な
音声が合成でき、反対に音声波形信号データベースが貧
弱であれば、合成音声は不連続感が強く、ブツブツした
ものになる。In this embodiment, if at least text data describing the recorded content in the voice waveform signal database memory 21 in the orthographic format exists as in a text database in the text database memory 22, any voice waveform signal Although the database can be used as speech waveform signal data for synthesis, the quality of output speech is greatly affected by the recording state, the balance of phonemes in the speech waveform signal database, and the like, and the speech waveform signal database in the memory 21 is abundant. If the content is appropriate, more diverse voices can be synthesized. Conversely, if the voice waveform signal database is poor, the synthesized voice will have a strong sense of discontinuity and will be jerky.
【0024】次いで、自然な発話音声に対する音素ラベ
ル付けについて説明する。音声単位の選択の善し悪しは
音声波形信号データベース中の音素のラベル付けと検索
の方法に依存する。ここで、好ましい実施例において
は、音声単位は、音素である。まず、録音された音声に
付与された正書法の発話内容を音素系列に変換し、さら
に音声波形信号に割り当てる。韻律的特徴パラメータの
抽出はこれに基づいて行なわれる。音声分析部10の入
力はメモリ22内の音素表記を伴ったメモリ21内の音
声波形信号データであり、出力は特徴ベクトル又は特徴
パラメータである。この特徴ベクトルは音声波形信号デ
ータベース中で音声サンプルを表す基本単位となり、最
適な音声単位の選択に用いられる。Next, a description will be given of phoneme labeling for a natural uttered voice. The choice of speech unit depends on the method of labeling and searching phonemes in the speech waveform signal database. Here, in the preferred embodiment, the speech unit is a phoneme. First, the utterance content of the orthography given to the recorded voice is converted into a phoneme sequence, and further assigned to a voice waveform signal. Extraction of the prosodic feature parameters is performed based on this. The input of the voice analysis unit 10 is voice waveform signal data in the memory 21 accompanied by the phoneme notation in the memory 22, and the output is a feature vector or a feature parameter. This feature vector becomes a basic unit representing a voice sample in the voice waveform signal database, and is used for selecting an optimum voice unit.
【0025】音声分析部10の処理における第1段階に
おいては、正書法で書かれた発話内容が実際の音声波形
信号データでどのように発音されているかを記述するた
めの正書法テキストから音素記号への変換である。次い
で、第2段階においては、韻律的及び音響的特徴を計測
するために各音素の開始及び終了時点を決めるために、
各音素記号を音声波形信号に対応付ける処理である(以
下、当該処理を、音素のアラインメント処理とい
う。)。さらに、第3段階においては、各音素の特徴ベ
クトル又は特徴パラメータを生成することである。この
特徴ベクトルには、必須項目として音素ラベル、メモリ
30内の音声波形信号データベース中の各ファイルにお
ける当該音素の開始時刻(開始位置)、音声基本周波数
F0、音素時間長、パワーの情報が記憶され、さらに、
特徴パラメータのオプションとしてストレス、アクセン
ト型、韻律境界に対する位置、スペクトル傾斜等の情報
が記憶される。以上の特徴パラメータを整理すると、例
えば、次の表1のようになる。In the first stage of the processing of the speech analysis unit 10, a speech from a orthographic text to a phoneme symbol for describing how an utterance content written in orthography is pronounced in actual speech waveform signal data. Conversion. Then, in a second stage, to determine the start and end times of each phoneme to measure prosodic and acoustic features,
This is a process of associating each phoneme symbol with a speech waveform signal (hereinafter, this process is referred to as a phoneme alignment process). Further, the third step is to generate a feature vector or feature parameter of each phoneme. The feature vector stores, as essential items, information on a phoneme label, a start time (start position) of the phoneme in each file in the speech waveform signal database in the memory 30, a speech fundamental frequency F 0 , a phoneme time length, and power. And
Information such as stress, accent type, position with respect to the prosodic boundary, and spectrum inclination are stored as options of the feature parameter. The above characteristic parameters are arranged as shown in Table 1 below, for example.
【0026】[0026]
【表1】 ─────────────────────────────────── 索引情報: 索引番号(1つのファイルに対して付与) メモリ30内の音声波形信号データベース中の各ファイルにおける 当該音素の開始時刻(開始位置) ─────────────────────────────────── 第1の音響的特徴パラメータ: 12次メルケプストラム係数 12次Δメルケプストラム係数 音素ラベル 弁別素性: 母音性(vocalic)(+)/非母音性(non-vocalic)(−) 子音性(consonantal)(+)/非子音性(non-consonantal)(−) 中断性(interrupted)(+)/連続性(continuant)(−) 抑止性(checked)(+)/非抑止性(unchecked)(−) 粗擦性(strident)(+)/円熟性(mellow)(−) 有声(voiced)(+)/無声(unvoiced)(−) 集約性(compact)(+)/拡散性(diffuse)(−) 低音調性(grave)(+)/高音調性(acute)(−) 変音調性(flat)(+)/常音調性(plain)(−) 嬰音調性(sharp)(+)/常音調性(plain)(−) 緊張性(tense)(+)/弛緩性(lax)(−) 鼻音性(nasal)(+)/口音性(oral)(−) ─────────────────────────────────── 第1の韻律的特徴パラメータ: 音素時間長 音声基本周波数F0 パワー ───────────────────────────────────[Table 1] 情報 Index information: Index number (for one file Start time (start position) of the phoneme in each file in the audio waveform signal database in the memory 30 ───────────────────────── ────────── First acoustic feature parameter: 12th-order mel-cepstral coefficient 12th-order Δ-mel-cepstral coefficient Phoneme label Discrimination feature: Vowel (vocalic) (+) / non-vocal (non-vocalic) ) (-) Consonant (+) / non-consonant (-) interrupted (+) / continuity (continuant) (-) deterrent (checked) (+) / Unchecked (-) Rough (strident) (+) / Maturity (mellow) (-) Voiced (+) / Unvoiced (unvo iced) (-) Intensity (compact) (+) / Diffuse (-) Low tone (grave) (+) / High tone (acute) (-) Inflection tone (flat) (+) / Normal tone (plain) (-) sharp tone (sharp) (+) / normal tone (plain) (-) tension (tense) (+) / relaxation (lax) (-) nasal tone (nasal) ) (+) / Oral (oral) (-) ─────────────────────────────────── 1 Prosodic feature parameters of: phoneme time length voice fundamental frequency F 0 power ───────────────────────────────────
【0027】上記索引情報内の開始時刻(開始位置)、
第1の音響的特徴パラメータ及び第1の韻律的特徴パラ
メータは、各音素毎に特徴パラメータメモリ30に記憶
される。ここで、音素ラベルに付与される、例えば12
個の弁別素性の特徴パラメータは各項目別に(+)又は
(−)のパラメータ値が与えられる。さらに、音声分析
部10の出力結果である特徴パラメータの一例を表2に
示す。ここで、索引番号は、音声波形信号データベース
メモリ21において、例えば複数の文からなる1つのパ
ラグラフ又は1つの文のファイル毎に、索引番号が付与
され、そして、1つの索引番号が付与されたファイル中
の任意の音素の位置を示すために当該ファイル内の開始
時刻から計時された当該音素の開始時刻及びその当該音
素の音素時間長とを付与することにより、当該音素の音
声波形信号の音声セグメントを特定することができる。Start time (start position) in the index information;
The first acoustic feature parameter and the first prosodic feature parameter are stored in the feature parameter memory 30 for each phoneme. Here, for example, 12
The characteristic parameter of the discrimination feature is given a parameter value of (+) or (-) for each item. Further, Table 2 shows an example of the characteristic parameter which is the output result of the voice analysis unit 10. Here, in the voice waveform signal database memory 21, for example, an index number is assigned to each paragraph of a plurality of sentences or a file of one sentence, and a file to which one index number is assigned By adding the start time of the phoneme measured from the start time in the file to indicate the position of an arbitrary phoneme in the file and the phoneme time length of the phoneme, the speech segment of the speech waveform signal of the phoneme is added. Can be specified.
【0028】[0028]
【表2】 音声分析部10の出力結果である特徴パラメータの一例 索引番号X0005 ────────────────────── 音素 時間長 基本周波数 パワー ……… ────────────────────── # 120 90 4.0 ……… s 175 98 4.7 ……… ei 95 102 6.5 ……… dh 30 114 4.9 ……… ih 75 143 6.9 ……… s 150 140 5.7 ……… p 87 137 5.1 ……… l 34 107 4.9 ……… ii 150 98 6.3 ……… z 140 87 5.8 ……… # 253 87 4.0 ……… ───────────────────────[Table 2] An example of a feature parameter that is an output result of the voice analysis unit 10 Index number X0005 {phoneme time length fundamental frequency power ...} ... ────────────────────── # 120 90 4.0 ... s 175 98 4.7 ... ei 95 102 6.5 ... dh 30 114 4.9... ih 75 143 6.9... s 150 140 5.7... p 87 137 5.1... 3 ... z 140 87 5.8 ... # 253 87 4.0 ...
【0029】表2において、#はポーズを示す。音声単
位を選択する場合に、音響的及び韻律的な各特徴パラメ
ータがそれぞれの音素でどれだけの寄与をするかを予め
調べておくことが必要であり、第4段階では、このため
に音声波形信号データベース中のすべての音声サンプル
を用いて各特徴パラメータの重み係数を決定する。In Table 2, # indicates a pause. When selecting a speech unit, it is necessary to check in advance how much each acoustic and prosodic feature parameter contributes to each phoneme. In the fourth stage, the speech waveform A weighting factor for each feature parameter is determined using all audio samples in the signal database.
【0030】音声分析部10における音素記号系列の生
成処理においては、上述した通り、本実施形態では、少
なくとも録音内容が正書法で記述されたものがあれば、
あらゆる音声波形信号データベースが合成用の音声波形
信号データとして利用可能である。入力として単語の情
報だけが与えられた場合には辞書や規則に基づいて音素
系列を予測する必要がある。また、音声分析部10にお
ける音素のアラインメント処理においては、読み上げ音
声の場合、各単語がそれぞれの標準の発音に近く発音さ
れることが多く、躊躇したり、言い淀んだりすることも
まれである。このような音声波形信号データの場合には
簡単な辞書検索によって音素ラベリングが正しく行なわ
れ、音素アラインメント用の音素HMMの音素モデルの
学習が可能となる。In the process of generating a phoneme symbol sequence in the speech analysis unit 10, as described above, in this embodiment, if at least one of the recorded contents is described in orthography,
Any audio waveform signal database can be used as audio waveform signal data for synthesis. If only word information is given as input, it is necessary to predict phoneme sequences based on dictionaries and rules. Further, in the phoneme alignment processing in the speech analysis unit 10, in the case of a read-aloud speech, each word is often pronounced close to its standard pronunciation, and it is rare to hesitate or stutter. In the case of such speech waveform signal data, phoneme labeling is correctly performed by a simple dictionary search, and learning of a phoneme model of a phoneme HMM for phoneme alignment becomes possible.
【0031】音素アラインメント用の音素モデルの学習
では完全な音声認識の場合と異なり、学習用の音声波形
信号データとテスト用の音声波形信号データとを完全に
分離する必要はなく、すべての音声波形信号データを用
いて学習を行なうことができる。まず、別の話者用のモ
デルを初期モデルとし、すべての単語について標準発音
か限られた発音変化のみを許し、適切なセグメンテーシ
ョンが行なわれるように、全音声波形信号データを用い
てビタビの学習アルゴリズムを用いて音素のアライメン
トを行ない、特徴パラメータの再推定を行なう。単語間
のポーズは単語間ポーズ生成規則によって処理するが、
単語内にポーズがあってアライメントが失敗した場合に
は人手により修正する必要がある。In the training of the phoneme model for phoneme alignment, unlike the case of complete speech recognition, it is not necessary to completely separate the speech waveform signal data for training and the speech waveform signal data for test. Learning can be performed using the signal data. First, a model for another speaker is used as an initial model. Viterbi learning is performed using all voice waveform signal data so that only standard pronunciation or limited pronunciation changes are allowed for all words, and appropriate segmentation is performed. The phonemes are aligned using an algorithm, and the feature parameters are re-estimated. Pauses between words are processed according to the rules for generating pauses between words.
If alignment fails due to a pause in the word, it must be corrected manually.
【0032】どういう音素ラベルを音素表記として用い
るかは選択が必要である。もし良く学習されたHMMモ
デルが利用できるような音素セットが存在するなら、そ
れを用いることが有利である。反対に、音声合成装置が
完全な辞書を持っているなら、音声波形信号データベー
スのラベルを完全に辞書と照合する方法も有効である。
我々は、重み係数の学習に対して選択の余地があるか
ら、後で音声合成装置が予測したものと等価なものを音
声波形信号データベースの中から照合できるかどうかを
最も重要な規準とすれば良い。発音の微妙な違いはその
発音の韻律的環境によって自動的に把握されるため、特
に手作業で音素のラベル付けを行なう必要はない。It is necessary to select what phoneme label is to be used as phoneme notation. If a phoneme set exists for which a well-learned HMM model can be used, it is advantageous to use it. Conversely, if the speech synthesizer has a complete dictionary, a method of completely collating the label of the speech waveform signal database with the dictionary is also effective.
Since we have a choice for learning the weighting factor, if the most important criterion is to be able to match the equivalents predicted by the speech synthesizer later from the speech waveform signal database, good. Subtle differences in pronunciation are automatically identified by the prosodic environment of the pronunciation, so there is no need to manually label phonemes.
【0033】前処理の次の段階として、個々の音素の調
音的な特徴を記述するための韻律特徴パラメータの抽出
を行なう。従来の音声学では、調音位置や調音様式とい
った素性で言語音を分類した。これに対して、ファース
(Firth)学派のような韻律を考慮した音声学で
は、韻律的文脈の違いから生ずる細かな音質の違いをと
らえるために、明瞭に調音されている箇所や強調が置か
れている箇所を区別する。これらの違いを記述する方法
はいろいろなものがあるが、ここでは以下の2つの方法
を用いる。まず低次のレベルでは、1次元の特徴を求め
るために、パワー、音素時間長の伸び及び音声基本周波
数F0を、ある音素について平均した値を用いる。一
方、高次のレベルでは、韻律特徴における上記の違いを
考慮した韻律境界や強調箇所をマークする方法を用い
る。これらの2種類の特徴は相互に密接に関係している
ため一方から他方を予測することができるが、両者は共
に各音素の特徴に強い影響を与えている。As the next stage of the preprocessing, prosodic feature parameters for describing the articulatory features of individual phonemes are extracted. In conventional phonetics, language sounds are classified based on features such as articulation position and articulation style. On the other hand, phonetics that take into account the prosody, such as the First School, place clear articulations and emphasis in order to capture small differences in sound quality arising from differences in prosody context. To distinguish where they are. Although there are various methods for describing these differences, the following two methods are used here. First, at a lower level, a value obtained by averaging the power, the extension of the phoneme time length, and the basic voice frequency F 0 for a certain phoneme is used to obtain a one-dimensional feature. On the other hand, at a higher level, a method of marking prosody boundaries and emphasis points in consideration of the above differences in prosody features is used. Since these two types of features are closely related to each other, one can predict the other, but both have a strong influence on the characteristics of each phoneme.
【0034】音声波形信号データベースを記述するため
の音素セットの規定法に自由度があるのと同様に、韻律
的特徴パラメータの記述方法についても自由度がある
が、これらの選び方は音声合成装置の予測能力に依存す
る。もし音声波形信号データベースが予めラベリングさ
れているなら、音声合成装置の仕事は内部表現から音声
波形信号データベース中の実音声をいかに行なうかを適
切に学習することである。これに対して、もし音声波形
信号データベースが音素のラベル付けがなされていない
なら、どのような特徴パラメータを使えば音声合成装置
が最も適切な音声単位を予測できるかから検討すること
が必要となる。この検討及び最適な特徴パラメータの重
みの決定学習は、各特徴パラメータに対する重み係数を
学習しながら決定する重み係数学習部11において実行
される。Just as there is a degree of freedom in the method of describing the prosodic feature parameters as well as in the method of defining the phoneme set for describing the speech waveform signal database, the method of selecting these is determined by the speech synthesizer. Depends on predictive ability. If the speech waveform signal database is pre-labeled, the task of the speech synthesizer is to properly learn from the internal representation how to perform the actual speech in the speech waveform signal database. On the other hand, if the speech waveform signal database is not labeled with phonemes, it is necessary to consider from what feature parameters the speech synthesizer can predict the most appropriate speech unit. . This study and the learning of the determination of the optimal feature parameter weight are executed by the weight coefficient learning unit 11 which determines the weight while learning the weight coefficient for each feature parameter.
【0035】次いで、重み係数学習部11によって実行
される重み係数学習処理について述べる。与えられた目
標音声の音響的及び韻律的な環境に最適なサンプルを音
声波形信号データベースから選択するために、まずどの
特徴がどれだけ寄与しているかを音素的及び韻律的な環
境の違いによって決める必要がある。これは音素の性質
によって重要な特徴パラメータの種類が変化するため
で、例えば、音声基本周波数F0は有声音の選択には極
めて有効であるが、無声音の選択にはほとんど影響がな
い。また、摩擦音の音響的特徴は前後の音素の種類によ
って影響が変わる。最適な音素を選択するためにそれぞ
れの特徴にどれだけの重みを置くかを最適重み決定処
理、すなわち重み係数学習処理で自動的に決定する。Next, the weight coefficient learning processing executed by the weight coefficient learning section 11 will be described. In order to select the best sample for the acoustic and prosodic environment of a given target speech from the speech waveform signal database, first determine which features and how much are contributed by the difference between phonemic and prosodic environments. There is a need. This is to change the type of critical characteristic parameters depending on the nature of the phonemes, for example, although voice fundamental frequency F 0 is very effective for the selection of voiced, little effect on the selection of the unvoiced sound. Further, the acoustic characteristics of the fricative sound vary depending on the types of the phonemes before and after. In order to select an optimal phoneme, how much weight is given to each feature is automatically determined by an optimal weight determination process, that is, a weight coefficient learning process.
【0036】重み係数学習部11によって実行される最
適重み係数の決定処理で、最初に行なわれることは音声
波形信号データベース中で該当するすべての発話サンプ
ルの中から最適なサンプルを選ぶときに使われる特徴を
リストアップすることである。ここでは、調音位置や調
音様式等の音素的特徴と先行音素、当該音素、及び後続
音素の音声基本周波数F0、音素時間長、パワー等の韻
律的特徴パラメータ等を用いる。具体的には、詳細後述
する第2の韻律的パラメータを用いる。次いで、第2段
階では各音素毎に、最適な候補を選ぶ際にどの特徴パラ
メータがどれだけ重要かを決定するために、1つの音声
サンプル(又は音素の音声波形信号)に着目し、他のす
べての音素サンプルとの音素時間長の差をも含む音響的
距離を求め、上位N2個の最良の類似音声サンプル、す
なわちN2ベストの音素候補の音声波形信号の音声セグ
メントを選び出す。In the process of determining the optimum weighting factor executed by the weighting factor learning section 11, the first process used is to select the optimum sample from all the corresponding utterance samples in the speech waveform signal database. It is to list features. Here, phonemic features such as articulation positions and articulation styles, and prosodic feature parameters such as the sound fundamental frequency F 0 , phoneme time length, and power of the preceding phoneme, the phoneme, and the succeeding phoneme are used. Specifically, a second prosody parameter, which will be described in detail later, is used. Next, in the second stage, for each phoneme, one speech sample (or a speech waveform signal of a phoneme) is focused on to determine which feature parameter is important and how important it is in selecting an optimal candidate. The acoustic distance including the difference in the phoneme time length from all phoneme samples is obtained, and the N2 best similar speech samples, that is, the speech segment of the speech waveform signal of the N2 best phoneme candidate is selected.
【0037】さらに、第3段階では線形回帰分析を行な
い、それらの類似音声サンプルを用いて種々の音響的及
び韻律的環境におけるそれぞれの特徴パラメータの重要
度を示す重み係数を求める。当該線形回帰分析処理にお
ける韻律的特徴パラメータとして、例えば、次の特徴パ
ラメータ(以下、第2の韻律的特徴パラメータとい
う。)を用いる。 (1)処理すべき当該音素から1つだけ先行する先行音
素(以下、先行音素という。)の第1の韻律的特徴パラ
メータ; (2)処理すべき当該音素から1つだけ後続する後続音
素(以下、後続音素という。)の音素ラベルの第1の韻
律的特徴パラメータ; (3)当該音素の音素時間長; (4)当該音素の音声基本周波数F0; (5)先行音素の音声基本周波数F0;及び、 (6)後続音素の音声基本周波数F0。 ここで、先行音素は、当該音素から1つだけ先行する音
素としているが、これに限らず、複数の音素だけ先行す
る音素を含んでもよい。また、後続音素は、当該音素か
ら1つだけ後続する音素としているが、これに限らず、
複数の音素だけ後続する音素を含んでもよい。さらに、
後続音素の音声基本周波数F0を除外してもよい。Further, in the third stage, a linear regression analysis is performed, and a weight coefficient indicating the importance of each feature parameter in various acoustic and prosodic environments is obtained by using the similar speech samples. For example, the following feature parameter (hereinafter, referred to as a second prosodic feature parameter) is used as the prosodic feature parameter in the linear regression analysis processing. (1) a first prosodic feature parameter of a preceding phoneme (hereinafter, referred to as a preceding phoneme) that precedes the phoneme to be processed by one; (2) a subsequent phoneme that follows by only one from the subject phoneme to be processed ( (Hereinafter referred to as a succeeding phoneme.) The first prosodic feature parameter of the phoneme label; (3) the phoneme time length of the phoneme; (4) the speech fundamental frequency F 0 of the phoneme; (5) the speech fundamental frequency of the preceding phoneme. F 0 ; and (6) the fundamental sound frequency F 0 of the succeeding phoneme. Here, the preceding phoneme is a phoneme that precedes the phoneme by one, but is not limited to this, and may include a phoneme that precedes by a plurality of phonemes. Further, the succeeding phoneme is a phoneme following only one phoneme from the phoneme, but is not limited thereto.
A phoneme following only a plurality of phonemes may be included. further,
The voice fundamental frequency F 0 of the following phoneme may be excluded.
【0038】次いで、自然な音声サンプルの選択を行う
音声単位選択部12の処理について説明する。従来例の
音声合成装置では目的の発話に対して音素系列を決定
し、さらに韻律制御のためのF0と音素時間長の目標値
が計算された。これに対して、本実施形態では最適の音
声サンプルを適切に選択するために韻律が計算されるだ
けで、直接韻律を制御することは行なわれない。Next, the processing of the voice unit selection unit 12 for selecting a natural voice sample will be described. In the conventional speech synthesizer, a phoneme sequence is determined for a target utterance, and a target value of F 0 and a phoneme time length for prosody control is calculated. On the other hand, in the present embodiment, only the prosody is calculated in order to appropriately select the optimum speech sample, but the prosody is not directly controlled.
【0039】図3は、図1の音声単位選択部12の処理
の入力は、目的発話の音素系列と、それぞれの音素毎に
求めた各特徴に対する重みベクトル及び音声波形信号デ
ータベース中の全サンプルを表す特徴ベクトルである。
一方、出力は音声波形信号データベース中での音素サン
プルの位置を表す索引情報であって、音声波形信号の音
声セグメントを接続するためのそれぞれの音声単位(具
体的には音素、場合により複数の音素の系列が連続して
選択され、一つの音声単位となることがある)の開始位
置と音声単位時間長を示したものである。FIG. 3 shows that the input of the processing of the speech unit selection unit 12 of FIG. 1 is performed by inputting a phoneme sequence of the target utterance, a weight vector for each feature obtained for each phoneme, and all samples in the speech waveform signal database. This is the feature vector to be represented.
On the other hand, the output is index information indicating the position of a phoneme sample in the speech waveform signal database, and each speech unit for connecting speech segments of the speech waveform signal (specifically, a phoneme, and in some cases, a plurality of phonemes). Are successively selected and may become one voice unit) and the voice unit time length.
【0040】最適な音声単位は目的発話との差の近似コ
ストを表す目標コストと、隣接音声単位間での不連続性
の近似コストを表す連結コストの和を最小化するパスと
して求められる。経路探索には公知のビタビの学習アル
ゴリズムが利用される。目的とする目標音声t1 n=(t
1,…,tn)に対しては、目標コストと連結コストの和
を最小化することで、各特徴が目的音声に近く、しかも
音声単位間の不連続性が少ない音声波形信号データベー
ス中の音声単位の組合せu1 n=(u1,…,un)を選ぶ
ことができ、これらの音声単位の音声波形信号データベ
ース内での位置を示すことにより、任意の発話内容の音
声合成が可能になる。The optimum speech unit is obtained as a path that minimizes the sum of the target cost representing the approximation cost of the difference from the target utterance and the connection cost representing the approximation cost of discontinuity between adjacent speech units. For the route search, a known Viterbi learning algorithm is used. The target sound t 1 n = (t
1 ,..., T n ), by minimizing the sum of the target cost and the connection cost, each feature is close to the target speech, and the discontinuity between speech units is small in the speech waveform signal database. A combination of voice units u 1 n = (u 1 ,..., U n ) can be selected. By indicating the positions of these voice units in the voice waveform signal database, voice synthesis of arbitrary utterance contents is possible. become.
【0041】音声単位の選択コストは、図3に示すよう
に、目標コストCt(ui,ti)と連結コストCc(u
i-1,ui)からなり、目標コストCt(ui,ti)は、
音声波形信号データベース中の音声単位(音素候補)u
iと、合成音声として実現したい音声単位(目標音素)
tiの間の差の予測値であり、連結コストCc(ui-1,
ui)は接続単位(接続する2つの音素)ui-1とuiと
の間の接続で起こる不連続の予測値である。例えば、本
出願人によって研究実用化された従来のATRν−Ta
lk音声合成システムも目標コストと連結コストを最小
化するという点では類似の考え方を取っていたが、韻律
的な特徴パラメータを直接に単位選択に用いるというこ
とは本実施形態の音声合成装置の新しい特徴となってい
る。As shown in FIG. 3, the selection cost of each voice unit includes a target cost C t (u i , t i ) and a connection cost C c (u
i-1 , u i ), and the target cost C t (u i , t i ) is
Voice unit (phoneme candidate) u in voice waveform signal database
i and the speech unit to be realized as synthesized speech (target phoneme)
is the predicted value of the difference between t i and the consolidation cost C c (u i−1 ,
u i ) is a predicted value of the discontinuity that occurs in the connection between the connection unit (two connected phonemes) u i−1 and u i . For example, a conventional ATRν-Ta researched and put to practical use by the present applicant has been proposed.
The lk speech synthesis system also took a similar idea in that the target cost and the connection cost were minimized, but using the prosodic feature parameters directly for unit selection is a new feature of the speech synthesis device of this embodiment. It is a feature.
【0042】次いで、コストの計算について述べる。目
標コストは実現したい音声単位の特徴ベクトルと音声波
形信号データベース中から選ばれた候補の音声単位の特
徴ベクトルの各要素の差の重み付き合計であり、各目標
サブコストCt j(ti,ui)の重み係数wt jが与えられ
た場合、目標コストCt(ti,ui)は次式で計算する
ことができる。Next, the calculation of the cost will be described. The target cost is a weighted sum of the difference between each element of the feature vector of the speech unit to be realized and the feature vector of the candidate speech unit selected from the speech waveform signal database, and each target sub-cost C t j (t i , u Given the weighting factor w t j of i ), the target cost C t (t i , u i ) can be calculated by the following equation.
【0043】[0043]
【数1】 (Equation 1)
【0044】ここで、特徴ベクトルの各要素の差はp個
の目標サブコストCt j(ti,ui)(ただし、jは1か
らpまでの自然数である。)で表され、特徴ベクトルの
次元数pは、好ましい実施例においては、20から30
の範囲で可変としている。より好ましい実施例において
は、次元数p=30であり、目標サブコストCt(ti,
ui)及び重み係数wt jにおける変数jの特徴ベクトル
又は特徴パラメータは、上述の第2の韻律的特徴パラメ
ータである。Here, the difference between the elements of the feature vector is represented by p target sub-costs C t j (t i , u i ) (where j is a natural number from 1 to p). Is between 20 and 30 in a preferred embodiment.
Variable within the range. In a more preferred embodiment, the number of dimensions p = 30 and the target sub-cost C t (t i ,
The feature vector or feature parameter of the variable j in u i ) and the weight coefficient w t j is the above-mentioned second prosodic feature parameter.
【0045】一方、連結コストCc(ui-1,ui)も同
様にq個の連結サブコストCc j(ui-1,ui)(ただ
し、jは1からqまでの自然数である。)の重み付き合
計で表される。連結サブコストは接続する音声単位u
i-1とuiの音響的特徴から決定することができる。好ま
しい実施形態においては、連結サブコストとしては、
(1)音素接続点におけるケプストラム距離、(2)対
数パワーの差の絶対値、(3)音声基本周波数F0の差
の絶対値の3種類を用いており、すなわち、q=3であ
る。これら3種類の音響的特徴パラメータと、先行音素
の音素ラベルと、後続音素の音素ラベルとを、第2の音
響的特徴パラメータという。各連結サブコストCc j(u
i-1,ui)の重みwc jは予め経験的に(又は実験的に)
与えられ、この場合、連結コストCc(ui-1,ui)は
次式で計算することができる。On the other hand, connection cost C c (u i-1, u i) likewise the q connecting subcost C c j (u i-1 , u i) ( although, j is a natural number from 1 to q ). The concatenated sub-cost is u
i-1 and u i can be determined from the acoustic features of. In a preferred embodiment, the consolidation sub-costs are:
(1) Cepstrum distance at phoneme connection point, (2) Absolute value of logarithmic power difference, (3) Absolute value of difference of voice fundamental frequency F 0 , that is, q = 3. These three types of acoustic feature parameters, the phoneme label of the preceding phoneme, and the phoneme label of the succeeding phoneme are referred to as second acoustic feature parameters. Each consolidation sub-cost C c j (u
i-1 , u i ) weight w c j is empirically (or experimentally)
In this case, the connection cost C c (u i−1 , u i ) can be calculated by the following equation.
【0046】[0046]
【数2】 (Equation 2)
【0047】もし、音素候補ui-1とuiが音声波形信号
データベース中の連続する音声単位であった場合には、
接続は自然であり、連結コストは0になる。ここで、好
ましい実施例においては、連結コストは、特徴パラメー
タメモリ30内の第1の音響的特徴パラメータと第1の
韻律的特徴パラメータに基づいて決定され、連続量であ
る上記3つの第2の音響的特徴パラメータを取り扱うか
ら例えば0から1までの任意のアナログ量をとる一方、
目標コストは、それぞれの先行あるいは後続音素の弁別
素性が一致するか否かなどを示す上記30個の第2の音
響的特徴パラメータを取り扱うから、例えば0(特徴が
一致しているとき)又は1(特徴が一致していないと
き)のデジタル量で表される要素を含む。そして、N個
の音声単位の連結コストはそれぞれの音声単位の目標コ
ストと連結コストの和となり、次式で表される。If the phoneme candidates u i-1 and u i are continuous speech units in the speech waveform signal database,
The connection is natural and the connection cost is zero. Here, in a preferred embodiment, the connection cost is determined based on the first acoustic feature parameter and the first prosodic feature parameter in the feature parameter memory 30, and is a continuous quantity of the above-mentioned three second features. Since it handles acoustic feature parameters, for example, while taking an arbitrary analog amount from 0 to 1,
Since the target cost deals with the 30 second acoustic feature parameters indicating whether or not the discriminating features of the preceding or succeeding phonemes match, for example, 0 (when the features match) or 1 (When the features do not match). Then, the connection cost of the N voice units is the sum of the target cost and the connection cost of each voice unit, and is expressed by the following equation.
【0048】[0048]
【数3】 (Equation 3)
【0049】このとき、Sはポーズを表しており、Cc
(S,u1)及びCc(un,S)はポーズから最初の音
声単位へ及び最後の音声単位からポーズへの接続におけ
る連結コストを表している。この表現からも明らかなよ
うに、本実施形態ではポーズも音声波形信号データベー
ス中の他の音素とまったく同じ扱い方をしている。さら
に上の式をサブコストで直接表現すると次式のようにな
る。At this time, S represents a pause, and C c
(S, u 1) and C c (u n, S) represents the connection costs in connection to pause from the pause to the first speech unit and from the last speech unit. As is clear from this expression, in the present embodiment, the pose is handled in exactly the same way as other phonemes in the speech waveform signal database. Further, if the above equation is directly expressed by a sub-cost, the following equation is obtained.
【0050】[0050]
【数4】 (Equation 4)
【0051】音声単位選択処理は上式で決まる全体のコ
ストを最小にするような音声単位の組合せ/u1 nを決定
するためのものである。ここで、日本出願の明細書で
は、オーバーラインを記述することができないために、
オーバーラインの代わりに/を用いる。The voice unit selection process is for determining the combination of voice units / u 1 n that minimizes the overall cost determined by the above equation. Here, in the specification of the Japanese application, since the overline cannot be described,
Use / instead of the overline.
【0052】[0052]
【数5】/u1 n= min C(t1 n,u1 n) u1,u2,…,un [Number 5] / u 1 n = min C ( t 1 n, u 1 n) u 1, u 2, ..., u n
【0053】上記数5において、関数minは、当該関
数の引数であるC(t1 n,u1 n)を最小にする音素候補
の組み合わせ(すなわち、音素列候補)u1,u2,…,un
=/u1 nを表わす関数である。In the above equation (5), the function min is a combination of phoneme candidates (ie, phoneme string candidates) u 1 , u 2 ,... Which minimizes C (t 1 n , u 1 n ) which is an argument of the function. , u n
= / U 1 n .
【0054】ところで、比較例の音声合成装置で合成し
た音声のイントネーションの不自然さは、音素単位間で
の音声基本周波数F0のギャップや、アクセント核での
不適切な基本周波数パターンを持つ音素単位の選択によ
るものと考えられる。音声基本周波数F0のギャップ
は、隣接する音素単位間の音声基本周波数F0パターン
の形状や、大きさの差によって生じるため、これらを考
慮する選択規準が必要である。また、適切なアクセント
を表現するには音素単位間の相対的な音声基本周波数F
0の大きさを考慮する必要がある。Incidentally, the unnaturalness of the intonation of the speech synthesized by the speech synthesizer of the comparative example is caused by a gap in the speech fundamental frequency F 0 between phoneme units or a phoneme having an inappropriate fundamental frequency pattern in an accent nucleus. This is probably due to the choice of units. Gap voice fundamental frequency F 0 is the shape of the voice fundamental frequency F 0 pattern between adjacent phonemes, to produce the difference in size, it is necessary to select criteria consider these. In order to express an appropriate accent, the relative fundamental voice frequency F between phoneme units is used.
It is necessary to consider the size of 0 .
【0055】そこで、本実施形態においては、音素単位
間の音声基本周波数F0パターンのギャップを減らし、
推定された音声基本周波数F0パターンの形状をより忠
実に反映した音素単位が選ばれるよう、音声基本周波数
F0に関する以下のコスト関数を追加した。Therefore, in the present embodiment, the gap of the fundamental voice frequency F 0 pattern between phoneme units is reduced,
In order to select a phoneme unit that more faithfully reflects the shape of the estimated voice fundamental frequency F 0 pattern, the following cost function related to the voice fundamental frequency F 0 has been added.
【0056】(a)音声基本周波数F0の傾き(以下、
傾きコストという。):音声データベース中の音素単位
の音声基本周波数F0パターンの傾きを考慮し、実現し
たい所望の音声基本周波数F0(以下、目標音声基本周
波数F0という。)との傾きとの差を目標コストに追加
する。すなわち、目標音素の音声基本周波数F0と音素
候補の音声基本周波数F0との傾きの差を目標コストに
加算する。音声基本周波数F0パターンの傾きは、音声
データベース中に十分ある母音に対してのみ考慮し、他
の有声音は考慮しないこととする。また、原音声波形か
らの音声基本周波数F0の抽出誤りの影響を軽減するた
め、抽出した音声基本周波数F0をスムージングしてか
ら回帰分析により傾きを計算した。(A) The slope of the basic sound frequency F 0 (hereinafter referred to as the slope)
It is called slope cost. ): Considering the slope of the voice fundamental frequency F 0 pattern for each phoneme in the voice database, the difference between the desired voice fundamental frequency F 0 to be realized (hereinafter referred to as target speech fundamental frequency F 0 ) and the slope is targeted. Add to cost. That is, adding the difference of inclination between the voice fundamental frequency F 0 of the voice fundamental frequency F 0 and the phoneme candidate target phoneme target cost. The inclination of the voice fundamental frequency F 0 pattern is considered only for vowels that are sufficiently present in the speech database, and other voiced sounds are not considered. Further, in order to reduce the influence of an error in extracting the basic voice frequency F 0 from the original voice waveform, the extracted voice basic frequency F 0 was smoothed, and then the slope was calculated by regression analysis.
【0057】(b)音声基本周波数F0のしきい値(以
下、しきい値コストという。):目標コスト中の音声基
本周波数F0の中央値の差が、所定のしきい値以上であ
れば、例えば20である所定のペナルティーコストを追
加する。すなわち、目標音素の音声基本周波数F0の中
央値と、音素候補の音声基本周波数F0の中央値の差が
所定のしきい値以上であるとき、所定のペナルティーコ
ストを目標コストに加算する。(B) Threshold value of voice basic frequency F 0 (hereinafter referred to as threshold cost): if the difference between the median values of voice basic frequency F 0 in the target cost is not less than a predetermined threshold value. For example, a predetermined penalty cost of 20, for example, is added. That is, when the difference between the median value of the basic voice frequency F 0 of the target phoneme and the median value of the basic voice frequency F 0 of the phoneme candidate is equal to or greater than a predetermined threshold, a predetermined penalty cost is added to the target cost.
【0058】(c)音声基本周波数F0の差分(以下、
差分コストという。):連続する2つの音素単位の音声
基本周波数F0の差分を、目標音声基本周波数F0の差分
に近づけるため、(C) The difference between the fundamental voice frequencies F 0 (hereinafter referred to as the difference)
It is called differential cost. ): In order to make the difference between the sound fundamental frequencies F 0 of two consecutive phonemes close to the difference between the target sound fundamental frequencies F 0 ,
【数6】|u’f0i−uf0i| を連結コストに追加する。ここで、| U ′ f0i −u f0i | is added to the connection cost. here,
【数7】u’f0i=uf0i-1+tf0i−tf0i-1 とする。tf0i-1,tf0iはそれぞれi−1,i番目の音
素の目標音声基本周波数F0を表し、uf0i-1,uf0iは
それぞれi−1,i番目の音素単位の音声基本周波数F
0を表す。また、u’f0iはi番目の音素の新しい目標音
声基本周波数F0である。すなわち、数6及び数7から
次式を得ることができる。[Equation 7] u 'f0i = and u f0i-1 + t f0i -t f0i-1. t f0i-1 and t f0i represent the target speech fundamental frequencies F 0 of the i−1 and i-th phonemes, respectively, and u f0i−1 and u f0i represent the speech fundamental frequencies F of the i−1 and i-th phonemes, respectively.
Represents 0 . U ′ f0i is a new target voice fundamental frequency F 0 of the i-th phoneme. That is, the following equation can be obtained from Equations 6 and 7.
【数8】|u’f0i−uf0i|=|uf0i-1−uf0i+t
f0i−tf0i-1−uf0i| 従って、連続する2つの目標音素の音声基本周波数F0
の差分と、連続する2つの音素候補の音声基本周波数F
0の差分との加算値の絶対値を連結コストに追加する。| U ′ f0i −u f0i | = | u f0i−1 −u f0i + t
f0i− tf0i−1− uf0i | Therefore, the sound fundamental frequency F 0 of two consecutive target phonemes
And the speech fundamental frequency F of two consecutive phoneme candidates
The absolute value of the value added to the difference of 0 is added to the connection cost.
【0059】以上の3つのコストはそれぞれ単独又は任
意の組み合わせで追加してもよい。The above three costs may be added alone or in any combination.
【0060】図1の重み係数学習部11における重み係
数の学習処理について以下説明する。目標サブコストの
重みは音響的距離に基づく線形回帰分析を用いて決定す
る。重み係数の学習処理ではすべての音素毎に異なる重
み係数を決めることもできるし、音素カテゴリ(例え
ば、すべての鼻音)毎に重み係数を決めることもでき
る。また、すべての音素について共通の重み係数を決め
ることもできるが、ここでは各音素で別々の重み係数を
用いることとする。以下に線形回帰分析における処理の
流れを示す。The learning process of the weight coefficient in the weight coefficient learning section 11 of FIG. 1 will be described below. The weight of the target sub-cost is determined using a linear regression analysis based on the acoustic distance. In the weight coefficient learning process, a different weight coefficient can be determined for every phoneme, or a weight coefficient can be determined for each phoneme category (for example, all nasal sounds). Although a common weighting factor can be determined for all phonemes, different weighting factors are used here for each phoneme. The processing flow in the linear regression analysis is shown below.
【0061】<1>現在学習を行なっている音素種類
(又は音素カテゴリ)に属する音声波形信号データベー
ス中のすべてのサンプルについて繰り返し以下の4つの
処理(a)乃至(d)を実行する。 (a)取り上げた音声サンプルを目的の発話内容と見な
す。 (b)音声波形信号データベース中の同一の音素種類
(カテゴリ)に属する他のすべてのサンプルと当該音声
サンプルとの音響的距離を計算する。 (c)目標音素に近いもの上位N1個(例えば、N1=
20個である。)の最良の音素候補を選び出す。 (d)目標音素自身tiと上記(c)で選んだ上位N1
個のサンプルについて目標サブコストCt j(ti,ui)
を求める。 <2>すべての目標音素tiと上位N1個の最適サンプ
ルについて音響的距離と目標サブコストCt j(ti,
ui)を求める。 <3>線形回帰分析を行ない、当該音素種類(カテゴ
リ)に対して、p個の目標サブコストの線形重み係数を
求める。 この重み係数を用いて上記コストを計算する。そして、
<1>から<3>までの処理をすべての音素種類(カテ
ゴリ)について繰り返す。<1> The following four processes (a) to (d) are repeatedly performed on all samples in the speech waveform signal database belonging to the phoneme type (or phoneme category) currently being learned. (A) The taken voice sample is regarded as the target utterance content. (B) Calculate the acoustic distance between all other samples belonging to the same phoneme type (category) in the audio waveform signal database and the audio sample. (C) Top N1 items close to the target phoneme (for example, N1 =
There are 20. Select the best phoneme candidate in ()). (D) The target phoneme itself t i and the top N1 selected in (c) above
Target sub-cost C t j (t i , u i ) for samples
Ask for. <2> For all target phonemes t i and the top N1 optimal samples, acoustic distances and target sub-costs C t j (t i ,
u i ). <3> Perform linear regression analysis to obtain linear weighting coefficients of p target sub-costs for the phoneme type (category). The cost is calculated using the weight coefficient. And
The processing from <1> to <3> is repeated for all phoneme types (categories).
【0062】もし仮に目的音素単位の音響的距離が直接
求められた場合に最も近い音声サンプルを選び出すため
にはそれぞれの目標サブコストにどのような重み係数を
かければ良いのかを決定するのが、この重み係数学習部
11の目的である。本実施形態の利点は音声波形信号デ
ータベース中の音声波形信号の音声セグメントを直接的
に利用できることである。If the acoustic distance in the target phoneme unit is directly obtained, to select the closest voice sample, it is necessary to determine what weighting factor should be applied to each target sub-cost. This is the purpose of the weight coefficient learning unit 11. An advantage of this embodiment is that audio segments of the audio waveform signal in the audio waveform signal database can be used directly.
【0063】以上のように構成された図1の音声合成装
置において、音声分析部10と、重み係数学習部11
と、音声単位選択部12と、音声合成部13とは、例え
ば、マイクロプロセッシングユニット(MPU)などの
デジタル計算機又は演算制御装置によって構成される一
方、テキストデータベースメモリ22と、音素HMMメ
モリ23と、特徴パラメータメモリ30と、重み係数ベ
クトルメモリ31とは例えばハードディスクなどの記憶
装置で構成される。ここで、好ましい実施例において
は、音声波形信号データベースメモリ21は、CD−R
OMの形式の記憶装置である。以下、以上のように構成
された図1の音声合成装置の各処理部10乃至13にお
ける処理について説明する。In the speech synthesizer of FIG. 1 configured as described above, the speech analysis unit 10 and the weight coefficient learning unit 11
The voice unit selecting unit 12 and the voice synthesizing unit 13 are configured by, for example, a digital computer or an arithmetic control unit such as a micro processing unit (MPU), while a text database memory 22, a phoneme HMM memory 23, The feature parameter memory 30 and the weight coefficient vector memory 31 are configured by a storage device such as a hard disk. Here, in the preferred embodiment, the audio waveform signal database memory 21 stores the CD-R
This is a storage device in the OM format. Hereinafter, processing in each of the processing units 10 to 13 of the speech synthesizer configured as described above and illustrated in FIG. 1 will be described.
【0064】図4は、図1の音声分析部10によって実
行される音声分析処理のフローチャートである。図4に
おいて、まず、ステップS11で、音声波形信号データ
ベースメモリ21から自然発話の音声波形信号の信号を
入力してA/D変換してデジタル音声波形信号データに
変換するとともに、当該音声波形信号の音声文を書き下
したテキストデータをテキストデータベースメモリ22
内のテキストデータベースから入力する。ここで、テキ
ストデータはなくてもよく、ない場合は、音声波形信号
から公知の音声認識装置を用いて音声認識してテキスト
データを得てもよい。なお、A/D変換した後のデジタ
ル音声波形信号データは、例えば10ミリ秒毎の音声セ
グメントに分割されている。そして、ステップS12
で、音素列が予測されているか否かが判断され、音素列
が予測されていないときは、ステップS13で例えば音
素HMMを用いて音素列を予測して記憶した後、ステッ
プS14に進む。ステップS12で音素列が予測されて
いる又は予め与えられている、もしくは手作業で音素ラ
ベルが付与されているときは、直接にステップS14に
進む。FIG. 4 is a flowchart of the voice analysis process executed by the voice analysis unit 10 of FIG. In FIG. 4, first, in step S11, a signal of a naturally uttered speech waveform signal is input from the speech waveform signal database memory 21 and A / D converted to be converted into digital speech waveform signal data. The text data in which the voice sentence is written is stored in the text database memory 22.
Input from the text database inside. Here, there is no need for text data, and in the case where there is no text data, text data may be obtained by performing voice recognition using a known voice recognition device from a voice waveform signal. The digital audio waveform signal data after the A / D conversion is divided into, for example, audio segments every 10 milliseconds. Then, step S12
Then, it is determined whether or not the phoneme sequence is predicted. If the phoneme sequence is not predicted, the process proceeds to step S14 after predicting and storing the phoneme sequence using, for example, a phoneme HMM in step S13. If the phoneme sequence is predicted or given in advance in step S12, or if a phoneme label is manually given, the process directly proceeds to step S14.
【0065】ステップS14では、各音素セグメントに
対する、音声波形信号の複数の文又は1つの文からなる
ファイルにおける開始位置と終了位置を記録し、当該フ
ァイルに索引番号を付与する。次いで、ステップS15
では、各音素セグメントに対する上記第1の音響的特徴
パラメータを例えば公知のピッチ抽出法を用いて抽出す
る。そして、ステップS16では、各音素セグメントに
対して音素ラベル付けを実行して、音素ラベルとそれに
対する第1の音響的特徴パラメータを記録する。さら
に、ステップS17では、各音素セグメントに対する第
1の音響的特徴パラメータと、音素ラベルと、音素ラベ
ルに対する上記第1の韻律的特徴パラメータを、ファイ
ルの索引番号と、ファイル内の開始位置と時間長ととも
に、特徴パラメータメモリ30に記憶する。最後に、ス
テップS18で、各音素セグメントに対して、ファイル
の索引番号とファイル内の開始位置と時間長とを含む索
引情報を付与して、当該索引情報を特徴パラメータメモ
リ30に記憶して、当該音声分析処理を終了する。In step S14, the start position and the end position of a plurality of sentences or one sentence of the speech waveform signal for each phoneme segment are recorded, and an index number is assigned to the file. Next, step S15
Then, the first acoustic feature parameter for each phoneme segment is extracted using, for example, a known pitch extraction method. In step S16, phoneme labeling is performed on each phoneme segment, and the phoneme label and the first acoustic feature parameter corresponding to the phoneme label are recorded. Further, in step S17, a first acoustic feature parameter for each phoneme segment, a phoneme label, and the first prosodic feature parameter for the phoneme label are stored in a file index number, a start position in the file, and a time length. At the same time, it is stored in the feature parameter memory 30. Finally, in step S18, index information including a file index number, a start position in the file, and a time length is assigned to each phoneme segment, and the index information is stored in the feature parameter memory 30. The voice analysis processing ends.
【0066】図5及び図6は、図1の重み係数学習部1
1によって実行される重み係数学習処理のフローチャー
トである。図5において、まず、ステップS21で、特
徴パラメータメモリ30から1個の音素種類を選択す
る。次いで、ステップS22で、選択された音素種類と
同一の音素種類を有する音素の第1の音響的特徴パラメ
ータから第2の音響的特徴パラメータを取り出して目標
音素の第2の音響的特徴パラメータとする。そして、ス
テップS23で、同一の音素種類を有する目標音素以外
の残りの音素と、第2の音響的特徴パラメータにおける
目標音素との間の、音響的距離であるユークリッドケプ
ストラム距離と、底を2とする対数音素時間長とを計算
する。ステップS24では、すべての残りの音素につい
てステップS22及びS23の処理をしたか否かが判断
され、処理が完了していないときは、ステップS25で
別の残りの音素を選択してステップS23からの処理を
繰り返す。FIGS. 5 and 6 show the weight coefficient learning unit 1 of FIG.
6 is a flowchart of a weight coefficient learning process executed by the first embodiment. In FIG. 5, first, at step S21, one phoneme type is selected from the feature parameter memory 30. Next, in step S22, a second acoustic feature parameter is extracted from the first acoustic feature parameter of the phoneme having the same phoneme type as the selected phoneme type, and is taken as the second acoustic feature parameter of the target phoneme. . Then, in step S23, the Euclidean cepstrum distance that is an acoustic distance between the remaining phonemes other than the target phoneme having the same phoneme type and the target phoneme in the second acoustic feature parameter, And logarithmic phoneme time length. In step S24, it is determined whether or not the processing in steps S22 and S23 has been performed for all the remaining phonemes. If the processing has not been completed, another remaining phoneme is selected in step S25, and the process from step S23 is performed. Repeat the process.
【0067】一方、ステップS24で処理が完了してい
るときは、ステップS26で、ステップS23で得られ
た距離及び時間長に基づいて、上位N1個の最良の音素
候補を選択する。次いで、ステップS27で選択された
上位N1個の最良の音素候補について1番目からN1番
目までランク付けする。そして、ステップS28で、ラ
ンク付けされたN1個の最良の音素候補に対して各距離
から中間値を引いてスケール変換値を計算する。そし
て、ステップS29において、すべての音素種類につい
てステップS22からS28までの処理を完了したか否
かが判断され、完了していないときは、ステップS30
で別の音素種類を選択した後、ステップS22からの処
理を繰り返す。一方、ステップS29で処理が完了して
いるときは、図6のステップS31に進む。On the other hand, if the processing is completed in step S24, the top N1 best phoneme candidates are selected in step S26 based on the distance and time length obtained in step S23. Next, the top N1 best phoneme candidates selected in step S27 are ranked from the first to the N1th. Then, in step S28, a scale conversion value is calculated by subtracting an intermediate value from each distance with respect to the ranked N1 best phoneme candidates. Then, in step S29, it is determined whether or not the processing from steps S22 to S28 has been completed for all phoneme types, and if not, step S30
After selecting another phoneme type, the process from step S22 is repeated. On the other hand, when the processing is completed in step S29, the process proceeds to step S31 in FIG.
【0068】図6において、ステップS31では、1個
の音素種類を選択する。次いで、ステップS32では、
選択された音素種類に対して各音素の第2の音響的特徴
パラメータを抽出する。そして、ステップS33で、選
択された音素種類に対するスケール変換値に基づいて線
形回帰分析を行うことにより、各第2の音響的特徴パラ
メータにおけるスケール変換値に対する寄与度を計算
し、計算された寄与度を目標音素毎の重み係数として重
み係数ベクトルメモリ31に記憶する。また、各第2の
韻律的特徴パラメータにおける寄与度は経験的に(又は
実験的に)予め与えられて、当該寄与度を目標音素毎の
重み係数ベクトルとして重み係数ベクトルメモリ31に
記憶する。ステップS34では、すべての音素種類につ
いて上記ステップS32及びS33の処理を完了したか
否かが判断され、完了していないときは、ステップS3
5で別の音素種類を選択した後、ステップS32からの
処理を繰り返す。一方、ステップS34で処理が完了し
ているときは、当該重み係数学習処理を終了する。In FIG. 6, in step S31, one phoneme type is selected. Next, in step S32,
A second acoustic feature parameter of each phoneme is extracted for the selected phoneme type. Then, in step S33, by performing a linear regression analysis based on the scale conversion value for the selected phoneme type, the contribution to the scale conversion value in each second acoustic feature parameter is calculated, and the calculated contribution is calculated. Is stored in the weight coefficient vector memory 31 as a weight coefficient for each target phoneme. Further, the contribution in each second prosodic feature parameter is given in advance empirically (or experimentally), and the contribution is stored in the weight coefficient vector memory 31 as a weight coefficient vector for each target phoneme. In step S34, it is determined whether or not the processing in steps S32 and S33 has been completed for all phoneme types.
After selecting another phoneme type in step 5, the process from step S32 is repeated. On the other hand, if the processing has been completed in step S34, the weight coefficient learning processing ends.
【0069】図7は、図1の音声単位選択部12によっ
て実行される音声単位選択処理のフローチャートであ
る。図7において、まず、ステップS41で、入力され
た音素列のうち最初から1個目の音素を選択する。次い
で、ステップS42で、選択された音素と同一の音素種
類を有する音素の重み係数ベクトルを重み係数ベクトル
メモリ31から読み出し、目標サブコスト及び必要な特
徴パラメータを特徴パラメータメモリ30から読み出し
てリストアップする。そして、ステップS43ですべて
の音素について処理したか否かが判断され、完了してい
ないときはステップS44で次の音素を選択した後、ス
テップS42の処理を繰り返す。一方、ステップS43
で完了していないときは、ステップS45に進む。FIG. 7 is a flowchart of the voice unit selection process executed by the voice unit selection unit 12 of FIG. In FIG. 7, first, in step S41, the first phoneme from the beginning is selected from the input phoneme sequence. Next, in step S42, the weight coefficient vector of the phoneme having the same phoneme type as the selected phoneme is read from the weight coefficient vector memory 31, and the target sub-cost and necessary feature parameters are read from the feature parameter memory 30 and listed. Then, it is determined in step S43 whether or not all phonemes have been processed. If the processing has not been completed, the next phoneme is selected in step S44, and the process in step S42 is repeated. On the other hand, step S43
If not, the process proceeds to step S45.
【0070】ステップS45では、入力された音素列に
対して数4を用いて各音素候補における全体のコストを
計算する。次いで、ステップS46では、計算されたコ
ストに基づいて、上位N2個の最良の音素候補をそれぞ
れの目標音素に対して選択する。そして、ステップS4
7では、数5を用いてビタビサーチにより、全体のコス
トを最小にする音素候補の組み合わせの索引情報と、そ
の各音素の開始時刻と時間長とともに検索した後、音声
合成部13に出力して、当該音声単位選択処理を終了す
る。In step S45, the total cost of each phoneme candidate is calculated using Equation 4 for the input phoneme sequence. Next, in step S46, the top N2 best phoneme candidates are selected for each target phoneme based on the calculated cost. Then, step S4
In step 7, by using Viterbi search using equation 5, index information of a combination of phoneme candidates that minimizes the overall cost is searched together with the start time and time length of each phoneme. Then, the voice unit selection process ends.
【0071】さらに、音声合成部13は、音声単位選択
部12から出力される索引情報と、その各音素の開始時
刻と時間長とに基づいて、音声波形信号データベースメ
モリ21に対してアクセスして単位選択された音素候補
のデジタル音声波形信号データを読み出して、逐次D/
A変換して変換後のアナログ音声信号をスピーカ14を
介して出力する。これにより、入力された音素列に対応
する音声合成された音声がスピーカ14から出力され
る。Further, the speech synthesis unit 13 accesses the speech waveform signal database memory 21 based on the index information output from the speech unit selection unit 12 and the start time and time length of each phoneme. The digital voice waveform signal data of the unit-selected phoneme candidate is read out, and the D /
The analog audio signal after the A conversion is converted and output via the speaker 14. As a result, the synthesized voice corresponding to the input phoneme sequence is output from the speaker 14.
【0072】以上説明したように、本実施形態の音声合
成装置においては、出力音声の自然性を最大にするため
に、大規模な自然音声のデータベースを用いて処理を最
小に抑える方法について述べた。本実施形態は4つの処
理部10乃至13から構成される。 <音声分析部10>正書法の書き起こしテキストを伴っ
た任意の音声波形信号データを入力とし、この音声波形
信号データベース中のすべての音素について、それらの
性質を記述する特徴ベクトルを与える処理部。 <重み係数学習部11>音声波形信号データベースの特
徴ベクトルと音声波形信号データベースの原波形を用い
て、目的の音声を合成する場合に最も適するように音声
単位を選ぶための、各特徴パラメータの最適重み係数を
重みベクトルとして決定する処理部。 <音声単位選択部12>音声波形信号データベースの全
音素の特徴ベクトルと重みベクトルと目的音声の発話内
容の記述から音声波形信号データベースメモリ21の索
引情報を作成する処理部。 <音声合成部13>作成された索引情報に従って、メモ
リ21内の音声波形信号データベース中の音声波形信号
データの音声セグメントに飛び飛びにアクセスし、目的
の音声波形信号の音声セグメントを連結しかつD/A変
換してスピーカ14に出力して音声を合成する処理部。As described above, in the speech synthesizing apparatus according to the present embodiment, a method for minimizing the processing using a large-scale natural speech database in order to maximize the naturalness of the output speech has been described. . This embodiment includes four processing units 10 to 13. <Speech analysis unit 10> A processing unit which receives arbitrary speech waveform signal data accompanied by the transcribed text in the orthography and inputs a feature vector describing the properties of all phonemes in the speech waveform signal database. <Weighting coefficient learning unit 11> Using feature vectors of the audio waveform signal database and original waveforms of the audio waveform signal database, optimization of each characteristic parameter for selecting an audio unit so as to be most suitable for synthesizing a target audio. A processing unit that determines a weight coefficient as a weight vector. <Speech unit selection unit 12> A processing unit that creates index information in the speech waveform signal database memory 21 from the description of the feature vectors and weight vectors of all phonemes in the speech waveform signal database and the utterance content of the target speech. <Speech synthesizing section 13> In accordance with the created index information, the audio segment of the audio waveform signal data in the audio waveform signal database in the memory 21 is jumped and accessed, the audio segment of the target audio waveform signal is connected, and D / D A processing unit that performs A conversion, outputs the result to the speaker 14, and synthesizes voice.
【0073】本実施形態においては、音声波形信号の圧
縮や音声基本周波数F0や音素時間長の修正は不要にな
ったが、代わって音声サンプルを注意深くラベル付け
し、大規模な音声波形信号データベースの中から最適な
ものを選択することが必要となる。本実施形態の音声合
成方法の基本単位は音素であり、これは辞書やテキスト
−音素変換プログラムで生成されるが、同一の音素であ
っても音声波形信号データベース中に音素の十分なバリ
エーションを含んでいることが要求される。音声波形信
号データベースからの音声単位選択処理では目的の韻律
的環境に適合し、しかも接続したときに隣接音声単位間
での不連続性が最も低い音素サンプルの組合せが選ばれ
る。このために、音素毎に各特徴パラメータの最適重み
係数が決定される。In the present embodiment, the compression of the audio waveform signal and the modification of the audio fundamental frequency F 0 and the phoneme time length become unnecessary, but instead, the audio samples are carefully labeled, and a large-scale audio waveform signal database is used. It is necessary to select the optimal one from among the above. The basic unit of the speech synthesis method of the present embodiment is a phoneme, which is generated by a dictionary or a text-phoneme conversion program. Even if the same phoneme is included in the speech waveform signal database, a sufficient variation of the phoneme is included. Is required. In the process of selecting a speech unit from the speech waveform signal database, a combination of phoneme samples that match the target prosodic environment and have the lowest discontinuity between adjacent speech units when connected is selected. For this purpose, an optimal weight coefficient of each feature parameter is determined for each phoneme.
【0074】[0074]
【実施例】以上のように構成された音声合成装置につい
て、以下の如く聴取実験を行った。無作為に選んだ新聞
記事50文章から比較例及び本実施形態の音声合成装置
で合成音声を作成し、被験者に提示した。アクセント付
与は半自動的に行った。被験者には合成音声の自然性に
ついて、(a)イントネーションと(b)連続性及び明
瞭性の評価を、「極めて良い」から「極めて悪い」の5
段階で評価させた。連続性及び明瞭性の評価の際には、
イントネーションを無視するように被験者に指示した。
合成音声は、次の5種類を使用した。 (1)比較例の音声合成装置を用いて音声合成した。 (2)本実施形態の音声合成装置を用いて、追加のコス
トのうち、傾きコストのみを加算して音声合成した。 (3)本実施形態の音声合成装置を用いて、追加のコス
トのうち、しきい値コストのみを加算して音声合成し
た。ここで、予備的検討より、しきい値は、20Hzに
設定した。 (4)本実施形態の音声合成装置を用いて、追加のコス
トのうち、差分コストのみを加算して音声合成した。 (5)本実施形態の音声合成装置を用いて、すべての追
加のコストを加算して音声合成した。なお、被験者は、
合成音声を聞きなれていない6名である。EXAMPLE A listening experiment was conducted on the speech synthesizer configured as described above as follows. Synthesized speech was created from 50 randomly selected newspaper articles using the speech synthesizer of the comparative example and the present embodiment, and presented to the subject. Accenting was performed semi-automatically. For the naturalness of the synthesized speech, the subject evaluated (a) intonation and (b) continuity and clarity evaluations from 5 "very good" to "very bad".
It was evaluated on a scale. When evaluating continuity and clarity,
Subjects were instructed to ignore intonation.
The following five types of synthesized speech were used. (1) Speech synthesis was performed using the speech synthesizer of the comparative example. (2) Using the speech synthesis apparatus of the present embodiment, speech synthesis was performed by adding only the slope cost among the additional costs. (3) Using the speech synthesizer of the present embodiment, speech synthesis was performed by adding only the threshold cost among the additional costs. Here, the threshold was set to 20 Hz from preliminary examination. (4) Using the speech synthesizer of the present embodiment, speech synthesis is performed by adding only the difference cost among the additional costs. (5) Using the speech synthesizer of the present embodiment, speech synthesis was performed by adding all additional costs. The subject,
Six of them are unfamiliar with synthesized speech.
【0075】イントネーションの評価実験の結果を図8
に示す。図8から明らかなように、今回提案した各コス
トを個別に導入することにより、イントネーションが悪
い及び極めて悪いという評価が20%程度減少し、逆に
良い/極めてよいという評価が10%程度増加してい
る。さらに、これらの3つの追加コストを同時に導入し
た聴取実験では、悪い/極めて悪いという評価が比較例
に比較して約半分となっており、考案した選択規準の有
用性が確認できた。FIG. 8 shows the results of the intonation evaluation experiment.
Shown in As is clear from FIG. 8, by introducing each of the costs proposed this time individually, the evaluation of bad intonation and extremely bad is reduced by about 20%, and the evaluation of good / extremely is increased by about 10%. ing. Further, in a listening experiment in which these three additional costs were introduced at the same time, the evaluation of bad / extremely bad was about half that of the comparative example, confirming the usefulness of the proposed selection criterion.
【0076】次に、連続性及び明瞭性の評価実験の結果
を図9に示す。しきい値コスト、差分コストを個別に導
入した場合、及びすべての追加コストを導入した場合
は、比較例に比較して若干評価が低かった。この原因と
しては、これらの追加コストを追加することにより、比
較例に比較してケプストラムや音韻継続長のコストの影
響が相対的に小さくなり、音素単位の接続個所での不連
続感や不適当な音韻継続長を持つ音素単位の選択が生じ
たためであると考えられる。これに対して傾きコストを
導入した場合、連続性及び明瞭性は比較例に比較してあ
まり劣化がみられなかった。これらのことから、イント
ネーションの自然性向上に寄与し、最も好ましくは、連
続性及び明瞭性に関しても、比較例とほぼ同じ評価を得
た傾きコストのみを導入することが適切であると考えら
れる。Next, FIG. 9 shows the results of an experiment for evaluating continuity and clarity. When the threshold cost and the differential cost were individually introduced, and when all the additional costs were introduced, the evaluation was slightly lower than the comparative example. The reason for this is that by adding these additional costs, the effect of the cost of cepstrum and phoneme duration is relatively smaller than in the comparative example, and the sense of discontinuity or inappropriate This is probably because a phoneme unit having a long phoneme duration has been selected. On the other hand, when the inclination cost was introduced, the continuity and clarity were not much deteriorated as compared with the comparative example. From these facts, it is considered appropriate to introduce only the slope cost that contributes to the improvement of the naturalness of intonation, and most preferably has almost the same evaluation as that of the comparative example also in regard to continuity and clarity.
【0077】以上説明したように、比較例の自然音声波
形信号接続型音声合成装置において、音声波形信号の接
続時に考慮する音素単位の選択規準を改善することによ
り、合成音声のイントネーションの自然性向上を図っ
た。音声基本周波数F0パターンの傾き、目標音声基本
周波数F0との差に対するしきい値、連続する音素単位
の目標音声基本周波数F0の差分を考慮する選択規準を
導入することにより、合成音声のイントネーションの自
然性が向上することを聴取実験より確認した。これらの
うち、音声基本周波数F0パターンの傾きのみを考慮し
た場合に合成音声の品質があまり劣化しないことを確認
した。それ以外の方法ではイントネーションの自然性が
向上する。As described above, the natural speech waveform signal connection type speech synthesizer of the comparative example improves the naturalness of the intonation of the synthesized speech by improving the selection criteria of phoneme units to be considered when connecting the speech waveform signals. Was planned. The slope of the voice fundamental frequency F 0 pattern, the threshold for the difference between the target speech fundamental frequency F 0, by introducing the consideration selection criteria the difference between the target speech fundamental frequency F 0 of the successive phonemes, the synthesized speech Listening experiments confirmed that the naturalness of intonation was improved. Of these, it was confirmed that the quality of the synthesized speech was not significantly degraded when only the slope of the speech fundamental frequency F 0 pattern was considered. Other methods improve the naturalness of intonation.
【0078】[0078]
【発明の効果】以上詳述したように本発明に係る請求項
1記載の自然発話音声波形信号接続型音声合成装置によ
れば、自然発話の音声波形信号の音声セグメントを記憶
する第1の記憶手段と、上記第1の記憶手段によって記
憶された音声波形信号の音声セグメントと、上記音声波
形信号に対応する音素列とに基づいて、上記音声波形信
号における音素毎の索引情報と、上記索引情報によって
示された音素毎の第1の音響的特徴パラメータと、上記
索引情報によって示された音素毎の第1の韻律的特徴パ
ラメータとを抽出して出力する音声分析手段と、上記音
声分析手段から出力される索引情報と、上記第1の音響
的特徴パラメータと、上記第1の韻律的特徴パラメータ
とを記憶する第2の記憶手段と、上記第2の記憶手段に
よって記憶された第1の音響的特徴パラメータに基づい
て、同一の音素種類の1つの目標音素とそれ以外の音素
候補との間の第2の音響的特徴パラメータにおける音響
的距離を計算し、計算した音響的距離に基づいて上記第
2の音響的特徴パラメータにおいて線形回帰分析するこ
とにより、各音素候補に関する上記第2の音響的特徴パ
ラメータにおける寄与度を表わす各目標音素毎の重み係
数ベクトルを決定する重み係数学習手段と、上記重み係
数学習手段によって決定された上記第2の音響的特徴パ
ラメータにおける各目標音素毎の重み係数ベクトルと、
予め与えられた、各音素候補に関する第2の韻律的特徴
パラメータにおける寄与度を表わす各目標音素毎の重み
係数ベクトルとを記憶する第3の記憶手段と、上記第3
の記憶手段によって記憶された各目標音素毎の重み係数
ベクトルと、上記第2の記憶手段によって記憶された第
1の韻律的特徴パラメータとに基づいて、入力される自
然発話文の音素列に対して、目標音素と音素候補との間
の近似コストを表わす目標コストと、隣接して連結され
るべき2つの音素候補間の近似コストを表わす連結コス
トとを含むコストが最小となる、音素候補の組み合わせ
を検索して、検索した音素候補の組み合わせの索引情報
を出力する音声単位選択手段と、上記音声単位選択手段
から出力される索引情報に基づいて、当該索引情報に対
応する音声波形信号の音声セグメントを上記第1の記憶
手段から逐次読み出して連結して出力することにより、
上記入力された音素列に対応する音声を合成して出力す
る音声合成手段とを備え、上記音声単位選択手段は、目
標音素の音声基本周波数F0と音素候補の音声基本周波
数F0との傾きの差を目標コストに加算する。従って、
韻律制御規則を使わず、信号処理を実行することなく、
任意の音素列を発声音声に変換することができ、しかも
より自然に近い声質を得ることができる。また、比較例
に比較してより自然なイントネーションで音声合成する
ことができる。As described above in detail, according to the spontaneously uttered speech waveform signal connection type speech synthesizing apparatus according to the first aspect of the present invention, the first storage for storing the speech segment of the spontaneously uttered speech waveform signal. Means, index information for each phoneme in the audio waveform signal based on the audio segment of the audio waveform signal stored by the first storage means, and a phoneme sequence corresponding to the audio waveform signal; Voice analysis means for extracting and outputting a first acoustic feature parameter for each phoneme indicated by, and a first prosodic feature parameter for each phoneme indicated by the index information; A second storage unit that stores the output index information, the first acoustic feature parameter, and the first prosody feature parameter, and a second storage unit that stores the index information; Based on one acoustic feature parameter, an acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate is calculated, and the calculated acoustic distance is calculated. Weighting factor learning means for determining a weighting factor vector for each target phoneme representing a contribution in the second acoustic feature parameter for each phoneme candidate by performing a linear regression analysis on the second acoustic feature parameter based on the second regression analysis. And a weight coefficient vector for each target phoneme in the second acoustic feature parameter determined by the weight coefficient learning means;
Third storage means for storing a predetermined weighting coefficient vector for each target phoneme, which represents a degree of contribution in a second prosodic feature parameter for each phoneme candidate, the third storage means being provided in advance;
Based on the weighting coefficient vector for each target phoneme stored by the storage means and the first prosodic feature parameter stored by the second storage means. A phoneme candidate having a minimum cost including a target cost representing an approximate cost between a target phoneme and a phoneme candidate and a connection cost representing an approximate cost between two phoneme candidates to be connected adjacently. A voice unit selecting means for searching for a combination and outputting index information of the searched combination of phoneme candidates; and a voice of a voice waveform signal corresponding to the index information based on the index information output from the voice unit selecting means. By sequentially reading out the segments from the first storage means, connecting them and outputting them,
Voice synthesis means for synthesizing and outputting voices corresponding to the input phoneme sequence, wherein the voice unit selection means includes a gradient between a voice basic frequency F 0 of a target phoneme and a voice basic frequency F 0 of a phoneme candidate. Is added to the target cost. Therefore,
Without using prosody control rules and without performing signal processing,
An arbitrary phoneme sequence can be converted into a uttered voice, and a more natural voice quality can be obtained. In addition, speech synthesis can be performed with more natural intonation than in the comparative example.
【0079】また、本発明に係る請求項2記載の自然発
話音声波形信号接続型音声合成装置においては、自然発
話の音声波形信号の音声セグメントを記憶する第1の記
憶手段と、上記第1の記憶手段によって記憶された音声
波形信号の音声セグメントと、上記音声波形信号に対応
する音素列とに基づいて、上記音声波形信号における音
素毎の索引情報と、上記索引情報によって示された音素
毎の第1の音響的特徴パラメータと、上記索引情報によ
って示された音素毎の第1の韻律的特徴パラメータとを
抽出して出力する音声分析手段と、上記音声分析手段か
ら出力される索引情報と、上記第1の音響的特徴パラメ
ータと、上記第1の韻律的特徴パラメータとを記憶する
第2の記憶手段と、上記第2の記憶手段によって記憶さ
れた第1の音響的特徴パラメータに基づいて、同一の音
素種類の1つの目標音素とそれ以外の音素候補との間の
第2の音響的特徴パラメータにおける音響的距離を計算
し、計算した音響的距離に基づいて上記第2の音響的特
徴パラメータにおいて線形回帰分析することにより、各
音素候補に関する上記第2の音響的特徴パラメータにお
ける寄与度を表わす各目標音素毎の重み係数ベクトルを
決定する重み係数学習手段と、上記重み係数学習手段に
よって決定された上記第2の音響的特徴パラメータにお
ける各目標音素毎の重み係数ベクトルと、予め与えられ
た、各音素候補に関する第2の韻律的特徴パラメータに
おける寄与度を表わす各目標音素毎の重み係数ベクトル
とを記憶する第3の記憶手段と、上記第3の記憶手段に
よって記憶された各目標音素毎の重み係数ベクトルと、
上記第2の記憶手段によって記憶された第1の韻律的特
徴パラメータとに基づいて、入力される自然発話文の音
素列に対して、目標音素と音素候補との間の近似コスト
を表わす目標コストと、隣接して連結されるべき2つの
音素候補間の近似コストを表わす連結コストとを含むコ
ストが最小となる、音素候補の組み合わせを検索して、
検索した音素候補の組み合わせの索引情報を出力する音
声単位選択手段と、上記音声単位選択手段から出力され
る索引情報に基づいて、当該索引情報に対応する音声波
形信号の音声セグメントを上記第1の記憶手段から逐次
読み出して連結して出力することにより、上記入力され
た音素列に対応する音声を合成して出力する音声合成手
段とを備え、上記音声単位選択手段は、目標音素の音声
基本周波数F0の中央値と、音素候補の音声基本周波数
F0の中央値の差が所定のしきい値以上であるとき、所
定のペナルティーコストを目標コストに加算する。従っ
て、韻律制御規則を使わず、信号処理を実行することな
く、任意の音素列を発声音声に変換することができ、し
かもより自然に近い声質を得ることができる。また、比
較例に比較してより自然なイントネーションで音声合成
することができる。Further, in the spontaneously uttered speech waveform signal connection type speech synthesizer according to claim 2 of the present invention, the first storage means for storing the speech segment of the spontaneously uttered speech waveform signal; Based on the audio segment of the audio waveform signal stored by the storage means and a phoneme string corresponding to the audio waveform signal, index information for each phoneme in the audio waveform signal and for each phoneme indicated by the index information Speech analysis means for extracting and outputting a first acoustic feature parameter and a first prosodic feature parameter for each phoneme indicated by the index information; index information output from the speech analysis means; Second storage means for storing the first acoustic feature parameter and the first prosodic feature parameter; and first acoustic feature stored by the second storage means. Calculating an acoustic distance in a second acoustic feature parameter between one target phoneme of the same phoneme type and another phoneme candidate based on the characteristic parameter, and calculating the acoustic distance based on the calculated acoustic distance. Weighting factor learning means for determining a weighting factor vector for each target phoneme representing a contribution in the second acoustic feature parameter for each phoneme candidate by performing a linear regression analysis on the two acoustic feature parameters; A weighting coefficient vector for each target phoneme in the second acoustic feature parameter determined by the coefficient learning means, and a target phoneme representing a contribution given in advance to the second prosodic feature parameter for each phoneme candidate. Storage means for storing a weight coefficient vector for each target phoneme, and a weight for each target phoneme stored by the third storage means. And the coefficient vector,
A target cost representing an approximate cost between a target phoneme and a phoneme candidate for a phoneme sequence of a natural utterance sentence based on the first prosodic feature parameter stored by the second storage means. And searching for a combination of phoneme candidates that minimizes the cost including the connection cost representing the approximate cost between two phoneme candidates to be connected adjacently,
A voice unit selecting means for outputting index information of the combination of the searched phoneme candidates; and, based on the index information output from the voice unit selecting means, a voice segment of a voice waveform signal corresponding to the index information, A voice synthesizing means for sequentially synthesizing and outputting a voice corresponding to the input phoneme string by sequentially reading out from the storage means and outputting the combined sound; and the voice unit selecting means includes a voice fundamental frequency of a target phoneme. when the median F 0, the difference between the median of the speech fundamental frequency F 0 of the phoneme candidate is equal to or greater than a predetermined threshold value, it adds a predetermined penalty cost target cost. Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained. In addition, speech synthesis can be performed with more natural intonation than in the comparative example.
【0080】さらに、本発明に係る請求項3記載の自然
発話音声波形信号接続型音声合成装置においては、自然
発話の音声波形信号の音声セグメントを記憶する第1の
記憶手段と、上記第1の記憶手段によって記憶された音
声波形信号の音声セグメントと、上記音声波形信号に対
応する音素列とに基づいて、上記音声波形信号における
音素毎の索引情報と、上記索引情報によって示された音
素毎の第1の音響的特徴パラメータと、上記索引情報に
よって示された音素毎の第1の韻律的特徴パラメータと
を抽出して出力する音声分析手段と、上記音声分析手段
から出力される索引情報と、上記第1の音響的特徴パラ
メータと、上記第1の韻律的特徴パラメータとを記憶す
る第2の記憶手段と、上記第2の記憶手段によって記憶
された第1の音響的特徴パラメータに基づいて、同一の
音素種類の1つの目標音素とそれ以外の音素候補との間
の第2の音響的特徴パラメータにおける音響的距離を計
算し、計算した音響的距離に基づいて上記第2の音響的
特徴パラメータにおいて線形回帰分析することにより、
各音素候補に関する上記第2の音響的特徴パラメータに
おける寄与度を表わす各目標音素毎の重み係数ベクトル
を決定する重み係数学習手段と、上記重み係数学習手段
によって決定された上記第2の音響的特徴パラメータに
おける各目標音素毎の重み係数ベクトルと、予め与えら
れた、各音素候補に関する第2の韻律的特徴パラメータ
における寄与度を表わす各目標音素毎の重み係数ベクト
ルとを記憶する第3の記憶手段と、上記第3の記憶手段
によって記憶された各目標音素毎の重み係数ベクトル
と、上記第2の記憶手段によって記憶された第1の韻律
的特徴パラメータとに基づいて、入力される自然発話文
の音素列に対して、目標音素と音素候補との間の近似コ
ストを表わす目標コストと、隣接して連結されるべき2
つの音素候補間の近似コストを表わす連結コストとを含
むコストが最小となる、音素候補の組み合わせを検索し
て、検索した音素候補の組み合わせの索引情報を出力す
る音声単位選択手段と、上記音声単位選択手段から出力
される索引情報に基づいて、当該索引情報に対応する音
声波形信号の音声セグメントを上記第1の記憶手段から
逐次読み出して連結して出力することにより、上記入力
された音素列に対応する音声を合成して出力する音声合
成手段とを備え、上記音声単位選択手段は、連続する2
つの目標音素の音声基本周波数F0の差分と、連続する
2つの音素候補の音声基本周波数F0の差分との加算値
の絶対値を連結コストに加算する。従って、韻律制御規
則を使わず、信号処理を実行することなく、任意の音素
列を発声音声に変換することができ、しかもより自然に
近い声質を得ることができる。また、比較例に比較して
より自然なイントネーションで音声合成することができ
る。Further, in the spontaneously uttered speech waveform signal connection type speech synthesizing apparatus according to claim 3 of the present invention, the first storage means for storing a speech segment of a spontaneously uttered speech waveform signal; Based on the audio segment of the audio waveform signal stored by the storage means and the phoneme sequence corresponding to the audio waveform signal, index information for each phoneme in the audio waveform signal and for each phoneme indicated by the index information Voice analysis means for extracting and outputting a first acoustic feature parameter and a first prosodic feature parameter for each phoneme indicated by the index information; and index information output from the voice analysis means; Second storage means for storing the first acoustic feature parameter and the first prosodic feature parameter, and first sound stored by the second storage means Based on the characteristic parameters, an acoustic distance in a second acoustic characteristic parameter between one target phoneme of the same phoneme type and another phoneme candidate is calculated, and based on the calculated acoustic distance, By performing a linear regression analysis on the two acoustic feature parameters,
Weighting factor learning means for determining a weighting factor vector for each target phoneme representing the degree of contribution of the second acoustic feature parameter for each phoneme candidate; and the second acoustic feature determined by the weighting factor learning means A third storage unit for storing a weight coefficient vector for each target phoneme in the parameters and a weight coefficient vector for each target phoneme that indicates a degree of contribution in a second prosody characteristic parameter for each phoneme candidate given in advance; A natural utterance sentence based on the weighting coefficient vector for each target phoneme stored by the third storage means and the first prosodic feature parameter stored by the second storage means. And a target cost representing the approximate cost between the target phoneme and the phoneme candidate,
Voice unit selecting means for searching for a combination of phoneme candidates which minimizes a cost including a connection cost representing an approximation cost between two phoneme candidates, and outputting index information of the searched combination of phoneme candidates; Based on the index information output from the selection means, the audio segments of the audio waveform signal corresponding to the index information are sequentially read from the first storage means, connected and output, and Voice synthesizing means for synthesizing and outputting a corresponding voice, wherein the voice unit selecting means comprises two consecutive voices.
The absolute value of the sum of the difference between the basic voice frequencies F 0 of two target phonemes and the basic voice frequency F 0 of two consecutive phoneme candidates is added to the connection cost. Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained. In addition, speech synthesis can be performed with more natural intonation than in the comparative example.
【0081】また、請求項4記載の音声合成装置におい
ては、請求項1記載の音声合成装置において、上記音声
単位選択手段は、目標音素の音声基本周波数F0の中央
値と、音素候補の音声基本周波数F0の中央値の差が所
定のしきい値以上であるとき、所定のペナルティーコス
トを目標コストにさらに加算する。従って、韻律制御規
則を使わず、信号処理を実行することなく、任意の音素
列を発声音声に変換することができ、しかもより自然に
近い声質を得ることができる。また、比較例に比較して
より自然なイントネーションで音声合成することができ
る。According to a fourth aspect of the present invention, in the first aspect of the present invention, the voice unit selecting means includes a central value of a basic voice frequency F 0 of a target phoneme and a voice of a phoneme candidate. When the difference between the median values of the fundamental frequencies F 0 is equal to or greater than a predetermined threshold, a predetermined penalty cost is further added to the target cost. Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained. In addition, speech synthesis can be performed with more natural intonation than in the comparative example.
【0082】さらに、請求項5記載の音声合成装置にお
いては、請求項1又は4記載の音声合成装置において、
上記音声単位選択手段は、連続する2つの目標音素の音
声基本周波数F0の差分と、連続する2つの音素候補の
音声基本周波数F0の差分との加算値の絶対値を連結コ
ストに加算する。従って、韻律制御規則を使わず、信号
処理を実行することなく、任意の音素列を発声音声に変
換することができ、しかもより自然に近い声質を得るこ
とができる。また、比較例に比較してより自然なイント
ネーションで音声合成することができる。Further, in the speech synthesizing apparatus according to the fifth aspect, in the speech synthesizing apparatus according to the first or fourth aspect,
The voice unit selecting means adds the absolute value of the sum of the difference between the basic voice frequencies F 0 of two consecutive target phonemes and the basic voice frequency F 0 of two consecutive phoneme candidates to the connection cost. . Therefore, an arbitrary phoneme sequence can be converted into a uttered voice without using prosody control rules and without performing signal processing, and a more natural voice quality can be obtained. In addition, speech synthesis can be performed with more natural intonation than in the comparative example.
【図1】 本発明に係る一実施形態である自然発話音声
波形信号接続型音声合成装置のブロック図である。FIG. 1 is a block diagram of a spontaneously uttered speech waveform signal connection type speech synthesis apparatus according to an embodiment of the present invention.
【図2】 従来例の音声合成装置のブロック図である。FIG. 2 is a block diagram of a conventional speech synthesizer.
【図3】 図1の音声単位選択部によって計算される音
声単位選択コストの定義を示すモデル図である。FIG. 3 is a model diagram showing a definition of a voice unit selection cost calculated by a voice unit selection unit in FIG. 1;
【図4】 図1の音声分析部によって実行される音声分
析処理のフローチャートである。FIG. 4 is a flowchart of a voice analysis process executed by the voice analysis unit of FIG. 1;
【図5】 図1の重み係数学習部によって実行される重
み係数学習処理の第1の部分のフローチャートである。FIG. 5 is a flowchart of a first part of a weight coefficient learning process performed by the weight coefficient learning unit in FIG. 1;
【図6】 図1の重み係数学習部によって実行される重
み係数学習処理の第2の部分のフローチャートである。FIG. 6 is a flowchart of a second part of the weight coefficient learning process executed by the weight coefficient learning unit in FIG. 1;
【図7】 図1の音声単位選択部によって実行される音
声単位選択処理のフローチャートである。FIG. 7 is a flowchart of a voice unit selection process executed by the voice unit selection unit of FIG. 1;
【図8】 図1の音声合成装置の聴取実験結果であっ
て、イントネーションの評価結果を示すグラフである。FIG. 8 is a graph showing a listening experiment result of the speech synthesizer of FIG. 1, showing an intonation evaluation result.
【図9】 図1の音声合成装置の聴取実験結果であっ
て、連続性及び明瞭性の評価結果を示すグラフである。FIG. 9 is a graph showing the results of a listening experiment of the speech synthesizer shown in FIG. 1 and showing evaluation results of continuity and clarity.
10…音声分析部、 11…重み係数学習部、 12…音声単位選択部、 13…音声合成部、 14…スピーカ、 21…音声波形信号データベースメモリ、 22…テキストデータベースメモリ、 23…音素HMMメモリ、 30…特徴パラメータメモリ、 31…重み係数ベクトル。 Reference Signs List 10: voice analysis unit, 11: weight coefficient learning unit, 12: voice unit selection unit, 13: voice synthesis unit, 14: speaker, 21: voice waveform signal database memory, 22: text database memory, 23: phoneme HMM memory, 30: Feature parameter memory 31: Weight coefficient vector
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ニック・キャンベル 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール音 声翻訳通信研究所内 (72)発明者 樋口 宜男 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール音 声翻訳通信研究所内 (56)参考文献 特開 平6−167989(JP,A) 特開 平8−263095(JP,A) 特開 平9−204192(JP,A) 特開 平10−49193(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 13/00 - 13/06 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Nick Campbell, Inventor 5 Shiraya, Seika-cho, Soraku-cho, Soraku-gun, Kyoto, Japan 5 AIT R Voice, Inc. Voice Translation and Communication Research Laboratories (72) Inventor Yoshio Higuchi Kyoto 5, Shiraka-cho, Seika-cho, Soraku-gun, Futaba, 5th, Sanraya, ATR Co., Ltd. ATR Corporation Voice Translation and Communication Research Laboratory (56) References JP-A-6-167989 (JP, A) JP-A-8-263095 (JP, A) JP-A-9-204192 (JP, A) JP-A-10-49193 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 13/00-13/06
Claims (12)
トを記憶する第1の記憶手段と、 上記第1の記憶手段によって記憶された音声波形信号の
音声セグメントと、上記音声波形信号に対応する音素列
とに基づいて、上記音声波形信号における音素毎の索引
情報と、上記索引情報によって示された音素毎の第1の
音響的特徴パラメータと、上記索引情報によって示され
た音素毎の第1の韻律的特徴パラメータとを抽出して出
力する音声分析手段と、 上記音声分析手段から出力される索引情報と、上記第1
の音響的特徴パラメータと、上記第1の韻律的特徴パラ
メータとを記憶する第2の記憶手段と、 上記第2の記憶手段によって記憶された第1の音響的特
徴パラメータに基づいて、同一の音素種類の1つの目標
音素とそれ以外の音素候補との間の第2の音響的特徴パ
ラメータにおける音響的距離を計算し、計算した音響的
距離に基づいて上記第2の音響的特徴パラメータにおい
て線形回帰分析することにより、各音素候補に関する上
記第2の音響的特徴パラメータにおける寄与度を表わす
各目標音素毎の重み係数ベクトルを決定する重み係数学
習手段と、 上記重み係数学習手段によって決定された上記第2の音
響的特徴パラメータにおける各目標音素毎の重み係数ベ
クトルと、予め与えられた、各音素候補に関する第2の
韻律的特徴パラメータにおける寄与度を表わす各目標音
素毎の重み係数ベクトルとを記憶する第3の記憶手段
と、 上記第3の記憶手段によって記憶された各目標音素毎の
重み係数ベクトルと、上記第2の記憶手段によって記憶
された第1の韻律的特徴パラメータとに基づいて、入力
される自然発話文の音素列に対して、目標音素と音素候
補との間の近似コストを表わす目標コストと、隣接して
連結されるべき2つの音素候補間の近似コストを表わす
連結コストとを含むコストが最小となる、音素候補の組
み合わせを検索して、検索した音素候補の組み合わせの
索引情報を出力する音声単位選択手段と、 上記音声単位選択手段から出力される索引情報に基づい
て、当該索引情報に対応する音声波形信号の音声セグメ
ントを上記第1の記憶手段から逐次読み出して連結して
出力することにより、上記入力された音素列に対応する
音声を合成して出力する音声合成手段とを備え、 上記音声単位選択手段は、目標音素の音声基本周波数F
0と音素候補の音声基本周波数F0との傾きの差を目標コ
ストに加算することを特徴とする自然発話音声波形信号
接続型音声合成装置。A first storage unit for storing a speech segment of a naturally uttered speech waveform signal; a speech segment of the speech waveform signal stored by the first storage unit; and a phoneme corresponding to the speech waveform signal. On the basis of the sequence, index information for each phoneme in the audio waveform signal, a first acoustic feature parameter for each phoneme indicated by the index information, and a first acoustic feature parameter for each phoneme indicated by the index information Voice analysis means for extracting and outputting a prosodic feature parameter; index information output from the voice analysis means;
A second phoneme storing the first acoustic feature parameter and the first prosodic feature parameter, and the same phoneme based on the first acoustic feature parameter stored by the second memory. Calculating an acoustic distance in a second acoustic feature parameter between one target phoneme of the type and the other phoneme candidates, and performing a linear regression on the second acoustic feature parameter based on the calculated acoustic distance. A weighting factor learning unit that determines a weighting factor vector for each target phoneme that represents a contribution in the second acoustic feature parameter for each phoneme candidate, and Weight coefficient vector for each target phoneme in the second acoustic feature parameter, and a second predetermined prosodic feature parameter for each phoneme candidate. A third storage means for storing a weighting coefficient vector for each target phoneme representing a contribution in the above, a weighting coefficient vector for each target phoneme stored by the third storage means, and a second storage means And a target cost representing an approximate cost between the target phoneme and the phoneme candidate for the phoneme sequence of the input natural utterance sentence based on the first prosodic feature parameter stored by Voice unit selection means for searching for a combination of phoneme candidates which minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates to be performed, and outputting index information of the searched combination of phoneme candidates; On the basis of the index information output from the audio unit selection means, the audio segments of the audio waveform signal corresponding to the index information are sequentially read out from the first storage means, and are successively read. By and outputs, and a speech synthesis means for outputting synthesized speech corresponding to the phoneme string that is the input, the speech unit selection means, the target phoneme of the voice fundamental frequency F
0 phoneme candidate speech fundamental frequency F 0 and the natural speech waveform signal connected speech synthesis apparatus characterized by adding to the target cost of the difference between the slope of the.
トを記憶する第1の記憶手段と、 上記第1の記憶手段によって記憶された音声波形信号の
音声セグメントと、上記音声波形信号に対応する音素列
とに基づいて、上記音声波形信号における音素毎の索引
情報と、上記索引情報によって示された音素毎の第1の
音響的特徴パラメータと、上記索引情報によって示され
た音素毎の第1の韻律的特徴パラメータとを抽出して出
力する音声分析手段と、 上記音声分析手段から出力される索引情報と、上記第1
の音響的特徴パラメータと、上記第1の韻律的特徴パラ
メータとを記憶する第2の記憶手段と、 上記第2の記憶手段によって記憶された第1の音響的特
徴パラメータに基づいて、同一の音素種類の1つの目標
音素とそれ以外の音素候補との間の第2の音響的特徴パ
ラメータにおける音響的距離を計算し、計算した音響的
距離に基づいて上記第2の音響的特徴パラメータにおい
て線形回帰分析することにより、各音素候補に関する上
記第2の音響的特徴パラメータにおける寄与度を表わす
各目標音素毎の重み係数ベクトルを決定する重み係数学
習手段と、 上記重み係数学習手段によって決定された上記第2の音
響的特徴パラメータにおける各目標音素毎の重み係数ベ
クトルと、予め与えられた、各音素候補に関する第2の
韻律的特徴パラメータにおける寄与度を表わす各目標音
素毎の重み係数ベクトルとを記憶する第3の記憶手段
と、 上記第3の記憶手段によって記憶された各目標音素毎の
重み係数ベクトルと、上記第2の記憶手段によって記憶
された第1の韻律的特徴パラメータとに基づいて、入力
される自然発話文の音素列に対して、目標音素と音素候
補との間の近似コストを表わす目標コストと、隣接して
連結されるべき2つの音素候補間の近似コストを表わす
連結コストとを含むコストが最小となる、音素候補の組
み合わせを検索して、検索した音素候補の組み合わせの
索引情報を出力する音声単位選択手段と、 上記音声単位選択手段から出力される索引情報に基づい
て、当該索引情報に対応する音声波形信号の音声セグメ
ントを上記第1の記憶手段から逐次読み出して連結して
出力することにより、上記入力された音素列に対応する
音声を合成して出力する音声合成手段とを備え、 上記音声単位選択手段は、目標音素の音声基本周波数F
0の中央値と、音素候補の音声基本周波数F0の中央値の
差が所定のしきい値以上であるとき、所定のペナルティ
ーコストを目標コストに加算することを特徴とする自然
発話音声波形信号接続型音声合成装置。2. A first storage means for storing a voice segment of a naturally uttered voice waveform signal; a voice segment of the voice waveform signal stored by the first storage means; and a phoneme corresponding to the voice waveform signal. On the basis of the sequence, index information for each phoneme in the audio waveform signal, a first acoustic feature parameter for each phoneme indicated by the index information, and a first acoustic feature parameter for each phoneme indicated by the index information Voice analysis means for extracting and outputting a prosodic feature parameter; index information output from the voice analysis means;
A second phoneme storing the first acoustic feature parameter and the first prosodic feature parameter, and the same phoneme based on the first acoustic feature parameter stored by the second memory. Calculating an acoustic distance in a second acoustic feature parameter between one target phoneme of the type and the other phoneme candidates, and performing a linear regression on the second acoustic feature parameter based on the calculated acoustic distance. A weighting factor learning unit that determines a weighting factor vector for each target phoneme that represents a contribution in the second acoustic feature parameter for each phoneme candidate, and Weight coefficient vector for each target phoneme in the second acoustic feature parameter, and a second predetermined prosodic feature parameter for each phoneme candidate. A third storage means for storing a weighting coefficient vector for each target phoneme representing a contribution in the above, a weighting coefficient vector for each target phoneme stored by the third storage means, and a second storage means And a target cost representing an approximate cost between the target phoneme and the phoneme candidate for the phoneme sequence of the input natural utterance sentence based on the first prosodic feature parameter stored by Voice unit selection means for searching for a combination of phoneme candidates which minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates to be performed, and outputting index information of the searched combination of phoneme candidates; On the basis of the index information output from the audio unit selection means, the audio segments of the audio waveform signal corresponding to the index information are sequentially read out from the first storage means, and are successively read. By and outputs, and a speech synthesis means for outputting synthesized speech corresponding to the phoneme string that is the input, the speech unit selection means, the target phoneme of the voice fundamental frequency F
0 and median, when the difference between the center value of the audio fundamental frequency F 0 of the phoneme candidate is equal to or greater than a predetermined threshold value, the natural speech waveform signal, characterized by adding a predetermined penalty cost target cost Connected speech synthesizer.
トを記憶する第1の記憶手段と、 上記第1の記憶手段によって記憶された音声波形信号の
音声セグメントと、上記音声波形信号に対応する音素列
とに基づいて、上記音声波形信号における音素毎の索引
情報と、上記索引情報によって示された音素毎の第1の
音響的特徴パラメータと、上記索引情報によって示され
た音素毎の第1の韻律的特徴パラメータとを抽出して出
力する音声分析手段と、 上記音声分析手段から出力される索引情報と、上記第1
の音響的特徴パラメータと、上記第1の韻律的特徴パラ
メータとを記憶する第2の記憶手段と、 上記第2の記憶手段によって記憶された第1の音響的特
徴パラメータに基づいて、同一の音素種類の1つの目標
音素とそれ以外の音素候補との間の第2の音響的特徴パ
ラメータにおける音響的距離を計算し、計算した音響的
距離に基づいて上記第2の音響的特徴パラメータにおい
て線形回帰分析することにより、各音素候補に関する上
記第2の音響的特徴パラメータにおける寄与度を表わす
各目標音素毎の重み係数ベクトルを決定する重み係数学
習手段と、 上記重み係数学習手段によって決定された上記第2の音
響的特徴パラメータにおける各目標音素毎の重み係数ベ
クトルと、予め与えられた、各音素候補に関する第2の
韻律的特徴パラメータにおける寄与度を表わす各目標音
素毎の重み係数ベクトルとを記憶する第3の記憶手段
と、 上記第3の記憶手段によって記憶された各目標音素毎の
重み係数ベクトルと、上記第2の記憶手段によって記憶
された第1の韻律的特徴パラメータとに基づいて、入力
される自然発話文の音素列に対して、目標音素と音素候
補との間の近似コストを表わす目標コストと、隣接して
連結されるべき2つの音素候補間の近似コストを表わす
連結コストとを含むコストが最小となる、音素候補の組
み合わせを検索して、検索した音素候補の組み合わせの
索引情報を出力する音声単位選択手段と、 上記音声単位選択手段から出力される索引情報に基づい
て、当該索引情報に対応する音声波形信号の音声セグメ
ントを上記第1の記憶手段から逐次読み出して連結して
出力することにより、上記入力された音素列に対応する
音声を合成して出力する音声合成手段とを備え、 上記音声単位選択手段は、連続する2つの目標音素の音
声基本周波数F0の差分と、連続する2つの音素候補の
音声基本周波数F0の差分との加算値の絶対値を連結コ
ストに加算することを特徴とする自然発話音声波形信号
接続型音声合成装置。3. A first storage means for storing a speech segment of a naturally uttered speech waveform signal, a speech segment of the speech waveform signal stored by the first storage means, and a phoneme corresponding to the speech waveform signal. On the basis of the sequence, index information for each phoneme in the audio waveform signal, a first acoustic feature parameter for each phoneme indicated by the index information, and a first acoustic feature parameter for each phoneme indicated by the index information Voice analysis means for extracting and outputting a prosodic feature parameter; index information output from the voice analysis means;
A second phoneme storing the first acoustic feature parameter and the first prosodic feature parameter, and the same phoneme based on the first acoustic feature parameter stored by the second memory. Calculating an acoustic distance in a second acoustic feature parameter between one target phoneme of the type and the other phoneme candidates, and performing a linear regression on the second acoustic feature parameter based on the calculated acoustic distance. A weighting factor learning unit that determines a weighting factor vector for each target phoneme that represents a contribution in the second acoustic feature parameter for each phoneme candidate, and Weight coefficient vector for each target phoneme in the second acoustic feature parameter, and a second predetermined prosodic feature parameter for each phoneme candidate. A third storage means for storing a weighting coefficient vector for each target phoneme representing a contribution in the above, a weighting coefficient vector for each target phoneme stored by the third storage means, and a second storage means And a target cost representing an approximate cost between the target phoneme and the phoneme candidate for the phoneme sequence of the input natural utterance sentence based on the first prosodic feature parameter stored by Voice unit selection means for searching for a combination of phoneme candidates which minimizes a cost including a connection cost representing an approximate cost between two phoneme candidates to be performed, and outputting index information of the searched combination of phoneme candidates; On the basis of the index information output from the audio unit selection means, the audio segments of the audio waveform signal corresponding to the index information are sequentially read out from the first storage means, and are successively read. By and outputs, and a speech synthesis means for outputting synthesized speech corresponding to the phoneme string that is the input, the speech unit selection means, two goals phonemes successive speech fundamental frequency F 0 difference and the difference between the natural speech waveform signal connected speech synthesis apparatus characterized by adding the absolute value to the connection cost of the sum of the voice fundamental frequency F 0 of two consecutive phonemes candidates.
声基本周波数F0の中央値と、音素候補の音声基本周波
数F0の中央値の差が所定のしきい値以上であるとき、
所定のペナルティーコストを目標コストにさらに加算す
ることを特徴とする請求項1記載の音声合成装置。4. The speech unit selecting means, wherein a difference between a median value of the speech fundamental frequency F 0 of the target phoneme and a median value of the speech fundamental frequency F 0 of the phoneme candidate is equal to or more than a predetermined threshold value.
2. The speech synthesizer according to claim 1, wherein a predetermined penalty cost is further added to a target cost.
の目標音素の音声基本周波数F0の差分と、連続する2
つの音素候補の音声基本周波数F0の差分との加算値の
絶対値を連結コストに加算することを特徴とする請求項
1又は4記載の音声合成装置。5. The speech unit selection means according to claim 1, wherein the difference between the speech fundamental frequencies F 0 of the two consecutive target phonemes and the consecutive two
One difference between the sum of the absolute values speech synthesizing apparatus according to claim 1 or 4, wherein adding the coupling cost voice fundamental frequency F 0 of the phoneme candidate.
トと上記連結コストとを含むコストが最良の上位複数N
2個の音素候補を抽出した後、コストが最小となる音素
候補の組み合わせを検索することを特徴とする請求項1
乃至5のうちの1つに記載の音声合成装置。6. The voice unit selecting means includes a plurality of top Ns having the best cost including the target cost and the connection cost.
2. The method according to claim 1, wherein after extracting two phoneme candidates, a combination of phoneme candidates having a minimum cost is searched.
6. The speech synthesizer according to any one of claims 1 to 5.
形信号に基づいて上記音声波形信号に対応する音素列を
予測する音素予測手段を備えたことを特徴とする請求項
1乃至6のうちの1つに記載の音声合成装置。7. The speech analysis device according to claim 1, wherein said speech analysis means includes a phoneme prediction means for predicting a phoneme sequence corresponding to said speech waveform signal based on an inputted speech waveform signal. A speech synthesizer according to one of the above.
音響的距離に基づいて、最良の上位複数N1個の音素候
補を抽出した後、上記第2の音響的特徴パラメータにお
いて線形回帰分析することにより、各音素候補に関する
上記第2の音響的特徴パラメータにおける寄与度を表わ
す各目標音素毎の重み係数ベクトルを決定することを特
徴とする請求項1乃至7のうちの1つに記載の音声合成
装置。8. The weighting factor learning means extracts a best plurality of N1 phoneme candidates based on the calculated acoustic distance, and then performs a linear regression analysis on the second acoustic feature parameter. The speech synthesis according to any one of claims 1 to 7, wherein a weight coefficient vector for each target phoneme, which represents a degree of contribution in the second acoustic feature parameter for each phoneme candidate, is determined by the following. apparatus.
プストラム係数と、デルタケプストラム係数と、音素ラ
ベルとを含むことを特徴とする請求項1乃至8のうちの
1つに記載の音声合成装置。9. The apparatus according to claim 1, wherein the first acoustic feature parameter includes a cepstrum coefficient, a delta cepstrum coefficient, and a phoneme label. .
音素時間長と、音声基本周波数F0と、パワーとを含む
ことを特徴とする請求項1乃至9のうちの1つに記載の
音声合成装置。10. The first prosodic feature parameter is:
Phoneme time length, the voice fundamental frequency F 0, the speech synthesis device according to one of claims 1 to 9, characterized in that it comprises a power.
(a)処理すべき当該音素から先行する先行音素の音素
ラベルと、(b)当該音素から後続する後続音素の音素
ラベルと、(c)音素間の接続点におけるケプストラム
距離と、(d)音素間の対数パワーの差の絶対値と、
(e)音素間の音声基本周波数F0の差の絶対値とを含
むことを特徴とする請求項1乃至10のうちの1つに記
載の音声合成装置。11. The second acoustic feature parameter is:
(A) a phoneme label of a preceding phoneme preceding the phoneme to be processed, (b) a phoneme label of a succeeding phoneme following the phoneme, (c) a cepstrum distance at a connection point between the phonemes, and (d) a phoneme. The absolute value of the difference in log power between
(E) speech synthesis device according to one of claims 1 to 10, characterized in that it comprises an absolute value of the difference between the voice fundamental frequency F 0 between phonemes.
(a)処理すべき当該音素から先行する先行音素の第1
の韻律的特徴パラメータと、(b)当該音素から後続す
る後続音素の音素ラベルの第1の韻律的特徴パラメータ
と、(c)当該音素の音素時間長と、(d)当該音素の
音声基本周波数F0と、(e)先行音素の音声基本周波
数F0と、を含むことを特徴とする請求項1乃至11の
うちの1つに記載の音声合成装置。12. The second prosodic feature parameter is:
(A) The first phoneme preceding the phoneme to be processed
(B) a first prosodic feature parameter of a phoneme label of a succeeding phoneme following the phoneme, (c) a phoneme time length of the phoneme, and (d) a speech fundamental frequency of the phoneme. The speech synthesizer according to any one of claims 1 to 11, comprising F 0 and (e) a speech fundamental frequency F 0 of the preceding phoneme.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09048769A JP3091426B2 (en) | 1997-03-04 | 1997-03-04 | Speech synthesizer with spontaneous speech waveform signal connection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09048769A JP3091426B2 (en) | 1997-03-04 | 1997-03-04 | Speech synthesizer with spontaneous speech waveform signal connection |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10247097A JPH10247097A (en) | 1998-09-14 |
JP3091426B2 true JP3091426B2 (en) | 2000-09-25 |
Family
ID=12812495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP09048769A Expired - Fee Related JP3091426B2 (en) | 1997-03-04 | 1997-03-04 | Speech synthesizer with spontaneous speech waveform signal connection |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3091426B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9147392B2 (en) | 2011-08-01 | 2015-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Speech synthesis device and speech synthesis method |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1138038B1 (en) * | 1998-11-13 | 2005-06-22 | Lernout & Hauspie Speech Products N.V. | Speech synthesis using concatenation of speech waveforms |
JP3910628B2 (en) | 2005-06-16 | 2007-04-25 | 松下電器産業株式会社 | Speech synthesis apparatus, speech synthesis method and program |
JP6234134B2 (en) * | 2013-09-25 | 2017-11-22 | 三菱電機株式会社 | Speech synthesizer |
CN116524896A (en) * | 2023-04-24 | 2023-08-01 | 北京邮电大学 | Pronunciation inversion method and system based on pronunciation physiological modeling |
-
1997
- 1997-03-04 JP JP09048769A patent/JP3091426B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9147392B2 (en) | 2011-08-01 | 2015-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Speech synthesis device and speech synthesis method |
Also Published As
Publication number | Publication date |
---|---|
JPH10247097A (en) | 1998-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6366883B1 (en) | Concatenation of speech segments by use of a speech synthesizer | |
JP4328698B2 (en) | Fragment set creation method and apparatus | |
US5905972A (en) | Prosodic databases holding fundamental frequency templates for use in speech synthesis | |
JP5665780B2 (en) | Speech synthesis apparatus, method and program | |
US8015011B2 (en) | Generating objectively evaluated sufficiently natural synthetic speech from text by using selective paraphrases | |
US9484012B2 (en) | Speech synthesis dictionary generation apparatus, speech synthesis dictionary generation method and computer program product | |
Khan et al. | Concatenative speech synthesis: A review | |
US7454343B2 (en) | Speech synthesizer, speech synthesizing method, and program | |
JP2008134475A (en) | Technique for recognizing accent of input voice | |
JP2007249212A (en) | Method, computer program and processor for text speech synthesis | |
WO2006040908A1 (en) | Speech synthesizer and speech synthesizing method | |
JP4829477B2 (en) | Voice quality conversion device, voice quality conversion method, and voice quality conversion program | |
WO2013018294A1 (en) | Speech synthesis device and speech synthesis method | |
JP5411845B2 (en) | Speech synthesis method, speech synthesizer, and speech synthesis program | |
JP3050832B2 (en) | Speech synthesizer with spontaneous speech waveform signal connection | |
Ipsic et al. | Croatian HMM-based speech synthesis | |
JP3091426B2 (en) | Speech synthesizer with spontaneous speech waveform signal connection | |
JP2975586B2 (en) | Speech synthesis system | |
GB2313530A (en) | Speech Synthesizer | |
JP2003186489A (en) | Voice information database generation system, device and method for sound-recorded document creation, device and method for sound recording management, and device and method for labeling | |
JP3459600B2 (en) | Speech data amount reduction device and speech synthesis device for speech synthesis device | |
JP6523423B2 (en) | Speech synthesizer, speech synthesis method and program | |
Tóth et al. | Hidden-Markov-Model based speech synthesis in Hungarian | |
Bahaadini et al. | Implementation and evaluation of statistical parametric speech synthesis methods for the Persian language | |
Ng | Survey of data-driven approaches to Speech Synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090721 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100721 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100721 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110721 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120721 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130721 Year of fee payment: 13 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |