JPH05297892A - Voiced sound synthesizing method - Google Patents

Voiced sound synthesizing method

Info

Publication number
JPH05297892A
JPH05297892A JP4121463A JP12146392A JPH05297892A JP H05297892 A JPH05297892 A JP H05297892A JP 4121463 A JP4121463 A JP 4121463A JP 12146392 A JP12146392 A JP 12146392A JP H05297892 A JPH05297892 A JP H05297892A
Authority
JP
Japan
Prior art keywords
pitch
data
phase
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4121463A
Other languages
Japanese (ja)
Other versions
JP3218680B2 (en
Inventor
Masayuki Nishiguchi
正之 西口
Atsushi Matsumoto
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP12146392A priority Critical patent/JP3218680B2/en
Publication of JPH05297892A publication Critical patent/JPH05297892A/en
Application granted granted Critical
Publication of JP3218680B2 publication Critical patent/JP3218680B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To obtain a natural reproduced sound without generating any unnecessary noise on the synthesis side of an MBE (multiband excited) vocoder, etc. CONSTITUTION:A phase prediction and correction part 20 performs phase prediction according to pitch data from a pitch decoding part 18. A scale factor adjustment part 19 adjusts a scale value for predictive phase correction according to decoded pitch data from the pitch decoding part 18 and adds it to the predicted phase of the phase prediction and correction part 20.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、初期位相が固定された
信号を用いて有声音を合成する有声音合成方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voiced sound synthesizing method for synthesizing a voiced sound using a signal whose initial phase is fixed.

【0002】[0002]

【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この符号
化方法としては、大別して時間領域での符号化、周波数
領域での符号化、分析合成符号化等が挙げられる。
2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing the statistical properties of a voice signal in the time domain and frequency domain and the human auditory characteristics. This coding method is roughly classified into a time domain coding, a frequency domain coding, an analysis-synthesis coding, and the like.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニクス(Harmonic) 符号化、SBC
(Sub-band Coding:帯域分割符号化) 、LPC(Linear
Predictive Coding:線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等がある。
As an example of high-efficiency coding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonics (Harmonic) coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding) or DCT
(Discrete cosine transform), MDCT (Modified DC)
T), FFT (Fast Fourier Transform), and the like.

【0004】上記MBE符号化等においては、1ブロッ
ク(フレーム)内の音声に対して帯域(バンド)を複数
に分割し、各バンド毎に有声音/無声音の判断を行って
おり、音質の向上が認められる。
In the above MBE coding and the like, the voice within one block (frame) is divided into a plurality of bands, and a voiced / unvoiced sound is judged for each band, thereby improving the sound quality. Is recognized.

【0005】[0005]

【発明が解決しようとする課題】ところで、上記MBE
符号化等においては、音声スペクトルの振幅の位相情報
を別途伝送するか又は伝送情報量を減らすため伝送せず
に合成側(復号化側)でピッチ及び過去の位相から位相
情報を予測している。この合成側での位相情報の予測
(以下、位相予測という)には、フレームの初期位相を
0或いはπ/2に固定し、分析側から伝送されてきたピ
ッチに応じてコサイン波を合成する固定位相加算が行わ
れてきた。しかし、この固定位相加算による合成では、
男声等のピッチの低い音声での強い母音で不自然な合成
音となっていた。そこで、符号化側での有声音/無声音
判別で判明した無声音帯域の含有率に応じて、合成側で
は位相に分散の大きな乱数を加算して自然感を出すよう
にしている。しかし、ピッチが低くない女声の位相に分
散の大きな乱数を加算すると、雑音のような感じにな
り、明瞭度が失われてしまうという欠点がある。
By the way, the above MBE
In encoding, the phase information of the amplitude of the voice spectrum is separately transmitted, or the phase information is predicted from the pitch and the past phase on the synthesis side (decoding side) without transmission in order to reduce the amount of transmission information. .. For the prediction of the phase information on the synthesis side (hereinafter referred to as phase prediction), the initial phase of the frame is fixed to 0 or π / 2, and the cosine wave is synthesized according to the pitch transmitted from the analysis side. Phase addition has been performed. However, in this synthesis by fixed phase addition,
It was an unnatural synthetic sound due to strong vowels in low pitched voices such as male voice. Therefore, the synthesis side adds random numbers with large variance to the phase according to the content rate of the unvoiced sound band found by the voiced / unvoiced sound discrimination on the encoding side to give a natural feeling. However, when a random number with a large variance is added to the phase of a female voice whose pitch is not low, there is a drawback that it becomes noise-like and loses clarity.

【0006】本発明は、このような実情に鑑みてなされ
たものであり、不自然感がなく明瞭度が失われることの
ない高品質の合成音を得られるような有声音合成方法に
関する。
The present invention has been made in view of the above circumstances, and relates to a voiced sound synthesizing method capable of obtaining a high quality synthesized sound without an unnatural feeling and without losing clarity.

【0007】[0007]

【課題を解決するための手段】本発明に係る有声音合成
方法は、入力された音声信号をフレーム単位で区分し、
区分されたフレーム毎にピッチを求め、求められたピッ
チの基本波及びその高調波であって初期位相が固定され
た信号群を用いて有声音を合成する有声音合成方法にお
いて、各フレーム毎にフレーム終端部における上記基本
波及び高調波の位相を予測すると共に各フレーム毎の上
記予測されたフレーム終端部の位相又は上記基本波及び
高調波の少なくとも1つの周波数を上記ピッチに応じて
修正することを特徴として上記課題を解決する。
A voiced sound synthesis method according to the present invention divides an input voice signal into frame units,
Obtain the pitch for each divided frame, in the voiced sound synthesis method that synthesizes a voiced sound using the fundamental wave of the obtained pitch and its harmonics and a signal group whose initial phase is fixed, in each frame Predicting the phases of the fundamental wave and the harmonic wave at the frame end portion and correcting the predicted phase of the frame end portion or at least one frequency of the fundamental wave and the harmonic wave for each frame according to the pitch. The above-mentioned problem is solved by the feature.

【0008】ここで、ピッチに応じた修正の量は、ピッ
チ周波数が低くなる程、言い換えるとピッチ周期が長く
なる程、予測位相に加える修正値を大きくするというこ
とである。
Here, the amount of correction according to the pitch is that the lower the pitch frequency is, that is, the longer the pitch period is, the larger the correction value added to the predicted phase is.

【0009】また、上記基本波及び高調波の少なくとも
1の周波数をピッチに応じて修正するのは、初期フレー
ムのフレーム終端部における位相のみの修正だけでな
く、他フレームにおいても相対的に上記基本波及び高調
波の重ねの位置を調整するために行われる。
The correction of at least one frequency of the fundamental wave and the higher harmonic wave according to the pitch is not limited to the correction of only the phase at the frame end portion of the initial frame, and the relative frequency of the fundamental wave is relatively changed in other frames. This is done to adjust the position of the superposition of waves and harmonics.

【0010】[0010]

【作用】ピッチ周波数が低くなる程、言い換えるとピッ
チ周期が長くなる程、合成側で予測するフレーム終端部
における基本波及び高調波の位相又はそれらの内の少な
くとも1つの周波数の修正の度合いを増すことにより、
不必要なノイズを発生することなく自然な再生音を得ら
れる。
As the pitch frequency becomes lower, in other words, the pitch period becomes longer, the degree of modification of the phase of the fundamental wave and the harmonic wave or at least one of those frequencies at the frame end portion predicted on the synthesis side increases. By
A natural reproduced sound can be obtained without generating unnecessary noise.

【0011】[0011]

【実施例】以下、本発明に係る有声音合成方法を、音声
信号の合成分析符号化装置(いわゆるボコーダ)の一種
であるMBE(Multiband Excitation: マルチバンド励
起)ボコーダに適用した具体例について、図面を参照し
ながら説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The following is a specific example in which the voiced sound synthesis method according to the present invention is applied to an MBE (Multiband Excitation) vocoder, which is a kind of speech signal synthesis analysis coding apparatus (so-called vocoder). Will be described with reference to.

【0012】このMBEボコーダは、D. W. Griffin an
d J.S. Lim,"Multiband ExcitationVocoder," IEEE Tra
ns.Acoustics,Speech,and Signal Processing, vol.36,
No.8, pp.1223-1235, Aug.1988 に開示されているも
のであり、従来のPARCOR(PARtial auto-CORrela
tion: 偏自己相関)ボコーダ等では、音声のモデル化の
際に有声音区間と無声音区間とをブロックあるいはフレ
ーム毎に切り換えていたのに対し、MBEボコーダで
は、同時刻(同じブロックあるいはフレーム内)の周波
数軸領域に有声音(Voiced)区間と無声音(Unvoiced)
区間とが存在するという仮定でモデル化している。
This MBE vocoder is a DW Griffin an
d JS Lim, "Multiband Excitation Vocoder," IEEE Tra
ns.Acoustics, Speech, and Signal Processing, vol.36,
No. 8, pp.1223-1235, Aug.1988, the conventional PARCOR (PARtial auto-CORrela
tion: Partial autocorrelation) In vocoders etc., voiced sections and unvoiced sections were switched for each block or frame when modeling speech, whereas for MBE vocoder, at the same time (in the same block or frame) Voiced (Voiced) section and unvoiced (Unvoiced) in the frequency domain of
It is modeled on the assumption that the interval and exist.

【0013】図1は、上記MBEボコーダの合成側(デ
コード側)に本発明を適用した実施例の概略構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the schematic arrangement of an embodiment in which the present invention is applied to the combining side (decoding side) of the MBE vocoder.

【0014】この図1において、入力端子11、12及
び13には後述するMBEボコーダの分析側(エンコー
ド側)から伝送されてくるベクトル量子化された振幅デ
ータ、符号化されたピッチデータ及び有声音(V)/
(無声音)UV判別データが供給される。入力端子11
からの量子化振幅データは、逆ベクトル量子化部14に
送られて逆量子化され、データ数逆変換部15に送られ
て逆変換され、得られた振幅データが有声音合成部16
及び無声音合成部17に送られる。入力端子12からの
符号化ピッチデータは、ピッチ復号化部18で復号化さ
れ、データ数逆変換部15、有声音合成部16、無声音
合成部17、スケールファクタ調整部19及び位相予測
&修正部20に送られる。また入力端子13からのV/
UV判別データは、有声音合成部16及び無声音合成部
17に送られる。
In FIG. 1, vector-quantized amplitude data, encoded pitch data and voiced sound transmitted from an analysis side (encoding side) of an MBE vocoder, which will be described later, are applied to input terminals 11, 12 and 13. (V) /
(Unvoiced) UV discrimination data is supplied. Input terminal 11
The quantized amplitude data from is sent to the inverse vector quantization unit 14 for inverse quantization, and is sent to the data number inverse conversion unit 15 for inverse conversion, and the obtained amplitude data is used for the voiced sound synthesis unit 16
And the unvoiced sound synthesizing unit 17. The encoded pitch data from the input terminal 12 is decoded by the pitch decoding unit 18, and the data number inverse conversion unit 15, the voiced sound synthesis unit 16, the unvoiced sound synthesis unit 17, the scale factor adjustment unit 19, and the phase prediction & correction unit. Sent to 20. V / from input terminal 13
The UV discrimination data is sent to the voiced sound synthesis unit 16 and the unvoiced sound synthesis unit 17.

【0015】有声音合成部16では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部17では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部21で加算合成して、出力端子22より取り出すよ
うにしている。
In the voiced sound synthesizer 16, for example, cosine
The voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 17 filters white noise with a bandpass filter, for example, to synthesize the unvoiced sound waveform on the time axis, and synthesizes each of these voiced sound synthesized waveforms and unvoiced sound. The waveform and the waveform are added and combined by the adder 21 and taken out from the output terminal 22.

【0016】ここで、上記位相予測&修正部20では、
上記ピッチ復号化部18からの復号化ピッチデータに基
づいて、位相予測を行う。この位相予測&修正部20
は、時刻0(フレームの先頭)に於ける第m高調波の位
相(フレーム初期位相)をψ0mとすると、フレームの最
後での位相ψLmを、 ψLm=mod2π(ψ0m+m(ω01+ωL1) L/2) ・・・(1) と予測する。この(1)式でmod2π(x)とは、xの主
値を−π〜+πの間で返す関数である。例えば、x=1.
3 πのときmod2π(x)=−0.7 π、x=2.3 πのとき
mod2π(x)=0.3 π、x=−1.3 πのときmod2π
(x)=0.7 π、等である。また、Lはフレームインタ
ーバル、ω01は、合成フレームの先端(n=0)での基
本角周波数、ωL1は該合成フレームの終端(n=L:次
の合成フレーム先端)での基本角周波数である。また、
上記位相予測&修正部20は、上記予測したフレームの
最後での位相ψLmに対し、上記ピッチ復号化部18から
の復号化ピッチデータを基に上記スケールファクタ調整
部19が調整したスケールファクタを加算し、修正を施
す。すなわち、時刻0(フレームの先頭)に於ける第m
高調波の位相(フレーム初期位相)φ0mを1フレーム前
のφLm(φ(-1)Lm)とすると、この修正の施された予測
位相φLmは、 φLm=ψLm+Sc dp ・・・(2) と示される。ここで、Sc はスケール値を示し、Rdp
2πf(m、M)×(ガウシアン乱数)で示される位相
のランダム値である。また、f(m、M)は周波数に応
じて分散σを変えるための関数である。上記Rdpが±π
の範囲を越える時は、±πをクリッピングレベルにし
て、Rdpをクリップする。
Here, in the phase predicting & correcting section 20,
Phase prediction is performed based on the decoded pitch data from the pitch decoding unit 18. This phase prediction & correction unit 20
Is the phase of the m-th harmonic (frame initial phase) at time 0 (the beginning of the frame) is ψ 0m , the phase ψ Lm at the end of the frame is ψ Lm = mod2π (ψ 0m + m (ω 01 + Ω L1 ) L / 2) ・ ・ ・ (1) is predicted. In this equation (1), mod2π (x) is a function that returns the main value of x between −π and + π. For example, x = 1.
When 3π, mod2π (x) = − 0.7π, x = 2.3π
mod2π (x) = 0.3π, x = −1.3π mod2π
(X) = 0.7π, and so on. Further, L is a frame interval, ω 01 is a basic angular frequency at the end of the composite frame (n = 0), and ω L1 is a basic angular frequency at the end of the composite frame (n = L: end of the next composite frame). Is. Also,
The phase prediction / correction unit 20 uses the scale factor adjusted by the scale factor adjustment unit 19 based on the decoded pitch data from the pitch decoding unit 18 with respect to the predicted phase ψ Lm at the end of the frame. Add and correct. That is, the mth time at time 0 (the beginning of the frame)
Assuming that the phase of the harmonics (frame initial phase) φ 0m is φ Lm(-1) Lm ) one frame before, the corrected predicted phase φ Lm is φ Lm = φ Lm + S c R dp ... (2). Here, S c represents a scale value, and R dp is a random value of the phase represented by 2πf (m, M) × (Gaussian random number). Further, f (m, M) is a function for changing the variance σ according to the frequency. The above R dp is ± π
When the range exceeds, the clipping level is set to ± π and R dp is clipped.

【0017】具体的には、上記(2)式のスケール値S
c をサンプル数で記述されたピッチのインターバル(周
期)であるピッチラグPr の関数とする。例えば、ピッ
チラグPr が75より小さいときにはスケール値を0.1 、
ピッチラグPr が75以上で85より小さいときにはスケー
ル値を0.2 、ピッチラグPr が85以上で90より小さいと
きにはスケール値を0.3 、ピッチラグPr が90以上で10
0 より小さいときにはスケール値を0.6 、ピッチラグP
r が100 以上のときにはスケール値を0.8 とする。つま
り、ピッチラグPr が大きいとき程、ランダマイズのス
ケールファクタのスケール値を大きな値とする。
Specifically, the scale value S in the above equation (2)
Let c be a function of the pitch lag P r , which is the pitch interval (cycle) described by the number of samples. For example, when the pitch lag P r is less than 75, the scale value is 0.1,
When the pitch lag P r is 75 or more and less than 85, the scale value is 0.2. When the pitch lag P r is 85 or more and less than 90, the scale value is 0.3 and the pitch lag P r is 90 or more and 10
When it is less than 0, the scale value is 0.6 and the pitch lag P is
When r is 100 or more, the scale value is 0.8. That is, the larger the pitch lag P r , the larger the scale value of the randomizing scale factor.

【0018】ここで、上述したようにピッチラグPr
大きいとき程、ランダマイズのスケールファクタのスケ
ール値を大きな値とする理由を述べる。ピッチラグPr
が大きいというのは、ピッチ周期が長いことであり、ピ
ッチ内で加算されるハーモニクスの数が多いことを意味
する。これに対し、ピッチラグPr が小さいときという
のは、ピッチ周期が短いことであり、ピッチ内で加算さ
れるハーモニクスの数が少ないことを意味する。つま
り、ピッチ周期の長い時程、長時間分のエネルギーが一
箇所に集中し、図2のAに示すような波形となる。これ
に対し、ピッチ周期が短い時程、エネルギーは一箇所に
集中することはなく図2のBに示すような波形となる。
この図2のAに示すような鋭角的な波形とその繰り返し
は、不自然な再生音を引き起こすので、より大きな位相
をランダムに振ってやる必要がある。これに対し、図2
のBに示すような波形とその繰り返しは、不自然な再生
音を引き起こさず、大きな位相をランダムに振ってやる
必要がない。したがって、ピッチラグPr が大きくなる
程、ランダマイズのスケールファクタのスケール値を大
きくし、ピッチラグPr が小さいときに用いる該スケー
ル値とは異ならせている。
Here, the reason why the scale value of the randomizing scale factor is made larger as the pitch lag P r is larger as described above will be described. Pitch lag P r
A large value means that the pitch period is long, and that a large number of harmonics are added within the pitch. On the other hand, when the pitch lag P r is small, it means that the pitch period is short, and the number of harmonics added in the pitch is small. That is, as the pitch period is longer, the energy for a longer time is concentrated in one place, and the waveform becomes as shown in A of FIG. On the other hand, when the pitch period is shorter, the energy is not concentrated in one place and has a waveform as shown in B of FIG.
The acute-angled waveform and its repetition as shown in A of FIG. 2 cause an unnatural reproduced sound, so that it is necessary to randomly shift a larger phase. In contrast, Figure 2
The waveform and the repetition thereof as shown by B do not cause an unnatural reproduced sound, and it is not necessary to randomly shake a large phase. Therefore, the larger the pitch lag P r , the larger the scale value of the randomizing scale factor, which is different from the scale value used when the pitch lag P r is small.

【0019】上記位相予測&修正部20からの修正の施
された予測位相φLmは、上記有声音合成部16に供給さ
れる。この有声音合成部16には、上記修正の施された
予測位相φLmの他にも、上述したように、データ数逆変
換部15からの振幅データ、ピッチ復号化部18からの
ピッチ復号データ及び入力端子13からのV/UV判別
データが供給されている。
The corrected predicted phase φ Lm from the phase predicting & correcting section 20 is supplied to the voiced sound synthesizing section 16. In addition to the corrected predicted phase φ Lm , the voiced sound synthesis unit 16 also includes, as described above, the amplitude data from the data number inverse conversion unit 15 and the pitch decoded data from the pitch decoding unit 18. Also, V / UV discrimination data is supplied from the input terminal 13.

【0020】ここで、上記有声音合成部16における有
声音の合成処理を説明する前に入力端子11、12及び
13にベクトル量子化された振幅データ、符号化された
ピッチデータ及び有声音(V)/(無声音)UV判別デ
ータを供給するMBEボコーダの分析側(エンコード
側)について説明する。
Before explaining the voiced sound synthesizing process in the voiced sound synthesizing section 16, vector-quantized amplitude data, coded pitch data and voiced sound (V) are input to the input terminals 11, 12 and 13. ) / (Unvoiced sound) The analysis side (encoding side) of the MBE vocoder that supplies UV discrimination data will be described.

【0021】図3は、上記MBEボコーダの分析側(エ
ンコード側)の概略構成を示すブロック図である。この
図3において、入力端子101には音声信号が供給され
るようになっており、この入力音声信号は、HPF(ハ
イパスフィルタ)等のフィルタ102に送られて、いわ
ゆるDC(直流)オフセット分の除去や帯域制限(例え
ば200〜3400Hzに制限)のための少なくとも低域
成分(200Hz以下)の除去が行われる。このフィルタ
102を介して得られた信号は、ピッチ抽出部103及
び窓かけ処理部104にそれぞれ送られる。ピッチ抽出
部103では、入力音声信号データが所定サンプル数N
(例えばN=256)単位でブロック分割され(あるい
は方形窓による切り出しが行われ)、このブロック内の
音声信号についてのピッチ抽出が行われる。このような
切り出しブロック(256サンプル)を、例えば図4の
Aに示すようにLサンプル(例えばL=160)のフレ
ーム間隔で時間軸方向に移動させており、各ブロック間
のオーバラップはN−Lサンプル(例えば96サンプ
ル)となっている。また、窓かけ処理部104では、1
ブロックNサンプルに対して所定の窓関数、例えばハミ
ング窓をかけ、この窓かけブロックを1フレームLサン
プルの間隔で時間軸方向に順次移動させている。
FIG. 3 is a block diagram showing a schematic structure of the analysis side (encoding side) of the MBE vocoder. In FIG. 3, an audio signal is supplied to an input terminal 101, and this input audio signal is sent to a filter 102 such as an HPF (high-pass filter) to obtain a so-called DC (direct current) offset component. At least the low-frequency component (200 Hz or less) is removed for removal or band limitation (for example, 200 to 3400 Hz). The signal obtained through the filter 102 is sent to the pitch extraction unit 103 and the windowing processing unit 104, respectively. In the pitch extraction unit 103, when the input voice signal data is a predetermined sample number N
The block is divided into units (for example, N = 256) (or cut out by a rectangular window), and pitch extraction is performed on the audio signal in this block. Such a cut block (256 samples) is moved in the time axis direction at a frame interval of L samples (for example, L = 160) as shown in FIG. 4A, and the overlap between blocks is N−. There are L samples (for example, 96 samples). Further, in the windowing processing unit 104, 1
A predetermined window function, for example, a Hamming window is applied to the block N samples, and the windowed block is sequentially moved in the time axis direction at intervals of 1 frame L samples.

【0022】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(3) となる。この(3)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(4) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(5) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(3)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(3)〜(5)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(4)
式、(5)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (3) In this equation (3), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the unprocessed input signal is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. FIG. 4A in the pitch extraction unit 103
The window function w r (r) in the case of the rectangular window is as follows: w r (r) = 1 0 ≦ r <N (4) = 0 r <0, N ≦ r window function w h (r) in the case of Hamming window as shown in B of FIG. 4 is a section 104, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (5) = 0 r <0, N ≦ r. Such a window function w r (r) or (3) when using the w h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, which is transformed into kL−N <q ≦ kL. Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) =
As shown in FIG. 5, 1 becomes kL-N <q ≦ kL.
It will be when. In addition, the above equations (3) to (5) have a length N
The window of (= 256) samples is shown to advance by L (= 160) samples. Below, above (4)
Each N point (0 ≦ r cut out by each window function of equations (5))
The non-zero sample sequence of <N) is represented by x wr (k, r) and x wh
Let us denote it as (k, r).

【0023】窓かけ処理部104では、図6に示すよう
に、上記(5)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
In the windowing processing unit 104, as shown in FIG. 6, 179 is applied to the sample sequence x wh (k, r) of 256 blocks in one block on which the Hamming window of the above equation (5) is applied.
Two samples of 0 data are added (so-called zero padding) to make 2048 samples, and the orthogonal transformation unit 105 performs orthogonal transformation such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0024】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピーク周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 103, the above x wr (k, r)
Pitch extraction is performed based on the sample sequence (1 block N samples). The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and autocorrelation function.
The center correlation waveform autocorrelation method is used. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. The peak period is determined based on the peak position of the autocorrelation data of the center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In the case of, the maximum peak position is set as the pitch period, and in other cases, the pitch is within a pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As a result, a peak in the range of ± 20% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data has a high precision (fine) pitch search unit 10.
Then, the high precision pitch search (pitch fine search) is performed by the closed loop.

【0025】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High precision (fine) pitch search section 106
Includes rough pitch data of integer (integer) values extracted by the pitch extraction unit 103 and the orthogonal transformation unit 10.
5, the data on the frequency axis subjected to FFT, for example, is supplied. In this high precision pitch search unit 106,
Centering on the above coarse pitch data value, it is ± 0.2 in increments of ±
Shake several samples at a time to drive to the optimum fine pitch data value with a decimal point (floating). As a fine search method at this time, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0026】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(6) と表現するようなモデルを想定している。ここで、Jは
πωs =fs /2に対応し、サンプリング周波数fs
2πωs が例えば8kHzのときには4kHzに対応する。
上記(6)式中において、周波数軸上のスペクトルデー
タS(j) が図7のAに示すような波形のとき、H(j)
は、図7のBに示すような元のスペクトルデータS(j)
のスペクトル包絡線(エンベロープ)を示し、E(j)
は、図7のCに示すような等レベルで周期的な励起信号
(エキサイテイション)のスペクトルを示している。す
なわち、FFTスペクトルS(j) は、スペクトルエンベ
ロープH(j) と励起信号のパワースペクトル|E(j) |
との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (6) It is assumed that the model. Here, J corresponds to πω s = f s / 2, and the sampling frequency f s =
When 2πω s is, for example, 8 kHz, it corresponds to 4 kHz.
In the equation (6), when the spectrum data S (j) on the frequency axis has a waveform as shown in A of FIG. 7, H (j)
Is the original spectrum data S (j) as shown in B of FIG.
Shows the spectral envelope of E (j)
Shows a spectrum of an excitation signal (excitation) that is periodic at an equal level as shown in FIG. 7C. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum of the excitation signal | E (j) |
It is modeled as the product of and.

【0027】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the excitation signal | E (j)
Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing FFT by regarding the waveform obtained by adding (filling with 0) 1792 samples of 0 data to the Hamming window function of 256 samples as shown in FIG. 6 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0028】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0029】[0029]

【数1】 で表せる。このエラーεm を最小化するような|Am
は、
[Equation 1] Can be expressed as | A m | that minimizes this error ε m
Is

【0030】[0030]

【数2】 となり、この(8)式の|Am |のとき、エラーεm
最小化する。このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(7)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
[Equation 2] Therefore, when | A m | in the equation (8), the error ε m is minimized. Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (7). Next, the sum Σε of all the bands of such error ε m for each band
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0031】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(8)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(7)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, several types are prepared up and down, for example, in steps of 0.25 around the rough pitch obtained by the pitch extraction unit 103. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, when the pitch is determined, the bandwidth is determined, and from the above formula (8), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (7), and the total sum Σε m of all bands can be found. This error sum value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit 106 obtains the optimum fine (eg, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch.
Is determined.

【0032】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the fine pitch search, in order to simplify the description, all bands are voiced (Vo
Assuming the case of iced), as described above, MBE
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) area exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0033】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The optimum pitch and amplitude | A m | data from the high precision pitch search unit 106 is sent to the voiced sound / unvoiced sound determination unit 107, and the voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR of the m-th band is

【0034】[0034]

【数3】 と表せ、このNSR値が所定の閾値(例えば0.3)より
大のとき(エラーが大きい)ときには、そのバンドでの
|Am ||E(j) |による|S(j) |の近似が良くない
(上記励起信号|E(j) |が基底として不適当である)
と判断でき、当該バンドをUV(Unvoiced、無声音)と
判別する。これ以外のときは、近似がある程度良好に行
われていると判断でき、そのバンドをV(Voiced、有声
音)と判別する。
[Equation 3] When this NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | S (j) | is approximated by | A m || E (j) | in that band. Is not good (the above excitation signal | E (j) | is unsuitable as a basis)
Therefore, the band is determined to be UV (Unvoiced, unvoiced sound). In other cases, it can be determined that the approximation is performed to some extent, and the band is determined to be V (Voiced, voiced sound).

【0035】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation section 108 has the amplitude | A m evaluated as the data on the frequency axis from the orthogonal transformation section 105 and the fine pitch evaluated from the high precision pitch search section 106.
| And each voiced sound / unvoiced sound discrimination unit 107
V / UV (voiced sound / unvoiced sound) discrimination data from The amplitude re-evaluation unit 108 re-calculates the amplitude of the band determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 107. The amplitude | A m | UV for this UV band is

【0036】[0036]

【数4】 にて求められる。[Equation 4] Required at.

【0037】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am UVも含む)データの個
数mMX+1も8〜63と変化することになう。このため
データ数変換部109では、この可変個数mMX+1の振
幅データを一定個数1Nc (例えば44個)のデータに
変換している。
The data from the amplitude re-evaluation unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
Sent to 9. This data number conversion unit 109 is for making the number constant, considering that the number of divided bands on the frequency axis differs according to the pitch and the number of data (especially the number of amplitude data) differs. is there. That is, for example, if the effective band is up to 3400 Hz, the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A obtained for each of these bands | A
The number of m m (including UV band amplitude | A m | UV ) data m MX +1 also changes from 8 to 63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number 1 N c (for example, 44) of data.

【0038】ここで周波数軸上の有効帯域1ブロック分
の振幅データに対して、ブロック内の最後のデータから
ブロック内の最初のデータまでの値を補間するようなダ
ミーデータを付加してデータ個数をNF 個に拡大した
後、帯域制限型のKOS倍(例えば8倍)のオーバーサン
プリングを施すことによりKOS倍の個数の振幅データを
求め、このKOS倍の個数((mMX+1) ×KOS個)の振幅
データを直線補間してさらに多くのNM 個(例えば20
48個)に拡張し、このNM 個のデータを間引いて上記
一定個数NC (例えば44個)のデータに変換する。
Here, dummy data for interpolating values from the last data in the block to the first data in the block is added to the amplitude data for one block of the effective band on the frequency axis, and the number of data is added. After being expanded to N F , the band-limited type K OS times (for example, 8 times) oversampling is performed to obtain K OS times the number of amplitude data, and this K OS times the number ((m MX +1 ) × K OS pieces of amplitude data are linearly interpolated to obtain a larger number of N M pieces (for example, 20 pieces).
Forty-eight (48) data items are thinned out, and the N M data items are thinned out to be converted into the above-mentioned fixed number N C (for example, 44 data items).

【0039】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。
The data from the data number conversion unit 109 (a fixed number N C of the amplitude data) is sent to the vector quantization unit 110, and a predetermined number of data is put together into a vector, and vector quantization is performed. Is given. The quantized output data from the vector quantizer 110 is output to the output terminal 1
It is taken out via 11. The high-precision (fine) pitch data from the high-precision pitch search unit 106 is coded by the pitch coding unit 115, and the output terminal 11
It is taken out via 2. Further, the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 107 is taken out through the output terminal 113.

【0040】そして、出力端子111、112及び11
3から取り出されたベクトル量子化された振幅データ、
符号化されたピッチデータ及び有声音(V)/(無声
音)UV判別データが図1に示した合成側の入力端子1
1、12及び13に供給される。
The output terminals 111, 112 and 11
Vector quantized amplitude data extracted from 3,
The encoded pitch data and voiced sound (V) / (unvoiced sound) UV discrimination data shown in FIG.
1, 12 and 13 are supplied.

【0041】次に、図1に示した有声音合成部16にお
ける合成処理を詳細に説明する。上記V(有声音)と判
別された第mバンド(第m高調波の帯域)における時間
軸上の上記1合成フレーム(Lサンプル、例えば160
サンプル)分の有声音をVm (n) とするとき、この合成
フレーム内の時間インデックス(サンプル番号)nを用
いて、 Vm (n) =Am (n) cos(θ(n)) 0≦n<L ・・・(11) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
Next, the synthesis processing in the voiced sound synthesis unit 16 shown in FIG. 1 will be described in detail. The one combined frame (L sample, for example, 160) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound).
Samples) content of voiced and V m (when the n), using a time index (sample number) n in the synthetic frame, V m (n) = A m (n) cos (θ (n)) It can be expressed as 0 ≦ n <L (11). The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands which are determined to be V (voiced sound) of all the bands.

【0042】この(11)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(12) の式によりAm (n) を計算すればよい。
A m (n) in the equation (11) is the amplitude of the m-th harmonic wave interpolated from the front end to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the next synthetic frame) is A Lm, and the following equation is obtained: A m (n) = (Ln) A 0m / L + nA Lm / L (12) It suffices to calculate A m (n).

【0043】このように、上記有声音合成部16は、上
記データ数変換部15からのデータ数変換データ、ピッ
チ復号化部18からのピッチ復号データ、入力端子13
からのV/UV判別情報及び上記位相予測&修正部20
からの修正を施された予測位相を元に有声音を合成す
る。
As described above, the voiced sound synthesizing section 16 converts the data number from the data number converting section 15, the pitch decoded data from the pitch decoding section 18, and the input terminal 13.
V / UV discrimination information from the above and the phase prediction & correction unit 20
The voiced sound is synthesized on the basis of the predicted phase corrected by.

【0044】ここで、図8のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
6により合成され、UV(無声音)のバンドの時間軸信
号が無声音合成部17で合成されるわけである。
Here, A of FIG. 8 shows an example of the spectrum of the voice signal, and the bands with the band numbers (harmonics number) m of 8, 9, 10 are UV (unvoiced sound), and the other bands. Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1 described above.
6, the time axis signals of the UV (unvoiced sound) band are synthesized by the unvoiced sound synthesis unit 17.

【0045】以下、無声音合成部17における無声音合
成処理を説明する。ホワイトノイズ発生部31からの時
間軸上のホワイトノイズ信号波形を、所定の長さ(例え
ば256サンプル)で適当な窓関数(例えばハミング
窓)により窓かけをし、STFT処理部32によりST
FT(ショートタームフーリエ変換)処理を施すことに
より、図8のBに示すようなホワイトノイズの周波数軸
上のパワースペクトルを得る。このSTFT処理部32
からのパワースペクトルをバンド振幅処理部33に送
り、図8のCに示すように、上記UV(無声音)とされ
たバンド(例えばm=8、9、10)について上記振幅
|Am UVを乗算し、他のV(有声音)とされたバンド
の振幅を0にする。このバンド振幅処理部33には上記
振幅データ、ピッチデータ、V/UV判別データが供給
されている。バンド振幅処理部33からの出力は、IS
TFT処理部34に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部34からの出力
は、オーバーラップ加算部35に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。オーバーラップ加算部
35からの出力信号が上記加算部21に送られる。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 17 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 31 is windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), and the STFT processing unit 32 performs ST processing.
By performing FT (Short Term Fourier Transform) processing, a power spectrum on the frequency axis of white noise as shown in B of FIG. 8 is obtained. This STFT processing unit 32
Is transmitted to the band amplitude processing unit 33, and as shown in FIG. 8C, the amplitude | A m | UV is calculated for the band (for example, m = 8, 9, 10) which is the UV (unvoiced sound). Multiplication is performed to set the amplitude of other V (voiced sound) band to 0. The band amplitude processing unit 33 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data. The output from the band amplitude processing unit 33 is IS
The phase is sent to the TFT processing unit 34, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 34 is sent to the overlap adding unit 35, and the overlap and addition are repeated while appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis,
Synthesize continuous time axis waveforms. The output signal from the overlap adder 35 is sent to the adder 21.

【0046】このように、各合成部16、17において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部21により適当な固定の混合比で加算
して、出力端子22より再生された音声信号を取り出
す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized in the respective synthesis units 16 and 17 and returned on the time axis are added by the addition unit 21 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 22.

【0047】したがって、本発明に係る有声音合成方法
の実施例は、例えば、ピッチの長い男声とピッチの短い
女声の予測位相への修正値をピッチに応じて変化させる
ことにより、不必要にノイズ感を増すことなくより自然
な生成音を得られる。
Therefore, in the embodiment of the voiced sound synthesis method according to the present invention, noise is unnecessarily changed by changing the correction value for the predicted phase of the male voice having a long pitch and the female voice having a short pitch according to the pitch. A more natural generated sound can be obtained without increasing the feeling.

【0048】なお、上記図3の音声分析側(エンコード
側)の構成や図1の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
Regarding the configuration on the speech analysis side (encoding side) in FIG. 3 and the configuration on the speech synthesis side (decoding side) in FIG. 1, although each unit is described in hardware, a so-called DSP (digital) is used. It is also possible to realize it by a software program using a signal processor or the like.

【0049】また、本発明に係る有声音合成方法は、位
相予測の際の初期位相を0としてコサイン波を加算する
ようにしていたが、初期位相をπ/2にすると例えばD
SP(ディジタルシグナルプロセッサ)で演算を行う場
合、ダイナミックレンジが減少するという点で有利であ
る。初期位相を0にするかπ/2にするかの違いは、合
成された波形が偶関数になるか奇関数になるかの違いで
ある。すなわち、合成はコサイン波で行われるので初期
位相0のときは、合成波形もコサイン波であり、偶関数
となり、初期位相π/2のときは、コサイン波をπ/2
だけずらすことになり、合成波形は、サイン波となり、
奇関数になる。ここで、サイン波を合成することによっ
て得られる合成波形のピーク値は、偶関数を用いたとき
の合成波形のピーク値よりも小さくなる。演算のスケー
リングは、ピーク値で決まるので、例えばDSP(ディ
ジタルシグナルプロセッサ)で演算を行う場合、ダイナ
ミックレンジが減少するという点で初期位相をπ/2と
すると有利である。
In the voiced sound synthesis method according to the present invention, the initial phase at the time of phase prediction is set to 0 and the cosine wave is added. However, when the initial phase is set to π / 2, for example, D
When the calculation is performed by an SP (digital signal processor), it is advantageous in that the dynamic range is reduced. The difference between setting the initial phase to 0 and π / 2 is whether the combined waveform becomes an even function or an odd function. That is, since the synthesis is performed with the cosine wave, when the initial phase is 0, the synthesized waveform is also a cosine wave and becomes an even function, and when the initial phase is π / 2, the cosine wave is π / 2.
It will be shifted only, the composite waveform becomes a sine wave,
It becomes an odd function. Here, the peak value of the combined waveform obtained by combining the sine waves is smaller than the peak value of the combined waveform when the even function is used. Since the scaling of the operation is determined by the peak value, it is advantageous to set the initial phase to π / 2 in that the dynamic range is reduced when the operation is performed by a DSP (digital signal processor), for example.

【0050】[0050]

【発明の効果】本発明に係る有声音合成方法は、各フレ
ーム毎にフレーム終端部における上記基本波及び高調波
の位相を予測すると共に各フレーム毎の上記予測された
フレーム終端部の位相又は上記基本波及び高調波の少な
くとも1つの周波数を上記ピッチに応じて修正すること
により、不必要なノイズを発生することなく自然な再生
音を得ることができる。
The voiced sound synthesis method according to the present invention predicts the phases of the fundamental wave and the harmonics at the frame end portion for each frame, and the predicted phase of the frame end portion for each frame or By correcting at least one frequency of the fundamental wave and the harmonic wave according to the pitch, a natural reproduced sound can be obtained without generating unnecessary noise.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る有声音合成方法が適用される装置
の具体例としての音声信号の合成分析符号化装置の合成
側(デコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 1 is a functional block diagram showing a schematic configuration on a synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a voiced sound synthesis method according to the present invention is applied.

【図2】ピッチ周期の長短による再生音の違いを説明す
るための波形図である。
FIG. 2 is a waveform diagram for explaining a difference in reproduced sound depending on the length of a pitch cycle.

【図3】本発明に係る有声音合成方法が適用される装置
の具体例としての音声信号の合成分析符号化装置の分析
側(エンコード側)の概略構成を示す機能ブロック図で
ある。
FIG. 3 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a voiced sound synthesis method according to the present invention is applied.

【図4】窓かけ処理を説明するための図である。FIG. 4 is a diagram for explaining a windowing process.

【図5】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 5 is a diagram for explaining a relationship between windowing processing and a window function.

【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 6 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 7 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図8】音声信号を合成する際の無声音合成を説明する
ための図である。
FIG. 8 is a diagram for explaining unvoiced sound synthesis when synthesizing a voice signal.

【符号の説明】[Explanation of symbols]

14・・・・・逆ベクトル量子化部 15・・・・・データ数逆変換部 16・・・・・有声音合成部 17・・・・・無声音合成部 18・・・・・ピッチ復号化部 19・・・・・スケールファクター調整部 20・・・・・位相予測&修正部 21・・・・・加算部 14: Inverse vector quantization unit 15: Data number inverse conversion unit 16: Voiced sound synthesis unit 17: Unvoiced sound synthesis unit 18: Pitch decoding 19: Scale factor adjuster 20: Phase prediction & correction 21: Adder

【手続補正書】[Procedure amendment]

【提出日】平成5年5月17日[Submission date] May 17, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】全文[Name of item to be corrected] Full text

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【書類名】 明細書[Document name] Statement

【発明の名称】 有声音合成方法Title: Voiced sound synthesis method

【特許請求の範囲】[Claims]

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、初期位相が固定された
信号を用いて有声音を合成する有声音合成方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voiced sound synthesizing method for synthesizing a voiced sound using a signal whose initial phase is fixed.

【0002】[0002]

【従来の技術】音声信号の時間領域や周波数領域におけ
る統計的性質と人間の聴感上の特性を利用して信号圧縮
を行うような符号化方法が種々知られている。この符号
化方法としては、大別して時間領域での符号化、周波数
領域での符号化、分析合成符号化等が挙げられる。
2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing the statistical properties of a voice signal in the time domain and frequency domain and the human auditory characteristics. This coding method is roughly classified into a time domain coding, a frequency domain coding, an analysis-synthesis coding, and the like.

【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニクス(Harmonic) 符号化、SBC
(Sub-band Coding:帯域分割符号化) 、LPC(Linear
Predictive Coding:線形予測符号化)、あるいはDCT
(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等がある。
As an example of high-efficiency coding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonics (Harmonic) coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding) or DCT
(Discrete cosine transform), MDCT (Modified DC)
T), FFT (Fast Fourier Transform), and the like.

【0004】上記MBE符号化等においては、1ブロッ
ク(フレーム)内の音声に対して帯域(バンド)を複数
に分割し、各バンド毎に有声音/無声音の判断を行って
おり、音質の向上が認められる。
In the above MBE coding and the like, the voice within one block (frame) is divided into a plurality of bands, and a voiced / unvoiced sound is judged for each band, thereby improving the sound quality. Is recognized.

【0005】[0005]

【発明が解決しようとする課題】ところで、上記MBE
符号化等においては、音声スペクトルの振幅の位相情報
を別途伝送するか又は伝送情報量を減らすため伝送せず
に合成側(復号化側)でピッチ及び過去の位相から位相
情報を予測している。この合成側での位相情報の予測
(以下、位相予測という)には、フレームの初期位相を
0或いはπ/2に固定し、分析側から伝送されてきたピ
ッチに応じてコサイン波を合成する固定位相加算が行わ
れてきた。しかし、この固定位相加算による合成では、
男声等のピッチの低い音声での強い母音で不自然な合成
音となっていた。そこで、符号化側での有声音/無声音
判別で判明した無声音帯域の含有率に応じて、合成側で
は位相に分散の大きな乱数を加算して自然感を出すよう
にしている。しかし、ピッチが低くない女声の位相に分
散の大きな乱数を加算すると、雑音のような感じにな
り、明瞭度が失われてしまうという欠点がある。
By the way, the above MBE
In encoding, the phase information of the amplitude of the voice spectrum is separately transmitted, or the phase information is predicted from the pitch and the past phase on the synthesis side (decoding side) without transmission in order to reduce the amount of transmission information. .. For the prediction of the phase information on the synthesis side (hereinafter referred to as phase prediction), the initial phase of the frame is fixed to 0 or π / 2, and the cosine wave is synthesized according to the pitch transmitted from the analysis side. Phase addition has been performed. However, in this synthesis by fixed phase addition,
It was an unnatural synthetic sound due to strong vowels in low pitched voices such as male voice. Therefore, the synthesis side adds random numbers with large variance to the phase according to the content rate of the unvoiced sound band found by the voiced / unvoiced sound discrimination on the encoding side to give a natural feeling. However, when a random number with a large variance is added to the phase of a female voice whose pitch is not low, there is a drawback that it becomes noise-like and loses clarity.

【0006】本発明は、このような実情に鑑みてなされ
たものであり、不自然感がなく明瞭度が失われることの
ない高品質の合成音を得られるような有声音合成方法
提供を目的とする。
The present invention has been made in view of such circumstances, and provides a voiced sound synthesizing method capable of obtaining a high-quality synthesized sound with no unnatural feeling and without loss of clarity .
For the purpose of provision.

【0007】[0007]

【課題を解決するための手段】本発明に係る有声音合成
方法は、入力された音声信号をフレーム単位で区分し、
区分されたフレーム毎にピッチを求め、求められたピッ
チの基本波及びその高調波であって初期位相が固定され
た信号群を用いて有声音を合成する有声音合成方法にお
いて、各フレーム毎にフレーム終端部における上記基本
波及び高調波の位相を予測すると共に各フレーム毎の上
記予測されたフレーム終端部の位相又は上記基本波及び
高調波の少なくとも1つの周波数を上記ピッチに応じて
修正することを特徴として上記課題を解決する。
A voiced sound synthesis method according to the present invention divides an input voice signal into frame units,
Obtain the pitch for each divided frame, in the voiced sound synthesis method that synthesizes a voiced sound using the fundamental wave of the obtained pitch and its harmonics and a signal group whose initial phase is fixed, in each frame Predicting the phases of the fundamental wave and the harmonic wave at the frame end portion and correcting the predicted phase of the frame end portion or at least one frequency of the fundamental wave and the harmonic wave for each frame according to the pitch. The above-mentioned problem is solved by the feature.

【0008】ここで、ピッチに応じた修正の量は、ピッ
チ周波数が低くなる程、言い換えるとピッチ周期が長く
なる程、予測位相に加える修正値を大きくするというこ
とである。
Here, the amount of correction according to the pitch is that the lower the pitch frequency is, that is, the longer the pitch period is, the larger the correction value added to the predicted phase is.

【0009】また、上記基本波及び高調波の少なくとも
1の周波数をピッチに応じて修正するのは、初期フレー
ムのフレーム終端部における位相のみの修正だけでな
く、他フレームにおいても相対的に上記基本波及び高調
波の重ねの位置を調整するために行われる。
The correction of at least one frequency of the fundamental wave and the higher harmonic wave according to the pitch is not limited to the correction of only the phase at the frame end portion of the initial frame, and the relative frequency of the fundamental wave is relatively changed in other frames. This is done to adjust the position of the superposition of waves and harmonics.

【0010】[0010]

【作用】ピッチ周波数が低くなる程、言い換えるとピッ
チ周期が長くなる程、合成側で予測するフレーム終端部
における基本波及び高調波の位相又はそれらの内の少な
くとも1つの周波数の修正の度合いを増すことにより、
不必要なノイズを発生することなく自然な再生音を得ら
れる。
As the pitch frequency becomes lower, in other words, the pitch period becomes longer, the degree of modification of the phase of the fundamental wave and the harmonic wave or at least one of those frequencies at the frame end portion predicted on the synthesis side increases. By
A natural reproduced sound can be obtained without generating unnecessary noise.

【0011】[0011]

【実施例】以下、本発明に係る有声音合成方法を、音声
信号の合成分析符号化装置(いわゆるボコーダ)の一種
であるMBE(Multiband Excitation: マルチバンド励
起)ボコーダに適用した具体例について、図面を参照し
ながら説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The following is a specific example in which the voiced sound synthesis method according to the present invention is applied to an MBE (Multiband Excitation) vocoder, which is a kind of speech signal synthesis analysis coding apparatus (so-called vocoder). Will be described with reference to.

【0012】このMBEボコーダは、D. W. Griffin an
d J.S. Lim,"Multiband ExcitationVocoder," IEEE Tra
ns.Acoustics,Speech,and Signal Processing, vol.36,
No.8, pp.1223-1235, Aug.1988 に開示されているも
のであり、従来のPARCOR(PARtial auto-CORrela
tion: 偏自己相関)ボコーダ等では、音声のモデル化の
際に有声音区間と無声音区間とをブロックあるいはフレ
ーム毎に切り換えていたのに対し、MBEボコーダで
は、同時刻(同じブロックあるいはフレーム内)の周波
数軸領域に有声音(Voiced)区間と無声音(Unvoiced)
区間とが存在するという仮定でモデル化している。
This MBE vocoder is a DW Griffin an
d JS Lim, "Multiband Excitation Vocoder," IEEE Tra
ns.Acoustics, Speech, and Signal Processing, vol.36,
No. 8, pp.1223-1235, Aug.1988, the conventional PARCOR (PARtial auto-CORrela
tion: Partial autocorrelation) In vocoders etc., voiced sections and unvoiced sections were switched for each block or frame when modeling speech, whereas for MBE vocoder, at the same time (in the same block or frame) Voiced (Voiced) section and unvoiced (Unvoiced) in the frequency domain of
It is modeled on the assumption that the interval and exist.

【0013】図1は、上記MBEボコーダの合成側(デ
コード側)に本発明を適用した実施例の概略構成を示す
ブロック図である。
FIG. 1 is a block diagram showing the schematic arrangement of an embodiment in which the present invention is applied to the combining side (decoding side) of the MBE vocoder.

【0014】この図1において、入力端子11、12及
び13には後述するMBEボコーダの分析側(エンコー
ド側)から伝送されてくるベクトル量子化された振幅デ
ータ、符号化されたピッチデータ及び有声音(V)/
(無声音)UV判別データが供給される。入力端子11
からの量子化振幅データは、逆ベクトル量子化部14に
送られて逆量子化され、データ数逆変換部15に送られ
て逆変換され、得られた振幅データが有声音合成部16
及び無声音合成部17に送られる。入力端子12からの
符号化ピッチデータは、ピッチ復号化部18で復号化さ
れ、データ数逆変換部15、有声音合成部16、無声音
合成部17、スケールファクタ調整部19及び位相予測
&修正部20に送られる。また入力端子13からのV/
UV判別データは、有声音合成部16及び無声音合成部
17に送られる。
In FIG. 1, vector-quantized amplitude data, encoded pitch data and voiced sound transmitted from an analysis side (encoding side) of an MBE vocoder, which will be described later, are applied to input terminals 11, 12 and 13. (V) /
(Unvoiced) UV discrimination data is supplied. Input terminal 11
The quantized amplitude data from is sent to the inverse vector quantization unit 14 for inverse quantization, and is sent to the data number inverse conversion unit 15 for inverse conversion, and the obtained amplitude data is used for the voiced sound synthesis unit 16
And the unvoiced sound synthesizing unit 17. The encoded pitch data from the input terminal 12 is decoded by the pitch decoding unit 18, and the data number inverse conversion unit 15, the voiced sound synthesis unit 16, the unvoiced sound synthesis unit 17, the scale factor adjustment unit 19, and the phase prediction & correction unit. Sent to 20. V / from input terminal 13
The UV discrimination data is sent to the voiced sound synthesis unit 16 and the unvoiced sound synthesis unit 17.

【0015】有声音合成部16では例えば余弦(cosine)
波合成により時間軸上の有声音波形を合成し、無声音合
成部17では例えばホワイトノイズをバンドパスフィル
タでフィルタリングして時間軸上の無声音波形を合成
し、これらの各有声音合成波形と無声音合成波形とを加
算部21で加算合成して、出力端子22より取り出すよ
うにしている。
In the voiced sound synthesizer 16, for example, cosine
The voiced sound waveform on the time axis is synthesized by wave synthesis, and the unvoiced sound synthesis unit 17 filters white noise with a bandpass filter, for example, to synthesize the unvoiced sound waveform on the time axis, and synthesizes each of these voiced sound synthesized waveforms and unvoiced sound. The waveform and the waveform are added and combined by the adder 21 and taken out from the output terminal 22.

【0016】ここで、上記位相予測&修正部20では、
上記ピッチ復号化部18からの復号化ピッチデータに基
づいて、位相予測を行う。この位相予測&修正部20
は、時刻0(フレームの先頭)に於ける第m高調波の位
相(フレーム初期位相)をψ0mとすると、フレームの最
後での位相ψLmを、 ψLm=mod2π(ψ0m+m(ω01+ωL1) L/2) ・・・(1) と予測する。この(1)式でmod2π(x)とは、xの主
値を−π〜+πの間で返す関数である。例えば、x=1.
3 πのときmod2π(x)=−0.7 π、x=2.3 πのとき
mod2π(x)=0.3 π、x=−1.3 πのときmod2π
(x)=0.7 π、等である。また、Lはフレームインタ
ーバル、ω01は、合成フレームの先端(n=0)での基
本角周波数、ωL1は該合成フレームの終端(n=L:次
の合成フレーム先端)での基本角周波数である。また、
上記位相予測&修正部20は、上記予測したフレームの
最後での位相ψLmに対し、上記ピッチ復号化部18から
の復号化ピッチデータを基に上記スケールファクタ調整
部19が調整したスケールファクタを加算し、修正を施
す。すなわち、時刻0(フレームの先頭)に於ける第m
高調波の位相(フレーム初期位相)φ0mを1フレーム前
のφLm(φ(-1)Lm)とすると、この修正の施された予測
位相φLmは、 φLm=ψLm+Sc dp ・・・(2) と示される。ここで、Sc はスケール値を示し、Rdp
2πf(m、M)×(ガウシアン乱数)で示される位相
のランダム値である。また、f(m、M)は周波数に応
じて標準偏差σを変えるための関数である。上記Rdp
±πの範囲を越える時は、±πをクリッピングレベルに
して、Rdpをクリップする。
Here, in the phase predicting & correcting section 20,
Phase prediction is performed based on the decoded pitch data from the pitch decoding unit 18. This phase prediction & correction unit 20
Is the phase of the m-th harmonic (frame initial phase) at time 0 (the beginning of the frame) is ψ 0m , the phase ψ Lm at the end of the frame is ψ Lm = mod2π (ψ 0m + m (ω 01 + Ω L1 ) L / 2) ・ ・ ・ (1) is predicted. In this equation (1), mod2π (x) is a function that returns the main value of x between −π and + π. For example, x = 1.
When 3π, mod2π (x) = − 0.7π, x = 2.3π
mod2π (x) = 0.3π, x = −1.3π mod2π
(X) = 0.7π, and so on. Further, L is a frame interval, ω 01 is a basic angular frequency at the end of the composite frame (n = 0), and ω L1 is a basic angular frequency at the end of the composite frame (n = L: end of the next composite frame). Is. Also,
The phase prediction / correction unit 20 uses the scale factor adjusted by the scale factor adjustment unit 19 based on the decoded pitch data from the pitch decoding unit 18 with respect to the predicted phase ψ Lm at the end of the frame. Add and correct. That is, the mth time at time 0 (the beginning of the frame)
Assuming that the phase of the harmonics (frame initial phase) φ 0m is φ Lm(-1) Lm ) one frame before, the corrected predicted phase φ Lm is φ Lm = φ Lm + S c R dp ... (2). Here, S c represents a scale value, and R dp is a random value of the phase represented by 2πf (m, M) × (Gaussian random number). Further, f (m, M) is a function for changing the standard deviation σ according to the frequency. When the above R dp exceeds the range of ± π, ± π is set as a clipping level and R dp is clipped.

【0017】具体的には、上記(2)式のスケール値S
c をサンプル数で記述されたピッチのインターバル(周
期)であるピッチラグPr の関数とする。例えば、ピッ
チラグPr が75より小さいときにはスケール値を0.1 、
ピッチラグPr が75以上で85より小さいときにはスケー
ル値を0.2 、ピッチラグPr が85以上で90より小さいと
きにはスケール値を0.3 、ピッチラグPr が90以上で10
0 より小さいときにはスケール値を0.6 、ピッチラグP
r が100 以上のときにはスケール値を0.8 とする。つま
り、ピッチラグPr が大きいとき程、ランダマイズのス
ケールファクタのスケール値を大きな値とする。
Specifically, the scale value S in the above equation (2)
Let c be a function of the pitch lag P r , which is the pitch interval (cycle) described by the number of samples. For example, when the pitch lag P r is less than 75, the scale value is 0.1,
When the pitch lag P r is 75 or more and less than 85, the scale value is 0.2. When the pitch lag P r is 85 or more and less than 90, the scale value is 0.3 and the pitch lag P r is 90 or more and 10
When it is less than 0, the scale value is 0.6 and the pitch lag P is
When r is 100 or more, the scale value is 0.8. That is, the larger the pitch lag P r , the larger the scale value of the randomizing scale factor.

【0018】ここで、上述したようにピッチラグPr
大きいとき程、ランダマイズのスケールファクタのスケ
ール値を大きな値とする理由を述べる。ピッチラグPr
が大きいというのは、ピッチ周期が長いことであり、ピ
ッチ内で加算されるハーモニクスの数が多いことを意味
する。これに対し、ピッチラグPr が小さいときという
のは、ピッチ周期が短いことであり、ピッチ内で加算さ
れるハーモニクスの数が少ないことを意味する。つま
り、ピッチ周期の長い時程、長時間分のエネルギーが一
箇所に集中し、図2のAに示すような波形となる。これ
に対し、ピッチ周期が短い時程、エネルギーは一箇所に
集中することはなく図2のBに示すような波形となる。
この図2のAに示すような鋭角的な波形とその繰り返し
は、不自然な再生音を引き起こすので、より大きな位相
をランダムに振ってやる必要がある。これに対し、図2
のBに示すような波形とその繰り返しは、不自然な再生
音を引き起こさず、大きな位相をランダムに振ってやる
必要がない。したがって、ピッチラグPr が大きくなる
程、ランダマイズのスケールファクタのスケール値を大
きくし、ピッチラグPr が小さいときに用いる該スケー
ル値とは異ならせている。
Here, the reason why the scale value of the randomizing scale factor is made larger as the pitch lag P r is larger as described above will be described. Pitch lag P r
A large value means that the pitch period is long, and that a large number of harmonics are added within the pitch. On the other hand, when the pitch lag P r is small, it means that the pitch period is short, and the number of harmonics added in the pitch is small. That is, as the pitch period is longer, the energy for a longer time is concentrated in one place, and the waveform becomes as shown in A of FIG. On the other hand, when the pitch period is shorter, the energy is not concentrated in one place and has a waveform as shown in B of FIG.
The acute-angled waveform and its repetition as shown in A of FIG. 2 cause an unnatural reproduced sound, so that it is necessary to randomly shift a larger phase. In contrast, Figure 2
The waveform and the repetition thereof as shown by B do not cause an unnatural reproduced sound, and it is not necessary to randomly shake a large phase. Therefore, the larger the pitch lag P r , the larger the scale value of the randomizing scale factor, which is different from the scale value used when the pitch lag P r is small.

【0019】上記位相予測&修正部20からの修正の施
された予測位相φLmは、上記有声音合成部16に供給さ
れる。この有声音合成部16には、上記修正の施された
予測位相φLmの他にも、上述したように、データ数逆変
換部15からの振幅データ、ピッチ復号化部18からの
ピッチ復号データ及び入力端子13からのV/UV判別
データが供給されている。
The corrected predicted phase φ Lm from the phase predicting & correcting section 20 is supplied to the voiced sound synthesizing section 16. In addition to the corrected predicted phase φ Lm , the voiced sound synthesis unit 16 also includes, as described above, the amplitude data from the data number inverse conversion unit 15 and the pitch decoded data from the pitch decoding unit 18. Also, V / UV discrimination data is supplied from the input terminal 13.

【0020】ここで、上記有声音合成部16における有
声音の合成処理を説明する前に入力端子11、12及び
13にベクトル量子化された振幅データ、符号化された
ピッチデータ及び有声音(V)/(無声音)UV判別デ
ータを供給するMBEボコーダの分析側(エンコード
側)について説明する。
Before explaining the voiced sound synthesizing process in the voiced sound synthesizing section 16, vector-quantized amplitude data, coded pitch data and voiced sound (V) are input to the input terminals 11, 12 and 13. ) / (Unvoiced sound) The analysis side (encoding side) of the MBE vocoder that supplies UV discrimination data will be described.

【0021】図3は、上記MBEボコーダの分析側(エ
ンコード側)の概略構成を示すブロック図である。この
図3において、入力端子101には音声信号が供給され
るようになっており、この入力音声信号は、HPF(ハ
イパスフィルタ)等のフィルタ102に送られて、いわ
ゆるDC(直流)オフセット分の除去や帯域制限(例え
ば200〜3400Hzに制限)のための少なくとも低域
成分(200Hz以下)の除去が行われる。このフィルタ
102を介して得られた信号は、ピッチ抽出部103及
び窓かけ処理部104にそれぞれ送られる。ピッチ抽出
部103では、入力音声信号データが所定サンプル数N
(例えばN=256)単位でブロック分割され(あるい
は方形窓による切り出しが行われ)、このブロック内の
音声信号についてのピッチ抽出が行われる。このような
切り出しブロック(256サンプル)を、例えば図4の
Aに示すようにLサンプル(例えばL=160)のフレ
ーム間隔で時間軸方向に移動させており、各ブロック間
のオーバラップはN−Lサンプル(例えば96サンプ
ル)となっている。また、窓かけ処理部104では、1
ブロックNサンプルに対して所定の窓関数、例えばハミ
ング窓をかけ、この窓かけブロックを1フレームLサン
プルの間隔で時間軸方向に順次移動させている。
FIG. 3 is a block diagram showing a schematic structure of the analysis side (encoding side) of the MBE vocoder. In FIG. 3, an audio signal is supplied to an input terminal 101, and this input audio signal is sent to a filter 102 such as an HPF (high-pass filter) to obtain a so-called DC (direct current) offset component. At least the low-frequency component (200 Hz or less) is removed for removal or band limitation (for example, 200 to 3400 Hz). The signal obtained through the filter 102 is sent to the pitch extraction unit 103 and the windowing processing unit 104, respectively. In the pitch extraction unit 103, when the input voice signal data is a predetermined sample number N
The block is divided into units (for example, N = 256) (or cut out by a rectangular window), and pitch extraction is performed on the audio signal in this block. Such a cut block (256 samples) is moved in the time axis direction at a frame interval of L samples (for example, L = 160) as shown in FIG. 4A, and the overlap between blocks is N−. There are L samples (for example, 96 samples). Further, in the windowing processing unit 104, 1
A predetermined window function, for example, a Hamming window is applied to the block N samples, and the windowed block is sequentially moved in the time axis direction at intervals of 1 frame L samples.

【0022】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(3) となる。この(3)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(4) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(5) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(3)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(3)〜(5)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(4)
式、(5)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (3) In this equation (3), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the unprocessed input signal is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. FIG. 4A in the pitch extraction unit 103
The window function w r (r) in the case of the rectangular window is as follows: w r (r) = 1 0 ≦ r <N (4) = 0 r <0, N ≦ r window function w h (r) in the case of Hamming window as shown in B of FIG. 4 is a section 104, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (5) = 0 r <0, N ≦ r. Such a window function w r (r) or (3) when using the w h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, which is transformed into kL−N <q ≦ kL. Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) =
As shown in FIG. 5, 1 becomes kL-N <q ≦ kL.
It will be when. In addition, the above equations (3) to (5) have a length N
The window of (= 256) samples is shown to advance by L (= 160) samples. Below, above (4)
Each N point (0 ≦ r cut out by each window function of equations (5))
The non-zero sample sequence of <N) is represented by x wr (k, r) and x wh
Let us denote it as (k, r).

【0023】窓かけ処理部104では、図6に示すよう
に、上記(5)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
In the windowing processing unit 104, as shown in FIG. 6, 179 is applied to the sample sequence x wh (k, r) of 256 blocks in one block on which the Hamming window of the above equation (5) is applied.
Two samples of 0 data are added (so-called zero padding) to make 2048 samples, and the orthogonal transformation unit 105 performs orthogonal transformation such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0024】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピッチ周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 103, the above x wr (k, r)
Pitch extraction is performed based on the sample sequence (1 block N samples). The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and autocorrelation function.
The center correlation waveform autocorrelation method is used. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. The pitch period is determined based on the peak position of the autocorrelation data of this center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In the case of, the maximum peak position is set as the pitch period, and in other cases, the pitch is within a pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As a result, a peak in the range of ± 20% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data has a high precision (fine) pitch search unit 10.
Then, the high precision pitch search (pitch fine search) is performed by the closed loop.

【0025】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High precision (fine) pitch search section 106
Includes rough pitch data of integer (integer) values extracted by the pitch extraction unit 103 and the orthogonal transformation unit 10.
5, the data on the frequency axis subjected to FFT, for example, is supplied. In this high precision pitch search unit 106,
Centering on the above coarse pitch data value, it is ± 0.2 in increments of ±
Shake several samples at a time to drive to the optimum fine pitch data value with a decimal point (floating). As a fine search method at this time, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0026】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(6) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(6)式中において、周波数軸上のスペクト
ルデータS(j) が図7のAに示すような波形のとき、H
(j) は、図7のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図7のCに示すような等レベルで周期的な励起
信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (6) It is assumed that the model. Where J is
corresponding to ω s / 4π = f s / 2, and the sampling frequency f
When s = ω s / 2π is 8 kHz, for example, it corresponds to 4 kHz. In the above formula (6), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
(j) is the original spectrum data S as shown in B of FIG.
The spectral envelope of (j) is shown as E
(j) shows the spectrum of the excitation signal (excitation) which is cyclic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as the product.

【0027】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the excitation signal | E (j)
Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing FFT by regarding the waveform obtained by adding (filling with 0) 1792 samples of 0 data to the Hamming window function of 256 samples as shown in FIG. 6 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0028】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0029】[0029]

【数1】 [Equation 1]

【0030】で表せる。このエラーεm を最小化するよ
うな|Am |は、
It can be represented by | A m | that minimizes this error ε m is

【0031】[0031]

【数2】 [Equation 2]

【0032】となり、この(8)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(7)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。
Thus, when | A m | in this equation (8),
Minimize the error ε m . Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (7). Next, the sum total value Σε m of all the bands of such error ε m for each band is obtained. Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0033】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(8)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(7)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, several kinds of vertical pitches are prepared, for example, in 0.25 steps with the rough pitch obtained by the pitch extraction section 103 as the center. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, when the pitch is determined, the bandwidth is determined, and from the above formula (8), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (7), and the total sum Σε m of all bands can be found. This error sum value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit 106 obtains the optimum fine (eg, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch.
Is determined.

【0034】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the fine pitch search, in order to simplify the description, all bands are voiced (Vo
Assuming the case of iced), as described above, MBE
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) area exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0035】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The optimum pitch and amplitude | A m | data from the high precision pitch search unit 106 is sent to the voiced sound / unvoiced sound determination unit 107, and the voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR of the m-th band is

【0036】[0036]

【数3】 [Equation 3]

【0037】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
If this NSR value is larger than a predetermined threshold value (eg, 0.3) (the error is large), | A m || E (j) | in the band | S (j) It can be judged that the approximation of | is not good (the above excitation signal | E (j) | is unsuitable as a basis), and the band is UV (Unvoice).
d, unvoiced sound). In other cases, it can be judged that the approximation has been performed to some extent, and the band is set to V
(Voiced, voiced sound).

【0038】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation unit 108 has frequency-axis data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as the fine pitch from the high precision pitch search unit 106.
| And each voiced sound / unvoiced sound discrimination unit 107
V / UV (voiced sound / unvoiced sound) discrimination data from The amplitude re-evaluation unit 108 re-calculates the amplitude of the band determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 107. The amplitude | A m | UV for this UV band is

【0039】[0039]

【数4】 [Equation 4]

【0040】にて求められる。It is calculated by

【0041】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am UVも含む)データの個
数mMX+1も8〜63と変化することになう。このため
データ数変換部109では、この可変個数mMX+1の振
幅データを一定個数Nc (例えば44個)のデータに変
換している。
The data from the amplitude re-evaluation unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
Sent to 9. This data number conversion unit 109 is for making the number constant, considering that the number of divided bands on the frequency axis differs according to the pitch and the number of data (especially the number of amplitude data) differs. is there. That is, for example, if the effective band is up to 3400 Hz, the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A obtained for each of these bands | A
The number of m m (including UV band amplitude | A m | UV ) data m MX +1 also changes from 8 to 63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number N c (for example, 44) of data.

【0042】ここで周波数軸上の有効帯域1ブロック分
の振幅データに対して、ブロック内の最後のデータから
ブロック内の最初のデータまでの値を補間するようなダ
ミーデータを付加してデータ個数をNF 個に拡大した
後、帯域制限型のKOS倍(例えば8倍)のオーバーサン
プリングを施すことによりKOS倍の個数の振幅データを
求め、このKOS倍の個数((mMX+1) ×KOS個)の振幅
データを直線補間してさらに多くのNM 個(例えば20
48個)に拡張し、このNM 個のデータを間引いて上記
一定個数NC (例えば44個)のデータに変換する。
Here, dummy data for interpolating values from the last data in the block to the first data in the block is added to the amplitude data of one block of the effective band on the frequency axis, and the number of data is added. After being expanded to N F , the band-limited type K OS times (for example, 8 times) oversampling is performed to obtain K OS times the number of amplitude data, and this K OS times the number ((m MX +1 ) × K OS pieces of amplitude data are linearly interpolated to obtain a larger number of N M pieces (for example, 20 pieces).
Forty-eight (48) data items are thinned out, and the N M data items are thinned out to be converted into the above-mentioned fixed number N C (for example, 44 data items).

【0043】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。
The data from the data number conversion unit 109 (the above-mentioned fixed number N C of amplitude data) is sent to the vector quantization unit 110, and a predetermined number of data are collected into a vector, and vector quantization is performed. Is given. The quantized output data from the vector quantizer 110 is output to the output terminal 1
It is taken out via 11. The high-precision (fine) pitch data from the high-precision pitch search unit 106 is coded by the pitch coding unit 115, and the output terminal 11
It is taken out via 2. Further, the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 107 is taken out through the output terminal 113.

【0044】そして、出力端子111、112及び11
3から取り出されたベクトル量子化された振幅データ、
符号化されたピッチデータ及び有声音(V)/(無声
音)UV判別データが図1に示した合成側の入力端子1
1、12及び13に供給される。
The output terminals 111, 112 and 11
Vector quantized amplitude data extracted from 3,
The encoded pitch data and voiced sound (V) / (unvoiced sound) UV discrimination data shown in FIG.
1, 12 and 13 are supplied.

【0045】次に、図1に示した有声音合成部16にお
ける合成処理を詳細に説明する。上記V(有声音)と判
別された第mバンド(第m高調波の帯域)における時間
軸上の上記1合成フレーム(Lサンプル、例えば160
サンプル)分の有声音をVm (n) とするとき、この合成
フレーム内の時間インデックス(サンプル番号)nを用
いて、 Vm (n) =Am (n) cos(θ(n)) 0≦n<L ・・・(11) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
Next, the synthesis processing in the voiced sound synthesis section 16 shown in FIG. 1 will be described in detail. The one combined frame (L sample, for example, 160) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound).
Samples) content of voiced and V m (when the n), using a time index (sample number) n in the synthetic frame, V m (n) = A m (n) cos (θ (n)) It can be expressed as 0 ≦ n <L (11). The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands which are determined to be V (voiced sound) of all the bands.

【0046】この(11)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(12) の式によりAm (n) を計算すればよい。
A m (n) in the equation (11) is the amplitude of the m-th harmonic interpolated from the leading end to the trailing end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the end of the next composite frame) is A Lm , A m (n) = (Ln) A 0 m / L + nA Lm / L ... (12) It is sufficient to calculate A m (n).

【0047】このように、上記有声音合成部16は、上
記データ数変換部15からのデータ数変換データ、ピッ
チ復号化部18からのピッチ復号データ、入力端子13
からのV/UV判別情報及び上記位相予測&修正部20
からの修正を施された予測位相を元に有声音を合成す
る。
As described above, the voiced sound synthesizing section 16 converts the data number from the data number converting section 15, the pitch decoded data from the pitch decoding section 18, and the input terminal 13.
V / UV discrimination information from the above and the phase prediction & correction unit 20
The voiced sound is synthesized on the basis of the predicted phase corrected by.

【0048】ここで、図8のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
6により合成され、UV(無声音)のバンドの時間軸信
号が無声音合成部17で合成されるわけである。
Here, A of FIG. 8 shows an example of the spectrum of the audio signal, and the bands of the band numbers (harmonics number) m of 8, 9 and 10 are UV (unvoiced sound) and the other bands. Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1 described above.
6, the time axis signals of the UV (unvoiced sound) band are synthesized by the unvoiced sound synthesis unit 17.

【0049】以下、無声音合成部17における無声音合
成処理を説明する。ホワイトノイズ発生部31からの時
間軸上のホワイトノイズ信号波形を、所定の長さ(例え
ば256サンプル)で適当な窓関数(例えばハミング
窓)により窓かけをし、STFT処理部32によりST
FT(ショートタームフーリエ変換)処理を施すことに
より、図8のBに示すようなホワイトノイズの周波数軸
上のパワースペクトルを得る。このSTFT処理部32
からのパワースペクトルをバンド振幅処理部33に送
り、図8のCに示すように、上記UV(無声音)とされ
たバンド(例えばm=8、9、10)について上記振幅
|Am UVを乗算し、他のV(有声音)とされたバンド
の振幅を0にする。このバンド振幅処理部33には上記
振幅データ、ピッチデータ、V/UV判別データが供給
されている。バンド振幅処理部33からの出力は、IS
TFT処理部34に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部34からの出力
は、オーバーラップ加算部35に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。オーバーラップ加算部
35からの出力信号が上記加算部21に送られる。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 17 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 31 is windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), and the STFT processing unit 32 performs ST processing.
By performing FT (Short Term Fourier Transform) processing, a power spectrum on the frequency axis of white noise as shown in B of FIG. 8 is obtained. This STFT processing unit 32
Is transmitted to the band amplitude processing unit 33, and as shown in FIG. 8C, the amplitude | A m | UV is calculated for the band (for example, m = 8, 9, 10) which is the UV (unvoiced sound). Multiplication is performed to set the amplitude of other V (voiced sound) band to 0. The band amplitude processing unit 33 is supplied with the amplitude data, the pitch data, and the V / UV discrimination data. The output from the band amplitude processing unit 33 is IS
The phase is sent to the TFT processing unit 34, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 34 is sent to the overlap adding unit 35, and the overlap and addition are repeated while appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis,
Synthesize continuous time axis waveforms. The output signal from the overlap adder 35 is sent to the adder 21.

【0050】このように、各合成部16、17において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部21により適当な固定の混合比で加算
され、出力端子22より再生された音声信号として取り
出される。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized in the respective synthesis units 16 and 17 and returned on the time axis are added by the addition unit 21 at an appropriate fixed mixing ratio.
Is taken as an audio signal reproduced from the output terminal 22
Will be issued.

【0051】したがって、本発明に係る有声音合成方法
の実施例は、例えば、ピッチの長い男声とピッチの短い
女声の予測位相への修正値をピッチに応じて変化させる
ことにより、不必要にノイズ感を増すことなくより自然
な生成音を得られる。
Therefore, the embodiment of the voiced sound synthesizing method according to the present invention unnecessarily reduces noise by changing the correction value for the predicted phase of the male voice having a long pitch and the female voice having a short pitch according to the pitch. A more natural generated sound can be obtained without increasing the feeling.

【0052】なお、上記図3の音声分析側(エンコード
側)の構成や図1の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
Regarding the configuration on the speech analysis side (encoding side) in FIG. 3 and the configuration on the speech synthesis side (decoding side) in FIG. 1, each unit is described in hardware, but a so-called DSP (digital It is also possible to realize it by a software program using a signal processor or the like.

【0053】また、本発明に係る有声音合成方法は、位
相予測の際の初期位相を0としてコサイン波を加算する
ようにしていたが、初期位相をπ/2にすると例えばD
SP(ディジタルシグナルプロセッサ)で演算を行う場
合、ダイナミックレンジが減少するという点で有利であ
る。初期位相を0にするかπ/2にするかの違いは、合
成された波形が偶関数になるか奇関数になるかの違いで
ある。すなわち、合成はコサイン波で行われるので初期
位相0のときは、合成波形もコサイン波であり、偶関数
となり、初期位相π/2のときは、コサイン波をπ/2
だけずらすことになり、合成波形は、サイン波となり、
奇関数になる。ここで、サイン波を合成することによっ
て得られる合成波形のピーク値は、偶関数を用いたとき
の合成波形のピーク値よりも小さくなる。演算のスケー
リングは、ピーク値で決まるので、例えばDSP(ディ
ジタルシグナルプロセッサ)で演算を行う場合、ダイナ
ミックレンジが減少するという点で初期位相をπ/2と
すると有利である。
Further, in the voiced sound synthesis method according to the present invention, the initial phase at the time of phase prediction is set to 0 and the cosine wave is added. However, when the initial phase is set to π / 2, for example, D
When the calculation is performed by an SP (digital signal processor), it is advantageous in that the dynamic range is reduced. The difference between setting the initial phase to 0 and π / 2 is whether the combined waveform becomes an even function or an odd function. That is, since the synthesis is performed with the cosine wave, when the initial phase is 0, the synthesized waveform is also a cosine wave and becomes an even function, and when the initial phase is π / 2, the cosine wave is π / 2.
It will be shifted only, the composite waveform becomes a sine wave,
It becomes an odd function. Here, the peak value of the combined waveform obtained by combining the sine waves is smaller than the peak value of the combined waveform when the even function is used. Since the scaling of the operation is determined by the peak value, it is advantageous to set the initial phase to π / 2 in that the dynamic range is reduced when the operation is performed by a DSP (digital signal processor), for example.

【0054】[0054]

【発明の効果】本発明に係る有声音合成方法は、各フレ
ーム毎にフレーム終端部における上記基本波及び高調波
の位相を予測すると共に各フレーム毎の上記予測された
フレーム終端部の位相又は上記基本波及び高調波の少な
くとも1つの周波数を上記ピッチに応じて修正すること
により、不必要なノイズを発生することなく自然な再生
音を得ることができる。
The voiced sound synthesis method according to the present invention predicts the phases of the fundamental wave and the harmonics at the frame end portion for each frame, and the predicted phase of the frame end portion for each frame or By correcting at least one frequency of the fundamental wave and the harmonic wave according to the pitch, a natural reproduced sound can be obtained without generating unnecessary noise.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る有声音合成方法が適用される装置
の具体例としての音声信号の合成分析符号化装置の合成
側(デコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 1 is a functional block diagram showing a schematic configuration on a synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a voiced sound synthesis method according to the present invention is applied.

【図2】ピッチ周期の長短による再生音の違いを説明す
るための波形図である。
FIG. 2 is a waveform diagram for explaining a difference in reproduced sound depending on the length of a pitch cycle.

【図3】本発明に係る有声音合成方法が適用される装置
の具体例としての音声信号の合成分析符号化装置の分析
側(エンコード側)の概略構成を示す機能ブロック図で
ある。
FIG. 3 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a voiced sound synthesis method according to the present invention is applied.

【図4】窓かけ処理を説明するための図である。FIG. 4 is a diagram for explaining a windowing process.

【図5】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 5 is a diagram for explaining a relationship between windowing processing and a window function.

【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 6 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 7 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図8】音声信号を合成する際の無声音合成を説明する
ための図である。
FIG. 8 is a diagram for explaining unvoiced sound synthesis when synthesizing a voice signal.

【符号の説明】 14・・・・・逆ベクトル量子化部 15・・・・・データ数逆変換部 16・・・・・有声音合成部 17・・・・・無声音合成部 18・・・・・ピッチ復号化部 19・・・・・スケールファクター調整部 20・・・・・位相予測&修正部 21・・・・・加算部[Explanation of Codes] 14 ... Inverse Vector Quantization Section 15 ... Data Number Inverse Transformation Section 16 ... Voiced Sound Synthesis Section 17 ... Unvoiced Sound Synthesis Section 18 ... ..Pitch decoding unit 19 ... Scale factor adjustment unit 20 ... Phase prediction & correction unit 21 ... Adding unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力された音声信号をフレーム単位で区
分し、区分されたフレーム毎にピッチを求め、求められ
たピッチの基本波及びその高調波であって初期位相が固
定された信号群を用いて有声音を合成する有声音合成方
法において、 各フレーム毎にフレーム終端部における上記基本波及び
高調波の位相を予測すると共に各フレーム毎の上記予測
されたフレーム終端部の位相又は上記基本波及び高調波
の少なくとも1つの周波数を上記ピッチに応じて修正す
ることを特徴とする有声音合成方法。
1. An input voice signal is divided in units of frames, a pitch is obtained for each divided frame, and a fundamental wave of the obtained pitch and a harmonic thereof and a signal group whose initial phase is fixed are defined. In a voiced sound synthesizing method for synthesizing a voiced sound using the above, the phases of the fundamental wave and the harmonics at the frame end portion are predicted for each frame, and the predicted phase of the frame end portion or the fundamental wave is calculated for each frame. And a method for synthesizing a voiced sound, characterized in that at least one frequency of a harmonic is corrected according to the pitch.
【請求項2】上記ピッチに応じた修正の量は、ピッチ周
波数が低い程大きくされることを特徴とする請求項1記
載の有声音合成方法。
2. The method for synthesizing a voiced sound according to claim 1, wherein the correction amount according to the pitch is increased as the pitch frequency is lower.
JP12146392A 1992-04-15 1992-04-15 Voiced sound synthesis method Expired - Fee Related JP3218680B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12146392A JP3218680B2 (en) 1992-04-15 1992-04-15 Voiced sound synthesis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12146392A JP3218680B2 (en) 1992-04-15 1992-04-15 Voiced sound synthesis method

Publications (2)

Publication Number Publication Date
JPH05297892A true JPH05297892A (en) 1993-11-12
JP3218680B2 JP3218680B2 (en) 2001-10-15

Family

ID=14811765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12146392A Expired - Fee Related JP3218680B2 (en) 1992-04-15 1992-04-15 Voiced sound synthesis method

Country Status (1)

Country Link
JP (1) JP3218680B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515126A (en) * 2003-12-19 2007-06-07 クリエイティブ テクノロジー リミテッド Method and system for processing digital images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515126A (en) * 2003-12-19 2007-06-07 クリエイティブ テクノロジー リミテッド Method and system for processing digital images

Also Published As

Publication number Publication date
JP3218680B2 (en) 2001-10-15

Similar Documents

Publication Publication Date Title
EP0640952B1 (en) Voiced-unvoiced discrimination method
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
KR100348899B1 (en) The Harmonic-Noise Speech Coding Algorhthm Using Cepstrum Analysis Method
JPH0990968A (en) Voice synthesis method
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JP3297749B2 (en) Encoding method
JP3218679B2 (en) High efficiency coding method
JP3237178B2 (en) Encoding method and decoding method
JP3362471B2 (en) Audio signal encoding method and decoding method
JPH11219198A (en) Phase detection device and method and speech encoding device and method
JP3218680B2 (en) Voiced sound synthesis method
JP3731575B2 (en) Encoding device and decoding device
JPH0651800A (en) Data quantity converting method
JP3321933B2 (en) Pitch detection method
JP3297750B2 (en) Encoding method
JP3398968B2 (en) Speech analysis and synthesis method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP3223564B2 (en) Pitch extraction method
JP3271193B2 (en) Audio coding method
JPH06202695A (en) Speech signal processor
JP3440500B2 (en) decoder
JP3221050B2 (en) Voiced sound discrimination method
JPH07104777A (en) Pitch detecting method and speech analyzing and synthesizing method
JPH05265489A (en) Pitch extracting method
JPH07104793A (en) Encoding device and decoding device for voice

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010710

LAPS Cancellation because of no payment of annual fees