JPH05281995A - Speech encoding method - Google Patents

Speech encoding method

Info

Publication number
JPH05281995A
JPH05281995A JP4105344A JP10534492A JPH05281995A JP H05281995 A JPH05281995 A JP H05281995A JP 4105344 A JP4105344 A JP 4105344A JP 10534492 A JP10534492 A JP 10534492A JP H05281995 A JPH05281995 A JP H05281995A
Authority
JP
Japan
Prior art keywords
pitch
data
band
amplitude
bands
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4105344A
Other languages
Japanese (ja)
Other versions
JP3271193B2 (en
Inventor
Atsushi Matsumoto
淳 松本
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10534492A priority Critical patent/JP3271193B2/en
Publication of JPH05281995A publication Critical patent/JPH05281995A/en
Application granted granted Critical
Publication of JP3271193B2 publication Critical patent/JP3271193B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE:To prevent sound quality from being deteriorated without generating any abnormal sound even unless a pitch appears clearly. CONSTITUTION:It is decided whether in a step S3 or not a pitch detected from the spectrum envelope of a speech signal is a secure pitch. When it is decided that the pitch is the secure pitch, the spectrum envelope is divided in a step S4 into bands corresponding to the secure pitch, voiced or voiceless sounds are decided, band by band, in a step S6, and quantization is carried out in a step S8 according to the powers of the bands. When it is decided in the step S3 that the pitch is not the secure pitch, on the other hand, the band of the spectrum envelope is divided most narrowly in the step S5, all of the most narrow divided bands are regarded as voiceless sounds in a step S7, and quantization is performed in the step S8 corresponding to the powers of the respective bands.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力音声信号を周波数
軸上に変換して得られた周波数軸上データを符号化する
ような音声符号化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding method for coding data on a frequency axis obtained by converting an input speech signal on the frequency axis.

【0002】[0002]

【従来の技術】音声信号の時間軸領域や周波数領域にお
ける統計的性質と人間の聴感上の特性を利用して信号圧
縮を行うような符号化方法としては、大別して時間領域
での符号化、周波数領域での符号化、分析合成符号化等
が知られている。
2. Description of the Related Art Encoding methods for performing signal compression by utilizing statistical characteristics of a voice signal in the time domain and frequency domain and human auditory characteristics are roughly classified into time domain encoding and Coding in the frequency domain, analysis / synthesis coding, and the like are known.

【0003】音声信号等の符号化の具体的な例として
は、MBE(Multiband Excitation:マルチバンド励
起)符号化、SBE(Singleband Excitation:シングル
バンド励起) 符号化、ハーモニック(Harmonic) 符号
化、SBC(Sub-band Coding:帯域分割符号化) 、LP
C(Linear Predictive Coding: 線形予測符号化) 、あ
るいはDCT(離散コサイン変換)、MDCT(モデフ
ァイドDCT)、FFT(高速フーリエ変換)等があ
る。
Specific examples of encoding of a voice signal and the like include MBE (Multiband Excitation) encoding, SBE (Singleband Excitation) encoding, Harmonic encoding, and SBC ( Sub-band Coding), LP
There are C (Linear Predictive Coding), DCT (Discrete Cosine Transform), MDCT (Modified DCT), FFT (Fast Fourier Transform), and the like.

【0004】例えば、上記MBE符号化においては、入
力音声信号波形からピッチを抽出する場合、明確なピッ
チが表れない場合でもピッチの軌跡を追跡することによ
り、ピッチを捉えていた。
[0004] For example, in the above MBE coding, when the pitch is extracted from the input speech signal waveform, the pitch is captured by tracing the locus of the pitch even when a clear pitch does not appear.

【0005】[0005]

【発明が解決しようとする課題】ところで、上記MBE
符号化等においては、1ブロック(フレーム)内の音声
信号のスペクトル包絡を該ブロックで抽出したピッチに
応じて帯域(バンド)分割し、各バンド毎に有声音/無
声音の判断を行っており、また、スペクトルの周期性を
考慮し、各高調波(ハーモニクス)位置での振幅を求め
て得たスペクトル包絡(エンベロープ)を量子化してい
るため、上記ピッチが不確実なときには、有声音/無声
音の判断及びスペクトルマッチングも不正確になり、結
果的に合成された音声の音質の劣化を招く虞れがあっ
た。
By the way, the above MBE
In encoding or the like, the spectral envelope of a voice signal in one block (frame) is divided into bands (bands) according to the pitch extracted in the block, and voiced sound / unvoiced sound is determined for each band. In addition, since the spectral envelope (envelope) obtained by calculating the amplitude at each harmonic (harmonic) position is quantized in consideration of the periodicity of the spectrum, when the pitch is uncertain, voiced / unvoiced Judgment and spectrum matching are also inaccurate, which may result in deterioration of the sound quality of the synthesized speech.

【0006】つまり、ピッチが不明確な時に、図10の破
線で示すように無理にスペクトルのマッチングをとろう
とすると2番目以降のバンドでは、正確なスペクトルの
振幅を得ることができない。また、1番目のバンドのよ
うにたまたまマッチングがとれたとしても該1番目のバ
ンドは有声音として処理されてしまい、異音の原因とな
ってしまう。ここで図10は、横軸に周波数及びバンド、
縦軸にスペクトルの振幅を示している。また、実線の波
形は、入力音声波形のスペクトル包絡である。
That is, when the pitch is unclear, if the spectrum matching is forcibly attempted to be performed as shown by the broken line in FIG. 10, accurate spectrum amplitude cannot be obtained in the second and subsequent bands. Further, even if a match is obtained by chance like the first band, the first band is processed as a voiced sound, which causes abnormal noise. Here, in FIG. 10, the horizontal axis represents frequency and band,
The vertical axis shows the spectrum amplitude. The solid line waveform is the spectral envelope of the input voice waveform.

【0007】そこで、本発明は、上記実情に鑑みてなさ
れたものであり、入力音声信号から検出したピッチが不
確実なときには、スペクトル包絡のバンド幅を狭く設定
してスペクトル分析を行う符号化方法の提供を目的とす
る。
Therefore, the present invention has been made in view of the above situation, and when the pitch detected from the input speech signal is uncertain, the band width of the spectrum envelope is set narrow and the coding method is performed. For the purpose of providing.

【0008】[0008]

【課題を解決するための手段】本発明に係る音声符号化
方法は、入力音声信号のスペクトル包絡を求め、該スペ
クトル包絡を複数のバンドに分割し、各バンド毎のパワ
ーに応じて量子化を行う音声符号化方法において、上記
入力音声信号のピッチを検出し、上記ピッチが確実に検
出されたときには検出されたピッチに応じた帯域幅で上
記スペクトル包絡を分割し、上記ピッチが確実に検出さ
れないときには所定の狭い帯域幅で上記スペクトル包絡
を分割することを特徴として上記課題を解決する。
A speech coding method according to the present invention obtains a spectrum envelope of an input speech signal, divides the spectrum envelope into a plurality of bands, and performs quantization in accordance with the power of each band. In the speech coding method, the pitch of the input speech signal is detected, and when the pitch is reliably detected, the spectrum envelope is divided by the bandwidth according to the detected pitch, and the pitch is not reliably detected. The above problem is solved by sometimes dividing the spectrum envelope with a predetermined narrow bandwidth.

【0009】ここで、上記ピッチが確実に検出されたと
きには、該ピッチに応じて分割された各バンド毎にV
(有声音)/UV(無声音)を判断し、上記ピッチが確
実に検出されなかったときには、上記所定の狭い帯域幅
の全帯域を無声音とする。
Here, when the above pitch is detected with certainty, V is divided for each band divided according to the pitch.
(Voiceed sound) / UV (unvoiced sound) is determined, and when the pitch is not reliably detected, the entire band of the predetermined narrow bandwidth is set to be unvoiced sound.

【0010】[0010]

【作用】本発明に係る音声符号化方法は、上記入力音声
信号から検出されたピッチが確実であるときには検出さ
れたピッチに応じたバンド幅で上記スペクトル包絡を分
割し、上記ピッチが確実でないときには上記スペクトル
包絡のバンド幅を狭く設定することにより、それぞれの
場合に応じた符号化を行うことができる。
In the speech coding method according to the present invention, when the pitch detected from the input speech signal is certain, the spectrum envelope is divided by the bandwidth corresponding to the detected pitch, and when the pitch is not certain, By setting the band width of the spectrum envelope to be narrow, it is possible to perform coding according to each case.

【0011】[0011]

【実施例】以下に、本発明に係る音声符号化方法の実施
例について説明する。この音声符号化方法には、MBE
符号化等のように、ブロック毎の信号を周波数軸上に変
換し、複数帯域に分割して各帯域毎にV(有声音)かU
V(無声音)かを判別するような符号化方法を用いるこ
とができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the speech coding method according to the present invention will be described below. This speech encoding method is based on MBE
Like coding, the signal for each block is converted on the frequency axis, divided into a plurality of bands, and V (voiced sound) or U is supplied for each band.
It is possible to use an encoding method that determines whether V (unvoiced sound).

【0012】すなわち、本発明が適用される一般的な符
号化方法としては、音声信号を一定サンプル数(例えば
256サンプル)毎にブロック化して、FFT等の直交
変換により周波数軸上のスペクトルデータに変換すると
共に、該ブロック内の音声のピッチを検出し、このピッ
チが確実であるときにはこの確実なピッチに応じた間隔
で周波数軸上のスペクトルを帯域分割し、分割された各
帯域についてV(有声音)/UV(無声音)の判別を行
っている。また、検出されたピッチが確実でないときあ
るいは全くピッチが検出されないときには上記周波数軸
上のスペクトルを狭く帯域分割し、全ての帯域を無声音
とする。
That is, as a general coding method to which the present invention is applied, an audio signal is divided into blocks for every fixed number of samples (for example, 256 samples), and spectrum data on the frequency axis is converted to orthogonal spectrum data by orthogonal transformation such as FFT. At the same time as the conversion, the pitch of the voice in the block is detected, and when the pitch is certain, the spectrum on the frequency axis is divided into bands at intervals according to the certain pitch, and V (presence) is obtained for each divided band. Voice / UV (unvoiced) is discriminated. Further, when the detected pitch is not certain or no pitch is detected at all, the spectrum on the frequency axis is divided into narrow bands to make all bands unvoiced.

【0013】この本発明に係る音声符号化方法の符号化
の流れを図1に示すフローチャートを参照しながら以下
に説明する。図1において、最初のステップS1では、
入力音声信号のスペクトル包絡を求める。例えば、図2
に示す実線の波形(いわゆるオリジナルのスペクトル)
である。
The encoding flow of the speech encoding method according to the present invention will be described below with reference to the flowchart shown in FIG. In FIG. 1, in the first step S1,
Find the spectral envelope of the input speech signal. For example, in FIG.
The solid waveform shown in (the so-called original spectrum)
Is.

【0014】ステップS2では、上記ステップS1で求
められた入力音声信号のスペクトル包絡からピッチを検
出する。このピッチ検出では、確実にピッチを検出する
ために、例えばセンタクリップ波形の自己相関法を採用
する。このセンタクリップ波形の自己相関法は、クリッ
ピングレベルを越えたセンタクリップ波形を自己相関処
理し、ピッチを求める方法である。
In step S2, the pitch is detected from the spectral envelope of the input voice signal obtained in step S1. In this pitch detection, in order to detect the pitch with certainty, for example, an autocorrelation method of a center clip waveform is adopted. The center-clipped waveform autocorrelation method is a method of autocorrelating a center-clipped waveform exceeding a clipping level to obtain a pitch.

【0015】ステップS3では、上記ステップS2で検
出したピッチが確実なピッチであるか否かを判別する。
上記ステップS2では、確実にピッチを検出しようとし
ているが突発的にピッチの取りこぼし、整数倍または、
整数分の1等の誤ったピッチの検出もある。このような
不確実な検出ピッチをこのステップS3で、区別する。
ここで、YES(検出ピッチが確実である)を判別する
とステップS4に進み、NO(検出ピッチが確実でな
い)を判別するとステップS5に進む。
In step S3, it is determined whether the pitch detected in step S2 is a reliable pitch.
In the above step S2, the pitch is surely detected, but the pitch is suddenly dropped, or an integral multiple or
There is also an erroneous pitch detection such as an integer fraction. Such an uncertain detection pitch is distinguished in this step S3.
Here, if YES (the detected pitch is reliable) is determined, the process proceeds to step S4, and if NO (the detected pitch is not reliable) is determined, the process proceeds to step S5.

【0016】ステップS4では、上記ステップS2で検
出されたピッチが確実であるという上記ステップS3で
の判別を受けて、確実なピッチに応じたバンド幅で上記
スペクトル包絡を分割する。言い換えると、ピッチに応
じた間隔で周波数軸上のスペクトル包絡をバンド分割す
る。
In step S4, in response to the determination in step S3 that the pitch detected in step S2 is reliable, the spectrum envelope is divided into bands with a certain pitch. In other words, the spectral envelope on the frequency axis is divided into bands at intervals according to the pitch.

【0017】ステップS5では、上記ステップS2で検
出されたピッチが不確実であるという上記ステップ3で
の判別を受けて、最も狭いバンド幅で上記スペクトル包
絡を分割する。
In step S5, in response to the determination in step 3 that the pitch detected in step S2 is uncertain, the spectral envelope is divided with the narrowest bandwidth.

【0018】ステップS6では、上記ステップS4でピ
ッチに応じた間隔で分割されたバンド毎にV(有声音)
/UV(無声音)を判別する。
In step S6, V (voiced sound) is obtained for each band divided at intervals corresponding to the pitch in step S4.
/ UV (unvoiced sound) is determined.

【0019】ステップS7では、上記ステップS5で最
も狭い幅で分割された全バンドを無声音とする。本実施
例では、図2に示すように0から147 までの148 バンド
に分割し、強制的にUVとしている。このように148 分
割という細かいバンドにすると、実線で示す元のスペク
トル包絡を忠実になぞることができる。
In step S7, all bands divided by the narrowest width in step S5 are made unvoiced. In this embodiment, as shown in FIG. 2, it is divided into 148 bands from 0 to 147 and is forcibly set to UV. In this way, when the band is divided into 148 bands, the original spectral envelope shown by the solid line can be faithfully traced.

【0020】ステップS8では、上記ステップS4及び
ステップS5で設定された各バンド毎のパワーに応じて
スペクトル包絡を量子化する。特に、上記ステップS5
で設定された最も狭いバンド幅による分割のときには、
上記量子化の精度を向上させることができ、さらに、全
バンドの励振源として、白色雑音を用いると合成音声
は、図2に破線で示すようなマッチングをとったスペク
トルによって色づけされた雑音となるため、耳につくよ
うな異音を生じない。
In step S8, the spectrum envelope is quantized according to the power of each band set in steps S4 and S5. In particular, the above step S5
When dividing by the narrowest bandwidth set in,
It is possible to improve the accuracy of the above-mentioned quantization, and when white noise is used as the excitation source for all bands, the synthesized speech becomes noise colored by the spectrum matched as shown by the broken line in FIG. Therefore, it does not produce an abnormal noise that is audible to the ear.

【0021】このように、本発明に係る音声符号化方法
の実施例は、入力音声信号のピッチ検出で検出されたピ
ッチが確実であるか否かによって、スペクトル包絡の分
割帯域の幅を変えて設定している。例えば、上記ピッチ
が確実であれば、この確実なピッチに応じて分割帯域幅
を設定し、V/UVの判定を行っている。また、上記ピ
ッチが不確実であれば、分割帯域幅を最も狭く(例えば
148 分割) 設定し、全帯域をUVとしている。
As described above, in the embodiment of the speech coding method according to the present invention, the width of the divided band of the spectrum envelope is changed depending on whether the pitch detected by the pitch detection of the input speech signal is reliable or not. It is set. For example, if the pitch is certain, the divided bandwidth is set according to the certain pitch and V / UV determination is performed. If the pitch is uncertain, the division bandwidth is the narrowest (for example,
148 divisions) are set, and the entire band is UV.

【0022】したがって、特にピッチがはっきり現れな
いような不確実な場合には、特殊ケースとしてスペクト
ル分析を行っており、合成される音声の音質を劣化させ
ることがない。
Therefore, in the case of uncertainty in which the pitch does not appear clearly, the spectrum analysis is performed as a special case, and the sound quality of synthesized speech is not deteriorated.

【0023】次に、本発明に係る音声符号化方法を適用
することができる音声信号の合成分析符号化装置(いわ
ゆるボコーダ)の一種であるMBE(Multiband Excita
tion: マルチバンド励起)について、図面を参照しなが
ら説明する。このMBEボコーダは、D. W.Griffin and
J. S. Lim,"Multiband Excitation Vocoder," IEEETra
ns.Acoustics,Speech,and Signal Processing, vol.36,
No.8, pp.1223-1235, Aug.1988に開示されているもの
であり、従来のPARCOR( PARtial auto-CORrelat
ion:偏自己相関)ボコーダ等では、音声のモデル化の際
に有声音区間と無声音区間とをブロックあるいはフレー
ム毎に切り換えていたのに対し、MBEボコーダでは、
同時刻(同じブロックあるいはフレーム内)の周波数軸
領域に有声音(Voiced)区間と無声音(Unvoiced)区間
とが存在するという仮定でモデル化している。
Next, an MBE (Multiband Excita) which is a kind of speech signal synthesis analysis coding apparatus (so-called vocoder) to which the speech coding method according to the present invention can be applied.
tion: multi-band excitation) will be described with reference to the drawings. This MBE vocoder is based on DW Griffin and
JS Lim, "Multiband Excitation Vocoder," IEEETra
ns.Acoustics, Speech, and Signal Processing, vol.36,
No. 8, pp.1223-1235, Aug.1988, the conventional PARCOR (PARtial auto-CORrelat
ion: partial autocorrelation) In a vocoder or the like, a voiced sound section and an unvoiced sound section are switched for each block or frame in modeling a voice, whereas in the MBE vocoder,
It is modeled on the assumption that a voiced sound (Voiced) section and an unvoiced sound (Unvoiced) section exist in the frequency domain at the same time (in the same block or frame).

【0024】図3は、上記MBEボコーダの全体の概略
構成を示すブロック図である。この図3において、入力
端子101には音声信号が供給されるようになってお
り、この入力音声信号は、HPF(ハイパスフィルタ)
等のフィルタ102に送られて、いわゆるDC(直流)
オフセット分の除去や帯域制限(例えば200〜340
0Hzに制限)のための少なくとも低域成分(200Hz以
下)の除去が行われる。このフィルタ102を介して得
られた信号は、ピッチ抽出部103及び窓かけ処理部1
04にそれぞれ送られる。ピッチ抽出部103では、入
力音声信号データが所定サンプル数N(例えばN=25
6)単位でブロック分割され(あるいは方形窓による切
り出しが行われ)、このブロック内の音声信号について
のピッチ抽出が行われる。このような切り出しブロック
(256サンプル)を、例えば図4のAに示すようにL
サンプル(例えばL=160)のフレーム間隔で時間軸
方向に移動させており、各ブロック間のオーバラップは
N−Lサンプル(例えば96サンプル)となっている。
また、窓かけ処理部104では、1ブロックNサンプル
に対して所定の窓関数、例えばハミング窓をかけ、この
窓かけブロックを1フレームLサンプルの間隔で時間軸
方向に順次移動させている。
FIG. 3 is a block diagram showing a schematic configuration of the entire MBE vocoder. In FIG. 3, an audio signal is supplied to the input terminal 101, and the input audio signal is an HPF (high pass filter).
Sent to the filter 102 such as so-called DC (direct current)
Removal of offset and band limitation (for example, 200 to 340)
At least low frequency components (200 Hz or less) are removed for 0 Hz limitation. The signal obtained through this filter 102 is used for the pitch extraction unit 103 and the windowing processing unit 1.
04, respectively. In the pitch extraction unit 103, the input voice signal data has a predetermined sample number N (for example N = 25
6) It is divided into blocks in units (or is cut out by a rectangular window), and pitch extraction is performed on the voice signal in this block. Such a cut-out block (256 samples) is converted into, for example, L as shown in FIG.
The samples are moved in the time axis direction at frame intervals (for example, L = 160), and the overlap between blocks is NL samples (for example, 96 samples).
In addition, the windowing processing unit 104 applies a predetermined window function, for example, a Hamming window, to one block of N samples, and sequentially moves the windowed block in the time axis direction at intervals of one frame of L samples.

【0025】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (1) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the unprocessed input signal is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. FIG. 4A in the pitch extraction unit 103
The window function w r (r) in the case of a rectangular window as shown in is: w r (r) = 1 0 ≦ r <N (2) = 0 r <0, N ≦ r window function w h (r) in the case of Hamming window as shown in B of FIG. 4 is a section 104, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (3) = 0 r <0, N ≦ r. Such a window function w r (r) or w (1) when using the h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, which is transformed into kL−N <q ≦ kL. Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) =
As shown in FIG. 5, 1 becomes kL-N <q ≦ kL.
It will be when. Further, the above formulas (1) to (3) have a length N
The window of (= 256) samples is shown to advance by L (= 160) samples. Below, above (2)
N points (0 ≦ r
The non-zero sample sequence of <N) is represented by x wr (k, r) and x wh
Let us denote it as (k, r).

【0026】窓かけ処理部104では、図6に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
In the windowing processing unit 104, as shown in FIG. 6, 179 is applied to the sample sequence x wh (k, r) of 256 samples of one block on which the Hamming window of the equation (3) is applied.
Two samples of 0 data are added (so-called zero padding) to make 2048 samples, and the orthogonal transformation unit 105 performs orthogonal transformation such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0027】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピーク周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 103, the above x wr (k, r)
Pitch extraction is performed based on the sample sequence (1 block N samples). The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and autocorrelation function.
The center correlation waveform autocorrelation method is used. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. The peak period is determined based on the peak position of the autocorrelation data of the center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In the case of, the maximum peak position is set as the pitch period, and in other cases, the pitch is within a pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As a result, a peak in the range of ± 20% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data has a high precision (fine) pitch search unit 10.
Then, the high precision pitch search (pitch fine search) is performed by the closed loop.

【0028】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High precision (fine) pitch search section 106
Includes rough pitch data of integer (integer) values extracted by the pitch extraction unit 103 and the orthogonal transformation unit 10.
5, the data on the frequency axis subjected to FFT, for example, is supplied. In this high precision pitch search unit 106,
Centering on the above coarse pitch data value, it is ± 0.2 in increments of ±
Shake several samples at a time to drive to the optimum fine pitch data value with a decimal point (floating). As a fine search method at this time, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0029】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
πωs =fs /2に対応し、サンプリング周波数fs
2πωs が例えば8kHzのときには4kHzに対応する。
上記(4)式中において、周波数軸上のスペクトルデー
タS(j) が図7のAに示すような波形のとき、H(j)
は、図7のBに示すような元のスペクトルデータS(j)
のスペクトル包絡線(エンベロープ)を示し、E(j)
は、図7のCに示すような等レベルで周期的な励起信号
(エキサイテイション)のスペクトルを示している。す
なわち、FFTスペクトルS(j) は、スペクトルエンベ
ロープH(j) と励起信号のパワースペクトル|E(j) |
との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (4) It is assumed that the model. Here, J corresponds to πω s = f s / 2, and the sampling frequency f s =
When 2πω s is, for example, 8 kHz, it corresponds to 4 kHz.
In the equation (4), when the spectrum data S (j) on the frequency axis has a waveform as shown in A of FIG. 7, H (j)
Is the original spectrum data S (j) as shown in B of FIG.
Shows the spectral envelope of E (j)
Shows a spectrum of an excitation signal (excitation) that is periodic at an equal level as shown in FIG. 7C. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum of the excitation signal | E (j) |
It is modeled as the product of and.

【0030】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the excitation signal | E (j)
Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing FFT by regarding the waveform obtained by adding (filling with 0) 1792 samples of 0 data to the Hamming window function of 256 samples as shown in FIG. 6 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0031】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0032】[0032]

【数1】 で表せる。このエラーεm を最小化するような|Am
は、
[Equation 1] Can be expressed as | A m | that minimizes this error ε m
Is

【0033】[0033]

【数2】 となり、この(6)式の|Am |のとき、エラーεm
最小化する。このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。
[Equation 2] Therefore, when | A m | in the equation (6), the error ε m is minimized. Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (5). Next, the sum Σε of all the bands of such error ε m for each band
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0034】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(6)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, with the rough pitch obtained by the pitch extraction unit 103 as the center, several types are prepared up and down in steps of, for example, 0.25. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, when the pitch is determined, the bandwidth is determined, and from the above formula (6), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (5), and the total sum Σε m of all the bands can be found. This error sum value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit 106 obtains the optimum fine (eg, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch.
Is determined.

【0035】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the pitch fine search, in order to simplify the explanation, all bands are voiced (Vo
Assuming the case of iced), as described above, MBE
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) area exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0036】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The optimum pitch and amplitude | A m | data from the high precision pitch search unit 106 is sent to the voiced sound / unvoiced sound determination unit 107, and the voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR of the m-th band is

【0037】[0037]

【数3】 と表せ、このNSR値が所定の閾値(例えば0.3)より
大のとき(エラーが大きい)ときには、そのバンドでの
|Am ||E(j) |による|S(j) |の近似が良くない
(上記励起信号|E(j) |が基底として不適当である)
と判断でき、当該バンドをUV(Unvoiced、無声音)と
判別する。これ以外のときは、近似がある程度良好に行
われていると判断でき、そのバンドをV(Voiced、有声
音)と判別する。
[Equation 3] When this NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | S (j) | is approximated by | A m || E (j) | in that band. Is not good (the above excitation signal | E (j) | is unsuitable as a basis)
Therefore, the band is determined to be UV (Unvoiced, unvoiced sound). In other cases, it can be determined that the approximation is performed to some extent, and the band is determined to be V (Voiced, voiced sound).

【0038】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation unit 108 has frequency-axis data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as the fine pitch from the high precision pitch search unit 106.
| And each voiced sound / unvoiced sound discrimination unit 107
V / UV (voiced sound / unvoiced sound) discrimination data from The amplitude re-evaluation unit 108 re-calculates the amplitude of the band determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 107. The amplitude | A m | UV for this UV band is

【0039】[0039]

【数4】 にて求められる。[Equation 4] Required at.

【0040】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400kHzまでとすると、この有効帯域が上
記ピッチに応じて、8バンド〜63バンドに分割される
ことになり、これらの各バンド毎に得られる上記振幅|
m |(UVバンドの振幅|Am UVも含む)データの
個数mMX+1も8〜63と変化することになる。このため
データ数変換部109では、この可変個数mMX+1の振幅
データを一定個数NC (例えば44個)のデータに変換
している。
The data from the amplitude re-evaluation unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
Sent to 9. This data number conversion unit 109 is for making the number constant, considering that the number of divided bands on the frequency axis differs according to the pitch and the number of data (especially the number of amplitude data) differs. is there. That is, for example, if the effective band is up to 3400 kHz, this effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | obtained for each of these bands |
The number of data A m | (including the amplitude of the UV band | A m | UV ) m MX + 1 also changes from 8 to 63. Therefore, the data number conversion unit 109 converts the variable number m MX + 1 of amplitude data into a fixed number N C (for example, 44) of data.

【0041】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数((
MX+1) ×KOS個)の振幅データを直線補間してさらに
多くのNM 個(例えば2048個)に拡張し、このNM
個のデータを間引いて上記一定個数NC (例えば44
個)のデータに変換する。
Here, in this embodiment, dummy data for interpolating values from the last data in the block to the first data in the block with respect to the amplitude data for one block of the effective band on the frequency axis. Is added to expand the number of data to N F , and then the bandwidth-limited K OS times (for example, 8
By multiplying the number of times, the amplitude data of K OS times the number is obtained, and the number of K OS times the number of (((
(m MX + 1 ) × K OS pieces of amplitude data are linearly interpolated and expanded to a larger number of N M pieces (eg, 2048 pieces), and this N M pieces
The data is thinned out to obtain the above-mentioned fixed number N C (for example, 44
Data).

【0042】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
The data from the data number converting unit 109 (the above-mentioned fixed number N C of amplitude data) is sent to the vector quantizing unit 110, and a predetermined number of data is put together into a vector, and vector quantization is performed. Is given. The quantized output data from the vector quantizer 110 is output to the output terminal 1
It is taken out via 11. The high-precision (fine) pitch data from the high-precision pitch search unit 106 is coded by the pitch coding unit 115, and the output terminal 11
It is taken out via 2. Further, the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 107 is taken out through the output terminal 113. The data from these output terminals 111 to 113 are transmitted as signals in a predetermined transmission format.

【0043】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), and the block is the frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, and the amplitude data are updated at the above frame cycle.

【0044】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図8を参照しながら説明する。こ
の図8において、入力端子121には上記ベクトル量子
化された振幅データが、入力端子122には上記符号化
されたピッチデータが、また入力端子123には上記V
/UV判別データがそれぞれ供給される。入力端子12
1からの量子化振幅データは、逆ベクトル量子化部12
4に送られて逆量子化され、データ数逆変換部125に
送られて逆変換され、得られた振幅データが有声音合成
部126及び無声音合成部127に送られる。入力端子
122からの符号化ピッチデータは、ピッチ復号化部1
28で復号化され、データ数逆変換部125、有声音合
成部126及び無声音合成部127に送られる。また入
力端子123からのV/UV判別データは、有声音合成
部126及び無声音合成部127に送られる。
Next, a synthesizing side (decoding side) for synthesizing an audio signal based on each of the above-mentioned data obtained by transmission.
The general configuration of will be described with reference to FIG. In FIG. 8, the vector-quantized amplitude data is input to the input terminal 121, the encoded pitch data is input to the input terminal 122, and the V-value is input to the input terminal 123.
/ UV discrimination data is supplied respectively. Input terminal 12
The quantized amplitude data from 1 is the inverse vector quantization unit 12
4 and is inversely quantized, is then sent to the data number inverse transform unit 125 and is inversely transformed, and the obtained amplitude data is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127. The encoded pitch data from the input terminal 122 is the pitch decoding unit 1
It is decoded at 28 and sent to the data number inverse conversion unit 125, the voiced sound synthesis unit 126, and the unvoiced sound synthesis unit 127. The V / UV discrimination data from the input terminal 123 is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127.

【0045】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
In the voiced sound synthesis unit 126, for example, cosine (cosin
e) A voiced sound waveform on the time axis is synthesized by wave synthesis, and in the unvoiced sound synthesis unit 127, for example, white noise is filtered by a bandpass filter to synthesize the unvoiced sound waveform on the time axis, and these voiced sound synthesized waveforms are combined. The unvoiced sound synthesized waveform is added and synthesized by the addition unit 129 and is taken out from the output terminal 130. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothed). Therefore, each value of the amplitude data and the pitch data is set as each data value at, for example, the center position in one frame, and each data value up to the center position of the next frame (one frame at the time of composition) is interpolated. Ask by. That is,
In one frame (for example, from the center of the above analysis frame to the center of the next analysis frame) at the time of synthesis, each data value at the tip sample point and the end (the tip of the next synthesis frame)
Each data value at the sample point is given, and each data value between these sample points is obtained by interpolation.

【0046】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
The synthesis processing in the voiced sound synthesis unit 126 will be described in detail below. The one combined frame (L sample, for example, 160 samples) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound)
When the voiced sound for a minute is V m (n), V m (n) = A m (n) cos (θ m (n)) 0 using the time index (sample number) n in this composite frame. ≦ n <L can be expressed as (9). The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands which are determined to be V (voiced sound) of all the bands.

【0047】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
A m (n) in the equation (9) is the amplitude of the m-th harmonic wave that is interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: When the m-th harmonic amplitude value at the tip) of the next synthesized frame is A Lm, the formula A m (n) = (Ln ) A 0m / L + nA Lm / L ··· (10) It suffices to calculate A m (n).

【0048】次に、上記(9)式中の位相θm (n) は、 θm (0) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (9) is calculated by θ m (0) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (11) You can ask. In this equation (11), φ 0m represents the phase (frame initial phase) of the m-th harmonic at the tip (n = 0) of the composite frame, and ω 01 represents the phase of the composite frame tip (n = 0). The fundamental angular frequency, ω L1, represents the fundamental angular frequency at the end of the combined frame (n = L: the leading end of the next combined frame). Δω in the above equation (11) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).

【0049】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(10)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
Hereinafter, how to obtain the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do. When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the transmitted amplitude value A 0m by the above-mentioned equation (10), Linear interpolation of A Lm and amplitude A
It suffices to calculate m (n). The phase θ m (n) is θ when n = 0
Δω is set so that θ m (L) becomes φ Lm when m (0) = φ 0 m and n = L.

【0050】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.

【0051】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
When V = voiced sound when n = L, amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (12) and Δω = 0.

【0052】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above formula (11), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω O1 + ω L1 ) / 2) / L (13). In this equation (13), mod 2π (x) Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0053】ここで、図9のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
Here, A of FIG. 9 shows an example of the spectrum of the voice signal. Each band of band numbers (harmonics number) m of 8, 9 and 10 is UV (unvoiced sound), and other bands. Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1 described above.
26, and the time axis signal of the UV (unvoiced sound) band is synthesized by the unvoiced sound synthesis unit 127.

【0054】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図9のBに示すようなホワイトノイズの周
波数軸上のパワースペクトルを得る。このSTFT処理
部132からのパワースペクトルをバンド振幅処理部1
33に送り、図9のCに示すように、上記UV(無声
音)とされたバンド(例えばm=8、9、10)につい
て上記振幅|Am UVを乗算し、他のV(有声音)とさ
れたバンドの振幅を0にする。このバンド振幅処理部1
33には上記振幅データ、ピッチデータ、V/UV判別
データが供給されている。バンド振幅処理部133から
の出力は、ISTFT処理部134に送られ、位相は元
のホワイトノイズの位相を用いて逆STFT処理を施す
ことにより時間軸上の信号に変換する。ISTFT処理
部134からの出力は、オーバーラップ加算部135に
送られ、時間軸上で適当な(元の連続的なノイズ波形を
復元できるように)重み付けをしながらオーバーラップ
及び加算を繰り返し、連続的な時間軸波形を合成する。
オーバーラップ加算部135からの出力信号が上記加算
部129に送られる。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 127 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 131 is windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), and the STFT processing unit 132 performs STFT (short circuit). By performing the (Term Fourier Transform) process, a power spectrum of white noise on the frequency axis as shown in B of FIG. 9 is obtained. The power spectrum from the STFT processing unit 132 is converted to the band amplitude processing unit 1
33, and as shown in FIG. 9C, the above-mentioned amplitude | A m | UV is multiplied with respect to the band (for example, m = 8, 9, 10) set as the UV (unvoiced sound), and another V (voiced sound) is generated. ) Is set to 0. This band amplitude processing unit 1
The above amplitude data, pitch data, and V / UV discrimination data are supplied to 33. The output from the band amplitude processing unit 133 is sent to the ISTFT processing unit 134, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 134 is sent to the overlap addition unit 135, and the overlap and addition are repeated while performing appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis, and continuous. Time-domain waveforms are synthesized.
The output signal from the overlap adder 135 is sent to the adder 129.

【0055】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized in the respective synthesis units 126 and 127 and returned on the time axis are added by the addition unit 129 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 130.

【0056】以上のように上記MBEでは、高精度のピ
ッチ検出が必要とされるが、本発明に係る音声符号化方
法を適用し、ピッチがはっきりと現れないときには、ス
ペクトル包絡の分割を最も狭くし、全バンドを無声音と
すれば、元のスペクトル包絡を忠実になぞることがで
き、スペクトル量子化の精度を向上させることができ
る。
As described above, in the above MBE, highly accurate pitch detection is required, but when the voice coding method according to the present invention is applied and the pitch does not appear clearly, the division of the spectrum envelope is narrowest. However, if all bands are made unvoiced, the original spectrum envelope can be traced faithfully and the accuracy of spectrum quantization can be improved.

【0057】なお、上記図3の音声分析側(エンコード
側)の構成や図8の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
Regarding the configuration on the speech analysis side (encoding side) in FIG. 3 and the configuration on the speech synthesis side (decoding side) in FIG. 8, each unit is described in hardware, but so-called DSP (digital It is also possible to realize it by a software program using a signal processor or the like.

【0058】[0058]

【発明の効果】本発明に係る音声符号化方法は、上記入
力音声信号から検出されたピッチが確実であるときには
検出されたピッチに応じた帯域幅で上記スペクトル包絡
を分割し、上記ピッチが確実でないときには上記スペク
トル包絡の帯域幅を狭く設定することにより、それぞれ
の場合に応じた符号化を行うことができる。特にピッチ
がはっきりと現れないような場合は、特殊ケースとして
全バンドを無声音として処理するため、スペクトル分析
の精度向上が可能となり、異音を発生することもなく、
音質の劣化を避けることができる。
According to the speech coding method of the present invention, when the pitch detected from the input speech signal is certain, the spectrum envelope is divided by the bandwidth according to the detected pitch to ensure the pitch. If not, by setting the bandwidth of the spectrum envelope to be narrow, it is possible to perform coding according to each case. Especially when the pitch does not appear clearly, all bands are processed as unvoiced sound as a special case, so that the accuracy of spectrum analysis can be improved and no abnormal noise is generated.
It is possible to avoid deterioration of sound quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る音声符号化方法の実施例の符号化
の流れを説明するためのフローチャートである。
FIG. 1 is a flowchart for explaining a coding flow of an embodiment of a speech coding method according to the present invention.

【図2】本発明に係る音声符号化方法の実施例の符号化
を説明するための波形図である。
[Fig. 2] Fig. 2 is a waveform diagram for explaining encoding in the embodiment of the audio encoding method according to the present invention.

【図3】本発明に係る音声符号化方法が適用可能な装置
の具体例としての音声信号の合成分析符号化装置の分析
側(エンコード側)の概略構成を示す機能ブロック図で
ある。
FIG. 3 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a speech coding method according to the present invention can be applied.

【図4】窓かけ処理を説明するための図である。FIG. 4 is a diagram for explaining a windowing process.

【図5】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 5 is a diagram for explaining a relationship between windowing processing and a window function.

【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 6 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 7 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図8】本発明に係る音声符号化方法が適用可能な装置
の具体例としての音声信号の合成分析符号化装置の合成
側(デコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 8 is a functional block diagram showing a schematic configuration of a synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which the speech coding method according to the present invention can be applied.

【図9】音声信号を合成する際の無声音合成を説明する
ための図である。
FIG. 9 is a diagram for explaining unvoiced sound synthesis when synthesizing voice signals.

【図10】従来の音声符号化を説明するための波形図であ
る。
[Fig. 10] Fig. 10 is a waveform diagram for explaining conventional speech encoding.

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年4月13日[Submission date] April 13, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】全文[Name of item to be corrected] Full text

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【書類名】 明細書[Document name] Statement

【発明の名称】 音声符号化方法Title of the invention: Speech coding method

【特許請求の範囲】[Claims]

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力音声信号を周波数
軸上に変換して得られた周波数軸上データを符号化する
ような音声符号化方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech coding method for coding data on a frequency axis obtained by converting an input speech signal on the frequency axis.

【0002】[0002]

【従来の技術】音声信号の時間軸領域や周波数領域にお
ける統計的性質と人間の聴感上の特性を利用して信号圧
縮を行うような符号化方法としては、大別して時間領域
での符号化、周波数領域での符号化、分析合成符号化等
が知られている。
2. Description of the Related Art Encoding methods for performing signal compression by utilizing statistical characteristics of a voice signal in the time domain and frequency domain and human auditory characteristics are roughly classified into time domain encoding and Coding in the frequency domain, analysis / synthesis coding, and the like are known.

【0003】音声信号等の符号化の具体的な例として
は、MBE(Multiband Excitation:マルチバンド励
起)符号化、SBE(Singleband Excitation:シングル
バンド励起) 符号化、ハーモニック(Harmonic) 符号
化、SBC(Sub-band Coding:帯域分割符号化) 、LP
C(Linear Predictive Coding: 線形予測符号化) 、あ
るいはDCT(離散コサイン変換)、MDCT(モデフ
ァイドDCT)、FFT(高速フーリエ変換)等があ
る。
Specific examples of encoding of a voice signal and the like include MBE (Multiband Excitation) encoding, SBE (Singleband Excitation) encoding, Harmonic encoding, and SBC ( Sub-band Coding), LP
There are C (Linear Predictive Coding), DCT (Discrete Cosine Transform), MDCT (Modified DCT), FFT (Fast Fourier Transform), and the like.

【0004】例えば、上記MBE符号化においては、入
力音声信号波形からピッチを抽出する場合、明確なピッ
チが表れない場合でもピッチの軌跡を追跡することによ
り、ピッチを捉えていた。
[0004] For example, in the above MBE coding, when the pitch is extracted from the input speech signal waveform, the pitch is captured by tracing the locus of the pitch even when a clear pitch does not appear.

【0005】[0005]

【発明が解決しようとする課題】ところで、上記MBE
符号化等においては、1ブロック(フレーム)内の音声
信号のスペクトル包絡を該ブロックで抽出したピッチに
応じて帯域(バンド)分割し、各バンド毎に有声音/無
声音の判断を行っており、また、スペクトルの周期性を
考慮し、各高調波(ハーモニクス)位置での振幅を求め
て得たスペクトル包絡(エンベロープ)を量子化してい
るため、上記ピッチが不確実なときには、有声音/無声
音の判断及びスペクトルマッチングも不正確になり、結
果的に合成された音声の音質の劣化を招く虞れがあっ
た。
By the way, the above MBE
In encoding or the like, the spectral envelope of a voice signal in one block (frame) is divided into bands (bands) according to the pitch extracted in the block, and voiced sound / unvoiced sound is determined for each band. In addition, since the spectral envelope (envelope) obtained by calculating the amplitude at each harmonic (harmonic) position is quantized in consideration of the periodicity of the spectrum, when the pitch is uncertain, voiced / unvoiced Judgment and spectrum matching are also inaccurate, which may result in deterioration of the sound quality of the synthesized speech.

【0006】つまり、ピッチが不明確な時に、図10の破
線で示すように無理にスペクトルのマッチングをとろう
とすると2番目以降のバンドでは、正確なスペクトルの
振幅を得ることができない。また、1番目のバンドのよ
うにたまたまマッチングがとれたとしても該1番目のバ
ンドは有声音として処理されてしまい、異音の原因とな
ってしまう。ここで図10は、横軸に周波数及びバンド、
縦軸にスペクトルの振幅を示している。また、実線の波
形は、入力音声波形のスペクトル包絡である。
That is, when the pitch is unclear, if the spectrum matching is forcibly attempted to be performed as shown by the broken line in FIG. 10, accurate spectrum amplitude cannot be obtained in the second and subsequent bands. Further, even if a match is obtained by chance like the first band, the first band is processed as a voiced sound, which causes abnormal noise. Here, in FIG. 10, the horizontal axis represents frequency and band,
The vertical axis shows the spectrum amplitude. The solid line waveform is the spectral envelope of the input voice waveform.

【0007】そこで、本発明は、上記実情に鑑みてなさ
れたものであり、入力音声信号から検出したピッチが不
確実なときには、スペクトル包絡のバンド幅を狭く設定
してスペクトル分析を行う符号化方法の提供を目的とす
る。
Therefore, the present invention has been made in view of the above situation, and when the pitch detected from the input speech signal is uncertain, the band width of the spectrum envelope is set narrow and the coding method is performed. For the purpose of providing.

【0008】[0008]

【課題を解決するための手段】本発明に係る音声符号化
方法は、入力音声信号のスペクトル包絡を求め、該スペ
クトル包絡を複数のバンドに分割し、各バンド毎のパワ
ーに応じて量子化を行う音声符号化方法において、上記
入力音声信号のピッチを検出し、上記ピッチが確実に検
出されたときには検出されたピッチに応じた帯域幅で上
記スペクトル包絡を分割し、上記ピッチが確実に検出さ
れないときには所定の狭い帯域幅で上記スペクトル包絡
を分割することを特徴として上記課題を解決する。
A speech coding method according to the present invention obtains a spectrum envelope of an input speech signal, divides the spectrum envelope into a plurality of bands, and performs quantization in accordance with the power of each band. In the speech coding method, the pitch of the input speech signal is detected, and when the pitch is reliably detected, the spectrum envelope is divided by the bandwidth according to the detected pitch, and the pitch is not reliably detected. The above problem is solved by sometimes dividing the spectrum envelope with a predetermined narrow bandwidth.

【0009】ここで、上記ピッチが確実に検出されたと
きには、該ピッチに応じて分割された各バンド毎にV
(有声音)/UV(無声音)を判断し、上記ピッチが確
実に検出されなかったときには、上記所定の狭い帯域幅
の全帯域を無声音とする。
Here, when the above pitch is detected with certainty, V is divided for each band divided according to the pitch.
(Voiceed sound) / UV (unvoiced sound) is determined, and when the pitch is not reliably detected, the entire band of the predetermined narrow bandwidth is set to be unvoiced sound.

【0010】[0010]

【作用】本発明に係る音声符号化方法は、上記入力音声
信号から検出されたピッチが確実であるときには検出さ
れたピッチに応じたバンド幅で上記スペクトル包絡を分
割し、上記ピッチが確実でないときには上記スペクトル
包絡のバンド幅を狭く設定することにより、それぞれの
場合に応じた符号化を行うことができる。
In the speech coding method according to the present invention, when the pitch detected from the input speech signal is certain, the spectrum envelope is divided by the bandwidth corresponding to the detected pitch, and when the pitch is not certain, By setting the band width of the spectrum envelope to be narrow, it is possible to perform coding according to each case.

【0011】[0011]

【実施例】以下に、本発明に係る音声符号化方法の実施
例について説明する。この音声符号化方法には、MBE
符号化等のように、ブロック毎の信号を周波数軸上に変
換し、複数帯域に分割して各帯域毎にV(有声音)かU
V(無声音)かを判別するような符号化方法を用いるこ
とができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the speech coding method according to the present invention will be described below. This speech encoding method is based on MBE
Like coding, the signal for each block is converted on the frequency axis, divided into a plurality of bands, and V (voiced sound) or U is supplied for each band.
It is possible to use an encoding method that determines whether V (unvoiced sound).

【0012】すなわち、本発明が適用される一般的な符
号化方法としては、音声信号を一定サンプル数(例えば
256サンプル)毎にブロック化して、FFT等の直交
変換により周波数軸上のスペクトルデータに変換すると
共に、該ブロック内の音声のピッチを検出し、このピッ
チが確実であるときにはこの確実なピッチに応じた間隔
で周波数軸上のスペクトルを帯域分割し、分割された各
帯域についてV(有声音)/UV(無声音)の判別を行
っている。また、検出されたピッチが確実でないときあ
るいは全くピッチが検出されないときには上記周波数軸
上のスペクトルを狭く帯域分割し、全ての帯域を無声音
とする。
That is, as a general coding method to which the present invention is applied, an audio signal is divided into blocks for every fixed number of samples (for example, 256 samples), and spectrum data on the frequency axis is converted to orthogonal spectrum data by orthogonal transformation such as FFT. At the same time as the conversion, the pitch of the voice in the block is detected, and when the pitch is certain, the spectrum on the frequency axis is divided into bands at intervals according to the certain pitch, and V (presence) is obtained for each divided band. Voice / UV (unvoiced) is discriminated. Further, when the detected pitch is not certain or no pitch is detected at all, the spectrum on the frequency axis is divided into narrow bands to make all bands unvoiced.

【0013】この本発明に係る音声符号化方法の符号化
の流れを図1に示すフローチャートを参照しながら以下
に説明する。図1において、最初のステップS1では、
入力音声信号のスペクトル包絡を求める。例えば、図2
に示す実線の波形(いわゆるオリジナルのスペクトル)
である。
The encoding flow of the speech encoding method according to the present invention will be described below with reference to the flowchart shown in FIG. In FIG. 1, in the first step S1,
Find the spectral envelope of the input speech signal. For example, in FIG.
The solid waveform shown in (the so-called original spectrum)
Is.

【0014】ステップS2では、上記ステップS1で求
められた入力音声信号のスペクトル包絡からピッチを検
出する。このピッチ検出では、確実にピッチを検出する
ために、例えばセンタクリップ波形の自己相関法を採用
する。このセンタクリップ波形の自己相関法は、クリッ
ピングレベルを越えたセンタクリップ波形を自己相関処
理し、ピッチを求める方法である。
In step S2, the pitch is detected from the spectral envelope of the input voice signal obtained in step S1. In this pitch detection, in order to detect the pitch with certainty, for example, an autocorrelation method of a center clip waveform is adopted. The center-clipped waveform autocorrelation method is a method of autocorrelating a center-clipped waveform exceeding a clipping level to obtain a pitch.

【0015】ステップS3では、上記ステップS2で検
出したピッチが確実なピッチであるか否かを判別する。
上記ステップS2では、確実にピッチを検出しようとし
ているが突発的にピッチの取りこぼし、整数倍または、
整数分の1等の誤ったピッチの検出もある。このような
不確実な検出ピッチをこのステップS3で、区別する。
ここで、YES(検出ピッチが確実である)を判別する
とステップS4に進み、NO(検出ピッチが確実でな
い)を判別するとステップS5に進む。
In step S3, it is determined whether the pitch detected in step S2 is a reliable pitch.
In the above step S2, the pitch is surely detected, but the pitch is suddenly dropped, or an integral multiple or
There is also an erroneous pitch detection such as an integer fraction. Such an uncertain detection pitch is distinguished in this step S3.
Here, if YES (the detected pitch is reliable) is determined, the process proceeds to step S4, and if NO (the detected pitch is not reliable) is determined, the process proceeds to step S5.

【0016】ステップS4では、上記ステップS2で検
出されたピッチが確実であるという上記ステップS3で
の判別を受けて、確実なピッチに応じたバンド幅で上記
スペクトル包絡を分割する。言い換えると、ピッチに応
じた間隔で周波数軸上のスペクトル包絡をバンド分割す
る。
In step S4, in response to the determination in step S3 that the pitch detected in step S2 is reliable, the spectrum envelope is divided into bands with a certain pitch. In other words, the spectral envelope on the frequency axis is divided into bands at intervals according to the pitch.

【0017】ステップS5では、上記ステップS2で検
出されたピッチが不確実であるという上記ステップ3で
の判別を受けて、最も狭いバンド幅で上記スペクトル包
絡を分割する。
In step S5, in response to the determination in step 3 that the pitch detected in step S2 is uncertain, the spectral envelope is divided with the narrowest bandwidth.

【0018】ステップS6では、上記ステップS4でピ
ッチに応じた間隔で分割されたバンド毎にV(有声音)
/UV(無声音)を判別する。
In step S6, V (voiced sound) is obtained for each band divided at intervals corresponding to the pitch in step S4.
/ UV (unvoiced sound) is determined.

【0019】ステップS7では、上記ステップS5で最
も狭い幅で分割された全バンドを無声音とする。本実施
例では、図2に示すように0から147 までの148 バンド
に分割し、強制的にUVとしている。このように148 分
割という細かいバンドにすると、実線で示す元のスペク
トル包絡を忠実になぞることができる。
In step S7, all bands divided by the narrowest width in step S5 are made unvoiced. In this embodiment, as shown in FIG. 2, it is divided into 148 bands from 0 to 147 and is forcibly set to UV. In this way, when the band is divided into 148 bands, the original spectral envelope shown by the solid line can be faithfully traced.

【0020】ステップS8では、上記ステップS4及び
ステップS5で設定された各バンド毎のパワーに応じて
スペクトル包絡を量子化する。特に、上記ステップS5
で設定された最も狭いバンド幅による分割のときには、
上記量子化の精度を向上させることができ、さらに、全
バンドの励振源として、白色雑音を用いると合成音声
は、図2に破線で示すようなマッチングをとったスペク
トルによって色づけされた雑音となるため、耳につくよ
うな異音を生じない。
In step S8, the spectrum envelope is quantized according to the power of each band set in steps S4 and S5. In particular, the above step S5
When dividing by the narrowest bandwidth set in,
It is possible to improve the accuracy of the above-mentioned quantization, and when white noise is used as the excitation source for all bands, the synthesized speech becomes noise colored by the spectrum matched as shown by the broken line in FIG. Therefore, it does not produce an abnormal noise that is audible to the ear.

【0021】このように、本発明に係る音声符号化方法
の実施例は、入力音声信号のピッチ検出で検出されたピ
ッチが確実であるか否かによって、スペクトル包絡の分
割帯域の幅を変えて設定している。例えば、上記ピッチ
が確実であれば、この確実なピッチに応じて分割帯域幅
を設定し、V/UVの判定を行っている。また、上記ピ
ッチが不確実であれば、分割帯域幅を最も狭く(例えば
148 分割) 設定し、全帯域をUVとしている。
As described above, in the embodiment of the speech coding method according to the present invention, the width of the divided band of the spectrum envelope is changed depending on whether the pitch detected by the pitch detection of the input speech signal is reliable or not. It is set. For example, if the pitch is certain, the divided bandwidth is set according to the certain pitch and V / UV determination is performed. If the pitch is uncertain, the division bandwidth is the narrowest (for example,
148 divisions) are set, and the entire band is UV.

【0022】したがって、特にピッチがはっきり現れな
いような不確実な場合には、特殊ケースとしてスペクト
ル分析を行っており、合成される音声の音質を劣化させ
ることがない。
Therefore, in the case of uncertainty in which the pitch does not appear clearly, the spectrum analysis is performed as a special case, and the sound quality of synthesized speech is not deteriorated.

【0023】次に、本発明に係る音声符号化方法を適用
することができる音声信号の合成分析符号化装置(いわ
ゆるボコーダ)の一種であるMBE(Multiband Excita
tion: マルチバンド励起)について、図面を参照しなが
ら説明する。このMBEボコーダは、D. W.Griffin and
J. S. Lim,"Multiband Excitation Vocoder," IEEETra
ns.Acoustics,Speech,and Signal Processing, vol.36,
No.8, pp.1223-1235, Aug.1988に開示されているもの
であり、従来のPARCOR( PARtial auto-CORrelat
ion:偏自己相関)ボコーダ等では、音声のモデル化の際
に有声音区間と無声音区間とをブロックあるいはフレー
ム毎に切り換えていたのに対し、MBEボコーダでは、
同時刻(同じブロックあるいはフレーム内)の周波数軸
領域に有声音(Voiced)区間と無声音(Unvoiced)区間
とが存在するという仮定でモデル化している。
Next, an MBE (Multiband Excita) which is a kind of speech signal synthesis analysis coding apparatus (so-called vocoder) to which the speech coding method according to the present invention can be applied.
tion: multi-band excitation) will be described with reference to the drawings. This MBE vocoder is based on DW Griffin and
JS Lim, "Multiband Excitation Vocoder," IEEETra
ns.Acoustics, Speech, and Signal Processing, vol.36,
No. 8, pp.1223-1235, Aug.1988, the conventional PARCOR (PARtial auto-CORrelat
ion: partial autocorrelation) In a vocoder or the like, a voiced sound section and an unvoiced sound section are switched for each block or frame in modeling a voice, whereas in the MBE vocoder,
It is modeled on the assumption that a voiced sound (Voiced) section and an unvoiced sound (Unvoiced) section exist in the frequency domain at the same time (in the same block or frame).

【0024】図3は、上記MBEボコーダの全体の概略
構成を示すブロック図である。この図3において、入力
端子101には音声信号が供給されるようになってお
り、この入力音声信号は、HPF(ハイパスフィルタ)
等のフィルタ102に送られて、いわゆるDC(直流)
オフセット分の除去や帯域制限(例えば200〜340
0Hzに制限)のための少なくとも低域成分(200Hz以
下)の除去が行われる。このフィルタ102を介して得
られた信号は、ピッチ抽出部103及び窓かけ処理部1
04にそれぞれ送られる。ピッチ抽出部103では、入
力音声信号データが所定サンプル数N(例えばN=25
6)単位でブロック分割され(あるいは方形窓による切
り出しが行われ)、このブロック内の音声信号について
のピッチ抽出が行われる。このような切り出しブロック
(256サンプル)を、例えば図4のAに示すようにL
サンプル(例えばL=160)のフレーム間隔で時間軸
方向に移動させており、各ブロック間のオーバラップは
N−Lサンプル(例えば96サンプル)となっている。
また、窓かけ処理部104では、1ブロックNサンプル
に対して所定の窓関数、例えばハミング窓をかけ、この
窓かけブロックを1フレームLサンプルの間隔で時間軸
方向に順次移動させている。
FIG. 3 is a block diagram showing a schematic configuration of the entire MBE vocoder. In FIG. 3, an audio signal is supplied to the input terminal 101, and the input audio signal is an HPF (high pass filter).
Sent to the filter 102 such as so-called DC (direct current)
Removal of offset and band limitation (for example, 200 to 340)
At least low frequency components (200 Hz or less) are removed for 0 Hz limitation. The signal obtained through this filter 102 is used for the pitch extraction unit 103 and the windowing processing unit 1.
04, respectively. In the pitch extraction unit 103, the input voice signal data has a predetermined sample number N (for example, N = 25).
6) It is divided into blocks in units (or is cut out by a rectangular window), and pitch extraction is performed on the voice signal in this block. Such a cut-out block (256 samples) is converted into, for example, L as shown in FIG.
The samples are moved in the time axis direction at frame intervals (for example, L = 160), and the overlap between blocks is NL samples (for example, 96 samples).
In addition, the windowing processing unit 104 applies a predetermined window function, for example, a Hamming window, to one block of N samples, and sequentially moves the windowed block in the time axis direction at intervals of one frame of L samples.

【0025】このような窓かけ処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部103内での図4のA
に示すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、窓かけ処理部104での図4のBに示すようなハ
ミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の否零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って、例えば上記方形窓の場合に窓関数wr (kL-q)=
1となるのは、図5に示すように、kL−N<q≦kL
のときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの窓が、L(=160)サンプル
ずつ前進してゆくことを示している。以下、上記(2)
式、(3)式の各窓関数で切り出された各N点(0≦r
<N)の否零サンプル列を、それぞれxwr(k,r) 、xwh
(k,r) と表すことにする。
When this windowing process is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (1) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the unprocessed input signal is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. FIG. 4A in the pitch extraction unit 103
The window function w r (r) in the case of a rectangular window as shown in is: w r (r) = 1 0 ≦ r <N (2) = 0 r <0, N ≦ r window function w h (r) in the case of Hamming window as shown in B of FIG. 4 is a section 104, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (3) = 0 r <0, N ≦ r. Such a window function w r (r) or w (1) when using the h (r) formula of the window function w (r) (= w (KL-
q)), the zero-zero interval is 0 ≦ kL−q <N, which is transformed into kL−N <q ≦ kL. Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) =
As shown in FIG. 5, 1 becomes kL-N <q ≦ kL.
It will be when. Further, the above formulas (1) to (3) have a length N
The window of (= 256) samples is shown to advance by L (= 160) samples. Below, above (2)
N points (0 ≦ r
The non-zero sample sequence of <N) is represented by x wr (k, r) and x wh
Let us denote it as (k, r).

【0026】窓かけ処理部104では、図6に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部105により
例えばFFT(高速フーリエ変換)等の直交変換処理が
施される。
In the windowing processing unit 104, as shown in FIG. 6, 179 is applied to the sample sequence x wh (k, r) of 256 samples of one block on which the Hamming window of the equation (3) is applied.
Two samples of 0 data are added (so-called zero padding) to make 2048 samples, and the orthogonal transformation unit 105 performs orthogonal transformation such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed.

【0027】ピッチ抽出部103では、上記xwr(k,r)
のサンプル列(1ブロックNサンプル)に基づいてピッ
チ抽出が行われる。このピッチ抽出法には、時間波形の
周期性や、スペクトルの周期的周波数構造や、自己相関
関数を用いるもの等が知られているが、本実施例では、
センタクリップ波形の自己相関法を採用している。この
ときのブロック内でのセンタクリップレベルについて
は、1ブロックにつき1つのクリップレベルを設定して
もよいが、ブロックを細分割した各部(各サブブロッ
ク)の信号のピークレベル等を検出し、これらの各サブ
ブロックのピークレベル等の差が大きいときに、ブロッ
ク内でクリップレベルを段階的にあるいは連続的に変化
させるようにしている。このセンタクリップ波形の自己
相関データのピーク位置に基づいてピッチ周期を決めて
いる。このとき、現在フレームに属する自己相関データ
(自己相関は1ブロックNサンプルのデータを対象とし
て求められる)から複数のピークを求めておき、これら
の複数のピークの内の最大ピークが所定の閾値以上のと
きには該最大ピーク位置をピッチ周期とし、それ以外の
ときには、現在フレーム以外のフレーム、例えば前後の
フレームで求められたピッチに対して所定の関係を満た
すピッチ範囲内、例えば前フレームのピッチを中心とし
て±20%の範囲内にあるピークを求め、このピーク位
置に基づいて現在フレームのピッチを決定するようにし
ている。このピッチ抽出部103ではオープンループに
よる比較的ラフなピッチのサーチが行われ、抽出された
ピッチデータは高精度(ファイン)ピッチサーチ部10
6に送られて、クローズドループによる高精度のピッチ
サーチ(ピッチのファインサーチ)が行われる。
In the pitch extraction unit 103, the above x wr (k, r)
Pitch extraction is performed based on the sample sequence (1 block N samples). The pitch extraction method is known to include periodicity of time waveform, periodic frequency structure of spectrum, and autocorrelation function.
The center correlation waveform autocorrelation method is used. Regarding the center clip level in the block at this time, one clip level may be set for one block, but the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected and When there is a large difference in the peak level of each sub-block, the clip level is changed stepwise or continuously within the block. The pitch period is determined based on the peak position of the autocorrelation data of this center clip waveform. At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak among the plurality of peaks is equal to or larger than a predetermined threshold. In the case of, the maximum peak position is set as the pitch period, and in other cases, the pitch is within a pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As a result, a peak in the range of ± 20% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 103, a relatively rough pitch search is performed by an open loop, and the extracted pitch data has a high precision (fine) pitch search unit 10.
Then, the high precision pitch search (pitch fine search) is performed by the closed loop.

【0028】高精度(ファイン)ピッチサーチ部106
には、ピッチ抽出部103で抽出された整数(インテジ
ャー)値の粗(ラフ)ピッチデータと、直交変換部10
5により例えばFFTされた周波数軸上のデータとが供
給されている。この高精度ピッチサーチ部106では、
上記粗ピッチデータ値を中心に、0.2〜0.5きざみで±
数サンプルずつ振って、最適な小数点付き(フローティ
ング)のファインピッチデータの値へ追い込む。このと
きのファインサーチの手法として、いわゆる合成による
分析 (Analysis by Synthesis)法を用い、合成されたパ
ワースペクトルが原音のパワースペクトルに最も近くな
るようにピッチを選んでいる。
High precision (fine) pitch search section 106
Includes rough pitch data of integer (integer) values extracted by the pitch extraction unit 103 and the orthogonal transformation unit 10.
5, the data on the frequency axis subjected to FFT, for example, is supplied. In this high precision pitch search unit 106,
Centering on the above coarse pitch data value, it is ± 0.2 in increments of ±
Shake several samples at a time to drive to the optimum fine pitch data value with a decimal point (floating). As a fine search method at this time, a so-called analysis by synthesis method is used, and the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.

【0029】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図7のAに示すような波形のとき、H
(j) は、図7のBに示すような元のスペクトルデータS
(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図7のCに示すような等レベルで周期的な励起
信号(エキサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。
The fine search of the pitch will be described. First, in the MBE vocoder, the FF
S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. is expressed as S (j) = H (j) | E (j) | 0 <j <J (4) It is assumed that the model. Where J is
corresponding to ω s / 4π = f s / 2, and the sampling frequency f
When s = ω s / 2π is 8 kHz, for example, it corresponds to 4 kHz. In the equation (4), when the spectrum data S (j) on the frequency axis has a waveform as shown in A of FIG.
(j) is the original spectrum data S as shown in B of FIG.
The spectral envelope of (j) is shown as E
(j) shows the spectrum of the excitation signal (excitation) which is cyclic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as the product.

【0030】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図6に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。
Power spectrum of the excitation signal | E (j)
Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by performing FFT by regarding the waveform obtained by adding (filling with 0) 1792 samples of 0 data to the Hamming window function of 256 samples as shown in FIG. 6 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.

【0031】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、
Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower and upper points of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is

【0032】[0032]

【数1】 [Equation 1]

【0033】で表せる。このエラーεm を最小化するよ
うな|Am |は、
Can be expressed as | A m | that minimizes this error ε m is

【0034】[0034]

【数2】 [Equation 2]

【0035】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。このような振幅|Am |を各
バンド毎に求め、得られた各振幅|Am |を用いて上記
(5)式で定義された各バンド毎のエラーεm を求め
る。次に、このような各バンド毎のエラーεm の全バン
ドの総和値Σεm を求める。さらに、このような全バン
ドのエラー総和値Σεm を、いくつかの微小に異なるピ
ッチについて求め、エラー総和値Σεm が最小となるよ
うなピッチを求める。
Thus, when | A m | in the equation (6),
Minimize the error ε m . Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (5). Next, the sum value Σεm of all the bands of the error εm for each band is obtained. Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.

【0036】すなわち、上記ピッチ抽出部103で求め
られたラフピッチを中心として、例えば 0.25 きざみで
上下に数種類ずつ用意する。これらの複数種類の微小に
異なるピッチの各ピッチに対してそれぞれ上記エラー総
和値Σεm を求める。この場合、ピッチが定まるとバン
ド幅が決まり、上記(6)式より、周波数軸上データの
パワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部106で最適のファイン(例えば 0.25 きざみ)ピッ
チが求められ、この最適ピッチに対応する振幅|Am
が決定される。
That is, several kinds of vertical pitches are prepared with the rough pitch determined by the pitch extraction unit 103 as the center, for example, in steps of 0.25. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, when the pitch is determined, the bandwidth is determined, and from the above formula (6), the power spectrum | S (j) |
(j) | and the error εm of the above equation (5) can be obtained, and the total sum Σεm of all the bands can be obtained. This error sum value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit 106 obtains the optimum fine (eg, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch.
Is determined.

【0037】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。
In the above description of the fine pitch search, in order to simplify the explanation, all bands are voiced (Vo
Assuming the case of iced), as described above, MBE
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) area exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.

【0038】上記高精度ピッチサーチ部106からの最
適ピッチ及び振幅|Am |のデータは、有声音/無声音
判別部107に送られ、上記各バンド毎に有声音/無声
音の判別が行われる。この判別のために、NSR(ノイ
ズtoシグナル比)を利用する。すなわち、第mバンド
のNSRは、
The data of the optimum pitch and the amplitude | Am | from the high precision pitch search unit 106 is sent to the voiced sound / unvoiced sound discrimination unit 107, and the voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR of the m-th band is

【0039】[0039]

【数3】 [Equation 3]

【0040】と表せ、このNSR値が所定の閾値(例え
ば0.3)より大のとき(エラーが大きい)ときには、そ
のバンドでの|Am ||E(j) |による|S(j) |の近
似が良くない(上記励起信号|E(j) |が基底として不
適当である)と判断でき、当該バンドをUV(Unvoice
d、無声音)と判別する。これ以外のときは、近似があ
る程度良好に行われていると判断でき、そのバンドをV
(Voiced、有声音)と判別する。
If this NSR value is larger than a predetermined threshold value (for example, 0.3) (error is large), | A m || E (j) | It can be judged that the approximation of | is not good (the above excitation signal | E (j) | is unsuitable as a basis), and the band is UV (Unvoice
d, unvoiced sound). In other cases, it can be judged that the approximation has been performed to some extent, and the band is set to V
(Voiced, voiced sound).

【0041】次に、振幅再評価部108には、直交変換
部105からの周波数軸上データ、高精度ピッチサーチ
部106からのファインピッチと評価された振幅|Am
|との各データ、及び上記有声音/無声音判別部107
からのV/UV(有声音/無声音)判別データが供給さ
れている。この振幅再評価部108では、有声音/無声
音判別部107において無声音(UV)と判別されたバ
ンドに関して、再度振幅を求めている。このUVのバン
ドについての振幅|Am UVは、
Next, the amplitude re-evaluation unit 108 supplies the frequency-axis data from the orthogonal transformation unit 105 and the amplitude | A m evaluated as the fine pitch from the high precision pitch search unit 106.
| And each voiced sound / unvoiced sound discrimination unit 107
V / UV (voiced sound / unvoiced sound) discrimination data from The amplitude re-evaluation unit 108 re-calculates the amplitude of the band determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 107. The amplitude | A m | UV for this UV band is

【0042】[0042]

【数4】 [Equation 4]

【0043】にて求められる。It is calculated by

【0044】この振幅再評価部108からのデータは、
データ数変換(一種のサンプリングレート変換)部10
9に送られる。このデータ数変換部109は、上記ピッ
チに応じて周波数軸上での分割帯域数が異なり、データ
数(特に振幅データの数)が異なることを考慮して、一
定の個数にするためのものである。すなわち、例えば有
効帯域を3400Hzまでとすると、この有効帯域が上記
ピッチに応じて、8バンド〜63バンドに分割されるこ
とになり、これらの各バンド毎に得られる上記振幅|A
m |(UVバンドの振幅|Am UVも含む)データの個
MX+1も8〜63と変化することになる。このため
データ数変換部109では、この可変個数MX+1の振
幅データを一定個数NC (例えば44個)のデータに変
換している。
The data from the amplitude re-evaluation unit 108 is
Data number conversion (a kind of sampling rate conversion) unit 10
Sent to 9. This data number conversion unit 109 is for making the number constant, considering that the number of divided bands on the frequency axis differs according to the pitch and the number of data (especially the number of amplitude data) differs. is there. That is, for example, when the effective band is up to 3400 Hz , the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A obtained for each of these bands | A
The number of m m (including UV band amplitude | A m | UV ) data m MX +1 also changes from 8 to 63. Therefore, the data number conversion unit 109 converts the variable number m MX +1 of amplitude data into a fixed number N C (for example, 44) of data.

【0045】ここで本実施例においては、周波数軸上の
有効帯域1ブロック分の振幅データに対して、ブロック
内の最後のデータからブロック内の最初のデータまでの
値を補間するようなダミーデータを付加してデータ個数
をNF 個に拡大した後、帯域制限型のKOS倍(例えば8
倍)のオーバーサンプリングを施すことによりKOS倍の
個数の振幅データを求め、このKOS倍の個数(( MX
) ×KOS個)の振幅データを直線補間してさらに多く
のNM 個(例えば2048個)に拡張し、このNM 個の
データを間引いて上記一定個数NC (例えば44個)の
データに変換する。
Here, in this embodiment, dummy data for interpolating values from the last data in the block to the first data in the block with respect to the amplitude data of one block of the effective band on the frequency axis. Is added to expand the number of data to N F , and then the bandwidth-limited K OS times (for example, 8
Obtain an amplitude data of K OS times the number by performing oversampling multiplied), the K OS times the number ((m MX +
1 ) x K OS pieces of amplitude data are linearly interpolated and expanded to a larger number of N M pieces (for example, 2048 pieces), and this N M pieces of data are thinned out to obtain the above-mentioned fixed number of NC pieces (for example, 44 pieces) Convert to.

【0046】このデータ数変換部109からのデータ
(上記一定個数NC の振幅データ)がベクトル量子化部
110に送られて、所定個数のデータ毎にまとめられて
ベクトルとされ、ベクトル量子化が施される。ベクトル
量子化部110からの量子化出力データは、出力端子1
11を介して取り出される。また、上記高精度のピッチ
サーチ部106からの高精度(ファイン)ピッチデータ
は、ピッチ符号化部115で符号化され、出力端子11
2を介して取り出される。さらに、上記有声音/無声音
判別部107からの有声音/無声音(V/UV)判別デ
ータは、出力端子113を介して取り出される。これら
の各出力端子111〜113からのデータは、所定の伝
送フォーマットの信号とされて伝送される。
The data from the data number conversion unit 109 (a fixed number N C of amplitude data) is sent to the vector quantization unit 110, and a predetermined number of data is collected into a vector, and vector quantization is performed. Is given. The quantized output data from the vector quantizer 110 is output to the output terminal 1
It is taken out via 11. The high-precision (fine) pitch data from the high-precision pitch search unit 106 is coded by the pitch coding unit 115, and the output terminal 11
It is taken out via 2. Further, the voiced sound / unvoiced sound (V / UV) discrimination data from the voiced sound / unvoiced sound discrimination unit 107 is taken out through the output terminal 113. The data from these output terminals 111 to 113 are transmitted as signals in a predetermined transmission format.

【0047】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。
Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), but the block is a frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, and the amplitude data are updated at the above frame cycle.

【0048】次に、伝送されて得られた上記各データに
基づき音声信号を合成するための合成側(デコード側)
の概略構成について、図8を参照しながら説明する。こ
の図8において、入力端子121には上記ベクトル量子
化された振幅データが、入力端子122には上記符号化
されたピッチデータが、また入力端子123には上記V
/UV判別データがそれぞれ供給される。入力端子12
1からの量子化振幅データは、逆ベクトル量子化部12
4に送られて逆量子化され、データ数逆変換部125に
送られて逆変換され、得られた振幅データが有声音合成
部126及び無声音合成部127に送られる。入力端子
122からの符号化ピッチデータは、ピッチ復号化部1
28で復号化され、データ数逆変換部125、有声音合
成部126及び無声音合成部127に送られる。また入
力端子123からのV/UV判別データは、有声音合成
部126及び無声音合成部127に送られる。
Next, a synthesizing side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by transmission.
The general configuration of will be described with reference to FIG. In FIG. 8, the vector-quantized amplitude data is input to the input terminal 121, the encoded pitch data is input to the input terminal 122, and the V-value is input to the input terminal 123.
/ UV discrimination data is supplied respectively. Input terminal 12
The quantized amplitude data from 1 is the inverse vector quantization unit 12
4 and is inversely quantized, is then sent to the data number inverse transform unit 125 and is inversely transformed, and the obtained amplitude data is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127. The encoded pitch data from the input terminal 122 is the pitch decoding unit 1
It is decoded at 28 and sent to the data number inverse conversion unit 125, the voiced sound synthesis unit 126, and the unvoiced sound synthesis unit 127. The V / UV discrimination data from the input terminal 123 is sent to the voiced sound synthesis unit 126 and the unvoiced sound synthesis unit 127.

【0049】有声音合成部126では例えば余弦(cosin
e)波合成により時間軸上の有声音波形を合成し、無声音
合成部127では例えばホワイトノイズをバンドパスフ
ィルタでフィルタリングして時間軸上の無声音波形を合
成し、これらの各有声音合成波形と無声音合成波形とを
加算部129で加算合成して、出力端子130より取り
出すようにしている。この場合、上記振幅データ、ピッ
チデータ及びV/UV判別データは、上記分析時の1フ
レーム(Lサンプル、例えば160サンプル)毎に更新
されて与えられるが、フレーム間の連続性を高める(円
滑化する)ために、上記振幅データやピッチデータの各
値を1フレーム中の例えば中心位置における各データ値
とし、次のフレームの中心位置までの間(合成時の1フ
レーム)の各データ値を補間により求める。すなわち、
合成時の1フレーム(例えば上記分析フレームの中心か
ら次の分析フレームの中心まで)において、先端サンプ
ル点での各データ値と終端(次の合成フレームの先端)
サンプル点での各データ値とが与えられ、これらのサン
プル点間の各データ値を補間により求めるようにしてい
る。
In the voiced sound synthesis unit 126, for example, cosine (cosin)
e) A voiced sound waveform on the time axis is synthesized by wave synthesis, and in the unvoiced sound synthesis unit 127, for example, white noise is filtered by a bandpass filter to synthesize the unvoiced sound waveform on the time axis, and these voiced sound synthesized waveforms are combined. The unvoiced sound synthesized waveform is added and synthesized by the addition unit 129 and is taken out from the output terminal 130. In this case, the amplitude data, the pitch data, and the V / UV discrimination data are updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but the continuity between the frames is improved (smoothed). Therefore, each value of the amplitude data and the pitch data is set as each data value at, for example, the center position in one frame, and each data value up to the center position of the next frame (one frame at the time of composition) is interpolated. Ask by. That is,
In one frame (for example, from the center of the above analysis frame to the center of the next analysis frame) at the time of synthesis, each data value at the tip sample point and the end (the tip of the next synthesis frame)
Each data value at the sample point is given, and each data value between these sample points is obtained by interpolation.

【0050】以下、有声音合成部126における合成処
理を詳細に説明する。上記V(有声音)と判別された第
mバンド(第m高調波の帯域)における時間軸上の上記
1合成フレーム(Lサンプル、例えば160サンプル)
分の有声音をVm (n) とするとき、この合成フレーム内
の時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。
The synthesis processing in the voiced sound synthesis unit 126 will be described in detail below. The one combined frame (L sample, for example, 160 samples) on the time axis in the m-th band (band of the m-th harmonic) determined to be V (voiced sound)
When the voiced sound for a minute is V m (n), V m (n) = A m (n) cos (θ m (n)) 0 using the time index (sample number) n in this composite frame. ≦ n <L can be expressed as (9). The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all the bands which are determined to be V (voiced sound) of all the bands.

【0051】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。
A m (n) in the equation (9) is the amplitude of the m-th harmonic wave that is interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: When the m-th harmonic amplitude value at the tip) of the next synthesized frame is A Lm, the formula A m (n) = (Ln ) A 0m / L + nA Lm / L ··· (10) It suffices to calculate A m (n).

【0052】次に、上記(9)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0m
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。
Next, the phase θ m (n) in the above equation (9) is calculated by θ m (n) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (11) You can ask. In this equation (11), φ 0m represents the phase (frame initial phase) of the m-th harmonic at the tip (n = 0) of the composite frame, and ω 01 represents the phase of the composite frame tip (n = 0). The fundamental angular frequency, ω L1, represents the fundamental angular frequency at the end of the combined frame (n = L: the leading end of the next combined frame). Δω in the above equation (11) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).

【0053】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。第
mバンドが、n=0、n=LのいずれもV(有声音)と
される場合に、振幅Am (n) は、上述した(10)式によ
り、伝送された振幅値A0m、ALmを直線補間して振幅A
m (n) を算出すればよい。位相θm (n) は、n=0でθ
m (0) =φ0mからn=Lでθm (L) がφLmとなるように
Δωを設定する。
Hereinafter, how to obtain the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do. When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the transmitted amplitude value A 0m by the above-mentioned equation (10), Linear interpolation of A Lm and amplitude A
It suffices to calculate m (n). The phase θ m (n) is θ when n = 0
Δω is set so that θ m (L) becomes φ Lm when m (0) = φ 0 m and n = L.

【0054】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。
Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.

【0055】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。
Further, when n = 0, UV (unvoiced sound)
When V = voiced sound when n = L, amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (12) and Δω = 0.

【0056】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ω01+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。
When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above formula (11), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω 01 + ω L1 ) / 2) / L (13). In this equation (13), mod 2π (x) is obtained. Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.

【0057】ここで、図9のAは、音声信号のスペクト
ルの一例を示しており、バンド番号(ハーモニクスナン
バ)mが8、9、10の各バンドがUV(無声音)とさ
れ、他のバンドはV(有声音)とされている。このV
(有声音)のバンドの時間軸信号が上記有声音合成部1
26により合成され、UV(無声音)のバンドの時間軸
信号が無声音合成部127で合成されるわけである。
Here, A of FIG. 9 shows an example of a spectrum of a voice signal. Each band of band numbers (harmonics number) m is 8, 9 and 10 is UV (unvoiced sound), and other bands. Is V (voiced sound). This V
The time axis signal of the (voiced sound) band is the voiced sound synthesis unit 1 described above.
26, and the time axis signal of the UV (unvoiced sound) band is synthesized by the unvoiced sound synthesis unit 127.

【0058】以下、無声音合成部127における無声音
合成処理を説明する。ホワイトノイズ発生部131から
の時間軸上のホワイトノイズ信号波形を、所定の長さ
(例えば256サンプル)で適当な窓関数(例えばハミ
ング窓)により窓かけをし、STFT処理部132によ
りSTFT(ショートタームフーリエ変換)処理を施す
ことにより、図9のBに示すようなホワイトノイズの周
波数軸上のパワースペクトルを得る。このSTFT処理
部132からのパワースペクトルをバンド振幅処理部1
33に送り、図9のCに示すように、上記UV(無声
音)とされたバンド(例えばm=8、9、10)につい
て上記振幅|Am UVを乗算し、他のV(有声音)とさ
れたバンドの振幅を0にする。このバンド振幅処理部1
33には上記振幅データ、ピッチデータ、V/UV判別
データが供給されている。バンド振幅処理部133から
の出力は、ISTFT処理部134に送られ、位相は元
のホワイトノイズの位相を用いて逆STFT処理を施す
ことにより時間軸上の信号に変換する。ISTFT処理
部134からの出力は、オーバーラップ加算部135に
送られ、時間軸上で適当な(元の連続的なノイズ波形を
復元できるように)重み付けをしながらオーバーラップ
及び加算を繰り返し、連続的な時間軸波形を合成する。
オーバーラップ加算部135からの出力信号が上記加算
部129に送られる。
The unvoiced sound synthesizing process in the unvoiced sound synthesizing section 127 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 131 is windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples), and the STFT processing unit 132 performs STFT (short circuit). By performing the (Term Fourier Transform) process, a power spectrum of white noise on the frequency axis as shown in B of FIG. 9 is obtained. The power spectrum from the STFT processing unit 132 is converted to the band amplitude processing unit 1
33, and as shown in FIG. 9C, the above-mentioned amplitude | A m | UV is multiplied with respect to the band (for example, m = 8, 9, 10) set as the UV (unvoiced sound), and another V (voiced sound) is generated. ) Is set to 0. This band amplitude processing unit 1
The above amplitude data, pitch data, and V / UV discrimination data are supplied to 33. The output from the band amplitude processing unit 133 is sent to the ISTFT processing unit 134, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 134 is sent to the overlap addition unit 135, and the overlap and addition are repeated while performing appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis, and continuous. Time-domain waveforms are synthesized.
The output signal from the overlap adder 135 is sent to the adder 129.

【0059】このように、各合成部126、127にお
いて合成されて時間軸上に戻された有声音部及び無声音
部の各信号は、加算部129により適当な固定の混合比
で加算して、出力端子130より再生された音声信号を
取り出す。
As described above, the signals of the voiced sound portion and the unvoiced sound portion which are synthesized in the respective synthesis units 126 and 127 and are returned to the time axis are added by the addition unit 129 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 130.

【0060】以上のように上記MBEでは、高精度のピ
ッチ検出が必要とされるが、本発明に係る音声符号化方
法を適用し、ピッチがはっきりと現れないときには、ス
ペクトル包絡の分割を最も狭くし、全バンドを無声音と
すれば、元のスペクトル包絡を忠実になぞることがで
き、スペクトル量子化の精度を向上させることができ
る。
As described above, in the above MBE, highly accurate pitch detection is required, but when the speech coding method according to the present invention is applied and the pitch does not appear clearly, the division of the spectrum envelope is narrowest. However, if all bands are made unvoiced, the original spectrum envelope can be traced faithfully and the accuracy of spectrum quantization can be improved.

【0061】なお、上記図3の音声分析側(エンコード
側)の構成や図8の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。
Regarding the configuration on the speech analysis side (encoding side) in FIG. 3 and the configuration on the speech synthesis side (decoding side) in FIG. 8, each unit is described in hardware, but a so-called DSP (digital It is also possible to realize it by a software program using a signal processor or the like.

【0062】[0062]

【発明の効果】本発明に係る音声符号化方法は、上記入
力音声信号から検出されたピッチが確実であるときには
検出されたピッチに応じた帯域幅で上記スペクトル包絡
を分割し、上記ピッチが確実でないときには上記スペク
トル包絡の帯域幅を狭く設定することにより、それぞれ
の場合に応じた符号化を行うことができる。特にピッチ
がはっきりと現れないような場合は、特殊ケースとして
全バンドを無声音として処理するため、スペクトル分析
の精度向上が可能となり、異音を発生することもなく、
音質の劣化を避けることができる。
According to the speech coding method of the present invention, when the pitch detected from the input speech signal is certain, the spectrum envelope is divided by the bandwidth according to the detected pitch to ensure the pitch. If not, by setting the bandwidth of the spectrum envelope to be narrow, it is possible to perform coding according to each case. Especially when the pitch does not appear clearly, all bands are processed as unvoiced sound as a special case, so that the accuracy of spectrum analysis can be improved and no abnormal noise is generated.
It is possible to avoid deterioration of sound quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る音声符号化方法の実施例の符号化
の流れを説明するためのフローチャートである。
FIG. 1 is a flowchart for explaining a coding flow of an embodiment of a speech coding method according to the present invention.

【図2】本発明に係る音声符号化方法の実施例の符号化
を説明するための波形図である。
[Fig. 2] Fig. 2 is a waveform diagram for explaining encoding in the embodiment of the audio encoding method according to the present invention.

【図3】本発明に係る音声符号化方法が適用可能な装置
の具体例としての音声信号の合成分析符号化装置の分析
側(エンコード側)の概略構成を示す機能ブロック図で
ある。
FIG. 3 is a functional block diagram showing a schematic configuration of an analysis side (encoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which a speech coding method according to the present invention can be applied.

【図4】窓かけ処理を説明するための図である。FIG. 4 is a diagram for explaining a windowing process.

【図5】窓かけ処理と窓関数との関係を説明するための
図である。
FIG. 5 is a diagram for explaining a relationship between windowing processing and a window function.

【図6】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。
FIG. 6 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.

【図7】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。
FIG. 7 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.

【図8】本発明に係る音声符号化方法が適用可能な装置
の具体例としての音声信号の合成分析符号化装置の合成
側(デコード側)の概略構成を示す機能ブロック図であ
る。
FIG. 8 is a functional block diagram showing a schematic configuration of a synthesis side (decoding side) of a speech signal synthesis analysis coding apparatus as a specific example of an apparatus to which the speech coding method according to the present invention can be applied.

【図9】音声信号を合成する際の無声音合成を説明する
ための図である。
FIG. 9 is a diagram for explaining unvoiced sound synthesis when synthesizing voice signals.

【図10】従来の音声符号化を説明するための波形図であ
る。
[Fig. 10] Fig. 10 is a waveform diagram for explaining conventional speech encoding.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 入力音声信号のスペクトル包絡を求め、
該スペクトル包絡を複数の帯域に分割し、各帯域毎のパ
ワーに応じて量子化を行う音声符号化方法において、 上記入力音声信号のピッチを検出し、上記ピッチが確実
に検出されたときには検出されたピッチに応じた帯域幅
で上記スペクトル包絡を分割し、上記ピッチが確実に検
出されないときには所定の狭い帯域幅で上記スペクトル
包絡を分割することを特徴とする音声符号化方法。
1. A spectrum envelope of an input speech signal is obtained,
In a voice coding method in which the spectrum envelope is divided into a plurality of bands and quantization is performed according to the power of each band, the pitch of the input voice signal is detected, and when the pitch is detected reliably, it is detected. A speech coding method, characterized in that the spectrum envelope is divided with a bandwidth corresponding to a pitch, and the spectrum envelope is divided with a predetermined narrow bandwidth when the pitch is not reliably detected.
【請求項2】 上記入力音声信号のピッチを検出する際
に全くピッチが検出されないときには上記スペクトル包
絡の全ての帯域を無声音とすることを特徴とする請求項
1記載の音声符号化方法。
2. The speech coding method according to claim 1, wherein when the pitch of the input speech signal is detected, when no pitch is detected at all, all bands of the spectrum envelope are made unvoiced.
JP10534492A 1992-03-31 1992-03-31 Audio coding method Expired - Lifetime JP3271193B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10534492A JP3271193B2 (en) 1992-03-31 1992-03-31 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10534492A JP3271193B2 (en) 1992-03-31 1992-03-31 Audio coding method

Publications (2)

Publication Number Publication Date
JPH05281995A true JPH05281995A (en) 1993-10-29
JP3271193B2 JP3271193B2 (en) 2002-04-02

Family

ID=14405123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10534492A Expired - Lifetime JP3271193B2 (en) 1992-03-31 1992-03-31 Audio coding method

Country Status (1)

Country Link
JP (1) JP3271193B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008132850A1 (en) * 2007-04-25 2008-11-06 Panasonic Corporation Stereo audio encoding device, stereo audio decoding device, and their method
JP2016524186A (en) * 2013-06-10 2016-08-12 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus and method for audio signal envelope coding, processing and decoding by dividing audio signal envelope using distributed quantization and coding
JP2016526695A (en) * 2013-06-10 2016-09-05 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus and method for audio signal envelope coding, processing and decoding by modeling cumulative sum representation using distributed quantization and coding

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008132850A1 (en) * 2007-04-25 2008-11-06 Panasonic Corporation Stereo audio encoding device, stereo audio decoding device, and their method
JP2016524186A (en) * 2013-06-10 2016-08-12 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus and method for audio signal envelope coding, processing and decoding by dividing audio signal envelope using distributed quantization and coding
JP2016526695A (en) * 2013-06-10 2016-09-05 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Apparatus and method for audio signal envelope coding, processing and decoding by modeling cumulative sum representation using distributed quantization and coding
US9953659B2 (en) 2013-06-10 2018-04-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for audio signal envelope encoding, processing, and decoding by modelling a cumulative sum representation employing distribution quantization and coding
US10115406B2 (en) 2013-06-10 2018-10-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Apparatus and method for audio signal envelope encoding, processing, and decoding by splitting the audio signal envelope employing distribution quantization and coding
US10734008B2 (en) 2013-06-10 2020-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for audio signal envelope encoding, processing, and decoding by modelling a cumulative sum representation employing distribution quantization and coding

Also Published As

Publication number Publication date
JP3271193B2 (en) 2002-04-02

Similar Documents

Publication Publication Date Title
JP3277398B2 (en) Voiced sound discrimination method
JP3475446B2 (en) Encoding method
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
EP0766230B1 (en) Method and apparatus for coding speech
JP2779325B2 (en) Pitch search time reduction method using pre-processing correlation equation in vocoder
JP3297751B2 (en) Data number conversion method, encoding device and decoding device
JPH05281996A (en) Pitch extracting device
JP3237178B2 (en) Encoding method and decoding method
JP3218679B2 (en) High efficiency coding method
JPH05265499A (en) High-efficiency encoding method
JPH11219198A (en) Phase detection device and method and speech encoding device and method
JP3362471B2 (en) Audio signal encoding method and decoding method
JP3271193B2 (en) Audio coding method
JP3297750B2 (en) Encoding method
JP3321933B2 (en) Pitch detection method
JP3218681B2 (en) Background noise detection method and high efficiency coding method
JP3223564B2 (en) Pitch extraction method
JPH0651800A (en) Data quantity converting method
JP3398968B2 (en) Speech analysis and synthesis method
JPH05273998A (en) Voice encoder
JP3221050B2 (en) Voiced sound discrimination method
JP2003216189A (en) Encoder and decoder
JPH05265489A (en) Pitch extracting method
JP3218680B2 (en) Voiced sound synthesis method
JPH07104793A (en) Encoding device and decoding device for voice

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100125

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120125

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 11