JPH07104793A - Encoding device and decoding device for voice - Google Patents
Encoding device and decoding device for voiceInfo
- Publication number
- JPH07104793A JPH07104793A JP5245745A JP24574593A JPH07104793A JP H07104793 A JPH07104793 A JP H07104793A JP 5245745 A JP5245745 A JP 5245745A JP 24574593 A JP24574593 A JP 24574593A JP H07104793 A JPH07104793 A JP H07104793A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- block
- pitch
- signal
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、入力音声信号をブロッ
ク単位で区分して、区分されたブロックを単位として符
号化処理を行うような高能率符号化方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high-efficiency coding method in which an input voice signal is divided into blocks and the coding process is performed in units of the divided blocks.
【0002】[0002]
【従来の技術】オーディオ信号(音声信号や音響信号を
含む)の時間領域や周波数領域における統計的性質と人
間の聴感上の特性を利用して信号圧縮を行うような符号
化方法が種々知られている。この符号化方法としては、
大別して時間領域での符号化、周波数領域での符号化、
分析合成符号化等が挙げられる。2. Description of the Related Art Various coding methods are known in which signal compression is performed by utilizing the statistical properties of audio signals (including voice signals and acoustic signals) in the time domain and frequency domain and human auditory characteristics. ing. As this encoding method,
Broadly speaking, time domain coding, frequency domain coding,
Examples include analysis and synthesis coding.
【0003】音声信号等の高能率符号化の例として、M
BE(Multiband Excitation: マルチバンド励起)符号
化、SBE(Singleband Excitation:シングルバンド励
起)符号化、ハーモニック(Harmonic)符号化、SBC
(Sub-band Coding:帯域分割符号化)、LPC(Linear
Predictive Coding: 線形予測符号化)、あるいはDC
T(離散コサイン変換)、MDCT(モデファイドDC
T)、FFT(高速フーリエ変換)等において、スペク
トル振幅やそのパラメータ(LSPパラメータ、αパラ
メータ、kパラメータ等)のような各種情報データを量
子化する場合に、従来においてはスカラ量子化を行うこ
とが多い。As an example of high-efficiency encoding of a voice signal or the like, M
BE (Multiband Excitation) coding, SBE (Singleband Excitation) coding, Harmonic coding, SBC
(Sub-band Coding), LPC (Linear
Predictive Coding: Linear predictive coding) or DC
T (Discrete Cosine Transform), MDCT (Modified DC)
In T), FFT (Fast Fourier Transform), etc., when quantizing various information data such as spectrum amplitude and its parameters (LSP parameter, α parameter, k parameter, etc.), conventionally, scalar quantization is performed. There are many.
【0004】上記PARCOR法等の音声分析・合成系
では、励振源を切り換えるタイミングは時間軸上のブロ
ック(フレーム)毎であるため、同一フレーム内では有
声音と無声音とを混在させることができず、結果として
高品質な音声は得られなかった。In the voice analysis / synthesis system such as the PARCOR method, since the excitation source is switched at each block (frame) on the time axis, voiced sound and unvoiced sound cannot be mixed in the same frame. , As a result, high quality voice was not obtained.
【0005】これに対して、上記MBE符号化において
は、1ブロック(フレーム)内の音声に対して、周波数
スペクトルの各ハーモニクス(高調波)や2〜3ハーモ
ニクスをひとまとめにした各バンド(帯域)毎に、又は
固定の帯域幅(例えば300〜400Hz)で分割された
各バンド毎に、そのバンド中のスペクトル形状に基づい
て有声音/無声音判別(V/UV判別)を行っているた
め、音質の向上が認められる。この各バンド毎のV/U
V判別は、主としてバンド内のスペクトルがいかに強く
ハーモニクス構造を有しているかを見て行っている。On the other hand, in the above MBE coding, for each voice in one block (frame), each harmonic (harmonic) of the frequency spectrum or each band (band) in which a few harmonics are grouped together. Since voiced / unvoiced sound discrimination (V / UV discrimination) is performed for each band divided for each band or for each band divided by a fixed bandwidth (for example, 300 to 400 Hz), sound quality Is recognized. V / U for each band
V discrimination mainly looks at how strongly the spectrum in the band has a harmonic structure.
【0006】[0006]
【発明が解決しようとする課題】ところで、ノイズパル
スによってマークされた強い子音の開始点や終了点は、
良好に再生できないという欠点がある。すなわち、無声
音の変化部(トランジェント部)は、円滑化され過ぎて
帯域制限を受けた感じの音として聞こえる。By the way, the start and end points of a strong consonant marked by a noise pulse are
It has a drawback that it cannot be reproduced well. That is, the change part (transient part) of the unvoiced sound is heard as a sound that is too smoothed and band-limited.
【0007】さらに、無声部はもとより、無声から有声
へ、あるいは有声から無声への変化部(トランジェント
部)での時間分解能が不足することになる。例えば、8
kHzサンプリングで1ブロック256サンプルでは、1
ブロック32msecのノイズパターンがいつも同じ形状
(平均レベルが違うだけ)となってしまい、特に、子音
のs、t、p、k等の音が不明瞭となってしまう。さら
に、残響感が強かったり、又は複数の話者が喋っている
ように聞こえたりすることが頻繁に起こり、合成音質低
下のような悪影響を与えることになる。Further, not only the unvoiced part but also the unvoiced to voiced part or the voiced to unvoiced part (transient part) lacks time resolution. For example, 8
1 block 256 samples per kHz sampling
The noise pattern of the block 32 msec always has the same shape (only the average level is different), and in particular, consonant sounds such as s, t, p and k become unclear. Further, the reverberation is often strong, or a plurality of speakers may sound as if they are speaking, which adversely affects the synthesized sound quality.
【0008】ここで、UV(無声音)信号は、V(有声
音)信号と区別することなく、無声音のフレームでは何
らの情報も伝送しないピッチをエンコードするのに用い
られるビットを伝送している。The UV (unvoiced) signal carries the bits used to encode the pitch, which does not carry any information in the unvoiced frame, without being distinguished from the V (voiced) signal.
【0009】本発明は、このような実情に鑑みてなされ
たものであり、ノイズパルスを伴った強い子音の開始点
や終了点での音質低下を防止し、聞き取り易い合成音を
得ることが可能な音声信号の符号化装置及び復号化装置
の提供を目的とする。The present invention has been made in view of the above circumstances, and it is possible to prevent the sound quality from deteriorating at the start point and the end point of a strong consonant accompanied by a noise pulse, and to obtain a synthesized sound that is easy to hear. It is an object of the present invention to provide a coding device and a decoding device for a simple audio signal.
【0010】[0010]
【課題を解決するための手段】本発明に係る音声信号の
符号化装置は、上述した課題を解決するために、入力音
声信号を時間軸上でブロック単位で区分して各ブロック
単位で符号化を行う音声信号の符号化装置において、各
ブロック毎に有声音か無声音かを判別する手段と、上記
入力信号の上記ブロック内の最大値を検出する手段と、
この検出された最大値近傍の小ブロックの平均レベルと
前後の小ブロックの各平均レベルと算出する手段と、こ
れらの各小ブロックの平均レベルに基づいてパルス性ノ
イズか否かを分類すると共にパルス性ノイズの状態を示
す情報を求める手段とを有することを特徴としている。In order to solve the above-mentioned problems, an audio signal encoding apparatus according to the present invention divides an input audio signal into blocks on a time axis and encodes each block. In the apparatus for encoding a voice signal for performing a voiced sound or an unvoiced sound for each block, a means for detecting the maximum value in the block of the input signal,
Means for calculating the average level of the small blocks near the detected maximum value and each average level of the preceding and following small blocks, and classifying whether or not it is pulse noise based on the average level of each of these small blocks, and pulse And means for obtaining information indicating the state of sex noise.
【0011】ここで、上記パルス性ノイズの状態を示す
情報は、上記無声音と判別されたとき、上記有声音判別
時のピッチ情報に代えて送ることが好ましい。また、上
記有声音/無声音の判別手段は、信号レベル、信号のゼ
ロクロスカウント数、及びピッチ検出のためのLPC残
差の自己相関の最大値の少なくとも1つを用いて判別を
行うことが好ましい。Here, it is preferable that, when the unvoiced sound is discriminated, the information indicating the state of the pulse noise is sent instead of the pitch information at the time of the voiced sound discrimination. Further, it is preferable that the voiced / unvoiced sound discriminating means uses at least one of the signal level, the zero-cross count of the signal, and the maximum value of the autocorrelation of the LPC residual for pitch detection.
【0012】本発明が適用される音声信号の符号化装置
としては、いわゆるマルチバンドエクサイテイションを
用いた音声分析/合成方法により音声信号の符号化が行
われるものが挙げられる。An example of a speech signal coding apparatus to which the present invention is applied is one in which speech signals are coded by a speech analysis / synthesis method using so-called multiband excitation.
【0013】次に、上記ブロック内の終端位置近傍に上
記最大値が存在するとき、次のブロックの最大値サーチ
開始位置を、前ブロックの上記平均レベル検出のための
小ブロックの終了点の次の位置とすることが好ましい。Next, when the maximum value exists in the vicinity of the end position in the block, the maximum value search start position of the next block is set next to the end point of the small block for detecting the average level of the previous block. The position is preferably.
【0014】また、上記パルス性ノイズの状態を示す情
報として、上記最大値が存在する上記小ブロックの平均
rms値r1と、該小ブロックの次の小ブロックの平均
rms値r2との比r1/r2を用いることが好まし
い。As information indicating the state of the pulse noise, a ratio r1 / of the average rms value r1 of the small block having the maximum value and the average rms value r2 of the next small block of the small block. It is preferable to use r2.
【0015】次に、本発明に係る音声信号の復号化装置
は、音声信号の符号化装置から、入力音声信号を時間軸
上でブロック化した各ブロック毎に、有声音か無声音か
の判別情報と、ピッチ情報と、スペクトルの振幅情報
と、無声音と判別されたブロック内のパルス性ノイズの
状態を示す情報とが供給される音声信号の復号化装置で
あって、上記判別情報、ピッチ情報、振幅情報に基づい
て有声音を合成する有声音合成部と、上記判別情報、ピ
ッチ情報、振幅情報に基づいて無声音を合成する無声音
合成部と、上記パルス性ノイズの状態を示す情報に基づ
いて上記無声音合成部からの無声音信号に窓かけ処理を
施す無声音窓かけ処理部とを有することにより、上述し
た課題を解決する。Next, the speech signal decoding apparatus according to the present invention is such that, from the speech signal encoding apparatus, the discrimination information of voiced sound or unvoiced sound is obtained for each block obtained by dividing the input speech signal into blocks on the time axis. The pitch information, the amplitude information of the spectrum, and a decoding device of the audio signal supplied with the information indicating the state of the pulse noise in the block that is determined to be unvoiced, the determination information, the pitch information, A voiced sound synthesizer that synthesizes voiced sound based on amplitude information, the discrimination information, pitch information, an unvoiced sound synthesizer that synthesizes unvoiced sound based on amplitude information, and the above based on information indicating the state of the pulse noise. The above problem is solved by having an unvoiced sound windowing processing unit that performs windowing processing on the unvoiced sound signal from the unvoiced sound synthesis unit.
【0016】[0016]
【作用】ブロック化された入力信号の内の無声音(U
V)と判別されたブロックのパルス性ノイズの状態を示
す情報を伝送しているため、このパルス性ノイズの状態
を合成側で知ることができ、子音等の不明瞭感や残響感
の発生を未然に防止することができる。また、無声音
(UV)と判別されたブロックでは、ピッチ情報を送る
必要がないことから、このピッチ情報を送るためのスロ
ットに上記無声音のパルス性ノイズの状態を示す情報を
入れ込んで送ることにより、データ伝送量を増やすこと
なく、再生音(合成音)の質を高めることができる。[Function] Unvoiced sound (U
Since the information indicating the pulse noise state of the block determined as V) is transmitted, the pulse noise state can be known on the synthesizing side, and the occurrence of unclearness or reverberation such as consonants. It can be prevented. In addition, since it is not necessary to send pitch information in a block determined to be unvoiced (UV), it is possible to insert information indicating the state of the unvoiced pulse noise into the slot for sending this pitch information and send it. The quality of the reproduced sound (synthesized sound) can be improved without increasing the data transmission amount.
【0017】[0017]
【実施例】以下、本発明に係る高能率符号化方法の実施
例について説明する。高能率符号化方法には、後述する
MBE(Multiband Excitation: マルチバンド励起)符
号化等のように、ブロック毎の信号を周波数軸上に変換
し、複数帯域に分割して各帯域毎にV(有声音)かUV
(無声音)かを判別するような符号化方法を用いること
ができる。Embodiments of the high efficiency coding method according to the present invention will be described below. The high-efficiency coding method is, for example, MBE (Multiband Excitation) coding described later, in which a signal for each block is converted on a frequency axis, divided into a plurality of bands, and V ( Voiced sound) or UV
It is possible to use an encoding method for determining whether or not (unvoiced sound).
【0018】すなわち、本発明が適用される一般的な高
能率符号化方法としては、音声信号を一定サンプル数
(例えば256サンプル)毎にブロック化して、FFT
等の直交変換により周波数軸上のスペクトルデータに変
換すると共に、該ブロック内の音声のピッチを抽出し、
このピッチに応じた間隔で周波数軸上のスペクトルを帯
域分割し、分割された各帯域についてV(有声音)/U
V(無声音)の判別を行っている。このV/UV判別情
報をスペクトルの振幅データと共に符号化して伝送する
わけである。ただし本発明の実施例においては、V/U
V判別情報やスペクトルの振幅データ等の各種情報を後
述するフレーム(例えば160サンプル)単位で伝送す
るようにしている。That is, as a general high-efficiency coding method to which the present invention is applied, the FFT is performed by dividing the voice signal into blocks for every fixed number of samples (for example, 256 samples).
While converting to spectrum data on the frequency axis by orthogonal transformation such as, to extract the pitch of the voice in the block,
The spectrum on the frequency axis is band-divided at intervals according to this pitch, and V (voiced sound) / U is obtained for each of the divided bands.
V (unvoiced sound) is discriminated. This V / UV discrimination information is encoded and transmitted together with spectrum amplitude data. However, in the embodiment of the present invention, V / U
Various information such as V discrimination information and spectrum amplitude data is transmitted in units of frames (for example, 160 samples) described later.
【0019】ここで、例えばMBEボコーダ等の音声合
成分析系を想定する場合、入力される時間軸上の音声信
号に対するサンプリング周波数fs は、通常8kHzで、
全帯域幅は3.4kHz(ただし有効帯域は200〜34
00Hz)であり、女声の高い方から男声の低い方までの
ピッチラグ(ピッチ周期に相当するサンプル数)は、2
0〜147程度である。すなわちピッチ周波数は、8000
/147≒54(Hz)から8000/20=400(Hz)程度まで
の間で変動することになる。従って、周波数軸上で上記
3.4kHzまでの間に約8〜63本のピッチパルス(ハ
ーモニックス)が立つことになる。Here, assuming a speech synthesis analysis system such as an MBE vocoder, the sampling frequency fs for an input speech signal on the time axis is usually 8 kHz,
The total bandwidth is 3.4 kHz (However, the effective bandwidth is 200 to 34
00Hz), and the pitch lag (the number of samples corresponding to the pitch period) from the higher female voice to the lower male voice is 2
It is about 0 to 147. That is, the pitch frequency is 8000
It will vary from / 147≈54 (Hz) to about 8000/20 = 400 (Hz). Therefore, about 8 to 63 pitch pulses (harmonics) stand up to 3.4 kHz on the frequency axis.
【0020】このように、ピッチに応じた間隔で帯域分
割すると、ブロック(フレーム)毎に分割帯域数(バン
ド数)が約8〜63個の間で変化することになることを
考慮して、分割バンド数を一定の個数(例えば12個程
度)に低減あるいは縮退させておくことが好ましい。In this way, considering that the number of divided bands (the number of bands) for each block (frame) changes between about 8 and 63 when the bands are divided at intervals according to the pitch, It is preferable to reduce or reduce the number of divided bands to a fixed number (for example, about 12).
【0021】さらに、本発明の実施例において、ブロッ
ク(フレーム)の全バンドが無声音(UV)と判別され
たときには、後述するように、ピッチ情報の代わりにパ
ルス性ノイズ(ノイズパルス)の状態を示す情報を伝送
し、再生側(デコーダ)において、合成された無音声信
号に対して上記パルス性ノイズの状態情報に応じた窓か
け処理を行うようにしている。Further, in the embodiment of the present invention, when all the bands of the block (frame) are determined to be unvoiced (UV), the state of pulse noise (noise pulse) is used instead of the pitch information as described later. The information shown is transmitted, and the reproducing side (decoder) performs windowing processing on the synthesized voiceless signal according to the state information of the pulse noise.
【0022】次に、上述したような高能率符号化方法が
適用可能な、音声信号の合成分析符号化装置(いわゆる
ボコーダ)の一種のMBE(Multiband Excitation: マ
ルチバンド励起)ボコーダの具体例について、図面を参
照しながら説明する。Next, a specific example of a kind of MBE (Multiband Excitation) vocoder of a speech signal synthesis analysis coding apparatus (so-called vocoder) to which the high efficiency coding method as described above can be applied, A description will be given with reference to the drawings.
【0023】以下に説明するMBEボコーダは、D.W. G
riffin and J.S. Lim, ^MultibandExcitation Vocode
r," IEEE Trans.Acoustics,Speech,and Signal Process
ing,vol.36, No.8, pp.1223-1235, Aug. 1988 に開示さ
れているものであり、従来のPARCOR(PARtial au
to-CORrelation: 偏自己相関)ボコーダ等では、音声の
モデル化の際に有声音区間と無声音区間とをブロックあ
るいはフレーム毎に切り換えていたのに対し、MBEボ
コーダでは、同時刻(同じブロックあるいはフレーム
内)の周波数軸領域に有声音(Voiced)区間と無声音
(Unvoiced)区間とが存在するという仮定でモデル化し
ている。The MBE vocoder described below is a DW G
riffin and JS Lim, ^ MultibandExcitation Vocode
r, "IEEE Trans.Acoustics, Speech, and Signal Process
ing, vol.36, No.8, pp.1223-1235, Aug. 1988, the conventional PARCOR (PARtial au
In a to-CORrelation (partial autocorrelation) vocoder or the like, a voiced sound section and an unvoiced sound section were switched for each block or frame when modeling a voice, whereas in the MBE vocoder, at the same time (same block or frame). The model is based on the assumption that there are voiced and unvoiced intervals in the frequency domain of (in).
【0024】図1は、上記MBEボコーダに本発明を適
用した実施例の全体の概略構成を示すブロック図であ
る。この図1において、入力端子11には音声信号が供
給されており、この入力音声信号は、HPF(ハイパス
フィルタ)を含むフィルタ12に送られて、いわゆるD
C(直流)オフセット分の除去や帯域制限(例えば20
0〜3400Hzに制限)のための少なくとも低域成分
(200Hz以下)の除去が行われる。このフィルタ12
を介して得られた信号は、ピッチ抽出部13、窓かけ処
理部14、及び後述する最大値検出部24にそれぞれ送
られる。FIG. 1 is a block diagram showing an overall schematic structure of an embodiment in which the present invention is applied to the MBE vocoder. In FIG. 1, an audio signal is supplied to an input terminal 11, and the input audio signal is sent to a filter 12 including an HPF (high-pass filter) and a so-called D signal is sent.
Removal of C (DC) offset and band limitation (for example, 20
At least low frequency components (200 Hz or less) are removed for 0 to 3400 Hz). This filter 12
The signal obtained through the above is sent to the pitch extraction unit 13, the windowing processing unit 14, and the maximum value detection unit 24 described later, respectively.
【0025】ピッチ抽出部13では、入力音声信号デー
タが所定サンプル数N(例えばN=256)単位でブロ
ック分割され(あるいは方形窓による切り出しが行わ
れ)、このブロック内の音声信号についてのピッチ抽出
が行われる。このような切り出しブロック(256サン
プル)を、例えば図2のAに示すようにLサンプル(例
えばL=160)のフレーム間隔で時間軸方向に移動さ
せており、各ブロック間のオーバラップはN−Lサンプ
ル(例えば96サンプル)となっている。また、窓かけ
処理部14では、1ブロックNサンプルに対して所定の
窓関数、例えばハミング窓をかけ、この窓かけブロック
を1フレームLサンプルの間隔で時間軸方向に順次移動
させている。In the pitch extraction unit 13, the input voice signal data is divided into blocks in units of a predetermined number N (for example, N = 256) (or cut out by a rectangular window), and pitch extraction is performed on voice signals in this block. Is done. Such a cut block (256 samples) is moved in the time axis direction at a frame interval of L samples (for example, L = 160) as shown in FIG. 2A, and the overlap between blocks is N−. There are L samples (for example, 96 samples). In addition, the windowing processing unit 14 applies a predetermined window function, for example, a Hamming window, to one block of N samples, and sequentially moves the windowed block in the time axis direction at intervals of one frame of L samples.
【0026】ここで、上記窓かけ処理部14での窓かけ
処理を数式で表すと、 xw (k,q) =x(q) w(kL-q) ・・・(1) となる。この(1)式において、kはブロック番号を、
qはデータの時間インデックス(サンプル番号)を表
し、処理前の入力信号のq番目のデータx(q) に対して
第kブロックの窓(ウィンドウ)関数w(kL-q)により窓
かけ処理されることによりデータxw (k,q) が得られる
ことを示している。ピッチ抽出部13での図2のAに示
すような方形窓の場合の窓関数wr (r) は、 wr (r) =1 0≦r<N ・・・(2) =0 r<0,N≦r また、上記窓かけ処理部14での図2のBに示すような
ハミング窓の場合の窓関数wh (r) は、 wh (r) = 0.54 − 0.46 cos(2πr/(N-1)) 0≦r<N ・・・(3) =0 r<0,N≦r である。このような窓関数wr (r) あるいはwh (r) を
用いるときの上記(1)式の窓関数w(r) (=w(kL-
q))の非零区間は、 0≦kL−q<N これを変形して、 kL−N<q≦kL 従って例えば上記方形窓の場合に窓関数wr (kL-q)=1
となるのは、図3に示すように、kL−N<q≦kLの
ときとなる。また、上記(1)〜(3)式は、長さN
(=256)サンプルの1ブロックの窓が、L(=16
0)サンプルの1フレームずつ前進してゆくことを示し
ている。以下、上記(2)式、(3)式の各窓関数で切
り出された各N点(0≦r<N)の否零サンプル列を、
それぞれxwr(k,r) 、xwh(k,r) と表すことにする。Here, when the windowing processing in the windowing processing section 14 is expressed by a mathematical expression, x w (k, q) = x (q) w (kL-q) (1) In this equation (1), k is a block number,
q represents the time index (sample number) of the data, and the q-th data x (q) of the input signal before processing is windowed by the window function (w (kL-q)) of the kth block. It is shown that the data x w (k, q) can be obtained by doing so. The window function w r (r) in the case of the rectangular window as shown in A of FIG. 2 in the pitch extraction unit 13 is w r (r) = 1 0 ≦ r <N (2) = 0 r < 0, N ≦ r Further, the window function w h in the case of Hamming window as shown in B of FIG. 2 in the windowing processing section 14 (r) is, w h (r) = 0.54 - 0.46 cos (2πr / (N-1)) 0 ≦ r <N (3) = 0 r <0, N ≦ r. Such a window function w r (r) or w (1) when using the h (r) formula of the window function w (r) (= w (KL-
q)) has a non-zero interval, 0 ≦ kL−q <N, and transforms it into kL−N <q ≦ kL. Therefore, for example, in the case of the above rectangular window, the window function w r (kL−q) = 1
This is when kL−N <q ≦ kL, as shown in FIG. In addition, the above formulas (1) to (3) have a length N
The window of one block of (= 256) samples is L (= 16
0) It shows that the frame is advanced one frame at a time. Hereinafter, the non-zero sample sequence of each N point (0 ≦ r <N) cut out by each window function of the above equations (2) and (3) is
These are respectively expressed as x wr (k, r) and x wh (k, r).
【0027】窓かけ処理部14では、図4に示すよう
に、上記(3)式のハミング窓がかけられた1ブロック
256サンプルのサンプル列xwh(k,r) に対して179
2サンプル分の0データが付加されて(いわゆる0詰め
されて)2048サンプルとされ、この2048サンプ
ルの時間軸データ列に対して、直交変換部15により例
えばFFT(高速フーリエ変換)等の直交変換処理が施
される。あるいは、0詰め無しで256点のままでFF
Tを施して処理量を減らす方法もある。In the windowing processing section 14, as shown in FIG. 4, 179 is applied to the sample sequence x wh (k, r) of one block of 256 samples to which the Hamming window of the above equation (3) is applied.
Two samples of 0 data are added (so-called zero padding) to form 2048 samples, and the orthogonal transform unit 15 performs orthogonal transform such as FFT (Fast Fourier Transform) on the time-axis data sequence of 2048 samples. Processing is performed. Or, it is FF with 256 points without zero padding
There is also a method of applying T to reduce the processing amount.
【0028】ピッチ抽出部13では、上記xwr(k,r) の
サンプル列(1ブロックNサンプル)に基づいてピッチ
抽出が行われる。このピッチ抽出法には、時間波形の周
期性や、スペクトルの周期的周波数構造や、自己相関関
数を用いるもの等が知られているが、本実施例では、セ
ンタクリップ波形の自己相関法を採用している。このと
きのブロック内でのセンタクリップレベルについては、
1ブロックにつき1つのクリップレベルを設定してもよ
いが、ブロックを細分割した各部(各サブブロック)の
信号のピークレベル等を検出し、これらの各サブブロッ
クのピークレベル等の差が大きいときに、ブロック内で
クリップレベルを段階的にあるいは連続的に変化させる
ようにしている。このセンタクリップ波形の自己相関デ
ータのピーク位置に基づいてピッチ周期を決めている。
このとき、現在フレームに属する自己相関データ(自己
相関は1ブロックNサンプルのデータを対象として求め
られる)から複数のピークを求めておき、これらの複数
のピークの内の最大ピークが所定の閾値以上のときには
該最大ピーク位置をピッチ周期とし、それ以外のときに
は、現在フレーム以外のフレーム、例えば前後のフレー
ムで求められたピッチに対して所定の関係を満たすピッ
チ範囲内、例えば前フレームのピッチを中心として±2
0%の範囲内にあるピークを求め、このピーク位置に基
づいて現在フレームのピッチを決定するようにしてい
る。このピッチ抽出部13ではオープンループによる比
較的ラフなピッチのサーチが行われ、抽出されたピッチ
データは高精度(ファイン)ピッチサーチ部16に送ら
れて、クローズドループによる高精度のピッチサーチ
(ピッチのファインサーチ)が行われる。The pitch extraction unit 13 performs pitch extraction based on the x wr (k, r) sample sequence (1 block N samples). The pitch extraction method is known to use periodicity of time waveform, periodic frequency structure of spectrum, autocorrelation function, etc. In this embodiment, the autocorrelation method of center clip waveform is adopted. is doing. For the center clip level in the block at this time,
One clip level may be set for each block, but when the peak level of the signal of each part (each sub-block) obtained by subdividing the block is detected, and the difference in peak level between these sub-blocks is large, In addition, the clip level is changed stepwise or continuously within the block. The pitch period is determined based on the peak position of the autocorrelation data of this center clip waveform.
At this time, a plurality of peaks are obtained from the autocorrelation data belonging to the current frame (the autocorrelation is obtained for the data of N samples of one block), and the maximum peak of the plurality of peaks is equal to or larger than a predetermined threshold value. In the case of, the maximum peak position is set as the pitch cycle, and in other cases, the pitch is within the pitch range that satisfies a predetermined relationship with the pitch other than the current frame, for example, the pitch of the previous frame and the pitch of the previous frame. As ± 2
The peak within the range of 0% is obtained, and the pitch of the current frame is determined based on this peak position. In this pitch extraction unit 13, a relatively rough pitch search is performed by an open loop, and the extracted pitch data is sent to a high precision (fine) pitch search unit 16 and a closed loop high precision pitch search (pitch) is performed. Fine search) is performed.
【0029】なお、センタクリップ波形ではなく、入力
波形をLPC分析した残差波形の自己相関からピッチを
求める方法を用いてもよい。A method of obtaining the pitch from the autocorrelation of the residual waveform obtained by LPC analysis of the input waveform instead of the center clip waveform may be used.
【0030】高精度(ファイン)ピッチサーチ部16に
は、ピッチ抽出部13で抽出された整数(インテジャ
ー)値の粗(ラフ)ピッチデータと、直交変換部15に
より例えばFFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部16では、上記粗
ピッチデータ値を中心に、0.2〜0.5きざみで±数サン
プルずつ振って、最適な小数点付き(フローティング)
のファインピッチデータの値へ追い込む。このときのフ
ァインサーチの手法として、いわゆる合成による分析
(Analysis by Synthesis)法を用い、合成されたパワー
スペクトルが原音のパワースペクトルに最も近くなるよ
うにピッチを選んでいる。The high-precision (fine) pitch search unit 16 includes coarse (rough) pitch data of integer (integer) values extracted by the pitch extraction unit 13 and, for example, FFT-processed on the frequency axis by the orthogonal transformation unit 15. And the data of. In this high-precision pitch search unit 16, with the coarse pitch data value as the center, ± several samples are shaken in increments of 0.2 to 0.5 to give an optimum decimal point (floating).
To the value of the fine pitch data of. As a fine search method at this time, so-called synthesis analysis
Using the (Analysis by Synthesis) method, the pitch is selected so that the synthesized power spectrum is closest to the power spectrum of the original sound.
【0031】このピッチのファインサーチについて説明
する。先ず、上記MBEボコーダにおいては、上記FF
T等により直交変換された周波数軸上のスペクトルデー
タとしてのS(j) を S(j) =H(j) |E(j) | 0<j<J ・・・(4) と表現するようなモデルを想定している。ここで、Jは
ωs /4π=fs /2に対応し、サンプリング周波数f
s =ωs /2πが例えば8kHzのときには4kHzに対応
する。上記(4)式中において、周波数軸上のスペクト
ルデータS(j) が図5のAに示すような波形のとき、H
(j) は、図5のBに示すように、元のスペクトルデータ
S(j) のスペクトル包絡線(エンベロープ)を示し、E
(j) は、図5のCに示すような等レベルで周期的な励起
信号(エクサイテイション)のスペクトルを示してい
る。すなわち、FFTスペクトルS(j) は、スペクトル
エンベロープH(j) と励起信号のパワースペクトル|E
(j) |との積としてモデル化される。The fine search of the pitch will be described. First, in the MBE vocoder, the FF
Let S (j) as spectrum data on the frequency axis orthogonally transformed by T etc. be expressed as S (j) = H (j) | E (j) | 0 <j <J (4) It is assumed that the model. Here, J corresponds to ω s / 4π = f s / 2, and the sampling frequency f
When s = ω s / 2π is, for example, 8 kHz, it corresponds to 4 kHz. In the equation (4), when the spectrum data S (j) on the frequency axis has a waveform as shown in FIG.
(j) indicates the spectrum envelope (envelope) of the original spectrum data S (j) as shown in B of FIG.
(j) shows the spectrum of the excitation signal (excitation) which is periodic at the same level as shown in C of FIG. That is, the FFT spectrum S (j) is the spectrum envelope H (j) and the power spectrum | E of the excitation signal.
(j) | is modeled as |.
【0032】上記励起信号のパワースペクトル|E(j)
|は、上記ピッチに応じて決定される周波数軸上の波形
の周期性(ピッチ構造)を考慮して、1つの帯域(バン
ド)の波形に相当するスペクトル波形を周波数軸上の各
バンド毎に繰り返すように配列することにより形成され
る。この1バンド分の波形は、例えば上記図4に示すよ
うな256サンプルのハミング窓関数に1792サンプ
ル分の0データを付加(0詰め)した波形を時間軸信号
と見なしてFFTし、得られた周波数軸上のある帯域幅
を持つインパルス波形を上記ピッチに応じて切り出すこ
とにより形成することができる。Power spectrum of the excitation signal | E (j)
| Is a spectral waveform corresponding to the waveform of one band (band) for each band on the frequency axis in consideration of the periodicity (pitch structure) of the waveform on the frequency axis determined according to the pitch. It is formed by arranging it repeatedly. The waveform for one band is obtained by FFT by regarding a waveform obtained by adding (filling with 0) 1792 samples of 0 data to a Hamming window function of 256 samples as shown in FIG. 4 as a time axis signal. It can be formed by cutting out an impulse waveform having a certain bandwidth on the frequency axis according to the pitch.
【0033】次に、上記ピッチに応じて分割された各バ
ンド毎に、上記H(j) を代表させるような(各バンド毎
のエラーを最小化するような)値(一種の振幅)|Am
|を求める。ここで、例えば第mバンド(第m高調波の
帯域)の下限、上限の点をそれぞれam 、bm とすると
き、この第mバンドのエラーεm は、Next, for each band divided according to the above pitch, a value (a kind of amplitude) | A that represents the above H (j) (minimizes the error for each band) | A m
Ask for |. Here, for example, when the lower limit point and the upper limit point of the m-th band (band of the m-th harmonic) are a m and b m , respectively, the error ε m of the m-th band is
【0034】[0034]
【数1】 [Equation 1]
【0035】で表せる。このエラーεm を最小化するよ
うな|Am |は、Can be expressed as | A m | that minimizes this error ε m is
【0036】[0036]
【数2】 [Equation 2]
【0037】となり、この(6)式の|Am |のとき、
エラーεm を最小化する。Thus, when | A m | in the equation (6),
Minimize the error ε m .
【0038】このような振幅|Am |を各バンド毎に求
め、得られた各振幅|Am |を用いて上記(5)式で定
義された各バンド毎のエラーεm を求める。次に、この
ような各バンド毎のエラーεm の全バンドの総和値Σε
m を求める。さらに、このような全バンドのエラー総和
値Σεm を、いくつかの微小に異なるピッチについて求
め、エラー総和値Σεm が最小となるようなピッチを求
める。Such an amplitude | A m | is obtained for each band, and the obtained amplitude | A m | is used to obtain the error ε m for each band defined by the above equation (5). Next, the sum Σε of all the bands of the error ε m for each band as described above.
Find m . Further, such an error sum value Σε m of all bands is obtained for some slightly different pitches, and a pitch that minimizes the error sum value Σε m is obtained.
【0039】すなわち、上記ピッチ抽出部13で求めら
れたラフピッチを中心として、例えば 0.25 きざみで上
下に数種類ずつ用意する。これらの複数種類の微小に異
なるピッチの各ピッチに対してそれぞれ上記エラー総和
値Σεm を求める。この場合、ピッチが定まるとバンド
幅が決まり、上記(6)式より、周波数軸上データのパ
ワースペクトル|S(j) |と励起信号スペクトル|E
(j) |とを用いて上記(5)式のエラーεm を求め、そ
の全バンドの総和値Σεm を求めることができる。この
エラー総和値Σεm を各ピッチ毎に求め、最小となるエ
ラー総和値に対応するピッチを最適のピッチとして決定
するわけである。以上のようにして高精度ピッチサーチ
部で最適のファイン(例えば 0.25 きざみ)ピッチが求
められ、この最適ピッチに対応する振幅|Am |が決定
される。このときの振幅値の計算は、有声音の振幅評価
部18Vにおいて行われる。That is, several types of vertical pitches are prepared with the rough pitch determined by the pitch extraction unit 13 as the center, for example, in steps of 0.25. The error sum value Σε m is obtained for each of these plural kinds of slightly different pitches. In this case, if the pitch is determined, the bandwidth is determined, and from the above formula (6), the power spectrum | S (j) |
(j) | can be used to find the error ε m in the above equation (5), and the total sum Σε m of all the bands can be found. This error sum total value Σε m is obtained for each pitch, and the pitch corresponding to the minimum error sum value is determined as the optimum pitch. As described above, the high-precision pitch search unit obtains the optimum fine (for example, 0.25 step) pitch, and the amplitude | A m | corresponding to this optimum pitch is determined. The calculation of the amplitude value at this time is performed in the voiced sound amplitude evaluation unit 18V.
【0040】以上ピッチのファインサーチの説明におい
ては、説明を簡略化するために、全バンドが有声音(Vo
iced)の場合を想定しているが、上述したようにMBE
ボコーダにおいては、同時刻の周波数軸上に無声音(Un
voiced)領域が存在するというモデルを採用しているこ
とから、上記各バンド毎に有声音/無声音の判別を行う
ことが必要とされる。In the above description of the pitch fine search, in order to simplify the explanation, all bands are voiced (Vo
Assuming the case of iced), MBE as described above
In the vocoder, unvoiced sound (Un
Since a model in which a voiced) region exists is used, it is necessary to distinguish voiced sound / unvoiced sound for each band.
【0041】上記高精度ピッチサーチ部16からの最適
ピッチ及び振幅評価部(有声音)18Vからの振幅|A
m |のデータは、有声音/無声音判別部17に送られ、
上記各バンド毎に有声音/無声音の判別が行われる。こ
の判別のためにNSR(ノイズtoシグナル比)を利用
する。すなわち、第mバンドのNSRであるNSR
mは、The optimum pitch from the high precision pitch search section 16 and the amplitude | A from the amplitude evaluation section (voiced sound) 18V
The data of m | is sent to the voiced sound / unvoiced sound discrimination unit 17,
The voiced sound / unvoiced sound is discriminated for each band. NSR (noise to signal ratio) is used for this determination. That is, the NSR that is the NSR of the m-th band
m is
【0042】[0042]
【数3】 [Equation 3]
【0043】と表せ、このNSRm が所定の閾値Th
1 (例えば0.2、あるいは0.3)より大のとき(すなわ
ちエラーが大きいとき)には、そのバンドでの|Am |
|E(j) |による|S(j) |の近似が良くない(上記励
起信号|E(j) |が基底として不適当である)と判断で
き、当該バンドをUV(Unvoiced、無声音)と判別す
る。これ以外のときは、近似がある程度良好に行われて
いると判断でき、そのバンドをV(Voiced、有声音)と
判別する。This NSR m is a predetermined threshold Th.
If it is larger than 1 (for example, 0.2 or 0.3) (that is, if the error is large), | A m |
It can be judged that the approximation of | S (j) | by | E (j) | is not good (the above excitation signal | E (j) | is unsuitable as a basis), and the band is regarded as UV (unvoiced). Determine. In other cases, it can be determined that the approximation is performed to a certain extent, and the band is determined to be V (Voiced, voiced sound).
【0044】ところで、上述したように基本ピッチ周波
数で分割されたバンドの数(ハーモニックスの数)は、
声の高低(ピッチの大小)によって約8〜63程度の範
囲で変動するため、各バンド毎のV/UVフラグの個数
も同様に変動してしまう。そこで、本実施例において
は、固定的な周波数帯域で分割した一定個数のバンド毎
にV/UV判別結果をまとめる(あるいは縮退させる)
ようにしている。具体的には、音声帯域を含む所定帯域
(例えば0〜4000Hz)をNB 個(例えば12個)の
バンドに分割し、各バンド内の上記NSR値に従って、
例えば重み付き平均値を所定の閾値Th2 で弁別して、当
該バンドのV/UVを判断している。By the way, as described above, the number of bands divided by the fundamental pitch frequency (the number of harmonics) is
The number of V / UV flags for each band similarly varies because the voice varies in the range of about 8 to 63 depending on the pitch (the size of the pitch). Therefore, in this embodiment, the V / UV discrimination results are collected (or degenerated) for each fixed number of bands divided by a fixed frequency band.
I am trying. Specifically, a predetermined band (for example, 0 to 4000 Hz) including a voice band is divided into N B (for example, 12) bands, and according to the NSR value in each band,
For example, the weighted average value is discriminated by a predetermined threshold value Th 2 , and the V / UV of the band is judged.
【0045】次に、無声音の振幅評価部18Uには、直
交変換部15からの周波数軸上データ、ピッチサーチ部
16からのファインピッチデータ、有声音振幅評価部1
8Vからの振幅|Am |のデータ、及び上記有声音/無
声音判別部17からのV/UV(有声音/無声音)判別
データが供給されている。この振幅評価部(無声音)1
8Uでは、有声音/無声音判別部17において無声音
(UV)と判別されたバンドに関して、再度振幅を求め
て(振幅再評価を行って)いる。このUVのバンドにつ
いての振幅|Am |UVは、Next, in the unvoiced sound amplitude evaluation unit 18U, frequency-axis data from the orthogonal transformation unit 15, fine pitch data from the pitch search unit 16, and voiced sound amplitude evaluation unit 1 are included.
Data of amplitude | A m | from 8 V and V / UV (voiced sound / unvoiced sound) discrimination data from the voiced sound / unvoiced sound discrimination unit 17 are supplied. This amplitude evaluation section (unvoiced sound) 1
In 8U, the amplitude is obtained again (amplitude re-evaluation is performed) with respect to the band that is determined to be unvoiced sound (UV) by the voiced sound / unvoiced sound determination unit 17. The amplitude | A m | UV for this UV band is
【0046】[0046]
【数4】 [Equation 4]
【0047】にて求められる。It is calculated by
【0048】この振幅評価部(無声音)18Uからのデ
ータは、データ数変換(一種のサンプリングレート変
換)部19に送られる。このデータ数変換部19は、上
記ピッチに応じて周波数軸上での分割帯域数が異なり、
データ数(特に振幅データの数)が異なることを考慮し
て、一定の個数にするためのものである。すなわち、例
えば有効帯域を3400kHzまでとすると、この有効帯
域が上記ピッチに応じて、8バンド〜63バンドに分割
されることになり、これらの各バンド毎に得られる上記
振幅|Am |(UVバンドの振幅|Am |UVも含む)デ
ータの個数mMX+1も8〜63と変化することになる。
このためデータ数変換部19では、この可変個数mMX+
1の振幅データを一定個数M(例えば44個)のデータ
に変換している。The data from the amplitude evaluation unit (unvoiced sound) 18U is sent to the data number conversion (a kind of sampling rate conversion) unit 19. The data number conversion unit 19 has a different number of divided bands on the frequency axis according to the pitch,
This is for keeping the number constant, considering that the number of data (especially the number of amplitude data) is different. That is, for example, when the effective band is set to 3400 kHz, the effective band is divided into 8 bands to 63 bands according to the pitch, and the amplitude | A m | (UV The number of data m MX +1 including the band amplitude | A m | UV also changes from 8 to 63.
Therefore, in the data number conversion unit 19, this variable number m MX +
One amplitude data is converted into a fixed number M (for example, 44) of data.
【0049】ここで、本実施例においては、例えば、周
波数軸上の有効帯域1ブロック分の振幅データに対し
て、ブロック内の最後のデータからブロック内の最初の
データまでの値を補間するようなダミーデータを付加し
てデータ個数をNF 個に拡大した後、帯域制限型のOS
倍(例えば8倍)のオーバーサンプリングを施すことに
よりOS 倍の個数の振幅データを求め、このOS 倍の個
数((mMX+1)×OS個)の振幅データを直線補間し
てさらに多くのNM 個(例えば2048個)に拡張し、
このNM 個のデータを間引いて上記一定個数M(例えば
44個)のデータに変換している。Here, in the present embodiment, for example, for the amplitude data for one block of the effective band on the frequency axis, the values from the last data in the block to the first data in the block are interpolated. After adding the dummy data to increase the number of data to N F , the band-limited O S
By multiplying (e.g., 8 times) oversampling, the amplitude data of O S times is obtained, and the amplitude data of this O S times ((m MX +1) × O S ) are linearly interpolated. Expand to many N M (eg 2048),
The N M pieces of data are thinned out and converted into the fixed number M of data (for example, 44 pieces).
【0050】このデータ数変換部19からのデータ(上
記一定個数M個の振幅データ)がベクトル量子化部20
に送られて、所定個数のデータ毎にまとめられてベクト
ルとされ、ベクトル量子化が施される。ベクトル量子化
部20からの量子化出力データ(の主要部)は、上記高
精度のピッチサーチ部16からの高精度(ファイン)ピ
ッチデータ及び上記有声音/無声音判別部17からの有
声音/無声音(V/UV)判別データと共に、符号化部
21に送られて符号化される。The data from the data number conversion unit 19 (the above-mentioned fixed number M of amplitude data) is the vector quantization unit 20.
To a vector, and a predetermined number of pieces of data are combined into a vector, and vector quantization is performed. The quantized output data from the vector quantizer 20 (main part thereof) is the high-precision (fine) pitch data from the high-precision pitch search unit 16 and the voiced / unvoiced sound from the voiced / unvoiced sound discrimination unit 17. It is sent to the encoding unit 21 and encoded together with the (V / UV) discrimination data.
【0051】ただし、高精度のピッチサーチ部16から
のピッチデータについては、切換スイッチ28の被選択
端子aを介して符号化部21に送っている。これは、後
述するように、ブロック内の全バンドがUV(無声音)
となってピッチ情報が不要となる場合に、パルス性ノイ
ズ(ノイズパルス)の状態を示す情報をピッチ情報と切
り換えて送っているものである。However, the pitch data from the highly accurate pitch search section 16 is sent to the encoding section 21 via the selected terminal a of the changeover switch 28. This is because all bands in the block are UV (unvoiced), as described later.
When the pitch information becomes unnecessary, the information indicating the state of pulse noise (noise pulse) is switched from the pitch information and sent.
【0052】なお、これらの各データは、上記Nサンプ
ル(例えば256サンプル)のブロック内のデータに対
して処理を施すことにより得られるものであるが、ブロ
ックは時間軸上を上記Lサンプルのフレームを単位とし
て前進することから、伝送するデータは上記フレーム単
位で得られる。すなわち、上記フレーム周期でピッチデ
ータ、V/UV判別データ、振幅データが更新されるこ
とになる。また、上記有声音/無声音判別部17からの
V/UV判別データについては、上述したように、必要
に応じて12バンド程度に低減(縮退)したデータを用
いてもよく、全バンド中で1箇所以下の有声音(V)領
域と無声音(UV)領域との区分位置を表すデータを用
いるようにしてもよい。Each of these data is obtained by processing the data in the block of N samples (for example, 256 samples), but the block is a frame of L samples on the time axis. , The data to be transmitted is obtained in the frame unit. That is, the pitch data, the V / UV discrimination data, and the amplitude data are updated at the above frame period. As the V / UV discrimination data from the voiced sound / unvoiced sound discrimination unit 17, as described above, data reduced to about 12 bands (degenerate) may be used as necessary, and 1 in all bands. You may make it use the data showing the division position of a voiced sound (V) area and unvoiced sound (UV) area below a location.
【0053】上記符号化部21においては、例えばCR
C付加及びレート1/2畳み込み符号付加処理が施され
る。すなわち、上記ピッチデータ(あるいは後述する無
声音信号の時間波形の特徴抽出データ)、上記有声音/
無声音(V/UV)判別データ、及び上記量子化出力デ
ータの内の重要なデータについてはCRC誤り訂正符号
化が施された後、畳み込み符号化が施される。符号化部
21からの符号化出力データは、フレームインターリー
ブ部22に送られ、ベクトル量子化部20からの一部
(例えば重要度の低い)データと共にインターリーブ処
理されて、出力端子23から取り出され、合成側(デコ
ード側)に伝送(あるいは記録再生)される。In the encoding unit 21, for example, CR
C addition and rate 1/2 convolutional code addition processing is performed. That is, the pitch data (or the feature extraction data of the time waveform of an unvoiced sound signal described later), the voiced sound /
The unvoiced sound (V / UV) discrimination data and important data in the quantized output data are subjected to CRC error correction coding and then convolutional coding. The encoded output data from the encoding unit 21 is sent to the frame interleaving unit 22, is subjected to interleave processing together with some (for example, low importance) data from the vector quantization unit 20, and is extracted from the output terminal 23. It is transmitted (or recorded / reproduced) to the combining side (decoding side).
【0054】ここで、ブロック(フレーム)全体がUV
(無声音)と判別された場合であって、次のような条件
を満たす場合に、後述するようなパルス性ノイズの状態
を示す情報を得るための入力信号のクラス分類が行われ
る。 (u1)全バンドがUV(無声音) (u2)信号レベルが所定の閾値Ths より小 (u3)ゼロクロス数が所定の閾値Thz より大 (u4)ピッチ抽出時の自己相関係数が所定の閾値Tha
より小Here, the entire block (frame) is UV.
When it is determined to be (unvoiced sound) and the following condition is satisfied, input signal class classification is performed to obtain information indicating the state of pulse noise, which will be described later. (U1) All bands are UV (unvoiced sound) (u2) Signal level is smaller than a predetermined threshold Th s (u3) Zero cross number is larger than a predetermined threshold Th z (u4) Autocorrelation coefficient at the time of pitch extraction is predetermined Threshold Th a
Less than
【0055】上記(u1)の条件は、当該分析フレーム
がV/UV判別により完全にUV(無声音)であること
を要求している。上記条件(u2)及び(u3)は、信
号レベルが低く、ゼロクロスのカウント数が所定閾値Th
z より大であることを要求している。上記条件(u4)
は、信号のクロス相関係数が、所定閾値Tha より小であ
ることを要求している。この相関係数は、ピッチ抽出の
ために入力信号を10次程度のLPC分析を行った結果
得られる予測残差信号の自己相関の最大を与えるラグに
おける自己相関値であり、そのフレームにおけるLPC
残差の自己相関の最大値である。上記(u1)の条件に
加えられた他の条件は、有声音がノイズパルスとして誤
って分類されて合成される可能性を低減させるために用
いられる。The condition (u1) above requires that the analysis frame is completely UV (unvoiced sound) by V / UV discrimination. In the above conditions (u2) and (u3), the signal level is low, and the zero-cross count number is the predetermined threshold Th.
requires greater than z . The above condition (u4)
Requires that the cross-correlation coefficient of the signal be less than a predetermined threshold Th a . This correlation coefficient is an autocorrelation value at the lag that gives the maximum autocorrelation of the prediction residual signal obtained as a result of performing LPC analysis of the order of 10 for the input signal for pitch extraction.
This is the maximum value of the residual autocorrelation. The other conditions added to the above condition (u1) are used to reduce the possibility of voiced sounds being erroneously classified as noise pulses and synthesized.
【0056】ここで、上記条件(u2)の信号レベルの
閾値Ths の具体例として、2500を挙げることがで
き、これはフルスケールサイン波入力と0dBとしたと
きに、約−20dB(正確には−19.70dB)に相
当する。また上記条件(u3)のゼロクロス数の閾値Th
z の具体例として90を、上記条件(u4)の自己相関
係数の閾値Tha の具体例として0.47を、それぞれ挙
げることができる。このような各条件の判別は、有声音
/無声音判別部17において行われる。Here, 2500 can be given as a specific example of the signal level threshold value Th s of the above condition (u2), which is about −20 dB (correctly when assuming full-scale sine wave input and 0 dB). Corresponds to −19.70 dB). Further, the threshold value Th of the number of zero crossings of the above condition (u3)
As a specific example of z , 90 can be mentioned, and as a specific example of the threshold value Th a of the autocorrelation coefficient of the above condition (u4), 0.47 can be mentioned. The voiced sound / unvoiced sound determination unit 17 determines such conditions.
【0057】次に、パルス性ノイズの状態を示す情報を
得るためのクラス分類について説明する。1フレーム内
の最大値サンプルの位置が決定される。フレーム領域内
のパルスの2重検出を避けるように上記最大値サーチの
開始点が変化する。Next, the class classification for obtaining the information indicating the state of pulse noise will be described. The position of the maximum value sample within one frame is determined. The starting point of the maximum value search changes so as to avoid double detection of pulses in the frame area.
【0058】ここで、フレーム内で検出された最大値サ
ンプルの位置kを中心として、所定領域T毎に、上記位
置kを含む領域とその前後の領域について、次の3つの
平均rms(root mean square)値r0、r1、r2を
計算する。 r0=RMS{x[k−3T/2,…,k−T/2]} r1=RMS{x[k−T/2,…,k+T/2]} r2=RMS{x[k+T/2,…,k+3T/2]} これらの式中で、xは入力信号を示し、k=iのときx
[i]=max{x}を表す。また、上記領域Tは、例
えば約30サンプル程度とすればよい。Here, with respect to the position k of the maximum value sample detected in the frame as a center, the following three averages rms (root mean) are calculated for each predetermined region T in the region including the position k and the regions before and after it. square) Calculate the values r0, r1, r2. r0 = RMS {x [k-3T / 2, ..., k-T / 2]} r1 = RMS {x [k-T / 2, ..., k + T / 2]} r2 = RMS {x [k + T / 2,2 ..., k + 3T / 2]} In these equations, x represents an input signal, and when k = i, x
It represents [i] = max {x}. The area T may be about 30 samples, for example.
【0059】このようにして求められた平均rms値r
0、r1、r2は、パルス分類(クラシフィケーショ
ン)のための条件として次のように用いられる。 (c1) r0<Th0 (c2) 3r0<r1かつr1>2.5r2 (c3) 4r0<r1かつr1>1.7r2 (c4) 35r0<r1 これらの条件を、(c1)かつ((c2)又は(c3)
又は(c4))、として用いる。The average rms value r thus obtained
0, r1, and r2 are used as conditions for pulse classification (classification) as follows. (C1) r0 <Th 0 ( c2) 3r0 < the r1 and r1> 2.5r2 (c3) 4r0 < r1 and r1> 1.7r2 (c4) 35r0 < r1 these conditions, (c1) and ((c2) Or (c3)
Or (c4)).
【0060】上記条件(c1)は、有声音をパルスとし
て誤ってクラス分けすることを低減するのに役立つ。条
件(c2)は、通常のパルス性ノイズ(ノイズパルス)
のためのものである。不等式の非対象性は、ディケイタ
イムがアタックタイムよりも通常長いという観察結果に
基づいている。条件(c3)は、長いディケイタイムの
ノイズパルスのためのものであり、条件(c4)は、非
常にシャープな変化(過渡現象)のためのものである。The above condition (c1) serves to reduce erroneous classification of voiced sound as a pulse. Condition (c2) is normal pulse noise (noise pulse)
Is for. The inequality asymmetry is based on the observation that the decay time is usually longer than the attack time. Condition (c3) is for long decay time noise pulses and condition (c4) is for very sharp changes (transients).
【0061】次に、実際に伝送するパルス性ノイズ状態
情報としてのパルスコードpcが次のように計算され
る。 pc=0:非パルス信号、又はクラス分けされないUV
信号。 =p:パルス信号、pはパルス相対波高値。 このpは、所定値p1からp2までの間の値(p1≦p
≦p2)であり、p1、p2としてはそれぞれ例えば
3、8の値が選ばれる。Next, the pulse code pc as the pulse noise state information to be actually transmitted is calculated as follows. pc = 0: non-pulse signal or UV not classified
signal. = P: pulse signal, p is a pulse relative peak value. This p is a value between a predetermined value p1 and p2 (p1 ≦ p
≦ p2), and the values of 3 and 8 are selected as p1 and p2, respectively.
【0062】具体的には、上記平均rms値r1、r2
の比r1/r2 を用い、この比r1/r2 と上記所定値p1、p
2との関係に基づいて、 r1/r2 <p1のとき、pc=0 p1≦r1/r2 ≦p2のとき、pc=int[r1/r2 ] p2<r1/r2 のとき、pc=p2 のようにパルスコードpcを求める。ここでint
[x]は、実数xの整数部分の値を表す。Specifically, the average rms values r1 and r2
The ratio r1 / r2 of the above is used, and this ratio r1 / r2 and the above predetermined values p1 and p
Based on the relationship with 2, when r1 / r2 <p1, pc = 0 p1 ≦ r1 / r2 ≦ p2, pc = int [r1 / r2] p2 <r1 / r2, pc = p2 Then, the pulse code pc is obtained. Where int
[X] represents the value of the integer part of the real number x.
【0063】ここで、図1において、最大値検出部24
は、フレーム内で最大値及びその位置を検出する。遅延
手段(メモリ)25は、前フレームの最大値の位置を保
持するためのものであり、これは、1つのフレームで検
出された最大値の位置を中心として上記領域T(例えば
30サンプル)が設定されることから、前フレームの終
端位置に最大値が存在する場合には、次のフレームの1
5サンプル目から最大値サーチを開始するようにするた
めである。次の局所RMS算出部26では、上記平均r
ms値r0、r1、r2を計算により求める。得られた
各平均rms値r0、r1、r2は、パルス分類部27
に送られて、パルス分類部27では、上記各条件(c
1)〜(c4)に基づきパルス分類を行い、上記比r1/r
2 に応じて伝送情報としてのパルスコードpcを求め、
切換スイッチ28の被選択端子bに送っている。Here, in FIG. 1, the maximum value detection unit 24
Detects the maximum value and its position within the frame. The delay means (memory) 25 is for holding the position of the maximum value of the previous frame, and this is because the area T (for example, 30 samples) is centered on the position of the maximum value detected in one frame. Since it is set, if the maximum value exists at the end position of the previous frame, 1 of the next frame
This is because the maximum value search is started from the fifth sample. In the next local RMS calculator 26, the average r
The ms values r0, r1, r2 are calculated. The obtained average rms values r0, r1 and r2 are calculated by the pulse classification unit 27.
The pulse classification unit 27 sends the above conditions (c
Pulse classification is performed based on 1) to (c4), and the above ratio r1 / r
The pulse code pc as the transmission information is obtained according to 2,
It is sent to the selected terminal b of the changeover switch 28.
【0064】この切換スイッチ28の被選択端子aに
は、上記高精度ピッチサーチ部16からのピッチデータ
が送られており、切換スイッチ28からの出力は、符号
化部21に送られている。この切換スイッチ28は、有
声音/無声音判別部17からの判別出力信号により切換
制御されるようになっており、通常の有声音伝送時、す
なわち上記ブロック内の全バンドの内の1つでもV(有
声音)と判別されたときには被選択端子aに、ブロック
内の全バンドがUV(無声音)と判別されたときには被
選択端子bに、それぞれ切換接続される。The pitch data from the high precision pitch search section 16 is sent to the selected terminal a of the changeover switch 28, and the output from the changeover switch 28 is sent to the encoding section 21. The changeover switch 28 is switch-controlled by a discrimination output signal from the voiced sound / unvoiced sound discriminating section 17, so that during normal voiced sound transmission, that is, even if one of all bands in the block is V. When it is determined to be (voiced sound), the selected terminal a is switched, and when all bands in the block are UV (unvoiced sound), the selected terminal b is switched and connected.
【0065】従って、上記パルス性ノイズの状態を示す
情報、すなわち無声部分の波形にピークが存在する状態
を示す情報(あるいはピークの度合を示す情報)である
パルスコードpcは、本来はピッチ情報を伝送していた
スロットに入れ込んで伝送されることになる。すなわ
ち、ブロック内の全バンドがUV(無声音)と判別され
たときにはピッチ情報は不要であり、上記有声音/無声
音判別部17からのV/UV判別フラグを見て、全てU
Vのときに限って、上記パルスコードpcをピッチ情報
の代わりに伝送するようにしている。Therefore, the pulse code pc, which is the information indicating the state of the pulse noise, that is, the information indicating the state where the peak of the waveform of the unvoiced portion exists (or the information indicating the degree of the peak) is originally the pitch information. It will be transmitted by inserting it into the slot that was transmitting. That is, when all the bands in the block are determined to be UV (unvoiced sound), the pitch information is not necessary, and the U / U discrimination flag from the voiced sound / unvoiced sound determination unit 17 is checked to find that all U
Only when it is V, the pulse code pc is transmitted instead of the pitch information.
【0066】次に、伝送されて(あるいは記録再生され
て)得られた上記各データに基づき音声信号を合成する
ための合成側(デコード側)の概略構成について、図6
を参照しながら説明する。Next, FIG. 6 shows a schematic structure of a synthesizing side (decoding side) for synthesizing an audio signal based on the above-mentioned respective data obtained by being transmitted (or recorded / reproduced).
Will be described with reference to.
【0067】この図6において、入力端子31には、上
記図1に示すエンコーダ側の出力端子23から取り出さ
れたデータ信号に略々等しい(伝送や記録再生による信
号劣化を無視して)データ信号が供給される。この入力
端子31からのデータは、フレームデインターリーブ部
32に送られて、上記図1のインターリーブ処理の逆処
理となるデインターリーブ処理が施され、主要部(エン
コーダ側でCRC及び畳み込み符号化された部分で、一
般に重要度の高いデータ部分)は復号化部33で復号化
処理されてバッドフレームマスク処理部34に、残部
(符号化処理の施されていない重要度の低いもの)はそ
のままバッドフレームマスク処理部34に、それぞれ送
られる。復号化部33においては、例えばいわゆるビタ
ビ復号化処理やCRCチェックコードを用いたエラー検
出処理が施される。バッドフレームマスク処理部34
は、エラーの多いフレームのパラメータを補間で求める
ような処理を行うと共に、上記ピッチデータ、有声音/
無声音(V/UV)データ、及びベクトル量子化された
振幅データを分離して取り出す。In FIG. 6, a data signal at the input terminal 31 is substantially equal to the data signal taken out from the output terminal 23 on the encoder side shown in FIG. 1 (ignoring signal deterioration due to transmission and recording / reproduction). Is supplied. The data from the input terminal 31 is sent to the frame deinterleave unit 32, subjected to deinterleave processing which is the reverse processing of the interleave processing of FIG. 1 above, and subjected to CRC and convolutional coding on the main portion (encoder side). In the portion, generally, the data portion having high importance) is subjected to decoding processing by the decoding unit 33, and the remaining portion (data of low importance not subjected to the encoding processing) is directly subjected to bad frame mask processing in the bad frame mask processing unit 34. To the section 34. In the decoding unit 33, for example, so-called Viterbi decoding processing or error detection processing using a CRC check code is performed. Bad frame mask processing unit 34
Performs processing such as obtaining a parameter of a frame with many errors by interpolation, and also performs the above pitch data, voiced sound /
Unvoiced sound (V / UV) data and vector-quantized amplitude data are separated and extracted.
【0068】バッドフレームマスク処理部34からの上
記ベクトル量子化された振幅データは、逆ベクトル量子
化部35に送られて逆量子化され、データ数逆変換部3
6に送られて逆変換される。このデータ数逆変換部36
では、上述した図1のデータ数変換部19と対照的な逆
変換が行われ、得られた振幅データが有声音合成部37
及び無声音合成部38に送られる。バッドフレームマス
ク処理部34からの上記ピッチデータは、有声音合成部
37及び無声音合成部38に送られる。またバッドフレ
ームマスク処理部34からの上記V/UV判別データ
も、有声音合成部37及び無声音合成部38に送られ
る。The vector-quantized amplitude data from the bad frame mask processing unit 34 is sent to the inverse vector quantization unit 35 and inversely quantized, and the data number inverse conversion unit 3
It is sent to 6 and is inversely transformed. This data number inverse conversion unit 36
Then, the inverse conversion, which is in contrast to the above-described data number conversion unit 19 of FIG.
And the unvoiced sound synthesizer 38. The pitch data from the bad frame mask processing unit 34 is sent to the voiced sound synthesis unit 37 and the unvoiced sound synthesis unit 38. The V / UV discrimination data from the bad frame mask processing unit 34 is also sent to the voiced sound synthesis unit 37 and the unvoiced sound synthesis unit 38.
【0069】ここで上記ピッチデータ(ピッチ情報伝送
スロット内のデータ)については、ブロック内の全バン
ドがUV(無声音)とされたときには、上述したノイズ
パルス(パルス性ノイズ)の状態を表す情報であるパル
スコードpcがピッチ情報の代わりに送られていること
より、切換スイッチ51に送られており、この切換スイ
ッチ51は、被選択端子aからの出力が有声音合成部3
7に、被選択端子bからの出力が無声音合成部38の後
段のUV窓かけ処理部52に送られている。このUV窓
かけ処理部52の構成及び動作については後述する。Here, the pitch data (data in the pitch information transmission slot) is information indicating the state of the above-described noise pulse (pulse noise) when all bands in the block are UV (unvoiced sound). Since a certain pulse code pc is sent instead of the pitch information, it is sent to the changeover switch 51, and the output from the selected terminal a of this changeover switch 51 is the voiced sound synthesizing unit 3
7, the output from the selected terminal b is sent to the UV windowing processing unit 52 at the subsequent stage of the unvoiced sound synthesizing unit 38. The configuration and operation of the UV windowing processing unit 52 will be described later.
【0070】有声音合成部37では例えば余弦(cosine)
波合成あるいは正弦(sine)波合成により時間軸上の有声
音波形を合成し、無声音合成部38では例えばホワイト
ノイズをバンドパスフィルタでフィルタリングして時間
軸上の無声音波形を合成し、これらの各有声音合成波形
と無声音合成波形とを加算部41で加算合成して、出力
端子42より取り出すようにしている。この場合、上記
振幅データ、ピッチデータ及びV/UV判別データは、
上記分析時の1フレーム(Lサンプル、例えば160サ
ンプル)毎に更新されて与えられるが、フレーム間の連
続性を高める(円滑化する)ために、上記振幅データや
ピッチデータの各値を1フレーム中の例えば中心位置に
おける各データ値とし、次のフレームの中心位置までの
間(合成時の1フレーム)の各データ値を補間により求
める。すなわち、合成時の1フレーム(例えば上記分析
フレームの中心から次の分析フレームの中心まで)にお
いて、先端サンプル点での各データ値と終端(次の合成
フレームの先端)サンプル点での各データ値とが与えら
れ、これらのサンプル点間の各データ値を補間により求
めるようにしている。In the voiced sound synthesizer 37, for example, cosine
The voiced sound waveform on the time axis is synthesized by wave synthesis or sine wave synthesis, and the unvoiced sound synthesis unit 38 synthesizes the unvoiced sound waveform on the time axis by filtering white noise with a bandpass filter, for example. The voiced voice synthesized waveform and the unvoiced voice synthesized waveform are added and synthesized by the adding section 41 and taken out from the output terminal 42. In this case, the amplitude data, pitch data and V / UV discrimination data are
The value is updated and given for each frame (L sample, for example, 160 samples) at the time of the analysis, but in order to enhance (smooth) the continuity between frames, each value of the amplitude data and the pitch data is changed by one frame. For example, each data value at the center position in the inside is calculated, and each data value up to the center position of the next frame (one frame at the time of composition) is obtained by interpolation. That is, in one frame at the time of composition (for example, from the center of the above analysis frame to the center of the next analysis frame), each data value at the leading end sample point and each data value at the end (leading edge of the next composition frame) sample point Are given, and each data value between these sample points is obtained by interpolation.
【0071】また、V/UV判別データとして上記V/
UVコードが伝送された場合には、このV/UVコード
に応じて全バンドを1箇所の区分位置で有声音(V)領
域と無声音(UV)領域とに区分することができ、この
区分に応じて、各バンド毎のV/UV判別データを得る
ことができる。ここで、分析側(エンコーダ側)で一定
数(例えば12程度)のバンドに低減(縮退)されてい
る場合には、これを解いて(復元して)、元のピッチに
応じた間隔で可変個数のバンドとすることは勿論であ
る。Further, the above V / UV is used as V / UV discrimination data.
When the UV code is transmitted, all bands can be divided into a voiced sound (V) region and an unvoiced sound (UV) region at one division position according to this V / UV code. Accordingly, V / UV discrimination data for each band can be obtained. If the analysis side (encoder side) reduces (degenerates) the number of bands to a certain number (for example, about 12), it is solved (restored) and changed at intervals according to the original pitch. Of course, the number of bands is set.
【0072】以下、有声音合成部37における合成処理
を詳細に説明する。上記V(有声音)と判別された第m
バンド(第m高調波の帯域)における時間軸上の上記1
合成フレーム(Lサンプル、例えば160サンプル)分
の有声音をVm (n) とするとき、この合成フレーム内の
時間インデックス(サンプル番号)nを用いて、 Vm (n) =Am (n) cos(θm (n)) 0≦n<L ・・・(9) と表すことができる。全バンドの内のV(有声音)と判
別された全てのバンドの有声音を加算(ΣVm (n) )し
て最終的な有声音V(n) を合成する。The synthesis process in the voiced sound synthesizer 37 will be described in detail below. M-th discriminated as V (voiced sound)
1 on the time axis in the band (band of the mth harmonic)
When a voiced sound for a synthetic frame (L samples, for example 160 samples) is V m (n), V m (n) = A m (n) using the time index (sample number) n in this synthetic frame ) cos (θ m (n)) 0 ≦ n <L (9) The final voiced sound V (n) is synthesized by adding (ΣV m (n)) the voiced sounds of all bands that are determined to be V (voiced sound) of all bands.
【0073】この(9)式中のAm (n) は、上記合成フ
レームの先端から終端までの間で補間された第m高調波
の振幅である。最も簡単には、フレーム単位で更新され
る振幅データの第m高調波の値を直線補間すればよい。
すなわち、上記合成フレームの先端(n=0)での第m
高調波の振幅値をA0m、該合成フレームの終端(n=
L:次の合成フレームの先端)での第m高調波の振幅値
をALmとするとき、 Am (n) = (L-n)A0m/L+nALm/L ・・・(10) の式によりAm (n) を計算すればよい。A m (n) in the equation (9) is the amplitude of the m-th harmonic wave which is interpolated from the beginning to the end of the composite frame. The simplest way is to linearly interpolate the value of the m-th harmonic of the amplitude data updated in frame units.
That is, the m-th frame at the tip (n = 0) of the composite frame
The amplitude value of the harmonic is A 0m , the end of the composite frame (n =
L: the amplitude value of the m-th harmonic at the next composite frame) is A Lm, and the following equation is used: A m (n) = (Ln) A 0m / L + nA Lm / L (10) It suffices to calculate A m (n).
【0074】次に、上記(9)式中の位相θm (n) は、 θm (n) =mωO1n+n2 m(ωL1−ω01)/2L+φ0m+Δωn ・・・(11) により求めることができる。この(11)式中で、φ0mは
上記合成フレームの先端(n=0)での第m高調波の位
相(フレーム初期位相)を示し、ω01は合成フレーム先
端(n=0)での基本角周波数、ωL1は該合成フレーム
の終端(n=L:次の合成フレーム先端)での基本角周
波数をそれぞれ示している。上記(11)式中のΔωは、
n=Lにおける位相φLmがθm (L) に等しくなるような
最小のΔωを設定する。Next, the phase θ m (n) in the above equation (9) is calculated by θ m (n) = mω O1 n + n 2 m (ω L1 −ω 01 ) / 2L + φ 0 m + Δω n (11) You can ask. In the equation (11), φ 0m represents the phase of the m-th harmonic (frame initial phase) at the tip (n = 0) of the composite frame, and ω 01 is at the tip of the composite frame (n = 0). The fundamental angular frequency, ω L1, indicates the fundamental angular frequency at the end of the composite frame (n = L: leading end of the next composite frame). Δω in the above equation (11) is
Set a minimum Δω such that the phase φ Lm at n = L is equal to θ m (L).
【0075】以下、任意の第mバンドにおいて、それぞ
れn=0、n=LのときのV/UV判別結果に応じた上
記振幅Am (n) 、位相θm (n) の求め方を説明する。Hereinafter, how to obtain the amplitude A m (n) and the phase θ m (n) according to the V / UV discrimination result when n = 0 and n = L in an arbitrary m-th band will be described. To do.
【0076】第mバンドが、n=0、n=Lのいずれも
V(有声音)とされる場合に、振幅Am (n) は、上述し
た(10)式により、伝送された振幅値A0m、ALmを直線
補間して振幅Am (n) を算出すればよい。位相θm (n)
は、n=0でθm (0) =φ0mからn=Lでθm (L) がφ
LmとなるようにΔωを設定する。When the m-th band is V (voiced sound) for both n = 0 and n = L, the amplitude A m (n) is the amplitude value transmitted by the above equation (10). The amplitude A m (n) may be calculated by linearly interpolating A 0m and A Lm . Phase θ m (n)
From n 0, θ m (0) = φ 0 m to n = L, θ m (L) is φ
Set Δω to be Lm .
【0077】次に、n=0のときV(有声音)で、n=
LのときUV(無声音)とされる場合に、振幅Am (n)
は、Am (0) の伝送振幅値A0mからAm (L) で0となる
ように直線補間する。n=Lでの伝送振幅値ALmは無声
音の振幅値であり、後述する無声音合成の際に用いられ
る。位相θm (n) は、θm (0) =φ0mとし、かつΔω=
0とする。Next, when n = 0, V (voiced sound) and n =
Amplitude A m (n) when UV (unvoiced sound) when L
Is linearly interpolated so that 0 A m (L) from the transmission amplitude value A 0 m of A m (0). The transmission amplitude value A Lm when n = L is the amplitude value of unvoiced sound and is used in unvoiced sound synthesis described later. The phase θ m (n) is θ m (0) = φ 0 m , and Δω =
Set to 0.
【0078】さらに、n=0のときUV(無声音)で、
n=LのときV(有声音)とされる場合には、振幅Am
(n) は、n=0での振幅Am (0) を0とし、n=Lで伝
送された振幅値ALmとなるように直線補間する。位相θ
m (n) については、n=0での位相θm (0) として、フ
レーム終端での位相値φLmを用いて、 θm (0) =φLm−m(ωO1+ωL1)L/2 ・・・(12) とし、かつΔω=0とする。Further, when n = 0, UV (unvoiced sound)
When n = L, when V (voiced sound) is used, the amplitude A m
(n) is linearly interpolated so that the amplitude A m (0) at n = 0 is 0 and the transmitted amplitude value A Lm is obtained at n = L. Phase θ
For m (n), using the phase value φ Lm at the end of the frame as the phase θ m (0) at n = 0, θ m (0) = φ Lm −m (ω O1 + ω L1 ) L / 2 ... (12) and Δω = 0.
【0079】上記n=0、n=LのいずれもV(有声
音)とされる場合に、θm (L) がφLmとなるようにΔω
を設定する手法について説明する。上記(11)式で、n
=Lと置くことにより、 θm (L) =mωO1L+L2 m(ωL1−ω01)/2L+φ0m+ΔωL =m(ωO1+ωL1)L/2+φ0m+ΔωL =φLm となり、これを整理すると、Δωは、 Δω=(mod2π((φLm−φ0m) − mL(ωO1+ωL1)/2)/L ・・・(13) となる。この(13)式でmod2π(x) とは、xの主値を−
π〜+πの間の値で返す関数である。例えば、x=1.3
πのときmod2π(x) =−0.7π、x=2.3πのときmod2
π(x) =0.3π、x=−1.3πのときmod2π(x) =0.7
π、等である。When both n = 0 and n = L are V (voiced sound), Δω is set so that θ m (L) becomes φ Lm.
A method of setting will be described. In the above formula (11), n
= L, then θ m (L) = mω O1 L + L 2 m (ω L1 − ω 01 ) / 2L + φ 0m + ΔωL = m (ω O1 + ω L1 ) L / 2 + φ 0m + ΔωL = φ Lm . Then, Δω becomes Δω = (mod2π ((φ Lm −φ 0m ) −mL (ω O1 + ω L1 ) / 2) / L (13). In this equation (13), mod 2π (x) Is the principal value of x
It is a function that returns a value between π and + π. For example, x = 1.3
mod2 π (x) = -0.7π when π, mod2 when x = 2.3π
When π (x) = 0.3π and x = -1.3π, mod2π (x) = 0.7
π, and so on.
【0080】次に、無声音合成部38における無声音合
成処理を以下に説明する。ホワイトノイズ発生部43か
らの時間軸上のホワイトノイズ信号波形を窓かけ処理部
44に送って、所定の長さ(例えば256サンプル)で
適当な窓関数(例えばハミング窓)により窓かけをし、
STFT処理部45によりSTFT(ショートタームフ
ーリエ変換)処理を施すことにより、ホワイトノイズの
周波数軸上のパワースペクトルを得る。このSTFT処
理部45からのパワースペクトルをバンド振幅処理部4
6に送り、上記UV(無声音)とされたバンドについて
上記振幅|Am |UVを乗算し、他のV(有声音)とされ
たバンドの振幅を0にする。このバンド振幅処理部46
には上記振幅データ、ピッチデータ、V/UV判別デー
タが供給されている。Next, the unvoiced sound synthesizing process in the unvoiced sound synthesizing section 38 will be described below. The white noise signal waveform on the time axis from the white noise generation unit 43 is sent to the windowing processing unit 44, and windowed by a suitable window function (for example, Hamming window) with a predetermined length (for example, 256 samples),
The STFT (Short Term Fourier Transform) process is performed by the STFT processing unit 45 to obtain the power spectrum of the white noise on the frequency axis. The power spectrum from the STFT processing unit 45 is used as the band amplitude processing unit 4
6 is multiplied by the amplitude | A m | UV for the band designated as UV (unvoiced sound), and the amplitude of the other band designated as V (voiced sound) is set to zero. This band amplitude processing unit 46
The amplitude data, pitch data, and V / UV discrimination data are supplied to.
【0081】バンド振幅処理部46からの出力は、IS
TFT処理部47に送られ、位相は元のホワイトノイズ
の位相を用いて逆STFT処理を施すことにより時間軸
上の信号に変換する。ISTFT処理部47からの出力
は、オーバーラップ加算部48に送られ、時間軸上で適
当な(元の連続的なノイズ波形を復元できるように)重
み付けをしながらオーバーラップ及び加算を繰り返し、
連続的な時間軸波形を合成する。このオーバーラップ加
算部48からの出力信号が、無声音合成部38からの出
力として、後述するUV窓かけ処理部52を介して、上
記加算部41に送られる。The output from the band amplitude processing unit 46 is IS
The signal is sent to the TFT processing unit 47, and the phase is converted into a signal on the time axis by performing inverse STFT processing using the phase of the original white noise. The output from the ISTFT processing unit 47 is sent to the overlap adding unit 48, and the overlap and addition are repeated while appropriate weighting (so that the original continuous noise waveform can be restored) on the time axis,
Synthesize continuous time axis waveforms. The output signal from the overlap adding section 48 is sent to the adding section 41 as an output from the unvoiced sound synthesizing section 38 via a UV windowing processing section 52 described later.
【0082】このように、各合成部37、38において
合成されて時間軸上に戻された有声音部及び無声音部の
各信号は、加算部41により適当な固定の混合比で加算
して、出力端子42より再生された音声信号を取り出
す。In this way, the signals of the voiced sound part and the unvoiced sound part which are combined in the combining parts 37 and 38 and returned on the time axis are added by the adding part 41 at an appropriate fixed mixing ratio, The reproduced audio signal is taken out from the output terminal 42.
【0083】フレーム内のバンドの少なくとも1つがV
(有声音)の場合には、上述したような処理が各合成部
37、38にて行われるわけであるが、フレーム内の全
バンドがUV(無音声)と判別されたときには、切換ス
イッチ51が被選択端子b側に切換接続され、ピッチ情
報の代わりに無声音信号のパルス性ノイズに関する情報
(上記パルスコードpc)がUV窓かけ処理部52に送
られる。At least one of the bands in the frame is V
In the case of (voiced sound), the above-described processing is performed in each of the synthesizing units 37 and 38. However, when it is determined that all bands in the frame are UV (unvoiced), the changeover switch 51 is used. Is switched and connected to the selected terminal b side, and the information (pulse code pc) regarding the pulse noise of the unvoiced signal is sent to the UV windowing processing unit 52 instead of the pitch information.
【0084】すなわち、UV窓かけ処理部52には、上
記図1のパルス分類部27からの上記パルスコードpc
が供給される。このUV窓かけ処理部52において、パ
ルス発生のための窓関数W[i]としては、図7に示す
ように、 W[i]=(i/11)2 0≦i≦11 =((23-i)/11)2 12≦i≦22 =0 23≦i この窓関数W[i]において、iはフレーム(例えば1
60サンプル)内のサンプル番号あるいはサンプル位置
であり、サンプリング周波数fsを8kHzとしている。That is, the UV windowing processing unit 52 has the pulse code pc from the pulse classification unit 27 of FIG.
Is supplied. In the UV windowing processing unit 52, as a window function W [i] for pulse generation, as shown in FIG. 7, W [i] = (i / 11) 2 0 ≦ i ≦ 11 = ((23 -i) / 11) 2 12 ≦ i ≦ 22 = 0 23 ≦ i In this window function W [i], i is a frame (for example, 1
The sampling frequency fs is 8 kHz.
【0085】また、この窓関数W[i]に乗算されるパ
ルスゲインgp は、有声音(少なくとも1バンドが有声
音)のとき、gp =0、無声音(全バンドが無声音)の
とき、gp =pcとする。このUV窓かけ処理が施され
た出力信号SW [i]は、無声音合成部38からの出力
信号をSUV[i]として、 SW [i]=SUV[i]×(1+gp ×W[i]) となる。図8は、この式中の無声音信号SUV[i]に対
する乗算係数(1+gp×W[i])を示すグラフであ
る。Further, the pulse gain g p by which the window function W [i] is multiplied is g p = 0 when voiced sound (at least one band is voiced sound), and when unvoiced sound (all bands are unvoiced sound), Let g p = pc. The output signal S W [i] that has been subjected to the UV windowing process is S W [i] = S UV [i] × (1 + g p ×), where S UV [i] is the output signal from the unvoiced sound synthesizer 38. W [i]). FIG. 8 is a graph showing the multiplication coefficient (1 + g p × W [i]) for the unvoiced sound signal S UV [i] in this equation.
【0086】以上のようにして合成され、窓かけ処理さ
れた無声音信号がUV窓かけ処理部52から取り出さ
れ、上記加算部41に送られて、有声音合成部37から
の信号と加算され、出力端子42より最終的な音声信号
が取り出される。The unvoiced sound signal synthesized and windowed as described above is taken out from the UV windowing processing section 52, sent to the addition section 41, and added with the signal from the voiced sound synthesis section 37. The final audio signal is taken out from the output terminal 42.
【0087】なお、上記図1の音声分析側(エンコード
側)の構成や図6の音声合成側(デコード側)の構成に
ついては、各部をハードウェア的に記載しているが、い
わゆるDSP(ディジタル信号プロセッサ)等を用いて
ソフトウェアプログラムにより実現することも可能であ
る。Regarding the configuration on the speech analysis side (encoding side) in FIG. 1 and the configuration on the speech synthesis side (decoding side) in FIG. 6, although each unit is described as hardware, a so-called DSP (digital It is also possible to realize it by a software program using a signal processor or the like.
【0088】なお、本発明は上記実施例のみに限定され
るものではなく、例えば、上記図1の音声分析側(エン
コード側)の構成や図6の音声合成側(デコード側)の
構成については、各部をハードウェア的に記載している
が、いわゆるDSP(ディジタル信号プロセッサ)等を
用いてソフトウェアプログラムにより実現することも可
能である。また、本発明が適用される高能率符号化方法
は、上記マルチバンド励起を用いた音声分析/合成方法
に限定されるものではなく、有声音部分に正弦波合成を
用いたり、無声音部分をノイズ信号に基づいて合成する
ような種々の音声分析/合成方法に適用でき、用途とし
ても、伝送や記録再生に限定されず、ピッチ変換やスピ
ード変換、あるいは雑音抑圧のような種々の用途に応用
できることは勿論である。The present invention is not limited to the above-mentioned embodiment, and for example, regarding the configuration of the voice analysis side (encoding side) of FIG. 1 and the configuration of the voice synthesis side (decoding side) of FIG. Although each unit is described as hardware, it can be realized by a software program using a so-called DSP (digital signal processor) or the like. Further, the high-efficiency coding method to which the present invention is applied is not limited to the voice analysis / synthesis method using the above-mentioned multiband excitation, and the sine wave synthesis is used for the voiced sound portion or the unvoiced sound portion is subjected to noise. It can be applied to various voice analysis / synthesis methods such as synthesis based on signals, and is not limited to transmission or recording / reproduction, but can be applied to various uses such as pitch conversion, speed conversion, or noise suppression. Of course.
【0089】[0089]
【発明の効果】以上の説明から明らかなように、本発明
に係る音声信号の符号化装置によれば、入力音声信号を
時間軸上でブロック単位で区分して各ブロック単位で符
号化を行う音声信号の符号化装置において、各ブロック
毎に有声音か無声音かを判別し、上記入力信号の上記ブ
ロック内の最大値を検出し、この検出された最大値近傍
の小ブロックの平均レベルと前後の小ブロックの各平均
レベルと算出して、これらの各小ブロックの平均レベル
に基づいてパルス性ノイズか否かを分類すると共にパル
ス性ノイズの状態を示す情報を求めて伝送しているた
め、このパルス性ノイズの状態を合成側で知ることがで
き、子音等の不明瞭感や残響感の発生を未然に防止する
ことができる。また、無声音(UV)と判別されたブロ
ックでは、ピッチ情報を送る必要がないことから、この
ピッチ情報を送るためのスロットに上記無声音のパルス
性ノイズの状態を示す情報を入れ込んで送ることによ
り、データ伝送量を増やすことなく、再生音(合成音)
の質を高めることができる。As is apparent from the above description, according to the audio signal encoding apparatus of the present invention, the input audio signal is divided into blocks on the time axis and encoded in each block. In the audio signal encoding device, it is determined whether voiced sound or unvoiced sound is included in each block, the maximum value in the block of the input signal is detected, and the average level of small blocks near the detected maximum value and the front and rear Calculated as each average level of the small blocks, to classify whether or not it is pulse noise based on the average level of each of these small blocks, and to obtain and transmit information indicating the state of pulse noise, The state of this pulse noise can be known on the synthesis side, and the occurrence of unclearness or reverberation such as consonants can be prevented in advance. In addition, since it is not necessary to send pitch information in a block determined to be unvoiced (UV), it is possible to insert information indicating the state of the unvoiced pulse noise into the slot for sending this pitch information and send it. , Playback sound (synthesized sound) without increasing the amount of data transmission
Can improve the quality of.
【0090】また、本発明に係る音声信号の復号化装置
によれば、音声信号の符号化装置から、入力音声信号を
時間軸上でブロック化した各ブロック毎に、有声音か無
声音かの判別情報と、ピッチ情報と、スペクトルの振幅
情報と、無声音と判別されたブロック内のパルス性ノイ
ズの状態を示す情報とが供給される音声信号の復号化装
置であって、上記判別情報、ピッチ情報、振幅情報に基
づいて有声音及び無声音をそれぞれ合成し、上記パルス
性ノイズの状態を示す情報に基づいて上記無声音合成部
からの無声音信号に窓かけ処理を施しているため、合成
側で無声音とされたブロック内のパルス性ノイズの状態
を再現することができ、s,t,p,k等の強い子音の
再現性を向上することができる。Further, according to the audio signal decoding apparatus of the present invention, it is determined from the audio signal encoding apparatus whether the input audio signal is divided into blocks on the time axis, that is, voiced sound or unvoiced sound. Information, pitch information, spectrum amplitude information, and a decoding device of a voice signal to which information indicating the state of pulse noise in a block that is determined to be unvoiced is supplied, wherein the determination information, pitch information , The voiced sound and the unvoiced sound are respectively synthesized based on the amplitude information, and since the unvoiced sound signal from the unvoiced sound synthesis unit is subjected to the windowing process based on the information indicating the state of the pulse noise, the unvoiced sound is generated on the synthesis side. It is possible to reproduce the state of pulsed noise in the generated block, and improve the reproducibility of strong consonants such as s, t, p, and k.
【図1】本発明に係る音声信号の符号化装置の一実施例
として、音声信号の分析/合成符号化装置の分析側の概
略構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing a schematic configuration on an analysis side of a speech signal analysis / synthesis encoding apparatus as an embodiment of a speech signal encoding apparatus according to the present invention.
【図2】窓かけ処理を説明するための図である。FIG. 2 is a diagram for explaining a windowing process.
【図3】窓かけ処理と窓関数との関係を説明するための
図である。FIG. 3 is a diagram for explaining a relationship between windowing processing and a window function.
【図4】直交変換(FFT)処理対象としての時間軸デ
ータを示す図である。FIG. 4 is a diagram showing time axis data as an object of orthogonal transform (FFT) processing.
【図5】周波数軸上のスペクトルデータ、スペクトル包
絡線(エンベロープ)及び励起信号のパワースペクトル
を示す図である。FIG. 5 is a diagram showing spectrum data on a frequency axis, a spectrum envelope (envelope), and a power spectrum of an excitation signal.
【図6】本発明に係る音声信号の復号化装置の実施例と
しての音声信号の分析/合成符号化装置の合成側の概略
構成を示す機能ブロック図である。FIG. 6 is a functional block diagram showing a schematic configuration on the synthesizing side of a speech signal analysis / synthesis coding apparatus as an embodiment of a speech signal decoding apparatus according to the present invention.
【図7】UV窓かけ処理部において用いられる窓関数の
一例を示すグラフである。FIG. 7 is a graph showing an example of a window function used in the UV windowing processing section.
【図8】UV窓かけ処理部において無声音信号に乗算さ
れる信号の一例を示すグラフである。FIG. 8 is a graph showing an example of a signal that is multiplied by an unvoiced sound signal in the UV windowing processing unit.
13・・・・・ピッチ抽出部 14・・・・・窓かけ処理部 15・・・・・直交変換(FFT)部 16・・・・・高精度(ファイン)ピッチサーチ部 17・・・・・有声音/無声音(V/UV)判別部 18V・・・・・有声音の振幅評価部 18U・・・・・無声音の振幅評価部 19・・・・・データ数変換(データレートコンバー
ト)部 20、27・・・・・ベクトル量子化部 24・・・・・最大値検出部 26・・・・・局所RMS算出部 27・・・・・パルス分類部 28、51・・・・・切換スイッチ 37・・・・・有声音合成部 38・・・・・無声音合成部 41・・・・・加算部 43・・・・・ホワイトノイズ発生部 44・・・・・窓かけ処理部 46・・・・・バンド振幅処理部 48・・・・・オーバーラップ加算部 52・・・・・UV窓かけ処理部13 Pitch extraction unit 14 Window processing unit 15 Orthogonal transform (FFT) unit 16 High precision (fine) pitch search unit 17 Voiced / unvoiced (V / UV) discriminating unit 18V: Voiced sound amplitude evaluation unit 18U: Unvoiced amplitude evaluation unit 19: Data number conversion (data rate conversion) unit 20, 27 ... Vector quantizer 24 ... Maximum value detector 26 ... Local RMS calculator 27 ... Pulse classifier 28, 51. Switch 37: Voiced sound synthesis section 38: Unvoiced sound synthesis section 41: Addition section 43: White noise generation section 44: Windowing processing section 46. .... Band amplitude processing unit 48 ... Overlap addition unit 52 ··· UV windowing processing unit
Claims (7)
で区分して各ブロック単位で符号化を行う音声信号の符
号化装置において、 各ブロック毎に有声音か無声音かを判別する手段と、 上記入力信号の上記ブロック内の最大値を検出する手段
と、 この検出された最大値近傍の小ブロックの平均レベルと
前後の小ブロックの各平均レベルと算出する手段と、 これらの各小ブロックの平均レベルに基づいてパルス性
ノイズか否かを分類すると共にパルス性ノイズの状態を
示す情報を求める手段とを有することを特徴とする音声
信号の符号化装置。1. An audio signal encoding apparatus for dividing an input audio signal into blocks on a time axis and encoding each block, and means for determining whether each block is voiced or unvoiced. Means for detecting the maximum value of the input signal in the block, means for calculating the average level of the small blocks near the detected maximum value and each average level of the preceding and following small blocks, and And a means for classifying whether or not it is pulse noise based on the average level and obtaining information indicating the state of pulse noise.
は、上記無声音と判別されたとき、上記有声音判別時の
ピッチ情報に代えて送ることを特徴とする請求項1記載
の音声信号の符号化装置。2. The code of the voice signal according to claim 1, wherein the information indicating the state of the pulse noise is sent in place of the pitch information at the time of the voiced sound determination when the voiceless sound is determined. Device.
レベル、信号のゼロクロスカウント数、及びピッチ検出
のためのLPC残差の自己相関の最大値の少なくとも1
つを用いて判別を行うことを特徴とする請求項1又は2
記載の音声信号の符号化装置。3. The voiced sound / unvoiced sound discrimination means is at least one of the maximum value of the signal level, the number of zero-cross counts of the signal, and the LPC residual autocorrelation for pitch detection.
3. The method according to claim 1, wherein the determination is performed using one of the two.
An audio signal encoding device as described.
た音声分析/合成方法により音声信号の符号化が行われ
ることを特徴とする請求項1、2又は3記載の音声信号
の符号化装置。4. The speech signal coding apparatus according to claim 1, wherein the speech signal is coded by a speech analysis / synthesis method using multi-band excitation.
大値が存在するとき、次のブロックの最大値サーチ開始
位置を、前ブロックの上記平均レベル検出のための小ブ
ロックの終了点の次の位置とすることを特徴とする請求
項1、2、3又は4記載の音声信号の符号化装置。5. When the maximum value exists near the end position in the block, the maximum value search start position of the next block is set to the position next to the end point of the small block for detecting the average level of the previous block. The audio signal encoding device according to claim 1, 2, 3, or 4, wherein the position is a position.
して、上記最大値が存在する上記小ブロックの平均rm
s値r1と、該小ブロックの次の小ブロックの平均rm
s値r2との比r1/r2を用いることを特徴とする請
求項1、2、3、4又は5記載の音声信号の符号化装
置。6. The average rm of the small blocks having the maximum value as information indicating the state of the pulse noise.
s value r1 and the average rm of the next small blocks of the small block
6. The audio signal coding apparatus according to claim 1, wherein a ratio r1 / r2 to the s value r2 is used.
号を時間軸上でブロック化した各ブロック毎に、有声音
か無声音かの判別情報と、ピッチ情報と、スペクトルの
振幅情報と、無声音と判別されたブロック内のパルス性
ノイズの状態を示す情報とが供給される音声信号の復号
化装置であって、 上記判別情報、ピッチ情報、振幅情報に基づいて有声音
を合成する有声音合成部と、 上記判別情報、ピッチ情報、振幅情報に基づいて無声音
を合成する無声音合成部と、 上記パルス性ノイズの状態を示す情報に基づいて上記無
声音合成部からの無声音信号に窓かけ処理を施す無声音
窓かけ処理部とを有することを特徴とする音声信号の復
号化装置。7. A voice signal encoding device, which blocks an input voice signal on a time axis, for each block, discriminates whether voiced sound or unvoiced sound, pitch information, spectrum amplitude information, and unvoiced sound. A device for decoding a voice signal supplied with information indicating a state of pulsed noise in a block determined to be a voiced sound synthesis for synthesizing a voiced sound based on the above determination information, pitch information, and amplitude information. Section, an unvoiced sound synthesizing section for synthesizing unvoiced sound based on the discrimination information, the pitch information, and the amplitude information, and a windowing process for the unvoiced sound signal from the unvoiced sound synthesizing section based on the information indicating the state of the pulse noise. A voice signal decoding device, comprising: an unvoiced windowing processing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5245745A JPH07104793A (en) | 1993-09-30 | 1993-09-30 | Encoding device and decoding device for voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP5245745A JPH07104793A (en) | 1993-09-30 | 1993-09-30 | Encoding device and decoding device for voice |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH07104793A true JPH07104793A (en) | 1995-04-21 |
Family
ID=17138170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5245745A Withdrawn JPH07104793A (en) | 1993-09-30 | 1993-09-30 | Encoding device and decoding device for voice |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH07104793A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049383A (en) * | 2000-08-02 | 2002-02-15 | Sony Corp | Digital signal processing method and learning method and their devices, and program storage medium |
WO2006121101A1 (en) * | 2005-05-13 | 2006-11-16 | Matsushita Electric Industrial Co., Ltd. | Audio encoding apparatus and spectrum modifying method |
-
1993
- 1993-09-30 JP JP5245745A patent/JPH07104793A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002049383A (en) * | 2000-08-02 | 2002-02-15 | Sony Corp | Digital signal processing method and learning method and their devices, and program storage medium |
JP4645867B2 (en) * | 2000-08-02 | 2011-03-09 | ソニー株式会社 | DIGITAL SIGNAL PROCESSING METHOD, LEARNING METHOD, DEVICE THEREOF, AND PROGRAM STORAGE MEDIUM |
WO2006121101A1 (en) * | 2005-05-13 | 2006-11-16 | Matsushita Electric Industrial Co., Ltd. | Audio encoding apparatus and spectrum modifying method |
JP4982374B2 (en) * | 2005-05-13 | 2012-07-25 | パナソニック株式会社 | Speech coding apparatus and spectrum transformation method |
US8296134B2 (en) | 2005-05-13 | 2012-10-23 | Panasonic Corporation | Audio encoding apparatus and spectrum modifying method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3277398B2 (en) | Voiced sound discrimination method | |
JP3475446B2 (en) | Encoding method | |
KR100427753B1 (en) | Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus | |
JP5373217B2 (en) | Variable rate speech coding | |
KR20020052191A (en) | Variable bit-rate celp coding of speech with phonetic classification | |
JPH096397A (en) | Voice signal reproducing method, reproducing device and transmission method | |
JPH0869299A (en) | Voice coding method, voice decoding method and voice coding/decoding method | |
JP3680374B2 (en) | Speech synthesis method | |
JP3687181B2 (en) | Voiced / unvoiced sound determination method and apparatus, and voice encoding method | |
JP3297751B2 (en) | Data number conversion method, encoding device and decoding device | |
JPH07199997A (en) | Processing method of sound signal in processing system of sound signal and shortening method of processing time in itsprocessing | |
JP3362471B2 (en) | Audio signal encoding method and decoding method | |
JP2001249698A (en) | Method for acquiring sound encoding parameter, and method and device for decoding sound | |
JP2000132193A (en) | Signal encoding device and method therefor, and signal decoding device and method therefor | |
JPH05297895A (en) | High-efficiency encoding method | |
JPH07104793A (en) | Encoding device and decoding device for voice | |
JP3321933B2 (en) | Pitch detection method | |
JP3271193B2 (en) | Audio coding method | |
JP3398968B2 (en) | Speech analysis and synthesis method | |
JP3218681B2 (en) | Background noise detection method and high efficiency coding method | |
JP3297750B2 (en) | Encoding method | |
JP3223564B2 (en) | Pitch extraction method | |
JPH0744194A (en) | High-frequency encoding method | |
JP3221050B2 (en) | Voiced sound discrimination method | |
JPH07104777A (en) | Pitch detecting method and speech analyzing and synthesizing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20001226 |