JP3141853B2 - Audio signal processing method - Google Patents

Audio signal processing method

Info

Publication number
JP3141853B2
JP3141853B2 JP10264698A JP26469898A JP3141853B2 JP 3141853 B2 JP3141853 B2 JP 3141853B2 JP 10264698 A JP10264698 A JP 10264698A JP 26469898 A JP26469898 A JP 26469898A JP 3141853 B2 JP3141853 B2 JP 3141853B2
Authority
JP
Japan
Prior art keywords
band
signal
block
audio signal
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10264698A
Other languages
Japanese (ja)
Other versions
JPH11196056A (en
Inventor
京弥 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP10264698A priority Critical patent/JP3141853B2/en
Publication of JPH11196056A publication Critical patent/JPH11196056A/en
Application granted granted Critical
Publication of JP3141853B2 publication Critical patent/JP3141853B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、オーディオ信号を
いわゆるブロックフローティング処理して圧縮してなる
圧縮符号化信号からオーディオ信号を復元するオーディ
オ信号処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio signal processing method for restoring an audio signal from a compression-coded signal obtained by compressing an audio signal by performing so-called block floating processing.

【0002】[0002]

【従来の技術】従来より、オーディオ信号処理方法とし
て、オーディオ信号を圧縮して符号化する高能率符号化
技術には、例えば、入力オーディオ信号(ディジタルオ
ーディオデータ)を所定時間毎(所定時間フレーム毎)
に周波数軸上で複数のブロックに分割し、この各ブロッ
ク毎にいわゆるブロックフローティング処理を施すと共
に、各ブロック毎のデータを適応的なビット割り当てで
量子化するものがある。
2. Description of the Related Art Conventionally, as an audio signal processing method, a high-efficiency encoding technique for compressing and encoding an audio signal includes, for example, an input audio signal (digital audio data) at a predetermined time (a predetermined time frame). )
There is a method in which data is divided into a plurality of blocks on the frequency axis, so-called block floating processing is performed for each block, and data for each block is quantized by adaptive bit allocation.

【0003】ここで、上記ブロックフローティング処理
は、基本的には、ブロック内の各ワードに共通の値を掛
けて大きくし、量子化時の精度を上げるものであるが、
具体的には、例えばブロック内の各ワードの絶対値の内
で最も大きなもの(最大絶対値)を探し出し、この最大
絶対値が飽和しないような当該ブロック内の全ワードに
対して共通のフローティング係数を用いてフローティン
グ処理を行うものが一例としてある。より簡易なものと
しては、ビットシフトを利用する6dB単位のフローテ
ィングもある。
Here, the above-mentioned block floating processing is basically to increase the precision at the time of quantization by multiplying each word in the block by a common value to increase the precision.
Specifically, for example, the largest (maximum absolute value) among the absolute values of the words in the block is searched for, and a floating coefficient common to all the words in the block such that the maximum absolute value is not saturated. Is an example in which a floating process is performed by using a. As a simpler method, there is a 6 dB unit floating using a bit shift.

【0004】ところで、上記ブロックフローティング処
理を行うオーディオ信号処理方法が適用されるシステム
のエンコーダ側では、通常、ブロックフローティング処
理に関連するパラメータBFとして、例えば、フローテ
ィング係数としてのスケールファクタSFの値と、上記
スケールファクタSFといわゆるマスキング効果を考慮
して各ブロック毎に求められる許容可能なノイズレベル
との差を示すワード長WLのデータとを、量子化された
ブロックのデータ(以下例えばメイン情報とする)と共
に媒体に記録若しくは伝送することが行われる。
On the encoder side of a system to which the audio signal processing method for performing the block floating processing is applied, usually, for example, a value of a scale factor SF as a floating coefficient, The data of the word length WL indicating the difference between the scale factor SF and the allowable noise level obtained for each block in consideration of the so-called masking effect is referred to as quantized block data (hereinafter referred to as main information, for example). ) Together with recording or transmission on a medium.

【0005】なお、上記マスキング効果とは、人間の聴
覚特性により、ある音により他の音がマスクされて聞こ
えなくなる現象を言う。換言すれば、上記マスキングと
は、ある信号によって他の信号がマスクされて聞こえな
くなる現象をいうものであり、このマスキング効果に
は、時間軸上のオーディオ信号による時間軸マスキング
効果と、周波数軸上の信号による同時刻マスキング効果
とがある。これらのマスキング効果により、マスキング
される部分にノイズがあったとしても、このノイズは聞
こえないことになる。このため、実際のオーディオ信号
では、このマスキングされる範囲内のノイズは許容可能
なノイズとされる。
[0005] The masking effect refers to a phenomenon in which a certain sound is masked by another sound and becomes inaudible due to human auditory characteristics. In other words, the masking is a phenomenon in which a certain signal masks another signal and makes it inaudible. This masking effect includes a time-axis masking effect by an audio signal on a time axis and a masking effect on a frequency axis. And the same time masking effect by the signal of Due to these masking effects, even if noise is present in the masked portion, this noise will not be heard. For this reason, in an actual audio signal, the noise within the masked range is regarded as acceptable noise.

【0006】[0006]

【発明が解決しようとする課題】ここで、従来のオーデ
ィオ信号処理方法が適用されるシステムのエンコーダ側
では、上記記録又は伝送されるパラメータBFの個数は
すべての時間フレームに対して固定しておくものが一般
的である。図9は従来のオーディオ信号処理システムの
エンコーダ側での各時間フレーム内のデータの記録(或
いは伝送)の様子を示したものである。この図9の例の
場合、実際にはビットが割り振られないブロックに対し
てもそのパラメータBFの値を記録又は伝送する必要が
あり、したがって、その分だけ音声データに対して割り
当てられるビット数が少なくなり、特に、圧縮率が高い
場合(ビットレートが低い場合)には、上記エンコーダ
側に対応するデコーダ側(オーディオ信号処理システム
のデコーダ側)で十分な音質を確保することが困難であ
った。
On the encoder side of a system to which the conventional audio signal processing method is applied, the number of the recorded or transmitted parameters BF is fixed for all time frames. Things are common. FIG. 9 shows how data in each time frame is recorded (or transmitted) on the encoder side of the conventional audio signal processing system. In the case of the example of FIG. 9, it is necessary to record or transmit the value of the parameter BF even for a block to which bits are not actually allocated. Therefore, the number of bits allocated to the audio data is correspondingly large. In particular, when the compression rate is high (when the bit rate is low), it is difficult to ensure sufficient sound quality on the decoder side (decoder side of the audio signal processing system) corresponding to the encoder side. .

【0007】これに対し、図10に示すように、実際に
ビットが割り振られないブロック (ワード長WL=0の
ブロック)に対しては上記スケールファクタSFの値を
記録又は伝送せずに、その分だけ音声データに多くのビ
ットを割り振るようにするシステムも提案されている。
この図10においては、ビットが割り当てられていない
ブロック(0ビット割り当てのブロック)4個の分だけ
記録されているスケールファクタSFの個数が減ってい
る。
On the other hand, as shown in FIG. 10, for a block to which bits are not actually allocated (a block having a word length WL = 0), the value of the scale factor SF is not recorded or transmitted, and A system that allocates as many bits to audio data as possible has also been proposed.
In FIG. 10, the number of scale factors SF recorded by four blocks to which no bits are allocated (blocks to which 0 bits are allocated) is reduced.

【0008】ただし、この場合、上記ワード長WLのデ
ータは、常に記録又は伝送する必要がある。また、後の
デコーダ側で上記スケールファクタSFを読み込む時に
そのブロックのワード長WLが0でないかどうかブロッ
ク毎にチェックする必要がある。
However, in this case, the data having the word length WL needs to be always recorded or transmitted. When the scale factor SF is read on the subsequent decoder side, it is necessary to check for each block whether the word length WL of the block is not 0.

【0009】更に、エンコーダ側では、通常、上記マス
キングを求めるための計算等により各ブロックのオーデ
ィオ信号を量子化するために必要なビット数を計算した
後、その時間フレームに割り当てられた総ビット数との
比較を行ない、各ブロックへのビット割り当ての調整を
行なうようになされる。ところが、このとき、上述のよ
うに各ブロックのビット割り当てによってそのブロック
のスケールファクタSFを記録するかどうかが変化する
と、それに伴い、上記メイン情報(音声データ)に割り
当てることのできるビットの総数も変化し、ビット割り
当ての調整が非常に複雑になる。したがって、後のデコ
ーダ側でも復号化のための処理が複雑になってしまう虞
がある。
Further, on the encoder side, usually, after calculating the number of bits necessary for quantizing the audio signal of each block by a calculation or the like for obtaining the masking, the total number of bits allocated to the time frame is calculated. And the adjustment of the bit allocation to each block is performed. However, at this time, if the scale factor SF of the block changes depending on the bit allocation of each block as described above, the total number of bits that can be allocated to the main information (audio data) also changes accordingly. Then, the adjustment of the bit allocation becomes very complicated. Therefore, there is a possibility that the decoding process becomes complicated on the subsequent decoder side.

【0010】そこで、本発明は、上述のような実情に鑑
みて提案されたものであり、エンコーダ側でのビット割
り当ての調整を比較的容易にしてビット割り当ての調整
を行ったとしても、デコード側にて音質を劣化させるこ
となく良好なオーディオ信号を復元することができるオ
ーディオ信号処理方法を提供することを目的とするもの
である。
Therefore, the present invention has been proposed in view of the above-mentioned situation, and even if the bit allocation is adjusted relatively easily on the encoder side and the bit allocation is adjusted, the decoding It is an object of the present invention to provide an audio signal processing method capable of restoring a good audio signal without deteriorating sound quality.

【0011】[0011]

【課題を解決するための手段】本発明のオーディオ信号
処理方法は、上述の目的を達成するために提案されたも
のであり、オーディオ信号を所定の時間フレーム毎に周
波数軸上で複数分割した各ブロック毎にブロックフロー
ティング処理を施し当該各ブロック毎のデータを適応的
なビット割り当てで量子化した量子化信号と、ブロック
フローティング処理に関連する各ブロック毎のパラメー
タのうち時間フレーム毎に必要な帯域までのパラメータ
と、当該時間フレーム毎のパラメータの個数情報とを有
してなる符号化信号から、オーディオ信号を復元するオ
ーディオ信号処理方法であり、符号化信号からパラメー
タの個数情報を取り出し、パラメータの個数情報に応じ
て符号化信号からパラメータを取り出し、パラメータに
基づいて符号化信号から量子化信号を取り出し、パラメ
ータの個数情報及びパラメータに基づいて量子化信号か
らオーディオ信号を復元するようにしたものである。
SUMMARY OF THE INVENTION An audio signal processing method according to the present invention has been proposed in order to achieve the above-mentioned object, and each audio signal is divided into a plurality of audio signals on a frequency axis at predetermined time frames. Up to a quantized signal obtained by performing block floating processing for each block and quantizing data of each block by adaptive bit allocation, and a band required for each time frame among parameters of each block related to the block floating processing. Is an audio signal processing method for restoring an audio signal from a coded signal having the parameters of the above-described parameters and the number of parameters of each time frame. The number of parameters is extracted from the coded signal. The parameters are extracted from the encoded signal according to the information, and the encoded signal is Removed quantized signals from, in which so as to restore the audio signal from the quantized signal based on the number information and the parameter in the parameter.

【0012】すなわち、時間フレーム毎に実際に記録又
は伝送されるオーディオ信号の帯域として、例えば、実
際に知覚され難い(耳に聞こえ難い)という理由から高
域の記録又は伝送を行わないようにした場合には、その
時間フレームの当該高域のブロックのパラメータ(スケ
ールファクタ,ワード長の値)を記録又は伝送しないよ
うにして、その分のビットを聴感上重要な低域のメイン
情報(ブロックの量子化されたデータ)のために割り振
るようにしている。この場合、記録又は伝送されるデー
タは、この低域のパラメータと当該メイン情報となる。
また、この場合は、時間フレーム毎に記録又は伝送され
るパラメータの個数も記録する(或いは伝送する)よう
にしている。したがって、これらパラメータの個数とパ
ラメータに基づいてメイン情報を復号化すれば、良好な
音質のオーディオ信号を再現できる。
That is, as a band of an audio signal that is actually recorded or transmitted for each time frame, for example, high-range recording or transmission is not performed because it is hardly perceived (it is hard to hear). In such a case, the parameters (scale factor, word length value) of the high-frequency block in the time frame are not recorded or transmitted, and the bits corresponding to the high-frequency frequency information are stored in the low-frequency main information (block (Quantized data). In this case, the data to be recorded or transmitted is the low frequency parameters and the main information.
In this case, the number of parameters recorded or transmitted for each time frame is also recorded (or transmitted). Therefore, if the main information is decoded based on the number and parameters of these parameters, an audio signal with good sound quality can be reproduced.

【0013】このように、本発明のオーディオ信号処理
方法によれば、符号化信号には、量子化信号と共に、各
ブロック毎のパラメータのうち時間フレーム毎に必要な
帯域までのパラメータと、当該パラメータの個数が含ま
れるため、この符号化信号に含まれるパラメータ及びパ
ラメータの個数を用いて量子化信号に復号化の処理を施
せば、高品質のオーディオ信号を復元できる。
As described above, according to the audio signal processing method of the present invention, the coded signal, together with the quantized signal, of the parameters for each block, up to the band required for each time frame, Therefore, if a quantization process is performed on the quantized signal using the parameters included in the encoded signal and the number of parameters included in the encoded signal, a high-quality audio signal can be restored.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0015】本実施の形態のエンコーダ側でのオーディ
オ信号処理方法は、時系列の入力オーディオ信号TSを
所定の時間フレーム毎に周波数軸の信号(スペクトル信
号SP)に変換し、このスペクトル信号SPを帯域毎の
ブロックに分割し、各ブロック毎にブロックフローティ
ング処理を施し、各ブロック毎のデータを適応的なビッ
ト割り当てで量子化し、当該量子化されたオーディオ信
号を記録又は伝送すると共に、上記ブロックフローティ
ング処理に関連するパラメータBFとしてのフローティ
ング係数(スケールファクタSF)とワード長WLのデ
ータとを記録又は伝送するオーディオ信号処理方法であ
って、図1に示すように、上記ブロックフローティング
処理に関連する各ブロック毎のパラメータBFを上記時
間フレーム毎に当該パラメータBFが必要な帯域まで記
録又は伝送すると共に、当該記録又は伝送されるパラメ
ータBFの個数Nも記録又は伝送するようにしたもので
ある。
In the audio signal processing method on the encoder side of the present embodiment, the time-series input audio signal TS is converted into a frequency-axis signal (spectral signal SP) for each predetermined time frame, and this spectral signal SP is converted. Divide into blocks for each band, perform block floating processing for each block, quantize data for each block by adaptive bit allocation, record or transmit the quantized audio signal, and An audio signal processing method for recording or transmitting a floating coefficient (scale factor SF) as a parameter BF related to processing and data of a word length WL, as shown in FIG. The parameter BF for each block is With the parameters BF is recorded or transmitted to a band required, the number N of parameters BF being the recording or transmission is also obtained by such recording or transmission.

【0016】なお、図1は1つの時間フレームと、該1
つの時間フレーム内の複数の周波数帯域のブロックを示
している。また、図1のメイン情報とは、量子化された
ブロックのデータ(当該オーディオ信号TSを周波数分
割した各ブロック毎のスペクトル信号SPの量子化され
た各ブロックのデータ)である。
FIG. 1 shows one time frame and the one time frame.
3 shows blocks of a plurality of frequency bands in one time frame. The main information in FIG. 1 is data of a quantized block (data of each quantized block of the spectrum signal SP for each block obtained by frequency-dividing the audio signal TS).

【0017】ここで、本実施の形態の有効性は以下のよ
うな事実に基づいている。
Here, the effectiveness of the present embodiment is based on the following facts.

【0018】すなわち、例えば10kHz以上の高い帯
域では、人間の聴覚特性に基づく後述するいわゆる最小
可聴限が高く、また、低域信号による前記マスキング効
果が有効に作用するため、量子化ノイズがそれ以下の帯
域(例えば10kHz以下)と比較して、大きくなった
としても、音質劣化が耳に知覚されにくい。特に、特に
15kHz以下の帯域の信号成分を例えば削除してしま
っても(0ビット割り当て)、聴感上、差異がわからな
いケースが多い。
That is, in a high band of, for example, 10 kHz or more, a so-called minimum audibility limit, which will be described later, based on human auditory characteristics is high. In addition, since the masking effect by a low-frequency signal works effectively, quantization noise is less than that. Sound quality degradation is less likely to be perceived by the ears even if the band becomes larger than the band (for example, 10 kHz or less). In particular, even if a signal component particularly in a band of 15 kHz or less is deleted (0 bit allocation), in many cases, the difference is not recognized in terms of audibility.

【0019】したがって、本実施の形態では、図1に示
すように、上記ブロックフローティング処理に関連する
各ブロック毎のパラメータBFであるフローティング係
数としての上記スケールファクタSF及び量子化の際の
割り当てビット数に対応する上記ワード長WLのデータ
を、上記時間フレーム毎に当該パラメータBFを必要と
する帯域まで(すなわち聴感上重要な低域のみ)として
記録又は伝送するようにしている。これにより、聴感上
重要なため省略できない低域の符号に多くのビットを割
り当てることができるようになって、結果として音質が
向上するようになる。
Therefore, in this embodiment, as shown in FIG. 1, the scale factor SF as a floating coefficient, which is a parameter BF for each block related to the block floating process, and the number of bits allocated in quantization. The data of the word length WL corresponding to the above is recorded or transmitted up to the band that requires the parameter BF (that is, only the low frequency band that is important for hearing) for each time frame. As a result, many bits can be allocated to low-frequency codes that cannot be omitted because they are important for hearing, and as a result, the sound quality is improved.

【0020】なお、上記最小可聴限においては、雑音絶
対レベルがこの最小可聴限以下ならば該雑音は聞こえな
いことになる。この最小可聴限は、コーディングが同じ
であっても例えば再生時の再生ボリュームの違いで異な
るものとなるが、現実的なディジタルシステムでは、例
えば16ビットダイナミックレンジへの音楽のはいり方
にはさほど違いがないので、例えば4kHz付近の最も
耳に聞こえやすい周波数帯域の量子化雑音が聞こえない
とすれば、他の周波数帯域ではこの最小可聴カーブのレ
ベル以下の量子化雑音は聞こえないと考えられる。
At the minimum audible limit, if the absolute noise level is lower than the minimum audible limit, the noise will not be heard. This minimum audibility may vary with the same coding, for example, due to differences in playback volume during playback, but in a realistic digital system, the way in which music enters the 16-bit dynamic range, for example, varies significantly. For example, if quantization noise in the most audible frequency band around 4 kHz is not heard, it is considered that quantization noise below the level of the minimum audible curve is not heard in other frequency bands.

【0021】また、上述のようにすると、上記パラメー
タBFの個数は時間フレーム毎に変化するものとなるた
め、本実施の形態では、パラメータBFの個数Nを時間
フレーム毎に記録又は伝送するようにしている。この場
合、当該個数Nのデータ量は少ない。例えば、パラメー
タBFの個数が数十個程度であれば7ビットあれば十分
であり、また、当該時間フレームにおいて取りうる帯域
が2種類(ブロックが2個)ならば、1ビットあれば記
録又は伝送できることになる。
Further, in the above-described manner, the number of the parameter BF changes for each time frame. Therefore, in this embodiment, the number N of the parameter BF is recorded or transmitted for each time frame. ing. In this case, the data amount of the number N is small. For example, if the number of parameters BF is about several tens, 7 bits is sufficient, and if there are two types of bands that can be taken in the time frame (two blocks), one bit is sufficient for recording or transmission. You can do it.

【0022】上述のように、本実施の形態においては、
時間フレーム毎に実際に記録又は伝送されるオーディオ
信号の帯域として、例えば、実際に知覚し難い(耳に聞
こえ難い)という理由から高域の記録又は伝送がなされ
ない場合に、その時間フレームの高域のブロックのパラ
メータBF(スケールファクタSF,ワード長WLの
値)分のビットを低域のメイン情報のために割り振るよ
うにして、低域のパラメータBFと当該メイン情報を例
えば媒体に記録する(或いは伝送する)ようにしてい
る。また、その時間フレーム毎のパラメータBFの個数
Nも記録する(或いは伝送する)ようにしている。
As described above, in the present embodiment,
As a band of an audio signal that is actually recorded or transmitted for each time frame, for example, when recording or transmission of a high frequency band is not performed because it is actually hard to perceive (it is hard to hear), Bits corresponding to the parameters BF (the value of the scale factor SF and the word length WL) of the low-frequency block are allocated for low-frequency main information, and the low-frequency parameter BF and the main information are recorded on, for example, a medium ( Or transmit). Further, the number N of parameters BF for each time frame is also recorded (or transmitted).

【0023】なお、低域での信号レベルが低く、高域で
の信号のレベルが非常に高いような場合には、高域の信
号を削除すると、それによる音質劣化の差異が知覚され
易くなる。したがってこの場合には、図2に示すよう
に、高域の信号及びパラメータBFも記録するようにし
て符号化する。
When the signal level in the low frequency range is low and the signal level in the high frequency range is very high, if the high frequency range signal is deleted, a difference in sound quality deterioration due to the deletion is easily perceived. . Therefore, in this case, as shown in FIG. 2, the encoding is performed such that the high-frequency signal and the parameter BF are also recorded.

【0024】図3には、本実施の形態のエンコーダ側で
のオーディオ信号処理方法が適用されるオーディオ信号
処理システムの具体的構成を示す。
FIG. 3 shows a specific configuration of an audio signal processing system to which the audio signal processing method on the encoder side according to the present embodiment is applied.

【0025】なお、この図3には、時系列のオーディオ
信号(波形データ)をバンド分割フィルタで分割し、こ
れを変更離散コサイン変換(MDCT)処理により周波
数軸の信号に変換したスペクトル信号(スペクトルデー
タ)SPを符号化する構成を示している。
FIG. 3 shows a spectrum signal (spectral data) obtained by dividing a time-series audio signal (waveform data) by a band division filter and converting it into a signal on the frequency axis by a modified discrete cosine transform (MDCT) process. 2 shows a configuration for encoding data) SP.

【0026】すなわち、この図3に示すエンコーダは、
入力端子1に供給される時系列の入力オーディオ信号
(ディジタルオーディオデータ)TSを所定の時間フレ
ーム毎に周波数軸上で複数のブロックに分割し、各ブロ
ック毎にブロックフローティング処理を施すと共に、各
ブロック毎のデータを適応的なビット割り当てで符号化
するものであって、上記ブロックフローティング処理に
関連する各ブロック毎のパラメータ(フローティング係
数としての前記スケールファクタSF及び、前記ビット
割り当て数に対応するワード長WL)BFを上記時間フ
レーム毎に当該パラメータBFを必要とする帯域まで記
録すると共に、当該記録されるパラメータの個数をも記
録するデータ記録回路19を有するものである。このデ
ータ記録回路19に記録されたデータが、後述する本発
明のオーディオ信号処理方法が適用されるデコーダ側の
構成に伝送される。
That is, the encoder shown in FIG.
The time-series input audio signal (digital audio data) TS supplied to the input terminal 1 is divided into a plurality of blocks on the frequency axis for each predetermined time frame, and a block floating process is performed for each block. The data for each block is encoded by adaptive bit allocation, and parameters for each block related to the block floating processing (the scale factor SF as a floating coefficient and the word length corresponding to the bit allocation number) WL) BF is recorded for each time frame up to the band where the parameter BF is required, and a data recording circuit 19 for recording the number of parameters to be recorded is also provided. The data recorded in the data recording circuit 19 is transmitted to a configuration on the decoder side to which the audio signal processing method of the present invention described later is applied.

【0027】ここで、本具体例のエンコーダにおいて
は、上記時間フレームを複数の周波数帯域に分割した各
ブロックの帯域を可変として、当該帯域が狭くなってい
る場合には、上述の実施の形態のようにして上記データ
記録回路19に記録するパラメータBFの個数を減ら
し、その減らした分のビットをメイン情報に対して(後
述するオーディオ信号TSを周波数分割した各ブロック
毎のスペクトル信号SPの量子化の際に)割り振るよう
にしている。
Here, in the encoder of this specific example, when the band of each block obtained by dividing the time frame into a plurality of frequency bands is made variable and the band is narrow, Thus, the number of parameters BF to be recorded in the data recording circuit 19 is reduced, and the reduced bits are used for main information (quantization of a spectrum signal SP for each block obtained by frequency-dividing an audio signal TS, which will be described later). At the time).

【0028】このようなことを行うため、入力端子1に
供給された上記所定の時間フレーム毎の時系列のオーデ
ィオ信号(波形データ)TSは、供給された時系列信号
をスペクトル信号に変換する時間/周波数変換回路11
によりスペクトル信号SPに変換される。当該時間/周
波数変換回路11は、例えば、図1,図2に示したよう
に、時系列の上記オーディオ信号TSを所定の時間フレ
ーム毎に区切ると共に各時間フレームを複数の周波数帯
域に分割してブロック化し、この各ブロックの帯域を可
変としている。
In order to do this, the time-series audio signal (waveform data) TS supplied to the input terminal 1 for each of the predetermined time frames is converted into a time for converting the supplied time-series signal into a spectrum signal. / Frequency conversion circuit 11
Is converted into a spectrum signal SP. The time / frequency conversion circuit 11 divides the time-series audio signal TS into predetermined time frames and divides each time frame into a plurality of frequency bands as shown in FIGS. Blocking is performed, and the bandwidth of each block is made variable.

【0029】また、この時間/周波数変換回路11でブ
ロックの帯域を可変とする際には、上記ブロック幅とし
て、時間フレームを例えば人間の聴覚特性を考慮した帯
域分割により分割して得た各帯域をブロックとするよう
になされている。すなわち、一般に臨界帯域(クリティ
カルバンド)と呼ばれている高域程帯域幅が広くなるよ
うな帯域幅で、上記スペクトル信号SPを複数の帯域に
分割しており、本具体例では、大別して高域,中域,低
域の3つの帯域に分割している。なお、このクリティカ
ルバンドとは、人間の聴覚特性を考慮して分割された周
波数帯域であり、ある純音の周波数近傍の同じ強さの狭
帯域バンドノイズによって当該純音がマスクされるとき
のそのノイズの持つ帯域のことである。また、上記クリ
ティカルバンドでの分割としては、例えば、0〜20k
Hzの全周波数帯域を例えば25のクリティカルバンド
に分割することも可能である。
When the band of the block is made variable by the time / frequency conversion circuit 11, each block obtained by dividing a time frame by, for example, band division in consideration of human auditory characteristics is used as the block width. Is made to be a block. In other words, the spectrum signal SP is divided into a plurality of bands with a bandwidth which is generally called a critical band (critical band) such that the bandwidth becomes wider as the frequency becomes higher. It is divided into three bands, namely, band, middle band and low band. Note that this critical band is a frequency band divided in consideration of human auditory characteristics, and the narrow band noise of the same strength near the frequency of a certain pure tone causes the noise of the pure tone to be masked. It is the band that you have. Further, as the division in the critical band, for example, 0 to 20 k
It is also possible to divide the whole frequency band of Hz into, for example, 25 critical bands.

【0030】この時間/周波数変換回路11からのスペ
クトル信号SPは、スペクトル信号量子化回路15に送
られ量子化される。すなわち、当該スペクトル信号量子
化回路15は、供給された各ブロックのスペクトル信号
SPをブロックフローティング処理により正規化(ノー
マライズ)した後、いわゆるマスキング効果を考慮した
適応的な割り当てビット数で量子化する。
The spectrum signal SP from the time / frequency conversion circuit 11 is sent to a spectrum signal quantization circuit 15 and quantized. That is, the spectrum signal quantization circuit 15 normalizes (normalizes) the supplied spectrum signal SP of each block by block floating processing, and then quantizes the spectrum signal SP with an adaptively allocated number of bits in consideration of a so-called masking effect.

【0031】ここで、上記スペクトル信号量子化回路1
5で上記ブロックフローティング処理を行うためのフロ
ーティング係数(スケールファクタSF)は、スケール
ファクタ計算回路13から供給される。すなわち、上記
スケールファクタ計算回路13には上記スペクトル信号
SPが供給されており、このスケールファクタ計算回路
13から、上記時間フレーム毎の複数の周波数帯域のブ
ロック毎のスペクトル信号SPの例えばピーク或いは平
均値に所定の係数を乗算したフローティング係数(スケ
ールファクタSF)が出力されるようになっている。
Here, the above-mentioned spectrum signal quantization circuit 1
The floating factor (scale factor SF) for performing the block floating processing at 5 is supplied from the scale factor calculation circuit 13. That is, the spectrum signal SP is supplied to the scale factor calculation circuit 13. From the scale factor calculation circuit 13, for example, a peak or an average value of the spectrum signal SP for each block in a plurality of frequency bands for each time frame. Is multiplied by a predetermined coefficient to output a floating coefficient (scale factor SF).

【0032】また、上記スペクトル信号量子化回路15
で上記適応的な割り当てビット数の量子化を行うため
に、上記スペクトル信号SPはマスキング計算回路17
にも送られている。当該マスキング計算回路17では、
後述するようにして人間の聴覚特性に応じた各ブロック
毎のマスキング情報MSKI及び/又は任意の注目ブロ
ックに近接する他のブロックからのマスキング効果によ
る当該注目ブロックのマスキング情報MSKIが得られ
る。このマスキング計算回路17からのマスキング情報
MSKIは、ビットアロケーシヨン計算回路14に送ら
れ、当該ビットアロケーシヨン計算回路14で上記マス
キング情報MSKIに基づいた各ブロック毎のビット割
り当て情報としてのワード長WLのデータが求められ
る。すなわち、このワード長WLの情報に基づいて上記
スペクトル信号量子化回路15では、供給されたスペク
トル信号SPのブロック毎の適応的な量子化を行ってい
る。
The above-mentioned spectrum signal quantization circuit 15
In order to perform the adaptive quantization of the number of allocated bits, the spectrum signal SP is
Has also been sent to. In the masking calculation circuit 17,
As described later, the masking information MSKI of each block according to the human auditory characteristics and / or the masking information MSKI of the block of interest due to a masking effect from another block adjacent to the block of interest is obtained. The masking information MSKI from the masking calculation circuit 17 is sent to the bit allocation calculation circuit 14, and the bit allocation calculation circuit 14 uses the word length as bit allocation information for each block based on the masking information MSKI. WL data is required. That is, based on the information on the word length WL, the spectrum signal quantization circuit 15 performs adaptive quantization of the supplied spectrum signal SP for each block.

【0033】ここで、上記マスキング計算回路17及び
ビットアロケーシヨン計算回路14での処理は具体的に
は以下のようになされている。
Here, the processing in the masking calculation circuit 17 and the bit allocation calculation circuit 14 is specifically performed as follows.

【0034】すなわち、上記マスキング計算回路17に
送られたスペクトル信号SPは、先ず上記ブロック毎に
エネルギが算出される。このブロック毎のエネルギ算出
の際には例えば上記クリティカルバンド(臨界帯域)毎
のエネルギが、例えば当該バンド内での各振幅値の総和
を計算すること等により求められる。この各バンド毎の
エネルギの代わりに、振幅値のピーク値、平均値等が用
いられることもある。このエネルギ算出により求められ
る各バンドの総和値のスペクトルは、一般にバークスペ
クトルと称されている。
That is, the energy of the spectrum signal SP sent to the masking calculation circuit 17 is first calculated for each block. In calculating the energy for each block, for example, the energy for each critical band (critical band) is obtained by, for example, calculating the sum of the amplitude values within the band. Instead of the energy for each band, a peak value or an average value of the amplitude value may be used. The spectrum of the sum value of each band obtained by this energy calculation is generally called a bark spectrum.

【0035】次に、当該マスキング計算回路17では、
上記バークスペクトルのいわゆるマスキングに於ける影
響を考慮するために、該バークスペクトルに所定の重み
付け関数を掛けて加算するような畳込み(コンボリュー
ション)処理を施す。この畳込み処理を行う構成として
は、例えば、入力データを順次遅延させる複数の遅延素
子と、これら遅延素子からの出力にフィルタ係数(重み
付け関数)を乗算する複数の乗算器(例えば各バンドに
対応する25個の乗算器)と、各乗算器出力の総和をと
る総和加算器とから構成されるものである。
Next, in the masking calculation circuit 17,
In order to consider the influence of the Bark spectrum on so-called masking, a convolution process in which the Bark spectrum is multiplied by a predetermined weighting function and added is performed. As a configuration for performing the convolution process, for example, a plurality of delay elements for sequentially delaying input data and a plurality of multipliers (for example, corresponding to each band) for multiplying an output from these delay elements by a filter coefficient (weighting function) 25 multipliers) and a sum adder for summing the outputs of the multipliers.

【0036】上記畳込み処理が施された後、逆コンボリ
ューション処理を行うことにより、マスキングスレッシ
ョールドが得られる。すなわちこのマスキングスレッシ
ョールドが許容可能なノイズスペクトルとなる。ここ
で、上記マスキングスレッショールドと、前記バークス
ペクトルとの減算を行うことで、当該バークスペクトル
が上記マスキングスレッショールドにより、マスキング
されるレベルが求められる。このマスキングレベルが上
記マスキング情報MSKIとしてビットアロケーシヨン
計算回路14に送られる。
After the convolution processing is performed, a masking threshold is obtained by performing an inverse convolution processing. That is, this masking threshold becomes an acceptable noise spectrum. Here, the level at which the bark spectrum is masked by the masking threshold is obtained by subtracting the masking threshold from the bark spectrum. This masking level is sent to the bit allocation calculation circuit 14 as the masking information MSKI.

【0037】なお、上記マスキング情報MSKIを求め
る際には、例えば、人間の聴覚特性である上記最小可聴
限を示すデータと、上記マスキングスレッショールドと
を合成することができる。この最小可聴限においては、
前述したように、雑音絶対レベルがこの最小可聴限以下
ならば該雑音は聞こえないことになる。
When the masking information MSKI is obtained, for example, the data indicating the minimum audibility, which is a human auditory characteristic, and the masking threshold can be synthesized. At this minimum audibility,
As described above, if the absolute noise level is below this minimum audible limit, the noise will not be heard.

【0038】上記ビットアロケーシヨン計算回路14に
は、例えば割当てビット数情報が予め記憶されたROM
等が設けられ、上記マスキング情報MSKIのマスキン
グレベルと各バンドのエネルギとの差分のレベルに応じ
て、当該ROM等から各バンド毎の割当ビット数情報が
求められる。更に、この各バンド毎の割り当てビット数
情報に基づいて、上記大別して高域,中域,低域の各ブ
ロック毎の割り当てビット数に対応するワード長WLの
データを求める。
The bit allocation calculation circuit 14 has, for example, a ROM in which information on the number of bits to be allocated is stored in advance.
Are provided, and information on the number of bits assigned to each band is obtained from the ROM or the like according to the level of the difference between the masking level of the masking information MSKI and the energy of each band. Further, based on the information on the number of allocated bits for each band, word length WL data corresponding to the number of allocated bits for each of the broad band, the middle band, and the low band is obtained.

【0039】また、上記ビットアロケーシヨン計算回路
14では、例えば等ラウドネスカーブの情報に基づい
て、上記マスキング情報MSKIに基づく許容雑音レベ
ルを補正することも可能である。ここで、等ラウドネス
カーブとは、人間の聴覚特性に関する特性曲線であり、
例えば1kHzの純音と同じ大きさに聞こえる各周波数
での音の音圧を求めて曲線で結んだもので、ラウドネス
の等感度曲線とも呼ばれる。なお、この等ラウドネス曲
線は、上記最小可聴限のカーブと略同じ曲線を描くもの
である。したがって、この等ラウドネス曲線において
は、例えば4kHz付近では1kHzのところより音圧
が8〜10dB下がっても1kHzと同じ大きさに聞こ
え、逆に、50kHz付近では1kHzでの音圧よりも
約15dB高くないと同じ大きさに聞こえない。このた
め、上記最小可聴カーブのレベルを越えた雑音(許容ノ
イズレベル)は、該等ラウドネス曲線に応じたカーブで
与えられる周波数特性を持つようにするのが良いことが
わかる。このようなことから、上記等ラウドネス曲線を
考慮して上記許容ノイズレベルを補正することは、人間
の聴覚特性に適合していることがわかる。
The bit allocation calculating circuit 14 can correct the allowable noise level based on the masking information MSKI based on, for example, information on the equal loudness curve. Here, the equal loudness curve is a characteristic curve relating to human auditory characteristics,
For example, the sound pressure of sound at each frequency that sounds as loud as a 1 kHz pure tone is obtained and connected by a curve, and is also called a loudness iso-sensitivity curve. Note that this equal loudness curve draws substantially the same curve as the minimum audible curve. Therefore, in this equal loudness curve, for example, at around 4 kHz, even if the sound pressure falls by 8 to 10 dB from 1 kHz, it sounds as large as 1 kHz. Otherwise it doesn't sound the same size. For this reason, it can be seen that noise exceeding the level of the minimum audible curve (allowable noise level) preferably has a frequency characteristic given by a curve corresponding to the equal loudness curve. From this, it can be seen that correcting the allowable noise level in consideration of the equal loudness curve is suitable for human auditory characteristics.

【0040】更に、上記マスキング計算回路17では、
上記マスキング計算を行なう事により、上記スペクトル
信号量子化回路15でスペクトル信号SPを量子化して
データ記録回路19に記録する際に、記録すべき最高の
帯域HBがどの帯域となるかをも求めている。すなわ
ち、上記マスキング効果等を考慮することにより、記録
しなくても聴感上の音質に影響の少ない帯域と記録しな
ければ聴感上悪影響が現れる帯域とを分け、この記録す
べき帯域HBの情報を、ブロックフローティング処理の
パラメータBFの個数を計算するパラメータ個数計算回
路18に送っている。
Further, in the masking calculation circuit 17,
By performing the masking calculation, when the spectrum signal SP is quantized by the spectrum signal quantization circuit 15 and recorded in the data recording circuit 19, the highest band HB to be recorded is also determined. I have. In other words, by taking into account the masking effect and the like, a band that has little effect on the audible sound quality without recording is divided into a band that has an adverse effect on the audibility if not recorded. , The number of parameters BF for the block floating process is sent to the parameter number calculation circuit 18.

【0041】当該パラメータ個数計算回路18では、上
記記録すべき帯域HBの情報に基づいて、各ブロックの
各パラメータBFのうち、当該記録すべき帯域HB以下
の帯域(すなわち記録すべき例えば低域)のパラメータ
BFの個数Nを算出している。或いは、当該記録すべき
帯域HB以上の帯域(すなわち記録しなくても良い例え
ば高域)のパラメータBFの個数を算出するようにして
もよい。
In the parameter number calculating circuit 18, based on the information of the band HB to be recorded, of the parameters BF of each block, a band equal to or smaller than the band HB to be recorded (ie, a low band to be recorded). The number N of parameters BF is calculated. Alternatively, the number of parameters BF in a band equal to or higher than the band HB to be recorded (that is, for example, a high band which does not need to be recorded) may be calculated.

【0042】当該個数Nの情報は、上記ビットアロケー
シヨン計算回路14に送られる。したがって、当該ビッ
トアロケーシヨン計算回路14では、前述したようなビ
ット割り当て数の計算処理と共に、上記個数Nの情報に
基づいて記録すべき帯域HB以上の帯域(すなわち記録
しなくても良い例えば高域)に対しては、ビットを割り
振らないようにしている。すなわち、上記ビットアロケ
ーシヨン計算回路14では、上記個数Nが得られれば、
上記メイン情報に割り当てることのできるビットの総数
が求まるので、当該個数Nに応じて余るビット数を上記
記録すべき最高の帯域HBまでの帯域のスペクトル信号
SPに割り振るようにしている。
The information of the number N is sent to the bit allocation calculation circuit 14. Therefore, the bit allocation calculation circuit 14 calculates the number of allocated bits as described above, and performs a band equal to or larger than the band HB to be recorded based on the information of the number N (that is, for example, it is not necessary to record the band). No bits are allocated to the (area). That is, in the bit allocation calculation circuit 14, if the number N is obtained,
Since the total number of bits that can be allocated to the main information is obtained, the surplus bits are allocated to the spectrum signal SP of the band up to the highest band HB to be recorded according to the number N.

【0043】上記データ記録回路19には、上記パラメ
ータBFの個数Nと、当該N個のパラメータBFと、量
子化されたスペクトル信号QSPとを記録する。
The data recording circuit 19 records the number N of the parameters BF, the N parameters BF, and the quantized spectrum signal QSP.

【0044】上記デコーダ記録回路19からのコーディ
ングされたデータCDTは、出力端子2を介して出力さ
れる。
The coded data CDT from the decoder recording circuit 19 is output via the output terminal 2.

【0045】図4には、図3のエンコーダの時間/周波
数変換回路11の具体的構成を示す。
FIG. 4 shows a specific configuration of the time / frequency conversion circuit 11 of the encoder shown in FIG.

【0046】この図4の構成は、例えば、QMFフィル
タ等のバンド分割フィルタと、変更離散コサイン変換
(Modified Discrete Cosine Transform;MDCT)と
を組み合わせて、信号を圧縮するようにしている。な
お、上記QMFフィルタは、1976R.E Crochiere, Digit
al coding of speech in subbands, Bell Syst. Tech.
J.Vol.55, No.8 1976 に述べられている。また、ICAS
SP 83, BOSTON, PolyphaseQuadrature filter -A new s
ubband coding technique, Joseph H. Rothweilerに
は、等バンド幅のフィルタ分割手法が述べられている。
また、上記MDCTについては、ICASSP 1987 Subband/
Transform Coding Using Filter Bank DesignsBased on
Time Domain Aliasing Cancellation, J.P.Princen,
A.B.Bradley,Univ. of Surrey Royal Melbourne Inst.
of Tech.に述べられている。なお、上記MDCTの代わ
りに、例えば、高速フーリエ変換(FFT)、離散的コ
サイン変換(DCT)等を行うことで時間軸を周波数軸
に変換することも可能である。
In the configuration of FIG. 4, for example, a signal is compressed by combining a band division filter such as a QMF filter and a modified discrete cosine transform (MDCT). The above-mentioned QMF filter is a 1976R.E Crochiere, Digit
al coding of speech in subbands, Bell Syst. Tech.
J. Vol. 55, No. 8 1976. Also, ICAS
SP 83, BOSTON, PolyphaseQuadrature filter -A new s
The ubband coding technique, Joseph H. Rothweiler, describes an equal bandwidth filter partitioning technique.
Regarding the MDCT, ICASSP 1987 Subband /
Transform Coding Using Filter Bank DesignsBased on
Time Domain Aliasing Cancellation, JPPrincen,
ABBradley, Univ. Of Surrey Royal Melbourne Inst.
of Tech. Note that, instead of the MDCT, for example, the time axis can be converted to the frequency axis by performing a fast Fourier transform (FFT), a discrete cosine transform (DCT), or the like.

【0047】この図4の構成では、時系列のPCM信号
等の入力オーディオ信号TSを、前述したように、人間
の聴覚特性を考慮したいわゆるクリティカルバンドに基
づいて高域程帯域幅が広くなるように周波数分割してい
る。本具体例では、上記臨界帯域を考慮し、大別して高
域,中域,低域の3つの帯域に分割している。なお、こ
の帯域分割としては、クリティカルバンド単位もしくは
高域では臨界帯域(クリティカルバンド)幅を更に細分
化したブロックとしてもよい。
In the configuration shown in FIG. 4, the input audio signal TS such as a time-series PCM signal, as described above, is designed such that the higher the band, the wider the bandwidth based on the so-called critical band in consideration of human auditory characteristics. Frequency division. In this specific example, the band is roughly divided into three bands of a high band, a middle band, and a low band in consideration of the critical band. In addition, the band division may be performed in units of a critical band or a block obtained by further subdividing a critical band (critical band) width in a high band.

【0048】すなわち、図4において、入力端子1には
例えば0〜20kHzのオーディオPCM信号である上
記入力オーディオ信号TSが供給されている。この入力
オーディオ信号TSは、例えばいわゆるQMFフィルタ
等の帯域分割フィルタ71により例えば0〜10kHz
帯域と10kHz〜20kHz帯域(高域)とに分割さ
れ、0〜10kHz帯域の信号は同じくいわゆるQMF
フィルタ等の帯域分割フィルタ72により例えば0〜5
kHz帯域(低域)と5kHz〜10kHz帯域(中
域)とに分割される。帯域分割フィルタ71からの高域
(10kHz〜20kHz帯域)の信号は、直交変換回
路の一例であるMDCT回路73に送られ、帯域分割フ
ィルタ72からの中域(5kHz〜10kHz帯域)の
信号はMDCT回路74に送られ、帯域分割フィルタ7
2からの低域(0〜5kHz帯域)の信号はMDCT回
路75に送られることにより、それぞれMDCT処理さ
れる。これらMDCT処理された高域の信号は端子76
を介して出力され、上記中域の信号は端子77を介し
て、上記低域の信号は端子78を介して出力される。
That is, in FIG. 4, the input audio signal TS which is an audio PCM signal of, for example, 0 to 20 kHz is supplied to the input terminal 1. The input audio signal TS is, for example, 0 to 10 kHz by a band division filter 71 such as a so-called QMF filter.
Band and a 10 kHz to 20 kHz band (high band), and signals in the 0 to 10 kHz band are also called QMF
For example, 0 to 5 by a band division filter 72 such as a filter.
It is divided into a kHz band (low band) and a 5 kHz to 10 kHz band (middle band). The high band (10 kHz to 20 kHz band) signal from the band division filter 71 is sent to an MDCT circuit 73 which is an example of an orthogonal transformation circuit, and the middle band (5 kHz to 10 kHz band) signal from the band division filter 72 is MDCT. The signal is sent to the circuit 74,
The signals in the low band (0 to 5 kHz band) from 2 are sent to the MDCT circuit 75 to be subjected to MDCT processing. These high-frequency signals subjected to the MDCT processing are supplied to a terminal 76.
The signal in the middle band is output via a terminal 77, and the signal in the low band is output via a terminal 78.

【0049】ここで、各MDCT回路13、14、15
のブロックサイズは具体例には、高域側ほど周波数帯域
を広げると共に時間分解能を高め(ブロック長を短く
し)ている。すなわち、低域側の0〜5kHz帯域の信
号及び中域の5kHz〜10kHz帯域の信号に対して
は1ブロックのサンプル数を例えば256サンプルと
し、高域側の10kHz〜20kHz帯域の信号に対し
ては、1ブロックを上記低域及び中域側のブロックのそ
れぞれ1/2の長さとしてブロック化している。このよ
うにして各帯域の直交変換ブロックサンプル数を同じと
している。また、各々の帯域は、信号の時間的変化が大
きい場合を想定して更に1/2、1/4等の適応的なブ
ロック分割が可能である。
Here, each of the MDCT circuits 13, 14, 15
Specifically, the block size of (1) is such that the frequency band is widened toward the high frequency side and the time resolution is increased (the block length is shortened). That is, the number of samples in one block is set to, for example, 256 samples for the low-frequency band signal of 0 to 5 kHz and the middle-frequency signal of 5 kHz to 10 kHz band, and for the high-frequency signal of 10 kHz to 20 kHz band. , One block is divided into blocks each having a half length of each of the low-frequency and middle-frequency blocks. In this way, the number of orthogonal transform block samples in each band is the same. In addition, each band can be further adaptively divided into 、, 1 /, and the like, assuming that the temporal change of the signal is large.

【0050】図5には、図3のエンコーダに対応する、
本発明のオーディオ信号処理方法が適用される実施の形
態のデコーダの構成を示す。
FIG. 5 corresponds to the encoder of FIG.
1 shows a configuration of a decoder according to an embodiment to which an audio signal processing method of the present invention is applied.

【0051】すなわち、この図5において、入力端子5
1には、上記コーディングされたデータCDTが供給さ
れる。このデータCDTは、当該データCDTから、量
子化スペクトル信号を読み込む(取り出す)量子化スペ
クトル信号読み込み回路54と、ブロックフローティン
グのパラメータBFの上記個数Nを読み込む(取り出
す)パラメータ個数読み込み回路52と、上記ブロック
フローティングのパラメータBFのデータを読み込む
(取り出す)パラメータ読み込み回路53に送られる。
上記量子化スペクトル信号読み込み回路54からの量子
化されたスペクトル信号QSPと、上記パラメータ個数
読み込み回路52からの個数Nのデータと、上記パラメ
ータ読み込み回路53からのパラメータBFすなわちス
ケールファクタSF及びワード長WLのデータとは、ス
ペクトル信号復元回路55に送られる。当該スペクトル
信号復元回路55は、供給された信号を用いて復号化処
理を施す。当該スペクトル信号復元回路55で復号化さ
れたスペクトル信号RSPは、周波数/時間変換回路5
6で時系列のオーディオ信号RTSとされ、出力端子5
7から出力される。
That is, in FIG.
1 is supplied with the coded data CDT. The data CDT includes a quantized spectrum signal reading circuit 54 for reading (extracting) a quantized spectrum signal from the data CDT, a parameter number reading circuit 52 for reading (extracting) the number N of block floating parameters BF, and The data of the block floating parameter BF is read (taken out) and sent to the parameter reading circuit 53.
The quantized spectrum signal QSP from the quantized spectrum signal reading circuit 54, the data of the number N from the parameter number reading circuit 52, the parameter BF from the parameter reading circuit 53, that is, the scale factor SF and the word length WL Are sent to the spectrum signal restoration circuit 55. The spectrum signal restoration circuit 55 performs a decoding process using the supplied signal. The spectrum signal RSP decoded by the spectrum signal restoration circuit 55 is
6 is a time-series audio signal RTS, and the output terminal 5
7 is output.

【0052】図6には上記図5のデコーダの構成の周波
数/時間変換回路56の具体的構成を示す。
FIG. 6 shows a specific configuration of the frequency / time conversion circuit 56 having the configuration of the decoder shown in FIG.

【0053】この図6において、各ブロックの上記スペ
クトル信号RSPは、各端子61,62,63に与えら
れ、IMDCT(逆MDCT)回路64,65,66で
周波数軸上の信号が時間軸上の信号に変換される。これ
らの部分帯域の時間軸上の信号は、IQMF(逆QM
F)回路67,78により全帯域信号に復号化され、端
子69より取り出される。
In FIG. 6, the spectrum signal RSP of each block is applied to terminals 61, 62 and 63, and signals on the frequency axis are converted by the IMDCT (inverse MDCT) circuits 64, 65 and 66 on the time axis. Converted to a signal. The signals on the time axis of these partial bands are IQMF (inverse QM
F) The signals are decoded into full-band signals by the circuits 67 and 78, and are extracted from the terminal 69.

【0054】図7には、上記図3のエンコーダにおける
信号処理のフローチャートを示す。
FIG. 7 shows a flowchart of signal processing in the encoder of FIG.

【0055】すなわち、この図7のフローチャートにお
いて、ステップS1では、上記時間/周波数変換回路1
1により入力された時系列オーディオ信号TSがスペク
トル信号(スペクトルデータ)SPに変換される。この
ステップS1の後ステップS2に進み、上記スケールフ
ァクタ計算回路13により上記スケールファクタSFを
求めるための計算が行われる。ステップS3では上記マ
スキング計算回路17により上記マスキング計算処理が
行われ、ステップS4では上記パラメータ個数計算回路
18によりビットを割り当てるべき帯域の確定とブロッ
クフローティング処理のパラメータBFの個数Nの確定
がなされる。ステップS5ではビットアロケーシヨン計
算回路14によりビット割り当ての計算とワード長WL
の計算とが行われる。ステップS6では上記スペクトル
信号量子化回路15によりスペクトル信号(スペクトル
データ)の量子化処理が行われる。最後にステップS7
では、上記データ記録回路19により、上記個数Nのデ
ータの記録と、ブロックフローティング処理のパラメー
タBFの記録(記録すべき帯域のパラメータBFの記
録)と、上記量子化されたスペクトル信号(スペクトル
データ)QSPのデータの記録が行われる。
That is, in the flowchart of FIG. 7, in step S1, the time / frequency conversion circuit 1
1 converts the time-series audio signal TS input into a spectrum signal (spectral data) SP. After step S1, the process proceeds to step S2, where the scale factor calculation circuit 13 performs calculation for obtaining the scale factor SF. In step S3, the masking calculation processing is performed by the masking calculation circuit 17, and in step S4, the band to which bits are to be allocated and the number N of parameters BF for the block floating processing are determined by the parameter number calculation circuit 18. In step S5, the bit allocation calculation circuit 14 calculates the bit allocation and the word length WL.
Is calculated. In step S6, the spectrum signal quantization circuit 15 performs quantization processing of the spectrum signal (spectral data). Finally, step S7
Then, the data recording circuit 19 records the number N of data, records the parameter BF of the block floating process (records the parameter BF of the band to be recorded), and records the quantized spectrum signal (spectral data). Recording of QSP data is performed.

【0056】図8は、上記図5に示すデコーダの構成に
おける処理のフローチャートを示したものである。
FIG. 8 shows a flowchart of the processing in the configuration of the decoder shown in FIG.

【0057】すなわちこの図8のフローチャートにおい
て、先ず、ステップS11では上記パラメータ個数読み
込み回路52により最初にパラメータBFの個数Nを読
み出し、次に、ステップS12では上記パラメータ読み
込み回路53により上記個数Nの数だけのパラメータB
Fのデータを読み出す。続いて、ステップS13では上
記量子化スペクトル信号読み込み回路54により、上記
パラメータBFのうちのワード長WLに応じて、上記量
子化されたスペクトル信号QSPを読み出していく。ま
た、ステップS14では、上記スペクトル信号復元回路
55により、上記スケールファクタSFとワード長WL
に基づいて、上記読み出された量子化されたスペクトル
信号QSPが、元のスペクトル信号SPの近似値(上記
スペクトル信号RSP)として復元される。最後に、ス
テップS15では、周波数/時間変換回路57により、
上記スペクトル信号RSPに上記MDCTとは逆の処理
(逆MDCT)を行うと共に、帯域合成フィルターを通
すことにより、オーディオ信号RTSが復元される。
That is, in the flowchart of FIG. 8, first, in step S11, the number N of parameters BF is first read out by the parameter number reading circuit 52, and then in step S12, the number N of parameters is read out by the parameter reading circuit 53. Only parameter B
Read the data of F. Subsequently, in step S13, the quantized spectrum signal reading circuit 54 reads the quantized spectrum signal QSP according to the word length WL of the parameter BF. In step S14, the scale factor SF and the word length WL are output from the spectrum signal restoring circuit 55.
, The read out quantized spectrum signal QSP is restored as an approximate value of the original spectrum signal SP (the spectrum signal RSP). Finally, in step S15, the frequency / time conversion circuit 57
The audio signal RTS is restored by subjecting the spectrum signal RSP to processing opposite to that of the MDCT (inverse MDCT) and passing through a band synthesis filter.

【0058】なお、上述した本実施の形態は、時系列の
入力オーディオ信号TSをスペクトル信号SPに変換し
た信号を符号化するシステムについて説明を行なった
が、本発明は、この時系列信号をサブバンドに分割して
符号化を施す(いわゆるサブバンドコーディング)シス
テムにも適用することができる。
In the above-described embodiment, a system for encoding a signal obtained by converting a time-series input audio signal TS into a spectrum signal SP has been described. The present invention can also be applied to a system in which coding is performed by dividing into bands (so-called sub-band coding).

【0059】[0059]

【発明の効果】上述のように、本発明のオーディオ信号
処理方法においては、符号化信号からパラメータの個数
情報を取り出し、パラメータの個数情報に応じて符号化
信号からパラメータを取り出し、パラメータに基づいて
符号化信号から量子化信号を取り出し、パラメータの個
数情報及びパラメータに基づいて量子化信号からオーデ
ィオ信号を復元するようにしたことにより、エンコーダ
側でのビット割り当ての調整を比較的容易にしてビット
割り当ての調整を行ったとしても、デコード側にて音質
を劣化させることなく良好なオーディオ信号を復元する
ことができる。
As described above, in the audio signal processing method according to the present invention, the parameter number information is extracted from the encoded signal, the parameter is extracted from the encoded signal according to the parameter number information, and the parameter is extracted based on the parameter. By extracting the quantized signal from the encoded signal and restoring the audio signal from the quantized signal based on the number information and the parameters of the parameters, the bit allocation can be relatively easily adjusted on the encoder side. Even if the adjustment is made, a good audio signal can be restored without deteriorating the sound quality on the decoding side.

【0060】すなわち、実際に知覚され難いという理由
から、例えば高域の信号が記録されない場合にその高域
のパラメータ分のビットを低域のオーディオ信号の量子
化のために割り振ったとしても、デコード時に良好なオ
ーディオ信号を再現できる。また、高域にレベルの高い
信号が含まれる場合にも帯域を狭めることなく、デコー
ド時に良好なオーディオ信号を再現できる。更にこれら
の処理は、簡単な構成により実現することができる。
That is, for the reason that it is difficult to actually perceive, for example, when a high-frequency signal is not recorded, even if bits for the high-frequency parameter are allocated for quantization of a low-frequency audio signal, decoding is not possible. Sometimes a good audio signal can be reproduced. Further, even when a high level signal includes a high level, a good audio signal can be reproduced at the time of decoding without narrowing the band. Further, these processes can be realized by a simple configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態でのデータ記録又は伝送例 (高域
の信号が記録又は伝送されない場合)を説明するための
図である。
FIG. 1 is a diagram for describing an example of data recording or transmission (when a high-frequency signal is not recorded or transmitted) in the present embodiment.

【図2】本実施の形態でのデータ記録又は伝送例 (高域
の信号も記録又は伝送される場合)を説明するための図
である。
FIG. 2 is a diagram for describing an example of data recording or transmission (when a high-frequency signal is also recorded or transmitted) in the present embodiment.

【図3】エンコーダの概略構成を示すブロック回路図で
ある。
FIG. 3 is a block circuit diagram illustrating a schematic configuration of an encoder.

【図4】図3の構成の時間/周波数変換回路の具体的構
成を示すブロック回路図である。
FIG. 4 is a block circuit diagram showing a specific configuration of a time / frequency conversion circuit having the configuration of FIG. 3;

【図5】本発明のオーディオ信号処理方法が適用される
実施の形態のデコーダ側の構成の概略構成を示すブロッ
ク回路図である。
FIG. 5 is a block circuit diagram showing a schematic configuration of a configuration on a decoder side according to an embodiment to which the audio signal processing method of the present invention is applied;

【図6】図5の構成の周波数/時間変換回路の具体的構
成を示すブロック回路図である。
FIG. 6 is a block circuit diagram showing a specific configuration of a frequency / time conversion circuit having the configuration of FIG. 5;

【図7】エンコーダでの処理のフローチャートである。FIG. 7 is a flowchart of a process in an encoder.

【図8】デコーダでの処理のフローチャートである。FIG. 8 is a flowchart of processing in a decoder.

【図9】従来システムでの記録或いは伝送データ例 (パ
ラメータの個数が一定のシステムの場合)を説明するた
めの図である。
FIG. 9 is a diagram for explaining an example of recording or transmission data in a conventional system (in a system in which the number of parameters is constant).

【図10】従来システムでの記録或いは伝送データ例
(スケールファクタの個数が可変のシステムの場合)を
説明するための図である。
FIG. 10 shows an example of recorded or transmitted data in a conventional system.
FIG. 9 is a diagram for explaining (in the case of a system in which the number of scale factors is variable).

【符号の説明】[Explanation of symbols]

WL ワード長、 SF スケールファクタ、 11
時間/周波数変換回路、 13 スケールファクタ計算
回路、 14 ビットアロケーシヨン計算回路、 15
スペクトル信号量子化回路、 17 マスキング計算
回路、 18パラメータ個数計算回路、 19 データ
記録回路
WL word length, SF scale factor, 11
Time / frequency conversion circuit, 13 scale factor calculation circuit, 14 bit allocation calculation circuit, 15
Spectral signal quantization circuit, 17 masking calculation circuit, 18 parameter number calculation circuit, 19 data recording circuit

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 オーディオ信号を所定の時間フレーム毎
に周波数軸上で複数分割した各ブロック毎にブロックフ
ローティング処理を施し、当該各ブロック毎のデータを
適応的なビット割り当てで量子化した量子化信号と、上
記ブロックフローティング処理に関連する各ブロック毎
のパラメータのうち、上記時間フレーム毎に必要な帯域
までのパラメータと、当該時間フレーム毎のパラメータ
の個数情報とを有してなる符号化信号から、オーディオ
信号を復元するオーディオ信号処理方法であって、 上記符号化信号から上記パラメータの個数情報を取り出
し、 上記パラメータの個数情報に応じて、上記符号化信号か
ら上記パラメータを取り出し、 上記パラメータに基づいて、上記符号化信号から上記量
子化信号を取り出し、 上記パラメータの個数情報及び上記パラメータに基づい
て、上記量子化信号からオーディオ信号を復元すること
を特徴とするオーディオ信号処理方法。
1. A quantized signal obtained by subjecting an audio signal to a plurality of blocks on a frequency axis for each predetermined time frame, performing block floating processing for each block, and quantizing data of each block by adaptive bit allocation. And, among the parameters for each block related to the block floating process, from the coded signal having parameters up to the band required for each time frame and the number information of the parameters for each time frame, An audio signal processing method for restoring an audio signal, comprising: extracting the number information of the parameter from the encoded signal; extracting the parameter from the encoded signal according to the number information of the parameter; Extracting the quantized signal from the encoded signal, Based on the number information and the parameter, an audio signal processing method characterized by restoring the audio signal from the quantized signal.
JP10264698A 1998-09-18 1998-09-18 Audio signal processing method Expired - Lifetime JP3141853B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10264698A JP3141853B2 (en) 1998-09-18 1998-09-18 Audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10264698A JP3141853B2 (en) 1998-09-18 1998-09-18 Audio signal processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27616891A Division JP3200886B2 (en) 1991-09-30 1991-09-30 Audio signal processing method

Publications (2)

Publication Number Publication Date
JPH11196056A JPH11196056A (en) 1999-07-21
JP3141853B2 true JP3141853B2 (en) 2001-03-07

Family

ID=17406953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10264698A Expired - Lifetime JP3141853B2 (en) 1998-09-18 1998-09-18 Audio signal processing method

Country Status (1)

Country Link
JP (1) JP3141853B2 (en)

Also Published As

Publication number Publication date
JPH11196056A (en) 1999-07-21

Similar Documents

Publication Publication Date Title
JP3278900B2 (en) Data encoding apparatus and method
KR100550504B1 (en) Digital signal processing method, digital signal processing apparatus, digital signal recording method, digital signal recording apparatus, recording medium, digital signal transmission method and digital signal transmission apparatus
USRE36683E (en) Apparatus and method for audio data compression and expansion with reduced block floating overhead
JP3131542B2 (en) Encoding / decoding device
JP3178026B2 (en) Digital signal encoding device and decoding device
US5737718A (en) Method, apparatus and recording medium for a coder with a spectral-shape-adaptive subband configuration
JP3336618B2 (en) High-efficiency encoding method and high-efficiency encoded signal decoding method
JP3153933B2 (en) Data encoding device and method and data decoding device and method
JP3765622B2 (en) Audio encoding / decoding system
US20040162720A1 (en) Audio data encoding apparatus and method
JPH08190764A (en) Method and device for processing digital signal and recording medium
WO1995013660A1 (en) Quantization apparatus, quantization method, high efficiency encoder, high efficiency encoding method, decoder, high efficiency encoder and recording media
US5754127A (en) Information encoding method and apparatus, and information decoding method and apparatus
JP3557674B2 (en) High efficiency coding method and apparatus
JPH0846517A (en) High efficiency coding and decoding system
US6064698A (en) Method and apparatus for coding
JP3141853B2 (en) Audio signal processing method
JP3200886B2 (en) Audio signal processing method
JP3291948B2 (en) High-efficiency encoding method and apparatus, and transmission medium
JPH08123488A (en) High-efficiency encoding method, high-efficiency code recording method, high-efficiency code transmitting method, high-efficiency encoding device, and high-efficiency code decoding method
JPH11330974A (en) Encoding method and device, decoding method and device, digital signal recording method and device, recording medium and digital transmitting method and device
JP3141451B2 (en) Audio signal processing method
JP3227948B2 (en) Decryption device
JP3227945B2 (en) Encoding device
JPH07336231A (en) Method and device for coding signal, method and device for decoding signal and recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081222

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 11