JPH0591062A - Audio signal processing method - Google Patents
Audio signal processing methodInfo
- Publication number
- JPH0591062A JPH0591062A JP3276168A JP27616891A JPH0591062A JP H0591062 A JPH0591062 A JP H0591062A JP 3276168 A JP3276168 A JP 3276168A JP 27616891 A JP27616891 A JP 27616891A JP H0591062 A JPH0591062 A JP H0591062A
- Authority
- JP
- Japan
- Prior art keywords
- band
- block
- recorded
- audio signal
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 45
- 238000003672 processing method Methods 0.000 title claims description 15
- 238000000034 method Methods 0.000 claims description 32
- 230000003044 adaptive effect Effects 0.000 claims description 8
- 238000013139 quantization Methods 0.000 abstract description 16
- 238000001228 spectrum Methods 0.000 description 54
- 230000000873 masking effect Effects 0.000 description 40
- 238000004364 calculation method Methods 0.000 description 35
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 108010074864 Factor XI Proteins 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000000050 ionisation spectroscopy Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、オーディオ信号をいわ
ゆるブロックフローティング処理して圧縮するオーディ
オ信号処理方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio signal processing method for compressing an audio signal by so-called block floating processing.
【0002】[0002]
【従来の技術】従来より、オーディオ信号処理方法とし
て、オーディオ信号を圧縮して符号化する高能率符号化
技術には、例えば、入力オーディオ信号(ディジタルオ
ーディオデータ)を所定時間毎(所定時間フレーム毎)
に周波数軸上で複数のブロックに分割し、この各ブロッ
ク毎にいわゆるブロックフローティング処理を施すと共
に、各ブロック毎のデータを適応的なビット割り当てで
量子化するものがある。2. Description of the Related Art Conventionally, as an audio signal processing method, a high-efficiency coding technique of compressing and coding an audio signal includes, for example, input audio signal (digital audio data) at predetermined time intervals (every predetermined time frame). )
There is a method in which a block is divided into a plurality of blocks on the frequency axis, so-called block floating processing is performed for each block, and data in each block is quantized by adaptive bit allocation.
【0003】ここで、上記ブロックフローティング処理
は、基本的には、ブロック内の各ワードに共通の値を掛
けて大きくし、量子化時の精度を上げるものであるが、
具体的には、例えばブロック内の各ワードの絶対値の内
で最も大きなもの(最大絶対値)を探し出し、この最大
絶対値が飽和しないような当該ブロック内の全ワードに
対して共通のフローティング係数を用いてフローティン
グ処理を行うものが一例としてある。より簡易なものと
しては、ビットシフトを利用する6dB単位のフローテ
ィングもある。Here, the block floating process is basically to multiply each word in the block by a common value to increase the size, thereby improving the precision in quantization.
Specifically, for example, the largest absolute value (maximum absolute value) among the absolute values of each word in the block is searched for, and a floating coefficient common to all words in the block so that the maximum absolute value is not saturated. As an example, a floating process is performed by using. As a simpler one, there is a floating unit of 6 dB using bit shift.
【0004】ところで、上記ブロックフローティング処
理を行うオーディオ信号処理方法が適用されるシステム
のエンコーダ側では、通常、ブロックフローティング処
理に関連するパラメータBFとして、例えば、フローテ
ィング係数としてのスケールファクタSFの値と、上記
スケールファクタSFといわゆるマスキング効果を考慮
して各ブロック毎に求められる許容可能なノイズレベル
との差を示すワード長WLのデータとを、量子化された
ブロックのデータ(以下例えばメイン情報とする)と共
に媒体に記録若しくは伝送することが行われる。On the encoder side of a system to which the audio signal processing method for performing the block floating process is applied, usually, as a parameter BF related to the block floating process, for example, a value of a scale factor SF as a floating coefficient, The data of the word length WL indicating the difference between the scale factor SF and the allowable noise level obtained for each block in consideration of the so-called masking effect is quantized block data (hereinafter referred to as main information, for example). ) Is recorded or transmitted to the medium.
【0005】なお、上記マスキング効果とは、人間の聴
覚特性により、ある音により他の音がマスクされて聞こ
えなくなる現象を言う。換言すれば、上記マスキングと
は、ある信号によって他の信号がマスクされて聞こえな
くなる現象をいうものであり、このマスキング効果に
は、時間軸上のオーディオ信号による時間軸マスキング
効果と、周波数軸上の信号による同時刻マスキング効果
とがある。これらのマスキング効果により、マスキング
される部分にノイズがあったとしても、このノイズは聞
こえないことになる。このため、実際のオーディオ信号
では、このマスキングされる範囲内のノイズは許容可能
なノイズとされる。The masking effect means a phenomenon in which one sound is masked by another sound and becomes inaudible due to human auditory characteristics. In other words, the above-mentioned masking is a phenomenon in which one signal masks another signal so that it cannot be heard.This masking effect includes the time-axis masking effect of the audio signal on the time axis and the masking effect on the frequency axis. There is a simultaneous masking effect by the signal of. Due to these masking effects, even if there is noise in the masked portion, this noise will not be heard. Therefore, in the actual audio signal, the noise within the masked range is regarded as an acceptable noise.
【0006】[0006]
【発明が解決しようとする課題】ここで、従来のオーデ
ィオ信号処理方法が適用されるシステムのエンコーダ側
では、上記記録又は伝送されるパラメータBFの個数は
すべての時間フレームに対して固定しておくものが一般
的である。図9は従来のオーディオ信号処理システムの
エンコーダ側での各時間フレーム内のデータの記録(或
いは伝送)の様子を示したものである。この図9の例の
場合、実際にはビットが割り振られないブロックに対し
てもそのパラメータBFの値を記録又は伝送する必要が
あり、したがって、その分だけ音声データに対して割り
当てられるビット数が少なくなり、特に、圧縮率が高い
場合(ビットレートが低い場合)には、上記エンコーダ
側に対応するデコーダ側で十分な音質を確保することが
困難であった。On the encoder side of the system to which the conventional audio signal processing method is applied, the number of parameters BF to be recorded or transmitted is fixed for all time frames. Things are common. FIG. 9 shows a state of recording (or transmitting) data in each time frame on the encoder side of the conventional audio signal processing system. In the case of the example of FIG. 9, it is necessary to record or transmit the value of the parameter BF even for a block to which bits are not actually allocated, and accordingly, the number of bits allocated to audio data is correspondingly increased. In particular, when the compression rate is high (when the bit rate is low), it is difficult to secure sufficient sound quality on the decoder side corresponding to the encoder side.
【0007】これに対し、図10に示すように、実際に
ビットが割り振られないブロック (ワード長WL=0の
ブロック)に対しては上記スケールファクタSFの値を
記録又は伝送せずに、その分だけ音声データに多くのビ
ットを割り振るようにするシステムも提案されている。
この図10においては、ビットが割り当てられていない
ブロック(0ビット割り当てのブロック)4個の分だけ
記録されているスケールファクタSFの個数が減ってい
る。On the other hand, as shown in FIG. 10, the value of the scale factor SF is not recorded or transmitted to a block (block of word length WL = 0) to which no bit is actually allocated, and A system has also been proposed in which many bits are allocated to audio data according to minutes.
In FIG. 10, the number of scale factors SF recorded is reduced by the number of blocks to which no bits are assigned (blocks with 0 bit assignment).
【0008】ただし、この場合、上記ワード長WLのデ
ータは、常に記録又は伝送する必要がある。また、後の
デコーダ側で上記スケールファクタSFを読み込む時に
そのブロックのワード長WLが0でないかどうかブロッ
ク毎にチェックする必要がある。However, in this case, the data of the word length WL must always be recorded or transmitted. Further, when the scale factor SF is read by the decoder side later, it is necessary to check for each block whether or not the word length WL of the block is 0.
【0009】更に、エンコーダ側は、通常、上記マスキ
ングを求めるための計算等により各ブロックのオーディ
オ信号を量子化するために必要なビット数を計算した
後、その時間フレームに割り当てられた総ビット数との
比較を行ない、各ブロックへのビット割り当ての調整を
行なうようになされる。ところが、このとき、上述のよ
うに各ブロックのビット割り当てによってそのブロック
のスケールファクタSFを記録するかどうかが変化する
と、それに伴い、上記メイン情報(音声データ)に割り
当てることのできるビットの総数も変化し、ビット割り
当ての調整が非常に複雑になる。Further, the encoder usually calculates the number of bits required to quantize the audio signal of each block by the calculation for obtaining the masking, and then the total number of bits allocated to the time frame. And the bit allocation to each block is adjusted. However, at this time, if whether or not the scale factor SF of the block is recorded changes depending on the bit allocation of each block as described above, the total number of bits that can be allocated to the main information (audio data) also changes accordingly. However, adjusting the bit allocation becomes very complicated.
【0010】そこで、本発明は、上述のような実情に鑑
みて提案されたものであり、ビット割り当ての調整が比
較的容易で、ビット割り当ての調整を行っても音質を劣
化させることのないオーディオ信号処理方法を提供する
ことを目的とするものである。Therefore, the present invention has been proposed in view of the above-mentioned circumstances, and it is relatively easy to adjust the bit allocation, and audio quality does not deteriorate even if the bit allocation is adjusted. It is an object of the present invention to provide a signal processing method.
【0011】[0011]
【課題を解決するための手段】本発明のオーディオ信号
処理方法は、上述の目的を達成するために提案されたも
のであり、入力オーディオ信号を所定の時間フレーム毎
に周波数軸上で複数のブロックに分割し、各ブロック毎
にブロックフローティング処理を施し、各ブロック毎の
データを適応的なビット割り当てで量子化し、当該量子
化されたオーディオ信号を記録又は伝送すると共に、上
記ブロックフローティング処理に関連するパラメータを
記録又は伝送するオーディオ信号処理方法であって、上
記ブロックフローティング処理に関連する各ブロック毎
のパラメータを上記時間フレーム毎に当該パラメータが
必要な帯域まで記録又は伝送すると共に、当該記録又は
伝送されるパラメータの個数も記録又は伝送するように
したものである。The audio signal processing method of the present invention has been proposed in order to achieve the above-mentioned object, and an input audio signal is divided into a plurality of blocks on the frequency axis at every predetermined time frame. Block, each block is subjected to block floating processing, data of each block is quantized by adaptive bit allocation, and the quantized audio signal is recorded or transmitted, and is related to the block floating processing. An audio signal processing method for recording or transmitting a parameter, comprising recording or transmitting a parameter for each block related to the block floating process up to a required band of the parameter for each time frame, and recording or transmitting the parameter. The number of parameters to be recorded is also recorded or transmitted.
【0012】すなわち、時間フレーム毎に実際に記録又
は伝送されるオーディオ信号の帯域として、例えば、実
際に知覚され難い(耳に聞こえ難い)という理由から高
域の記録又は伝送を行わないようにした場合には、その
時間フレームの当該高域のブロックのパラメータ(スケ
ールファクタ,ワード長の値)を記録又は伝送しないよ
うにして、その分のビットを聴感上重要な低域のメイン
情報(ブロックの量子化されたデータ)のために割り振
るようにしている。したがって、記録又は伝送されるデ
ータは、この低域のパラメータと当該メイン情報とな
る。また、この場合は、時間フレーム毎に記録又は伝送
されるパラメータの個数も記録する(或いは伝送する)
ようにしている。That is, as the band of the audio signal actually recorded or transmitted for each time frame, for example, high frequency recording or transmission is not performed because it is difficult to be perceived (difficult to hear). In this case, the parameters (scale factor, word length value) of the high frequency block of the time frame are not recorded or transmitted, and those bits are perceived as important low-frequency main information (of the block). Quantized data). Therefore, the data to be recorded or transmitted becomes the low frequency parameter and the main information. In this case, the number of parameters recorded or transmitted for each time frame is also recorded (or transmitted).
I am trying.
【0013】[0013]
【作用】本発明のオーディオ信号処理方法によれば、各
ブロック毎のパラメータを時間フレーム毎にこのパラメ
ータが必要な帯域まで記録又は伝送する、すなわち、パ
ラメータを必要としない帯域のパラメータは記録又は伝
送せず、その分のビットを音声データの符号に割り振る
ようにしている。According to the audio signal processing method of the present invention, the parameters for each block are recorded or transmitted for each time frame up to the band in which this parameter is required, that is, the parameters in the band not requiring the parameter are recorded or transmitted. Instead, the bits are allocated to the code of the audio data.
【0014】[0014]
【実施例】以下、本発明の実施例を図面を参照しながら
説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0015】本実施例のオーディオ信号処理方法は、時
系列の入力オーディオ信号TSを所定の時間フレーム毎
に周波数軸の信号(スペクトル信号SP)に変換し、こ
のスペクトル信号SPを帯域毎のブロックに分割し、各
ブロック毎にブロックフローティング処理を施し、各ブ
ロック毎のデータを適応的なビット割り当てで量子化
し、当該量子化されたオーディオ信号を記録又は伝送す
ると共に、上記ブロックフローティング処理に関連する
パラメータBFとしてのフローティング係数(スケール
ファクタSF)とワード長WLのデータとを記録又は伝
送するオーディオ信号処理方法であって、図1に示すよ
うに、上記ブロックフローティング処理に関連する各ブ
ロック毎のパラメータBFを上記時間フレーム毎に当該
パラメータBFが必要な帯域まで記録又は伝送すると共
に、当該記録又は伝送されるパラメータBFの個数Nも
記録又は伝送するようにしたものである。In the audio signal processing method of this embodiment, the time-series input audio signal TS is converted into a frequency axis signal (spectrum signal SP) for each predetermined time frame, and the spectrum signal SP is divided into blocks for each band. The data is divided into blocks, a block floating process is performed for each block, the data of each block is quantized by adaptive bit allocation, the quantized audio signal is recorded or transmitted, and the parameters related to the block floating process. An audio signal processing method for recording or transmitting a floating coefficient (scale factor SF) as BF and data of a word length WL, as shown in FIG. 1, a parameter BF for each block related to the block floating process. The parameter BF is required for each of the above time frames. Thereby recorded or transmitted to a band, the number N of parameters BF being the recording or transmission is also obtained by such recording or transmission.
【0016】なお、図1は1つの時間フレームと、該1
つの時間フレーム内の複数の周波数帯域のブロックを示
している。また、図1のメイン情報とは、量子化された
ブロックのデータ(当該オーディオ信号TSを周波数分
割した各ブロック毎のスペクトル信号SPの量子化され
た各ブロックのデータ)である。FIG. 1 shows one time frame and the one
It shows blocks of multiple frequency bands in one time frame. The main information in FIG. 1 is quantized block data (quantized block data of the spectrum signal SP for each block obtained by frequency-dividing the audio signal TS).
【0017】ここで、本発明実施例の有効性は以下のよ
うな事実に基づいている。The effectiveness of the embodiment of the present invention is based on the following facts.
【0018】すなわち、例えば10kHz以上の高い帯
域では、人間の聴覚特性に基づく後述するいわゆる最小
可聴限が高く、また、低域信号による前記マスキング効
果が有効に作用するため、量子化ノイズがそれ以下の帯
域(例えば10kHz以下)と比較して、大きくなった
としても、音質劣化が耳に知覚されにくい。特に、特に
15kHz以下の帯域の信号成分を例えば削除してしま
っても(0ビット割り当て)、聴感上、差異がわからな
いケースが多い。That is, in a high band of 10 kHz or higher, for example, the so-called minimum audible limit, which will be described later, based on human auditory characteristics is high, and since the masking effect by the low-frequency signal works effectively, quantization noise is less than that. Even if it becomes larger than the band (for example, 10 kHz or less), deterioration of sound quality is hard to be perceived by the ear. In particular, in particular, even if the signal component in the band of 15 kHz or less is deleted (0 bit is allocated), there are many cases in which the difference is not audible.
【0019】したがって、本実施例では、図1に示すよ
うに、上記ブロックフローティング処理に関連する各ブ
ロック毎のパラメータBFであるフローティング係数と
しての上記スケールファクタSF及び量子化の際の割り
当てビット数に対応する上記ワード長WLのデータを、
上記時間フレーム毎に当該パラメータBFを必要とする
帯域まで(すなわち聴感上重要な低域のみ)として記録
又は伝送するようにしている。これにより、聴感上重要
なため省略できない低域の符号に多くのビットを割り当
てることができるようになって、結果として音質が向上
するようになる。Therefore, in the present embodiment, as shown in FIG. 1, the scale factor SF as a floating coefficient which is a parameter BF of each block related to the block floating processing and the number of allocated bits at the time of quantization are set. The corresponding data of the word length WL is
The parameter BF is recorded or transmitted for each time frame up to a required band (that is, only a low frequency band which is important for hearing). As a result, many bits can be assigned to a low-frequency code that is important for hearing and cannot be omitted, and as a result, sound quality is improved.
【0020】なお、上記最小可聴限においては、雑音絶
対レベルがこの最小可聴限以下ならば該雑音は聞こえな
いことになる。この最小可聴限は、コーディングが同じ
であっても例えば再生時の再生ボリュームの違いで異な
るものとなるが、現実的なディジタルシステムでは、例
えば16ビットダイナミックレンジへの音楽のはいり方
にはさほど違いがないので、例えば4kHz付近の最も
耳に聞こえやすい周波数帯域の量子化雑音が聞こえない
とすれば、他の周波数帯域ではこの最小可聴カーブのレ
ベル以下の量子化雑音は聞こえないと考えられる。At the minimum audible limit, if the noise absolute level is below this minimum audible limit, the noise cannot be heard. Even if the coding is the same, the minimum audible limit varies depending on, for example, a difference in reproduction volume during reproduction. However, in a realistic digital system, for example, a method of inputting music to a 16-bit dynamic range is very different. Therefore, if the quantization noise in the most audible frequency band around 4 kHz is not heard, it is considered that the quantization noise below the level of the minimum audible curve is not heard in other frequency bands.
【0021】また、上述のようにすると、上記パラメー
タBFの個数は時間フレーム毎に変化するものとなるた
め、本実施例では、パラメータBFの個数Nを時間フレ
ーム毎に記録又は伝送するようにしている。この場合、
当該個数Nのデータ量は少ない。例えば、パラメータB
Fの個数が数十個程度であれば7ビットあれば十分であ
り、また、当該時間フレームにおいて取りうる帯域が2
種類(ブロックが2個)ならば、1ビットあれば記録又
は伝送できることになる。Further, in the above-described manner, the number of the above parameters BF changes for each time frame. Therefore, in the present embodiment, the number N of the parameter BF is recorded or transmitted for each time frame. There is. in this case,
The data amount of the number N is small. For example, parameter B
If the number of Fs is about several tens, 7 bits is sufficient, and the bandwidth that can be taken in the time frame is 2
In the case of types (two blocks), recording or transmission is possible with 1 bit.
【0022】上述のように、本実施例においては、時間
フレーム毎に実際に記録又は伝送されるオーディオ信号
の帯域として、例えば、実際に知覚し難い(耳に聞こえ
難い)という理由から高域の記録又は伝送がなされない
場合に、その時間フレームの高域のブロックのパラメー
タBF(スケールファクタSF,ワード長WLの値)分
のビットを低域のメイン情報のために割り振るようにし
て、低域のパラメータBFと当該メイン情報を例えば媒
体に記録する(或いは伝送する)ようにしている。ま
た、その時間フレーム毎のパラメータBFの個数Nも記
録する(或いは伝送する)ようにしている。As described above, in the present embodiment, the band of the audio signal actually recorded or transmitted for each time frame is, for example, a high frequency band because it is hard to be perceived (difficult to hear). When recording or transmission is not performed, bits corresponding to parameter BF (scale factor SF, value of word length WL) of the high frequency block of the time frame are allocated for low frequency main information, and The parameter BF and the main information are recorded (or transmitted) on a medium, for example. Further, the number N of the parameters BF for each time frame is also recorded (or transmitted).
【0023】なお、低域での信号レベルが低く、高域で
の信号のレベルが非常に高いような場合には、高域の信
号を削除すると、それによる音質劣化の差異が知覚され
易くなる。したがってこの場合には、図2に示すよう
に、高域の信号及びパラメータBFも記録するようにし
て符号化する。If the signal level in the low frequency range is low and the signal level in the high frequency range is very high, deleting the high frequency signal makes it easier to perceive the difference in sound quality deterioration. .. Therefore, in this case, as shown in FIG. 2, the high frequency signal and the parameter BF are also recorded and encoded.
【0024】図3には、本実施例のオーディオ信号処理
方法が適用されるオーディオ信号処理システムのエンコ
ーダの具体的構成を示す。FIG. 3 shows a concrete configuration of an encoder of an audio signal processing system to which the audio signal processing method of this embodiment is applied.
【0025】なお、この図3には、時系列のオーディオ
信号(波形データ)をバンド分割フィルタで分割し、こ
れを変更離散コサイン変換(MDCT)処理により周波
数軸の信号に変換したスペクトル信号(スペクトルデー
タ)SPを符号化する構成を示している。In FIG. 3, a time series audio signal (waveform data) is divided by a band division filter, and this is converted into a frequency axis signal by a modified discrete cosine transform (MDCT) process. (Data) SP is encoded.
【0026】すなわち、この図3に示すエンコーダは、
入力端子1に供給される時系列の入力オーディオ信号
(ディジタルオーディオデータ)TSを所定の時間フレ
ーム毎に周波数軸上で複数のブロックに分割し、各ブロ
ック毎にブロックフローティング処理を施すと共に、各
ブロック毎のデータを適応的なビット割り当てで符号化
するものであって、上記ブロックフローティング処理に
関連する各ブロック毎のパラメータ(フローティング係
数としての前記スケールファクタSF及び、前記ビット
割り当て数に対応するワード長WL)BFを上記時間フ
レーム毎に当該パラメータBFを必要とする帯域まで記
録すると共に、当該記録されるパラメータの個数をも記
録するデータ記録回路19を有するものである。このデ
ータ記録回路19に記録されたデータが後述するデコー
ダ側に伝送される。That is, the encoder shown in FIG.
The time-sequential input audio signal (digital audio data) TS supplied to the input terminal 1 is divided into a plurality of blocks on the frequency axis for each predetermined time frame, and each block is subjected to block floating processing and Data for each block is encoded by adaptive bit allocation, and parameters for each block related to the block floating process (the scale factor SF as a floating coefficient and the word length corresponding to the bit allocation number) The data recording circuit 19 records the (WL) BF for each time frame up to the required band and also records the number of the recorded parameters. The data recorded in the data recording circuit 19 is transmitted to the decoder side described later.
【0027】ここで、本具体例のエンコーダにおいて
は、上記時間フレームを複数の周波数帯域に分割した各
ブロックの帯域を可変として、当該帯域が狭くなってい
る場合には、上述の実施例のようにして上記データ記録
回路19に記録するパラメータBFの個数を減らし、そ
の減らした分のビットをメイン情報に対して(後述する
オーディオ信号TSを周波数分割した各ブロック毎のス
ペクトル信号SPの量子化の際に)割り振るようにして
いる。Here, in the encoder of this specific example, the band of each block obtained by dividing the time frame into a plurality of frequency bands is made variable, and when the band is narrow, as in the above-described embodiment. Then, the number of parameters BF recorded in the data recording circuit 19 is reduced, and the reduced bits are used for the main information (for the quantization of the spectrum signal SP for each block obtained by frequency-dividing the audio signal TS described later). I'm trying to allocate it.
【0028】このようなことを行うため、入力端子1に
供給された上記所定の時間フレーム毎の時系列のオーデ
ィオ信号(波形データ)TSは、供給された時系列信号
をスペクトル信号に変換する時間/周波数変換回路11
によりスペクトル信号SPに変換される。当該時間/周
波数変換回路11は、例えば、図1,図2に示したよう
に、時系列の上記オーディオ信号TSを所定の時間フレ
ーム毎に区切ると共に各時間フレームを複数の周波数帯
域に分割してブロック化し、この各ブロックの帯域を可
変としている。In order to do this, the time-series audio signal (waveform data) TS supplied to the input terminal 1 for each predetermined time frame is the time for converting the supplied time-series signal into a spectrum signal. / Frequency conversion circuit 11
Is converted into a spectrum signal SP by. The time / frequency conversion circuit 11 divides the time-series audio signal TS into predetermined time frames and divides each time frame into a plurality of frequency bands, as shown in FIGS. 1 and 2, for example. It is divided into blocks and the band of each block is variable.
【0029】また、この時間/周波数変換回路11でブ
ロックの帯域を可変とする際には、上記ブロック幅とし
て、時間フレームを例えば人間の聴覚特性を考慮した帯
域分割により分割して得た各帯域をブロックとするよう
になされている。すなわち、一般に臨界帯域(クリティ
カルバンド)と呼ばれている高域程帯域幅が広くなるよ
うな帯域幅で、上記スペクトル信号SPを複数の帯域に
分割しており、本具体例では、大別して高域,中域,低
域の3つの帯域に分割している。なお、このクリティカ
ルバンドとは、人間の聴覚特性を考慮して分割された周
波数帯域であり、ある純音の周波数近傍の同じ強さの狭
帯域バンドノイズによって当該純音がマスクされるとき
のそのノイズの持つ帯域のことである。また、上記クリ
ティカルバンドでの分割としては、例えば、0〜20k
Hzの全周波数帯域を例えば25のクリティカルバンド
に分割することも可能である。Further, when the band of the block is made variable by the time / frequency conversion circuit 11, each band obtained by dividing the time frame by, for example, band division in consideration of human auditory characteristics is used as the block width. It is designed to be a block. That is, the spectrum signal SP is divided into a plurality of bands with a bandwidth which is generally called a critical band and becomes wider in a higher frequency band. It is divided into three bands: the range, the middle range, and the low range. The critical band is a frequency band divided in consideration of human auditory characteristics, and when the pure tone is masked by a narrow band noise of the same strength in the vicinity of the frequency of a pure tone, the noise of that pure tone is masked. It is the bandwidth that you have. The division in the critical band is, for example, 0 to 20k.
It is also possible to divide the entire frequency band of Hz into 25 critical bands, for example.
【0030】この時間/周波数変換回路11からのスペ
クトル信号SPは、スペクトル信号量子化回路15に送
られ量子化される。すなわち、当該スペクトル信号量子
化回路15は、供給された各ブロックのスペクトル信号
SPをブロックフローティング処理により正規化(ノー
マライズ)した後、いわゆるマスキング効果を考慮した
適応的な割り当てビット数で量子化する。The spectrum signal SP from the time / frequency conversion circuit 11 is sent to the spectrum signal quantization circuit 15 and quantized. That is, the spectrum signal quantization circuit 15 normalizes (normalizes) the supplied spectrum signal SP of each block by the block floating process, and then quantizes it with an adaptive allocation bit number in consideration of a so-called masking effect.
【0031】ここで、上記スペクトル信号量子化回路1
5で上記ブロックフローティング処理を行うためのフロ
ーティング係数(スケールファクタSF)は、スケール
ファクタ計算回路13から供給される。すなわち、上記
スケールファクタ計算回路13には上記スペクトル信号
SPが供給されており、このスケールファクタ計算回路
13から、上記時間フレーム毎の複数の周波数帯域のブ
ロック毎のスペクトル信号SPの例えばピーク或いは平
均値に所定の係数を乗算したフローティング係数(スケ
ールファクタSF)が出力されるようになっている。Here, the spectrum signal quantization circuit 1 is used.
The floating factor (scale factor SF) for performing the block floating process in 5 is supplied from the scale factor calculation circuit 13. That is, the spectrum signal SP is supplied to the scale factor calculation circuit 13, and the scale factor calculation circuit 13 outputs, for example, a peak or an average value of the spectrum signal SP for each block in the plurality of frequency bands for each time frame. Is multiplied by a predetermined coefficient to output a floating coefficient (scale factor SF).
【0032】また、上記スペクトル信号量子化回路15
で上記適応的な割り当てビット数の量子化を行うため
に、上記スペクトル信号SPはマスキング計算回路17
にも送られている。当該マスキング計算回路17では、
後述するようにして人間の聴覚特性に応じた各ブロック
毎のマスキング情報MSKI及び/又は任意の注目ブロ
ックに近接する他のブロックからのマスキング効果によ
る当該注目ブロックのマスキング情報MSKIが得られ
る。このマスキング計算回路17からのマスキング情報
MSKIは、ビットアロケーシヨン計算回路14に送ら
れ、当該ビットアロケーシヨン計算回路14で上記マス
キング情報MSKIに基づいた各ブロック毎のビット割
り当て情報としてのワード長WLのデータが求められ
る。すなわち、このワード長WLの情報に基づいて上記
スペクトル信号量子化回路15では、供給されたスペク
トル信号SPのブロック毎の適応的な量子化を行ってい
る。The spectrum signal quantizing circuit 15 is also used.
In order to quantize the adaptive number of allocated bits, the spectrum signal SP is masked by the masking calculation circuit 17
Has also been sent to. In the masking calculation circuit 17,
As will be described later, masking information MSKI for each block according to human auditory characteristics and / or masking information MSKI of the target block due to a masking effect from another block adjacent to the target block are obtained. The masking information MSKI from the masking calculation circuit 17 is sent to the bit allocation calculation circuit 14, and the bit allocation calculation circuit 14 uses the word length as bit allocation information for each block based on the masking information MSKI. WL data is required. That is, the spectrum signal quantization circuit 15 performs adaptive quantization for each block of the supplied spectrum signal SP based on the information of the word length WL.
【0033】ここで、上記マスキング計算回路17及び
ビットアロケーシヨン計算回路14での処理は具体的に
は以下のようになされている。Here, the processing in the masking calculation circuit 17 and the bit allocation calculation circuit 14 is specifically as follows.
【0034】すなわち、上記マスキング計算回路17に
送られたスペクトル信号SPは、先ず上記ブロック毎に
エネルギが算出される。このブロック毎のエネルギ算出
の際には例えば上記クリティカルバンド(臨界帯域)毎
のエネルギが、例えば当該バンド内での各振幅値の総和
を計算すること等により求められる。この各バンド毎の
エネルギの代わりに、振幅値のピーク値、平均値等が用
いられることもある。このエネルギ算出により求められ
る各バンドの総和値のスペクトルは、一般にバークスペ
クトルと称されている。That is, in the spectrum signal SP sent to the masking calculation circuit 17, the energy is first calculated for each block. When calculating the energy for each block, for example, the energy for each critical band (critical band) is obtained by, for example, calculating the sum of the amplitude values in the band. Instead of the energy for each band, the peak value, the average value, etc. of the amplitude value may be used. The spectrum of the sum total value of each band obtained by this energy calculation is generally called a Bark spectrum.
【0035】次に、当該マスキング計算回路17では、
上記バークスペクトルのいわゆるマスキングに於ける影
響を考慮するために、該バークスペクトルに所定の重み
付け関数を掛けて加算するような畳込み(コンボリュー
ション)処理を施す。この畳込み処理を行う構成として
は、例えば、入力データを順次遅延させる複数の遅延素
子と、これら遅延素子からの出力にフィルタ係数(重み
付け関数)を乗算する複数の乗算器(例えば各バンドに
対応する25個の乗算器)と、各乗算器出力の総和をと
る総和加算器とから構成されるものである。Next, in the masking calculation circuit 17,
In order to consider the influence of the above-described Bark spectrum on so-called masking, a convolution process is performed such that the Bark spectrum is multiplied by a predetermined weighting function and added. As a configuration for performing this convolution processing, for example, a plurality of delay elements that sequentially delay input data and a plurality of multipliers that multiply outputs from these delay elements by a filter coefficient (weighting function) (for example, corresponding to each band) 25 multipliers) and a sum adder that sums the outputs of the respective multipliers.
【0036】上記畳込み処理が施された後、逆コンボリ
ューション処理を行うことにより、マスキングスレッシ
ョールドが得られる。すなわちこのマスキングスレッシ
ョールドが許容可能なノイズスペクトルとなる。ここ
で、上記マスキングスレッショールドと、前記バークス
ペクトルとの減算を行うことで、当該バークスペクトル
が上記マスキングスレッショールドにより、マスキング
されるレベルが求められる。このマスキングレベルが上
記マスキング情報MSKIとしてビットアロケーシヨン
計算回路14に送られる。After the above convolution processing is performed, inverse convolution processing is performed to obtain a masking threshold. That is, this masking threshold has an allowable noise spectrum. Here, the masking threshold is subtracted from the Bark spectrum to obtain a level at which the Bark spectrum is masked by the masking threshold. This masking level is sent to the bit allocation calculation circuit 14 as the masking information MSKI.
【0037】なお、上記マスキング情報MSKIを求め
る際には、例えば、人間の聴覚特性である上記最小可聴
限を示すデータと、上記マスキングスレッショールドと
を合成することができる。この最小可聴限においては、
前述したように、雑音絶対レベルがこの最小可聴限以下
ならば該雑音は聞こえないことになる。When obtaining the masking information MSKI, for example, the data showing the minimum audible limit, which is a human auditory characteristic, and the masking threshold can be combined. In this minimum hearing limit,
As described above, if the absolute noise level is below this minimum audible limit, the noise will not be heard.
【0038】上記ビットアロケーシヨン計算回路14に
は、例えば割当てビット数情報が予め記憶されたROM
等が設けられ、上記マスキング情報MSKIのマスキン
グレベルと各バンドのエネルギとの差分のレベルに応じ
て、当該ROM等から各バンド毎の割当ビット数情報が
求められる。更に、この各バンド毎の割り当てビット数
情報に基づいて、上記大別して高域,中域,低域の各ブ
ロック毎の割り当てビット数に対応するワード長WLの
データを求める。The bit allocation calculation circuit 14 is, for example, a ROM in which information on the number of allocated bits is stored in advance.
Etc. are provided, and the allocated bit number information for each band is obtained from the ROM or the like according to the level of the difference between the masking level of the masking information MSKI and the energy of each band. Further, based on the information on the number of allocated bits for each band, the data of the word length WL corresponding to the number of allocated bits for each block of the high band, the middle band, and the low band is obtained.
【0039】また、上記ビットアロケーシヨン計算回路
14では、例えば等ラウドネスカーブの情報に基づい
て、上記マスキング情報MSKIに基づく許容雑音レベ
ルを補正することも可能である。ここで、等ラウドネス
カーブとは、人間の聴覚特性に関する特性曲線であり、
例えば1kHzの純音と同じ大きさに聞こえる各周波数
での音の音圧を求めて曲線で結んだもので、ラウドネス
の等感度曲線とも呼ばれる。なお、この等ラウドネス曲
線は、上記最小可聴限のカーブと略同じ曲線を描くもの
である。したがって、この等ラウドネス曲線において
は、例えば4kHz付近では1kHzのところより音圧
が8〜10dB下がっても1kHzと同じ大きさに聞こ
え、逆に、50kHz付近では1kHzでの音圧よりも
約15dB高くないと同じ大きさに聞こえない。このた
め、上記最小可聴カーブのレベルを越えた雑音(許容ノ
イズレベル)は、該等ラウドネス曲線に応じたカーブで
与えられる周波数特性を持つようにするのが良いことが
わかる。このようなことから、上記等ラウドネス曲線を
考慮して上記許容ノイズレベルを補正することは、人間
の聴覚特性に適合していることがわかる。Further, the bit allocation calculation circuit 14 can correct the allowable noise level based on the masking information MSKI, for example, based on the information of the equal loudness curve. Here, the equal loudness curve is a characteristic curve relating to human auditory characteristics,
For example, it is a curve obtained by finding the sound pressure of a sound at each frequency that sounds the same as a pure tone of 1 kHz, and is also called a loudness isosensitivity curve. It should be noted that this equal loudness curve is a curve that is substantially the same as the above-mentioned minimum audible limit curve. Therefore, in this equal loudness curve, for example, in the vicinity of 4 kHz, even if the sound pressure is reduced by 8 to 10 dB from 1 kHz, it sounds as loud as 1 kHz, and conversely, in the vicinity of 50 kHz, it is about 15 dB higher than that at 1 kHz. Without it, it doesn't sound the same. Therefore, it is understood that the noise (allowable noise level) exceeding the level of the minimum audible curve should have the frequency characteristic given by the curve corresponding to the equal loudness curve. From this, it is understood that correcting the permissible noise level in consideration of the equal loudness curve is suitable for human auditory characteristics.
【0040】更に、上記マスキング計算回路17では、
上記マスキング計算を行なう事により、上記スペクトル
信号量子化回路15でスペクトル信号SPを量子化して
データ記録回路19に記録する際に、記録すべき最高の
帯域HBがどの帯域となるかをも求めている。すなわ
ち、上記マスキング効果等を考慮することにより、記録
しなくても聴感上の音質に影響の少ない帯域と記録しな
ければ聴感上悪影響が現れる帯域とを分け、この記録す
べき帯域HBの情報を、ブロックフローティング処理の
パラメータBFの個数を計算するパラメータ個数計算回
路18に送っている。Further, in the masking calculation circuit 17,
By performing the masking calculation, when the spectrum signal quantization circuit 15 quantizes the spectrum signal SP and records it in the data recording circuit 19, which band is the highest band HB to be recorded is also obtained. There is. That is, by taking the masking effect and the like into consideration, the band in which the sound quality on hearing is not affected even if it is not recorded is separated from the band in which the hearing is adversely affected if it is not recorded, and the information of the band HB to be recorded is divided. , To the parameter number calculation circuit 18 which calculates the number of parameters BF of the block floating process.
【0041】当該パラメータ個数計算回路18では、上
記記録すべき帯域HBの情報に基づいて、各ブロックの
各パラメータBFのうち、当該記録すべき帯域HB以下
の帯域(すなわち記録すべき例えば低域)のパラメータ
BFの個数Nを算出している。或いは、当該記録すべき
帯域HB以上の帯域(すなわち記録しなくても良い例え
ば高域)のパラメータBFの個数を算出するようにして
もよい。In the parameter number calculation circuit 18, based on the information of the band HB to be recorded, of the parameters BF of each block, a band equal to or less than the band HB to be recorded (that is, a low band to be recorded). The number N of the parameters BF is calculated. Alternatively, the number of parameters BF in a band equal to or higher than the band HB to be recorded (that is, a high band that may not be recorded) may be calculated.
【0042】当該個数Nの情報は、上記ビットアロケー
シヨン計算回路14に送られる。したがって、当該ビッ
トアロケーシヨン計算回路14では、前述したようなビ
ット割り当て数の計算処理と共に、上記個数Nの情報に
基づいて記録すべき帯域HB以上の帯域(すなわち記録
しなくても良い例えば高域)に対しては、ビットを割り
振らないようにしている。すなわち、上記ビットアロケ
ーシヨン計算回路14では、上記個数Nが得られれば、
上記メイン情報に割り当てることのできるビットの総数
が求まるので、当該個数Nに応じて余るビット数を上記
記録すべき最高の帯域HBまでの帯域のスペクトル信号
SPに割り振るようにしている。The information on the number N is sent to the bit allocation calculation circuit 14. Therefore, in the bit allocation calculation circuit 14, the bit allocation number calculation process as described above and the band HB or more to be recorded on the basis of the information of the number N (that is, it is not necessary to record, for example, Area), bits are not allocated. That is, in the bit allocation calculation circuit 14, if the number N is obtained,
Since the total number of bits that can be assigned to the main information is obtained, the extra number of bits is assigned to the spectrum signal SP in the band up to the highest band HB to be recorded according to the number N.
【0043】上記データ記録回路19には、上記パラメ
ータBFの個数Nと、当該N個のパラメータBFと、量
子化されたスペクトル信号QSPとを記録する。The data recording circuit 19 records the number N of the parameters BF, the N parameters BF, and the quantized spectrum signal QSP.
【0044】上記デコーダ記録回路19からのコーディ
ングされたデータCDTは、出力端子2を介して出力さ
れる。The coded data CDT from the decoder recording circuit 19 is output via the output terminal 2.
【0045】図4には、図3のエンコーダの時間/周波
数変換回路11の具体的構成を示す。FIG. 4 shows a specific configuration of the time / frequency conversion circuit 11 of the encoder shown in FIG.
【0046】この図4の構成は、例えば、QMFフィル
タ等のバンド分割フィルタと、変更離散コサイン変換
(Modified Discrete Cosine Transform;MDCT)と
を組み合わせて、信号を圧縮するようにしている。な
お、上記QMFフィルタは、1976R.E Crochiere, Digit
al coding of speech in subbands, Bell Syst. Tech.
J.Vol.55, No.8 1976 に述べられている。また、ICAS
SP 83, BOSTON, PolyphaseQuadrature filter -A new s
ubband coding technique, Joseph H. Rothweilerに
は、等バンド幅のフィルタ分割手法が述べられている。
また、上記MDCTについては、ICASSP 1987 Subband/
Transform Coding Using Filter Bank DesignsBased on
Time Domain Aliasing Cancellation, J.P.Princen,
A.B.Bradley,Univ. of Surrey Royal Melbourne Inst.
of Tech.に述べられている。なお、上記MDCTの代わ
りに、例えば、高速フーリエ変換(FFT)、離散的コ
サイン変換(DCT)等を行うことで時間軸を周波数軸
に変換することも可能である。In the configuration of FIG. 4, for example, a signal is compressed by combining a band division filter such as a QMF filter and a modified discrete cosine transform (MDCT). The above QMF filter is a 1976R.E Crochiere, Digit
al coding of speech in subbands, Bell Syst. Tech.
J. Vol.55, No.8 1976. Also, ICAS
SP 83, BOSTON, Polyphase Quadrature filter -A new s
The ubband coding technique, Joseph H. Rothweiler, describes an equal bandwidth filter partitioning technique.
Regarding the above MDCT, ICASSP 1987 Subband /
Transform Coding Using Filter Bank Designs Based on
Time Domain Aliasing Cancellation, JPPrincen,
ABBradley, Univ. Of Surrey Royal Melbourne Inst.
of Tech. Instead of the MDCT, for example, a fast Fourier transform (FFT), a discrete cosine transform (DCT) or the like may be performed to convert the time axis into the frequency axis.
【0047】この図4の構成では、時系列のPCM信号
等の入力オーディオ信号TSを、前述したように、人間
の聴覚特性を考慮したいわゆるクリティカルバンドに基
づいて高域程帯域幅が広くなるように周波数分割してい
る。本具体例では、上記臨界帯域を考慮し、大別して高
域,中域,低域の3つの帯域に分割している。なお、こ
の帯域分割としては、クリティカルバンド単位もしくは
高域では臨界帯域(クリティカルバンド)幅を更に細分
化したブロックとしてもよい。In the configuration of FIG. 4, the bandwidth of the input audio signal TS such as a time-series PCM signal becomes wider as it goes higher, based on the so-called critical band in consideration of human auditory characteristics. The frequency is divided into. In this specific example, considering the above critical band, the band is roughly divided into three bands of a high band, a middle band, and a low band. The band division may be a block in which the critical band width is further subdivided in the critical band unit or in the high band.
【0048】すなわち、図4において、入力端子1には
例えば0〜20kHzのオーディオPCM信号である上
記入力オーディオ信号TSが供給されている。この入力
オーディオ信号TSは、例えばいわゆるQMFフィルタ
等の帯域分割フィルタ71により例えば0〜10kHz
帯域と10kHz〜20kHz帯域(高域)とに分割さ
れ、0〜10kHz帯域の信号は同じくいわゆるQMF
フィルタ等の帯域分割フィルタ72により例えば0〜5
kHz帯域(低域)と5kHz〜10kHz帯域(中
域)とに分割される。帯域分割フィルタ71からの高域
(10kHz〜20kHz帯域)の信号は、直交変換回
路の一例であるMDCT回路73に送られ、帯域分割フ
ィルタ72からの中域(5kHz〜10kHz帯域)の
信号はMDCT回路74に送られ、帯域分割フィルタ7
2からの低域(0〜5kHz帯域)の信号はMDCT回
路75に送られることにより、それぞれMDCT処理さ
れる。これらMDCT処理された高域の信号は端子76
を介して出力され、上記中域の信号は端子77を介し
て、上記低域の信号は端子78を介して出力される。That is, in FIG. 4, the input audio signal TS, which is an audio PCM signal of 0 to 20 kHz, for example, is supplied to the input terminal 1. This input audio signal TS is, for example, 0 to 10 kHz by a band division filter 71 such as a so-called QMF filter.
Band and 10 kHz to 20 kHz band (high frequency band), and signals in the 0 to 10 kHz band are also called QMF.
For example, 0 to 5 depending on the band division filter 72 such as a filter.
It is divided into a kHz band (low band) and a 5 kHz to 10 kHz band (middle band). The high-frequency (10 kHz to 20 kHz band) signal from the band-division filter 71 is sent to the MDCT circuit 73, which is an example of an orthogonal transformation circuit, and the medium-frequency (5 kHz to 10 kHz band) signal from the band-division filter 72 is MDCT. It is sent to the circuit 74, and the band division filter 7
The signals in the low frequency band (0 to 5 kHz band) from 2 are sent to the MDCT circuit 75 to be respectively MDCT processed. These MDCT-processed high-frequency signals are output to the terminal 76.
, The mid-range signal is output via a terminal 77, and the low-range signal is output via a terminal 78.
【0049】ここで、各MDCT回路13、14、15
のブロックサイズは具体例には、高域側ほど周波数帯域
を広げると共に時間分解能を高め(ブロック長を短く
し)ている。すなわち、低域側の0〜5kHz帯域の信
号及び中域の5kHz〜10kHz帯域の信号に対して
は1ブロックのサンプル数を例えば256サンプルと
し、高域側の10kHz〜20kHz帯域の信号に対し
ては、1ブロックを上記低域及び中域側のブロックのそ
れぞれ1/2の長さとしてブロック化している。このよ
うにして各帯域の直交変換ブロックサンプル数を同じと
している。また、各々の帯域は、信号の時間的変化が大
きい場合を想定して更に1/2、1/4等の適応的なブ
ロック分割が可能である。Here, each MDCT circuit 13, 14, 15
In the concrete example, the block size of (1) is such that the frequency band is widened toward the higher frequency side and the time resolution is increased (block length is shortened). That is, the number of samples in one block is, for example, 256 samples for a signal in the low frequency band of 0 to 5 kHz and a signal in the middle frequency band of 5 kHz to 10 kHz, and for a signal in the high frequency band of 10 kHz to 20 kHz. Divides one block into blocks each having a length of ½ of each of the blocks on the low band and the middle band. In this way, the number of orthogonal transform block samples in each band is the same. Further, each band can be further adaptively divided into ½, ¼, etc. blocks assuming a case where a signal temporal change is large.
【0050】図5には、図3のエンコーダに対応するデ
コーダの構成を示す。FIG. 5 shows the configuration of a decoder corresponding to the encoder of FIG.
【0051】すなわち、この図5において、入力端子5
1には、上記コーディングされたデータCDTが供給さ
れる。このデータCDTは、当該データCDTから、量
子化スペクトル信号を読み込む(取り出す)量子化スペ
クトル信号読み込み回路54と、ブロックフローティン
グのパラメータBFの上記個数Nを読み込む(取り出
す)パラメータ個数読み込み回路52と、上記ブロック
フローティングのパラメータBFのデータを読み込む
(取り出す)パラメータ読み込み回路53に送られる。
上記量子化スペクトル信号読み込み回路54からの量子
化されたスペクトル信号QSPと、上記パラメータ個数
読み込み回路52からの個数Nのデータと、上記パラメ
ータ読み込み回路53からのパラメータBFすなわちス
ケールファクタSF及びワード長WLのデータとは、ス
ペクトル信号復元回路55に送られる。当該スペクトル
信号復元回路55は、供給された信号を用いて復号化処
理を施す。当該スペクトル信号復元回路55で復号化さ
れたスペクトル信号RSPは、周波数/時間変換回路5
6で時系列のオーディオ信号RTSとされ、出力端子5
7から出力される。That is, in FIG. 5, the input terminal 5
1 is supplied with the coded data CDT. The data CDT includes a quantized spectrum signal reading circuit 54 for reading (retrieving) a quantized spectral signal from the data CDT, a parameter number reading circuit 52 for reading (retrieving) the number N of the block floating parameters BF, and The data of the block floating parameter BF is sent to the parameter reading circuit 53 which reads (takes out) the data.
The quantized spectrum signal QSP from the quantized spectrum signal reading circuit 54, the number N of data from the parameter number reading circuit 52, the parameter BF from the parameter reading circuit 53, that is, the scale factor SF and the word length WL. The data of 1 is sent to the spectrum signal restoration circuit 55. The spectrum signal restoration circuit 55 performs a decoding process using the supplied signal. The spectrum signal RSP decoded by the spectrum signal restoration circuit 55 is the frequency / time conversion circuit 5
6 as a time series audio signal RTS and output terminal 5
It is output from 7.
【0052】図6には上記図5のデコーダの構成の周波
数/時間変換回路56の具体的構成を示す。FIG. 6 shows a specific structure of the frequency / time conversion circuit 56 having the structure of the decoder shown in FIG.
【0053】この図6において、各ブロックの上記スペ
クトル信号RSPは、各端子61,62,63に与えら
れ、IMDCT(逆MDCT)回路64,65,66で
周波数軸上の信号が時間軸上の信号に変換される。これ
らの部分帯域の時間軸上の信号は、IQMF(逆QM
F)回路67,78により全帯域信号に復号化され、端
子69より取り出される。In FIG. 6, the spectrum signal RSP of each block is given to the terminals 61, 62 and 63, and the IMDCT (inverse MDCT) circuits 64, 65 and 66 convert the signals on the frequency axis on the time axis. Converted to a signal. The signals on the time axis of these subbands are IQMF (inverse QM
F) The signals are decoded into full band signals by the circuits 67 and 78 and taken out from the terminal 69.
【0054】図7には、上記図3のエンコーダにおける
信号処理のフローチャートを示示す。FIG. 7 shows a flowchart of signal processing in the encoder of FIG.
【0055】すなわち、この図7のフローチャートにお
いて、ステップS1では、上記時間/周波数変換回路1
1により入力された時系列オーディオ信号TSがスペク
トル信号(スペクトルデータ)SPに変換される。この
ステップS1の後ステップS2に進み、上記スケールフ
ァクタ計算回路13により上記スケールファクタSFを
求めるための計算が行われる。ステップS3では上記マ
スキング計算回路17により上記マスキング計算処理が
行われ、ステップS4では上記パラメータ個数計算回路
18によりビットを割り当てるべき帯域の確定とブロッ
クフローティング処理のパラメータBFの個数Nの確定
がなされる。ステップS5ではビットアロケーシヨン計
算回路14によりビット割り当ての計算とワード長WL
の計算とが行われる。ステップS6では上記スペクトル
信号量子化回路15によりスペクトル信号(スペクトル
データ)の量子化処理が行われる。最後にステップS7
では、上記データ記録回路19により、上記個数Nのデ
ータの記録と、ブロックフローティング処理のパラメー
タBFの記録(記録すべき帯域のパラメータBFの記
録)と、上記量子化されたスペクトル信号(スペクトル
データ)QSPのデータの記録が行われる。That is, in the flowchart of FIG. 7, in step S1, the time / frequency conversion circuit 1 is operated.
The time series audio signal TS input by 1 is converted into a spectrum signal (spectrum data) SP. After step S1, the process proceeds to step S2, and the scale factor calculation circuit 13 performs the calculation for obtaining the scale factor SF. In step S3, the masking calculation circuit 17 performs the masking calculation process, and in step S4, the parameter number calculation circuit 18 determines the band to which the bit is to be allocated and the number N of the parameter BF of the block floating process. In step S5, the bit allocation calculation circuit 14 calculates the bit allocation and the word length WL.
Is calculated. In step S6, the spectrum signal quantization circuit 15 quantizes the spectrum signal (spectrum data). Finally step S7
Then, the data recording circuit 19 records the number N of data, records the parameter BF of the block floating process (records the parameter BF of the band to be recorded), and the quantized spectrum signal (spectrum data). Recording of QSP data is performed.
【0056】図8は、上記図5に示すデコーダの構成に
おける処理のフローチャートを示したものである。FIG. 8 shows a flowchart of processing in the configuration of the decoder shown in FIG.
【0057】すなわちこの図8のフローチャートにおい
て、先ず、ステップS11では上記パラメータ個数読み
込み回路52により最初にパラメータBFの個数Nを読
み出し、次に、ステップS12では上記パラメータ読み
込み回路53により上記個数Nの数だけのパラメータB
Fのデータを読み出す。続いて、ステップS13では上
記量子化スペクトル信号読み込み回路54により、上記
パラメータBFのうちのワード長WLに応じて、上記量
子化されたスペクトル信号QSPを読み出していく。ま
た、ステップS14では、上記スペクトル信号復元回路
55により、上記スケールファクタSFとワード長WL
に基づいて、上記読み出された量子化されたスペクトル
信号QSPが、元のスペクトル信号SPの近似値(上記
スペクトル信号RSP)として復元される。最後に、ス
テップS15では、周波数/時間変換回路57により、
上記スペクトル信号RSPに上記MDCTとは逆の処理
(逆MDCT)を行うと共に、帯域合成フィルターを通
すことにより、オーディオ信号RTSが復元される。That is, in the flowchart of FIG. 8, first, in step S11, the parameter number reading circuit 52 first reads the number N of the parameters BF, and then in step S12, the parameter reading circuit 53 reads the number N. Parameter B only
Read F data. Subsequently, in step S13, the quantized spectrum signal reading circuit 54 reads the quantized spectrum signal QSP according to the word length WL of the parameter BF. In step S14, the spectrum signal restoration circuit 55 causes the scale factor SF and the word length WL.
Based on the above, the read quantized spectrum signal QSP is restored as an approximate value of the original spectrum signal SP (the spectrum signal RSP). Finally, in step S15, the frequency / time conversion circuit 57
The audio signal RTS is restored by performing a process (inverse MDCT) opposite to the MDCT on the spectrum signal RSP and passing the band synthesis filter.
【0058】なお、上述した本発明の実施例は、時系列
の入力オーディオ信号TSをスペクトル信号SPに変換
した信号を符号化するシステムについて説明を行なった
が、本発明は、この時系列信号をサブバンドに分割して
符号化を施す(いわゆるサブバンドコーディング)シス
テムにも適用することができる。Although the above-described embodiment of the present invention has described the system for encoding the signal obtained by converting the time-series input audio signal TS into the spectrum signal SP, the present invention describes the time-series signal. It can also be applied to a system in which sub-bands are divided and encoded (so-called sub-band coding).
【0059】[0059]
【発明の効果】上述のように、本発明のオーディオ信号
処理方法においては、ブロックフローティング処理に関
連する各ブロック毎のパラメータを時間フレーム毎にパ
ラメータを必要とする帯域まで記録又は伝送すると共
に、この記録又は伝送されるパラメータの個数も記録又
は伝送するようにしたことにより、ビット割り当ての調
整が比較的容易で、ビット割り当ての調整を行っても音
質を劣化させることがない。すなわち、実際に知覚され
難いという理由から、例えば高域の信号が記録されない
場合に、その高域のパラメータ分のビットも低域のオー
ディオ信号の量子化のために割り振ることができ、音質
を向上させる事ができる。また、高域にレベルの高い信
号が含まれる場合にも、帯域を狭めることなく記録する
ことができるようになる。更にこれらの処理は、簡単な
構成により実現することができる。As described above, in the audio signal processing method according to the present invention, the parameters for each block related to the block floating process are recorded or transmitted for each time frame up to the required band, and Since the number of parameters to be recorded or transmitted is also recorded or transmitted, adjustment of bit allocation is relatively easy, and even if adjustment of bit allocation is performed, sound quality is not deteriorated. In other words, because it is hard to be perceived in practice, for example, when a high frequency signal is not recorded, the high frequency parameter bits can also be allocated for quantization of the low frequency audio signal, improving the sound quality. You can let me do it. Further, even when a high level signal is included in the high frequency band, recording can be performed without narrowing the band. Furthermore, these processes can be realized with a simple configuration.
【図1】本発明実施例方法でのデータ記録又は伝送例
(高域の信号が記録又は伝送されない場合)を説明する
ための図である。FIG. 1 is an example of data recording or transmission in a method according to an embodiment of the present invention.
It is a figure for demonstrating (when a high-frequency signal is not recorded or transmitted).
【図2】本発明実施例方法でのデータ記録又は伝送例
(高域の信号も記録又は伝送される場合)を説明するた
めの図である。FIG. 2 is an example of data recording or transmission in the method of the embodiment of the present invention.
It is a figure for demonstrating (when a high-frequency signal is also recorded or transmitted).
【図3】エンコーダの概略構成を示すブロック回路図で
ある。FIG. 3 is a block circuit diagram showing a schematic configuration of an encoder.
【図4】図3の構成の時間/周波数変換回路の具体的構
成を示すブロック回路図である。FIG. 4 is a block circuit diagram showing a specific configuration of the time / frequency conversion circuit having the configuration of FIG.
【図5】デコーダ側の構成の概略構成を示すブロック回
路図である。FIG. 5 is a block circuit diagram showing a schematic configuration of a decoder side.
【図6】図5の構成の周波数/時間変換回路の具体的構
成を示すブロック回路図である。6 is a block circuit diagram showing a specific configuration of the frequency / time conversion circuit having the configuration of FIG.
【図7】エンコーダでの処理のフローチャートである。FIG. 7 is a flowchart of processing performed by the encoder.
【図8】デコーダでの処理のフローチャートである。FIG. 8 is a flowchart of processing in a decoder.
【図9】従来システムでの記録或いは伝送データ例 (パ
ラメータの個数が一定のシステムの場合)を説明するた
めの図である。FIG. 9 is a diagram for explaining an example of recording or transmission data in a conventional system (in the case of a system in which the number of parameters is constant).
【図10】従来システムでの記録或いは伝送データ例
(スケールファクタの個数が可変のシステムの場合)を
説明するための図である。FIG. 10 is an example of recording or transmission data in a conventional system.
It is a figure for demonstrating (in the case of a system with a variable number of scale factors).
WL・・・・・・ワード長 SF・・・・・・スケールファクタ 11・・・・・・時間/周波数変換回路 13・・・・・・スケールファクタ計算回路 14・・・・・・ビットアロケーシヨン計算回路 15・・・・・・スペクトル信号量子化回路 17・・・・・・マスキング計算回路 18・・・・・・パラメータ個数計算回路 19・・・・・・データ記録回路 WL: Word length SF: Scale factor 11: Time / frequency conversion circuit 13: Scale factor calculation circuit 14: Bit allocation Case calculation circuit 15 ... Spectrum signal quantization circuit 17 ... Masking calculation circuit 18 ... Parameter number calculation circuit 19 ... Data recording circuit
Claims (1)
ム毎に周波数軸上で複数のブロックに分割し、各ブロッ
ク毎にブロックフローティング処理を施し、各ブロック
毎のデータを適応的なビット割り当てで量子化し、当該
量子化されたオーディオ信号を記録又は伝送すると共
に、上記ブロックフローティング処理に関連するパラメ
ータを記録又は伝送するオーディオ信号処理方法であっ
て、 上記ブロックフローティング処理に関連する各ブロック
毎のパラメータを上記時間フレーム毎に当該パラメータ
が必要な帯域まで記録又は伝送すると共に、当該記録又
は伝送されるパラメータの個数も記録又は伝送すること
を特徴とするオーディオ信号処理方法。1. An input audio signal is divided into a plurality of blocks on a frequency axis for each predetermined time frame, block floating processing is performed for each block, and data for each block is quantized by adaptive bit allocation. An audio signal processing method for recording or transmitting the quantized audio signal and recording or transmitting a parameter related to the block floating process, wherein the parameters for each block related to the block floating process are An audio signal processing method, wherein the parameter is recorded or transmitted up to a required band for each time frame, and the number of parameters recorded or transmitted is also recorded or transmitted.
Priority Applications (12)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27616891A JP3200886B2 (en) | 1991-09-30 | 1991-09-30 | Audio signal processing method |
KR1019920016982A KR100275057B1 (en) | 1991-09-30 | 1992-09-18 | Processing method for audio signal |
DE69231369T DE69231369T2 (en) | 1991-09-30 | 1992-09-28 | Method and device for audio data compression |
AT97200178T ATE195618T1 (en) | 1991-09-30 | 1992-09-28 | METHOD AND DEVICE FOR AUDIO DATA COMPRESSION |
EP97200178A EP0786874B1 (en) | 1991-09-30 | 1992-09-28 | Method and apparatus for audio data compression |
DE69227570T DE69227570T2 (en) | 1991-09-30 | 1992-09-28 | Method and arrangement for audio data compression |
AT92308815T ATE173366T1 (en) | 1991-09-30 | 1992-09-28 | METHOD AND ARRANGEMENT FOR AUDIO DATA COMPRESSION |
EP92308815A EP0535889B1 (en) | 1991-09-30 | 1992-09-28 | Method and apparatus for audio data compression |
US07/953,740 US5375189A (en) | 1991-09-30 | 1992-09-29 | Apparatus and method for audio data compression and expansion with reduced block floating overhead |
AU26049/92A AU664386B2 (en) | 1991-09-30 | 1992-09-29 | Apparatus and method for audio data compression and expansion with reduced block floating overhead |
US08/767,840 USRE36683E (en) | 1991-09-30 | 1996-12-18 | Apparatus and method for audio data compression and expansion with reduced block floating overhead |
HK98114865A HK1013536A1 (en) | 1991-09-30 | 1998-12-22 | Method and apparatus for audio data compression |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP27616891A JP3200886B2 (en) | 1991-09-30 | 1991-09-30 | Audio signal processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10264698A Division JP3141853B2 (en) | 1998-09-18 | 1998-09-18 | Audio signal processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0591062A true JPH0591062A (en) | 1993-04-09 |
JP3200886B2 JP3200886B2 (en) | 2001-08-20 |
Family
ID=17565680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP27616891A Expired - Lifetime JP3200886B2 (en) | 1991-09-30 | 1991-09-30 | Audio signal processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP3200886B2 (en) |
KR (1) | KR100275057B1 (en) |
-
1991
- 1991-09-30 JP JP27616891A patent/JP3200886B2/en not_active Expired - Lifetime
-
1992
- 1992-09-18 KR KR1019920016982A patent/KR100275057B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR100275057B1 (en) | 2000-12-15 |
KR930007107A (en) | 1993-04-22 |
JP3200886B2 (en) | 2001-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3178026B2 (en) | Digital signal encoding device and decoding device | |
JP3278900B2 (en) | Data encoding apparatus and method | |
JP3185413B2 (en) | Orthogonal transform operation and inverse orthogonal transform operation method and apparatus, digital signal encoding and / or decoding apparatus | |
KR100550504B1 (en) | Digital signal processing method, digital signal processing apparatus, digital signal recording method, digital signal recording apparatus, recording medium, digital signal transmission method and digital signal transmission apparatus | |
JP3336618B2 (en) | High-efficiency encoding method and high-efficiency encoded signal decoding method | |
JP3765622B2 (en) | Audio encoding / decoding system | |
JPH08190764A (en) | Method and device for processing digital signal and recording medium | |
JPH07160292A (en) | Multilayered coding device | |
JPH066236A (en) | High efficiency encoding and/or decoding device | |
US5781586A (en) | Method and apparatus for encoding the information, method and apparatus for decoding the information and information recording medium | |
JP3557674B2 (en) | High efficiency coding method and apparatus | |
JPH0846517A (en) | High efficiency coding and decoding system | |
US6064698A (en) | Method and apparatus for coding | |
JP3291948B2 (en) | High-efficiency encoding method and apparatus, and transmission medium | |
JP3200886B2 (en) | Audio signal processing method | |
JPH08123488A (en) | High-efficiency encoding method, high-efficiency code recording method, high-efficiency code transmitting method, high-efficiency encoding device, and high-efficiency code decoding method | |
JP3141853B2 (en) | Audio signal processing method | |
JPH11330974A (en) | Encoding method and device, decoding method and device, digital signal recording method and device, recording medium and digital transmitting method and device | |
JP3318824B2 (en) | Digital signal encoding method, digital signal encoding device, digital signal recording method, digital signal recording device, recording medium, digital signal transmission method, and digital signal transmission device | |
JP3227948B2 (en) | Decryption device | |
JP3141451B2 (en) | Audio signal processing method | |
JP3010663B2 (en) | Noise shaping circuit | |
JP3227945B2 (en) | Encoding device | |
JPH07336231A (en) | Method and device for coding signal, method and device for decoding signal and recording medium | |
JPH06324093A (en) | Device for displaying spectrum of audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010522 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120622 Year of fee payment: 11 |