JP2003029797A - Encoder, decoder and broadcasting system - Google Patents
Encoder, decoder and broadcasting systemInfo
- Publication number
- JP2003029797A JP2003029797A JP2002132313A JP2002132313A JP2003029797A JP 2003029797 A JP2003029797 A JP 2003029797A JP 2002132313 A JP2002132313 A JP 2002132313A JP 2002132313 A JP2002132313 A JP 2002132313A JP 2003029797 A JP2003029797 A JP 2003029797A
- Authority
- JP
- Japan
- Prior art keywords
- spectrum data
- data
- function
- acoustic signal
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、デジタル音響デー
タの高音質符号化および復号化技術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a high quality audio encoding and decoding technique for digital audio data.
【0002】[0002]
【従来の技術】現在、音響データを圧縮符号化する様々
な音響圧縮方式が開発されている。MPEG-2 Advanced Au
dio Coding(以下、MPEG−2 AACと略称する)
もその方式の一つである。MPEG−2 AACの詳細
は、「ISO/IEC 13818-7(MPEG-2Advanced Audio Codin
g、AAC)」という規格書に記載されているが、以下に、
本願発明に関連する部分を要約して説明する。2. Description of the Related Art Currently, various acoustic compression methods for compressing and encoding acoustic data have been developed. MPEG-2 Advanced Au
dio Coding (hereinafter abbreviated as MPEG-2 AAC)
Is one of the methods. For details of MPEG-2 AAC, refer to "ISO / IEC 13818-7 (MPEG-2 Advanced Audio Codin
g, AAC) ”, but below,
A portion related to the present invention will be summarized and described.
【0003】先ず従来の符号化装置および復号化装置に
よる符号化および復号化の手順を説明する。まず、符号
化装置は、入力信号であるデジタル音響データを一定時
間毎に切り出し、切り出された時間軸上のサンプルデー
タを、MDCT(Modified Discrete Cosine Transfor
m)によって周波数軸上のスペクトルデータに変換す
る。周波数軸上のスペクトルデータは、複数のグループ
に分類された後、前記グループごとに正規化され、量子
化される。量子化されたデータは、ストリーム用のフォ
ーマットにハフマン符号化される。ハフマン符号化によ
って得られた符号化信号は、MPEG−2 AACビッ
トストリームに変換され、出力される。符号化装置から
出力されたビットストリームは、放送電波や通信ネット
ワークなどの伝送媒体を介して復号化装置に伝送された
り、CDやDVD等の光ディスク、半導体、ハードディ
スク等の記録媒体に記録されたりする。First, the procedure of encoding and decoding by the conventional encoder and decoder will be described. First, the encoding device cuts out digital acoustic data as an input signal at regular time intervals, and extracts the cut-out sample data on the time axis from an MDCT (Modified Discrete Cosine Transfor
Convert to spectrum data on the frequency axis by m). The spectrum data on the frequency axis is classified into a plurality of groups, and then normalized and quantized for each group. The quantized data is Huffman encoded into a stream format. The coded signal obtained by the Huffman coding is converted into an MPEG-2 AAC bitstream and output. The bit stream output from the encoding device is transmitted to the decoding device via a transmission medium such as a broadcast wave or a communication network, or recorded on a recording medium such as an optical disk such as a CD or a DVD, a semiconductor, a hard disk or the like. .
【0004】復号化装置では、符号化装置によって符号
化されたビットストリームを伝送路を介して受信した
り、記録媒体から再生したりして入力し、入力されたビ
ットストリームから符号化信号を取り出して復号化す
る。具体的には、まず、取り出された符号化信号をスト
リーム用のフォーマットからデータ処理用のフォーマッ
トに変換するとともに、量子化データに復号化し、復号
化された量子化データをさらに逆量子化する。次いで、
逆量子化によって得られた周波数軸上のスペクトルデー
タは、IMDCT(Inverse Modified Discrete Cosine
Transform)によって時間軸上のサンプルデータに変換
される。逆変換によって得られた時間軸上のサンプルデ
ータは順次組み合わせられ、デジタル音響データとして
出力される。In the decoding device, the bit stream coded by the coding device is received through the transmission line or reproduced from the recording medium and input, and the coded signal is extracted from the input bit stream. To decrypt. Specifically, first, the extracted coded signal is converted from a stream format to a data processing format, decoded into quantized data, and the decoded quantized data is further dequantized. Then
The spectrum data on the frequency axis obtained by the inverse quantization is IMDCT (Inverse Modified Discrete Cosine).
Transform) is transformed into sample data on the time axis. The sample data on the time axis obtained by the inverse transformation are sequentially combined and output as digital acoustic data.
【0005】なお、実際のMPEG−2 AACの符号
化処理では、この他にGain ControlやTNS(Temporal
Noise Shaping)、聴覚心理モデル、M/S Stereo、Inte
nsity Stereo、Prediction等のツール利用、およびビッ
トリザーバー等を使用する場合がある。In the actual MPEG-2 AAC encoding process, other than this, Gain Control and TNS (Temporal) are also used.
Noise Shaping), psychoacoustic model, M / S Stereo, Inte
There are cases where tools such as nsity Stereo and Prediction are used, and bit reservoirs are used.
【0006】符号化装置において上記のような方式で符
号化され、復号化装置に伝送される音響データの音質が
どの程度保持されるかを表す1つの目安として、符号化
後の再生帯域がある。例えば入力信号のサンプリング周
波数が44.1kHzの時、再生帯域は22.05kH
zとなる。この22.05kHz分、又は22.05k
Hzに近い広帯域な音響信号を劣化させることなく符号
化し、その符号化データをすべて伝送することにより、
高音質な音響信号の伝送を達成することができる。しか
し、再生帯域の広さはスペクトルデータの数に影響し、
スペクトルデータの数は伝送データ量に影響する。例え
ば、入力信号のサンプリング周波数が44.1kHzの
時、1024サンプルのスペクトルデータが22.05
kHz分のデータに対応し、22.05kHzの再生帯
域を確保するためには、1024サンプルのスペクトル
データをすべて伝送することが必要である。このために
は、音響信号を効率的に符号化し、かつ、そのデータ量
を伝送路の転送レート範囲内に納めることが必要とな
る。The reproduction band after encoding is one measure of how much the sound quality of the acoustic data encoded by the encoding device and transmitted to the decoding device is maintained. . For example, when the sampling frequency of the input signal is 44.1 kHz, the reproduction band is 22.05 kHz
z. This 22.05 kHz, or 22.05 kHz
By encoding a wideband acoustic signal close to Hz without deterioration and transmitting all the encoded data,
High-quality sound signal transmission can be achieved. However, the width of the playback band affects the number of spectral data,
The number of spectrum data affects the amount of transmitted data. For example, when the sampling frequency of the input signal is 44.1 kHz, the spectrum data of 1024 samples is 22.05.
It is necessary to transmit all spectrum data of 1024 samples in order to secure the reproduction band of 22.05 kHz corresponding to the data of kHz. For this purpose, it is necessary to efficiently encode the acoustic signal and keep the data amount within the transfer rate range of the transmission path.
【0007】ところが、携帯電話等の低転送レートの伝
送路を考慮すると、実際に1024サンプルのスペクト
ルデータすべてを伝送することは、データ量が大きすぎ
て現実的ではない。つまり、転送レートに合わせたデー
タ量で、この再生帯域の全スペクトルデータを転送しよ
うとすると、各周波数帯域に割り当てることができる情
報量がわずかとなり、その結果、量子化ノイズによる影
響が大きくなり、符号化による音質劣化を招くという問
題点がある。However, in consideration of a low transfer rate transmission line such as a mobile phone, it is not realistic to actually transmit all the spectrum data of 1024 samples because the data amount is too large. In other words, if you try to transfer all spectrum data in this playback band with a data amount that matches the transfer rate, the amount of information that can be assigned to each frequency band will be small, and as a result, the effect of quantization noise will increase, There is a problem that the sound quality is deteriorated due to the encoding.
【0008】このため、MPEG−2 AACに限ら
ず、多くの音響信号符号化方式においては、スペクトル
データに聴覚的重み付けを行い、優先度の低いデータは
伝送しないことにより、効率的な音響信号の伝送を実現
している。これに従えば、聴覚的に優先度の高い低域部
の符号化精度を向上させるため、低域部の符号化情報に
十分なデータ量を割り当て、優先度の低い高域部は伝送
対象外とされる確率が高い。For this reason, not only MPEG-2 AAC but also many acoustic signal coding systems perform auditory weighting on spectrum data and do not transmit low priority data, so that an efficient acoustic signal is generated. Transmission is realized. According to this, in order to improve the coding accuracy of the low-frequency part having a high auditory priority, a sufficient amount of data is assigned to the coded information of the low-frequency part, and the high-frequency part of low priority is not transmitted. There is a high probability that
【0009】[0009]
【発明が解決しようとする課題】しかしながら、MPE
G−2 AAC方式においてはこのような工夫がなされ
ているにもかかわらず、音響信号の符号化に対して、さ
らなる高品質化、圧縮効率の向上が求められている。つ
まり、低転送レートであっても、高域部の音響信号を伝
送することの要望が高まってきている。[Problems to be Solved by the Invention] However, MPE
Despite such ingenuity in the G-2 AAC system, further improvement in quality and improvement in compression efficiency are demanded for audio signal encoding. That is, there is an increasing demand for transmitting high-frequency acoustic signals even at low transfer rates.
【0010】[0010]
【課題を解決するための手段】上記要望に応えるために
本発明の符号化装置は、入力された音響信号を符号化す
る符号化装置であって、入力された音響信号を一定時間
ごとのフレームに切り出して周波数スペクトルデータ群
に変換する変換手段と、前記周波数スペクトルデータ群
に含まれる特定の周波数帯域内において、所定の関数に
したがって、2以上のスペクトルデータをそれらのスペ
クトルデータを代表するより少数のスペクトルデータに
統合して出力する統合手段と、統合された前記スペクト
ルデータを量子化および符号化して符号化データを出力
する符号化手段とを備える。In order to meet the above-mentioned demands, an encoding apparatus of the present invention is an encoding apparatus for encoding an input acoustic signal, wherein the input acoustic signal is framed at regular intervals. A conversion means for cutting out into a frequency spectrum data group and converting it into a frequency spectrum data group, and within a specific frequency band included in the frequency spectrum data group, in accordance with a predetermined function, two or more spectrum data are represented in a smaller number And an encoding unit that quantizes and encodes the integrated spectrum data and outputs the encoded data.
【0011】また、本発明の復号化装置は、入力した符
号化データを復号化して音響信号を復元する復号化装置
であって、入力された前記符号化データを復号化および
逆量子化して周波数スペクトルデータ群に変換する逆量
子化手段と、前記周波数スペクトルデータ群に含まれる
スペクトルデータを、特定の帯域において、あらかじめ
定められた逆関数を用いてそれぞれ2以上のスペクトル
データに展開する展開手段と、展開後のスペクトルデー
タを時間軸上の音響信号に変換して出力する逆変換手段
とを備える。The decoding device of the present invention is a decoding device for decoding input coded data to restore an acoustic signal, wherein the input coded data is decoded and dequantized to obtain a frequency. Dequantizing means for converting into spectral data group, and expanding means for expanding the spectral data contained in the frequency spectral data group into two or more spectral data respectively by using a predetermined inverse function in a specific band. , And inverse conversion means for converting the expanded spectrum data into an acoustic signal on the time axis and outputting the acoustic signal.
【0012】[0012]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態における放送システム100について説明
する。図1は、本実施の形態の放送システム100の構
成を示すブロック図である。放送システム100は、音
響信号を本発明の符号化方法に従って符号化し、衛星放
送電波を介して配信する放送局110と、放送衛星13
0によって中継された衛星放送電波を受信し、受信した
放送電波に含まれる符号化音響データを復号化および再
生して映画および音楽などの音響および音声を楽しむ複
数の家庭120とから構成される。BEST MODE FOR CARRYING OUT THE INVENTION A broadcasting system 100 according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a broadcasting system 100 of this embodiment. The broadcasting system 100 encodes an acoustic signal according to the encoding method of the present invention and delivers it via a satellite broadcasting radio wave, and a broadcasting station 110 and a broadcasting satellite 13.
It is composed of a plurality of homes 120 that receive satellite broadcast radio waves relayed by 0, decode and reproduce encoded audio data included in the received broadcast radio waves, and enjoy sounds and voices such as movies and music.
【0013】<放送局>放送局110は、符号化装置1
11および送信装置118を備える。符号化装置111
は、従来伝送されている音響符号化ビットストリームの
データ量を低減し、データ量が同じであれば、従来より
も高音質の音響信号を復号化装置において復元できる音
響符号化ビットストリームを出力する。符号化装置11
1は、汎用のコンピュータによって実行されるプログラ
ムまたは専用の回路基板もしくはLSIなどのハードウ
ェアによって実現され、音響信号入力部112、変換部
113、スペクトルデータ統合部114、量子化部11
5、符号化部116およびストリーム出力部117を備
える。音響信号入力部112は、例えば、44.1kH
zのサンプリング周波数でサンプリングされた入力信号
であるデジタル音響データを、連続した1024サンプ
ルごとに切り出す。この1024サンプルの符号化単位
を「フレーム」という。切り出しの方法は、具体的に
は、サンプリング周波数44.1kHzのデジタル音響
データが1024サンプル入力される約22.7mse
cごとに、その前後512サンプルをオーバーラップさ
せて、2048サンプルのデジタル音響データを切り出
す。<Broadcasting Station> The broadcasting station 110 is a coding device 1.
11 and the transmitter 118. Encoding device 111
Reduces the data amount of an acoustically encoded bitstream that has been conventionally transmitted, and if the data amount is the same, outputs an acoustically encoded bitstream that allows a decoding device to restore an audio signal with higher sound quality than before. . Encoding device 11
1 is realized by a program executed by a general-purpose computer or hardware such as a dedicated circuit board or LSI, and an acoustic signal input unit 112, a conversion unit 113, a spectrum data integration unit 114, a quantization unit 11
5, a coding unit 116 and a stream output unit 117. The acoustic signal input unit 112 is, for example, 44.1 kH.
Digital acoustic data, which is an input signal sampled at a sampling frequency of z, is cut out for every 1024 continuous samples. The coding unit of 1024 samples is called "frame". Specifically, the extraction method is about 22.7 mse in which 1024 samples of digital acoustic data with a sampling frequency of 44.1 kHz are input.
For each c, 512 samples before and after that are overlapped, and 2048 samples of digital acoustic data are cut out.
【0014】変換部113は、音響信号入力部112に
よって切り出された時間軸上のサンプルデータを、周波
数軸上のスペクトルデータに変換する。変換部113
は、切り出された2048サンプルの時間軸データを、
MDCTを用いて、2048サンプルのスペクトルデー
タに変換するが、MDCTでは左右対称なスペクトルデ
ータとなるため、以降の処理では片方の1024サンプ
ルのみ使用する。変換部120は、このようにして得ら
れた変換後の1024サンプルのスペクトルデータを、
複数のグループに分類する。この各グループは、人間の
聴覚におけるクリティカルバンドを擬似しており、各グ
ループのそれぞれを「スケールファクターバンド」とい
う。このスケールファクターバンドは、それぞれ1サン
プル以上(実用的には4の倍数)のスペクトルデータを
含むよう定められている。MPEG−2 AACでは、
サンプリング周波数を44.1kHz、1フレームを1
024サンプルとしたとき、スケールファクターバンド
の数が1フレームにつき49個と定められている。ま
た、各スケールファクターバンドに含まれるスペクトル
データ(サンプル)の数はスケールファクターバンド間
で均一ではなく、周波数に応じて異なる。すなわち、低
域部においては少数のスペクトルデータを含み、高域部
になるほど多くのスペクトルデータを含んでいる。The conversion unit 113 converts the sample data on the time axis cut out by the acoustic signal input unit 112 into spectrum data on the frequency axis. Converter 113
Is the time axis data of the extracted 2048 samples,
Although the spectrum data of 2048 samples is converted using MDCT, since the spectrum data is symmetrical in MDCT, only one 1024 samples is used in the subsequent processing. The conversion unit 120 converts the spectrum data of 1024 samples after conversion obtained in this way into
Classify into multiple groups. Each of these groups simulates a critical band in human hearing, and each of the groups is called a “scale factor band”. Each of the scale factor bands is defined to include spectral data of one sample or more (practically a multiple of 4). In MPEG-2 AAC,
Sampling frequency is 44.1kHz, 1 frame is 1
With 024 samples, the number of scale factor bands is set to 49 per frame. Further, the number of spectral data (samples) included in each scale factor band is not uniform among the scale factor bands and differs depending on the frequency. That is, the low frequency part includes a small number of spectral data, and the higher frequency part includes more spectral data.
【0015】スペクトルデータ統合部114は、変換部
113によって出力された1024サンプルのスペクト
ルデータうち特定の帯域を対象とし、所定の関数を用い
て、2サンプル以上のスペクトルデータをそれより少な
い数のスペクトルデータに統合する処理部である。スペ
クトルデータ統合部114は、変換によって得られた1
フレーム1024サンプルのスペクトルデータのうち、
高域部の512サンプルについて、2サンプルのスペク
トルデータを1つの統合値を表すスペクトルデータに統
合する。具体的には、低域部の512サンプルはそのま
ま量子化部115に出力するとともに、高域部の512
サンプルにつき、周波数軸上で前後に連続する2サンプ
ルのスペクトルデータの絶対値を比較し、この2サンプ
ルの統合値として、絶対値が大きい方のスペクトルデー
タのみを量子化部115に出力する。この結果、高域部
の2サンプルのスペクトルデータが、1つの統合値を示
すスペクトルデータに統合されたことになる。併せて、
スペクトルデータ統合部114は、高域部512サンプ
ルにつき連続する2サンプルを1サンプルに統合したこ
とを示す統合情報を生成し、符号化部116に出力す
る。The spectrum data integration unit 114 targets a specific band of the 1024 samples of spectrum data output by the conversion unit 113, and uses a predetermined function to convert the spectrum data of two or more samples into a smaller number of spectra. A processing unit that integrates the data. The spectral data integration unit 114 obtains 1 obtained by the conversion.
Of the spectrum data of 1024 sample frames,
For 512 samples in the high frequency band, the spectral data of 2 samples are integrated into the spectral data representing one integrated value. Specifically, the 512 samples in the low frequency band are directly output to the quantizing unit 115, and the 512 samples in the high frequency band are output.
For each sample, the absolute values of the spectrum data of two samples that are continuous in the front and back on the frequency axis are compared, and only the spectrum data having the larger absolute value is output to the quantization unit 115 as the integrated value of the two samples. As a result, the spectrum data of the two samples in the high frequency band are integrated into the spectrum data showing one integrated value. together,
The spectrum data integration unit 114 generates integration information indicating that continuous two samples of the high frequency band 512 samples are integrated into one sample, and outputs the integrated information to the encoding unit 116.
【0016】量子化部115は、スペクトルデータ統合
部114から出力された低域部512サンプルと高域部
256サンプルとからなる1フレーム768サンプルの
スペクトルデータを、スケールファクターバンドごとに
1つの正規化係数を用いてスケールファクターバンド内
のスペクトルデータを正規化し、各フレームが所定のビ
ット数を超えないように量子化する。この正規化係数の
ことを「スケールファクター」という。また、具体的に
は、量子化部115は、各スケールファクターバンド内
のスペクトルデータに対して、当該フレームのスペクト
ルデータが最終的に音響ビットストリームに変換された
際に1フレーム分のビット量が伝送路の伝送量の範囲に
収まるよう概算しながら、それぞれのスケールファクタ
ーを決定するとともに、決定したスケールファクターを
用いて正規化および量子化を行う。ここで、各スペクト
ルデータの量子化結果を「量子化値」という。量子化部
115は、この量子化結果として、正規化に用いられた
スケールファクターと量子化値とを出力する。The quantizing unit 115 normalizes the spectrum data of 768 samples in one frame, which is composed of 512 samples in the low frequency band and 256 samples in the high frequency band, output from the spectral data integrating unit 114, one for each scale factor band. The coefficient is used to normalize the spectral data in the scale factor band, and each frame is quantized so as not to exceed a predetermined number of bits. This normalization coefficient is called "scale factor". In addition, specifically, the quantizing unit 115 outputs a bit amount for one frame to the spectrum data in each scale factor band when the spectrum data of the frame is finally converted into an acoustic bit stream. Each scale factor is determined while making an approximation so that it falls within the range of the transmission amount of the transmission path, and normalization and quantization are performed using the determined scale factor. Here, the quantization result of each spectrum data is called "quantization value". The quantization unit 115 outputs the scale factor and the quantization value used for normalization as the result of this quantization.
【0017】符号化部116は、量子化部115から入
力されたスケールファクターと量子化値とをハフマン符
号化し、所定のストリーム用のフォーマットに変換し
て、符号化信号を生成する。この処理において、スケー
ルファクターについては、連続する2つのスケールファ
クターバンド間で、順次スケールファクターの差分を求
め、先頭スケールファクターバンドのスケールファクタ
ーと、求められた差分とをハフマン符号化する。さら
に、符号化部116は、スペクトルデータ統合部114
から入力された統合情報をハフマン符号化し、所定のス
トリーム用のフォーマットに変換して、ストリーム出力
部117に出力する。ストリーム出力部117は、符号
化部116から入力された符号化信号にヘッダ情報およ
びその他必要に応じた副情報を付加してMPEG−2
AACの符号化ビットストリームに変換し、かつ、符号
化された統合情報を、上記ビットストリーム中の従来の
復号化装置では無視される又はその動作が規定されてい
ない領域に格納して出力する。送信装置118は、符号
化装置111のストリーム出力部117から出力された
符号化ビットストリームを、衛星放送電波にのせて放送
衛星130に送信する。The encoder 116 Huffman-encodes the scale factor and the quantized value input from the quantizer 115, converts them into a predetermined stream format, and generates an encoded signal. In this process, for the scale factor, the difference in the scale factor is sequentially calculated between two continuous scale factor bands, and the scale factor in the leading scale factor band and the calculated difference are Huffman-encoded. Furthermore, the encoding unit 116 includes the spectrum data integration unit 114.
Huffman coding is performed on the integrated information input from the above, the converted information is converted into a predetermined stream format, and the integrated information is output to the stream output unit 117. The stream output unit 117 adds header information and other sub-information as necessary to the encoded signal input from the encoding unit 116 to make MPEG-2.
The integrated information is converted into an AAC encoded bit stream, and the encoded integrated information is stored in an area in the bit stream that is ignored by the conventional decoding device or its operation is not specified, and is output. The transmission device 118 transmits the encoded bit stream output from the stream output unit 117 of the encoding device 111 to the broadcasting satellite 130 by placing it on a satellite broadcast radio wave.
【0018】<家庭>各家庭120は、放送衛星130
を介して放送電波を受信し、受信した放送電波から符号
化ビットストリームを抽出して復号し、音響信号を再生
するための受信装置121、復号化装置122およびス
ピーカ129を備える。受信装置121は、STB(Se
t Top Box)などによって実現され、衛星放送の放送電
波を受信し、受信した電波から符号化ビットストリーム
を抽出して、復号化装置122に出力する。復号化装置
122は、符号化装置111同様、汎用のコンピュータ
によって実行されるプログラムまたは専用の回路基板も
しくはLSIなどのハードウェアによって実現され、入
力された符号化ビットストリームから音響を表す符号化
信号と、統合の内容を示す統合情報とを復号化するとと
もに、復号化された統合情報に基づいて、統合されたス
ペクトルデータを展開し、音響データを復元する。復号
化装置122は、ストリーム入力部123、復号化部1
24、逆量子化部125、スペクトルデータ展開部12
6、逆変換部127および音響信号出力部128を備え
る。<Home> Each home 120 has a broadcasting satellite 130.
It is provided with a receiving device 121, a decoding device 122, and a speaker 129 for receiving a broadcast radio wave via, receiving a broadcast radio wave, extracting an encoded bit stream from the received broadcast radio wave, decoding the encoded bit stream, and reproducing an acoustic signal. The receiving device 121 uses the STB (Se
t Top Box) to receive the broadcast radio waves of satellite broadcasting, extract the encoded bit stream from the received radio waves, and output the encoded bit stream to the decoding device 122. Like the encoding device 111, the decoding device 122 is realized by a program executed by a general-purpose computer or hardware such as a dedicated circuit board or LSI, and outputs an encoded signal representing sound from an input encoded bit stream. , And decodes the integrated information indicating the contents of the integration, expands the integrated spectrum data based on the decoded integrated information, and restores the acoustic data. The decoding device 122 includes a stream input unit 123 and a decoding unit 1.
24, inverse quantization unit 125, spectrum data expansion unit 12
6, an inverse conversion unit 127 and an acoustic signal output unit 128.
【0019】ストリーム入力部123は、受信装置12
1によって抽出された符号化ビットストリームから音響
データを表す符号化信号と、符号化装置111によって
生成された統合情報とを抽出して、それぞれ、復号化部
124に出力する。復号化部124は、ストリーム入力
部123から入力されたハフマン符号化されたデータを
ストリーム用のフォーマットから量子化データに復号化
し、逆量子化部125に出力する。併せて、ハフマン符
号化された統合情報を復号化して、スペクトルデータ展
開部126に出力する。逆量子化部125は、復号化部
124によって復号化された低域部512サンプルと高
域部256サンプルとからなる1フレーム768サンプ
ルの量子化値とを逆量子化し、各スケールファクターバ
ンドのスケールファクターを用いて、低域部512サン
プルおよび高域部統合値256サンプルのスペクトルデ
ータを復元する。スペクトルデータ展開部126は、統
合情報に対応付けられた各種展開方法をあらかじめ保持
しており、復号化部124から入力された統合情報に基
づいて、逆量子化部125によって復元されたスペクト
ルデータに含まれる統合値を、符号化装置111におい
て統合対象として選択されたスペクトルデータに対応付
けて展開し、高域部512サンプルを復元することによ
って1フレーム1024サンプルのスペクトルデータを
復元する。逆変換部127は、MPEG−2 AACに
従って、周波数軸上のスペクトルデータを、IMDCT
(Inverse Modified Discrete Cosine Transform)を用
いて時間軸上のサンプルデータに変換する。音響信号出
力部128は、逆変換部127で得られた時間軸上のサ
ンプルデータを順次組み合わせ、デジタル音響データと
して出力する。スピーカ129は、復号化装置122に
よって復元されたデジタル音響データを入力し、入力さ
れた音響データをD/A変換したアナログ音響信号に従
って音楽および音声を再生する。放送衛星130は、放
送局110から放送電波を受信して、これを再び地上に
送り返す。The stream input section 123 is used by the receiving device 12
The encoded signal representing the acoustic data and the integrated information generated by the encoding device 111 are extracted from the encoded bit stream extracted by 1 and output to the decoding unit 124, respectively. The decoding unit 124 decodes the Huffman-encoded data input from the stream input unit 123 from the stream format into quantized data, and outputs the quantized data to the dequantization unit 125. At the same time, the Huffman-coded integrated information is decoded and output to the spectrum data expansion unit 126. The inverse quantization unit 125 inversely quantizes the quantized value of one frame of 768 samples, which includes 512 samples of the low frequency band and 256 samples of the high frequency band, decoded by the decoding unit 124, and scales each scale factor band. The factor is used to restore the spectral data of 512 samples in the low band part and 256 samples in the high band part integrated value. The spectral data expansion unit 126 holds in advance various expansion methods associated with the integrated information, and based on the integrated information input from the decoding unit 124, the spectral data expanded by the inverse quantization unit 125 The integrated value included is expanded in association with the spectrum data selected as the integration target in the encoding device 111, and the high-frequency part 512 samples are restored to restore the spectrum data of 1024 samples per frame. The inverse transformation unit 127 converts the spectrum data on the frequency axis into IMDCT according to MPEG-2 AAC.
(Inverse Modified Discrete Cosine Transform) is used to convert to sample data on the time axis. The acoustic signal output unit 128 sequentially combines the sample data on the time axis obtained by the inverse conversion unit 127 and outputs it as digital acoustic data. The speaker 129 inputs the digital acoustic data restored by the decoding device 122, and reproduces music and voice according to an analog acoustic signal obtained by D / A converting the input acoustic data. The broadcast satellite 130 receives the broadcast radio wave from the broadcast station 110 and sends it back to the ground.
【0020】以上のように構成された放送システム10
0における符号化装置111の動作について、図2Aか
ら図6を用いて説明する。図2(a)は、図1に示した
音響信号入力部112によって切り出される時間軸上の
音響データの簡略的な波形の一例を示す図である。図2
(b)は、時間軸上の音響データが図1に示した変換部
113によってMDCT変換された場合の周波数軸上の
スペクトルデータの一例を示す図である。なお、図2
(a)および図2(b)において、サンプルデータおよ
びスペクトルデータは連続波形で示されているが、実際
には、いずれも離散的なデータの集まりである。The broadcasting system 10 configured as described above
The operation of the encoding device 111 in 0 will be described with reference to FIGS. 2A to 6. FIG. 2A is a diagram showing an example of a simplified waveform of acoustic data on the time axis cut out by the acoustic signal input unit 112 shown in FIG. 1. Figure 2
(B) is a diagram showing an example of spectrum data on the frequency axis when the acoustic data on the time axis is MDCT-transformed by the conversion unit 113 shown in FIG. 1. Note that FIG.
In FIG. 2A and FIG. 2B, the sample data and the spectrum data are shown as continuous waveforms, but in reality, both are discrete data groups.
【0021】図2(a)のように、音を表す信号は、時
間とともに変化する電圧値の波形で表される。図2
(a)において、縦軸の電圧値は、その時点の音の強さ
に対応する。一般に、音の波形は、多くの周波数成分を
含んでいる。このような音響信号から一定時間分の信号
を切り出して、それをMDCT変換すると、変換結果と
して、切り出された信号内に含まれていた各周波数成分
の割合が正負の値をもつ図2(b)のようなスペクトル
データとして得られる。As shown in FIG. 2A, a signal representing a sound is represented by a waveform of a voltage value that changes with time. Figure 2
In (a), the voltage value on the vertical axis corresponds to the sound intensity at that time. Generally, a sound waveform contains many frequency components. When a signal for a certain period of time is cut out from such an acoustic signal and the signal is MDCT-converted, as a conversion result, the ratio of each frequency component included in the cut-out signal has a positive and negative value in FIG. ) Is obtained as spectral data.
【0022】このような音響信号の性質およびそれに対
する人間の聴覚の特性に基づいて、MPEG−2 AA
Cでは、スケールファクターバンドを量子化の1つの処
理単位として信号処理が行われる。図3は、図1に示し
た変換部113によってスペクトルデータが分類される
スケールファクターバンドの一例を示す図である。同図
において、各スペクトルデータを棒グラフで表してい
る。MPEG−2 AACでは、1フレームに含まれる
スケールファクターバンドの数が、LONGブロックま
たはSHORTブロックの違いによって、また入力され
る音響データのサンプリング周波数に応じて定められて
いる。LONGブロックとは、変換部113によるMD
CTの変換長が2048サンプルのものをいい、SHO
RTブロックとは、変換長が256サンプルのものをい
う。例えば、本実施の形態のようにLONGブロックで
サンプリング周波数が44.1kHzの場合は、1フレ
ームに含まれるスケールファクターバンドの数は49個
である。MPEG−2 AACでは、さらに各スケール
ファクターバンドに含まれるサンプル(スペクトルデー
タ)数も、周波数に応じて定められている。具体的には
図のように、低域においては少数のサンプルを含み、高
域になるほど多数のサンプルを含むよう定められてい
る。これは、一般に、人間の聴覚特性が音響信号の低域
および中域の成分に対して敏感であるため低域および中
域の符号化および復号化に、より高い精度が要求される
ことなどに基づいている。このようなスケールファクタ
ーバンドを用いて、量子化部115では、同じスケール
ファクターバンドに含まれるスペクトルデータを、同じ
スケールファクターを用いて正規化し、量子化する。On the basis of the characteristics of such an acoustic signal and the characteristics of human hearing for it, MPEG-2 AA
In C, signal processing is performed using the scale factor band as one processing unit for quantization. FIG. 3 is a diagram showing an example of a scale factor band in which spectrum data is classified by the conversion unit 113 shown in FIG. In the figure, each spectrum data is represented by a bar graph. In MPEG-2 AAC, the number of scale factor bands included in one frame is determined by the difference between the LONG block and the SHORT block, and according to the sampling frequency of the input audio data. The LONG block is an MD by the conversion unit 113.
The one with a CT conversion length of 2048 samples, SHO
The RT block has a conversion length of 256 samples. For example, when the sampling frequency is 44.1 kHz in the LONG block as in this embodiment, the number of scale factor bands included in one frame is 49. In MPEG-2 AAC, the number of samples (spectral data) included in each scale factor band is also determined according to the frequency. Specifically, as shown in the figure, it is determined that a low frequency range includes a small number of samples, and a high frequency range includes a large number of samples. This is because, in general, human auditory characteristics are sensitive to low-frequency and mid-frequency components of an acoustic signal, and thus higher precision is required for low-frequency and mid-frequency encoding and decoding. Is based. Using such a scale factor band, the quantization unit 115 normalizes and quantizes the spectrum data included in the same scale factor band using the same scale factor.
【0023】量子化部115では、各スケールファクタ
ーバンドについて量子化を行う際に、1フレーム分の符
号化データを伝送するために使用するビット量を計算し
ながらスケールファクターを決定する。この際に、計算
したデータ量が伝送路の伝送レートに比較して非常に大
きい場合は、符号化後のデータ量を低減するために、各
スペクトルデータの量子化値が小さな値となるよう、ス
ケールファクターを決定する。これは、特に高域におい
て顕著である。この結果、量子化部115がこのような
場合に従来どおり正規化および量子化を行うとすると、
高域部において量子化値が連続的に「0」になってしまう
ことがしばしば起こる。しかし、このようにしてスペク
トルデータの量子化値を「0」にしても、対応する符号
化後のデータ量は「0」にはならない。このため、本実
施の形態の符号化装置111では、変換部113の出力
であるスペクトルデータに対し、量子化部115による
量子化の前に、スペクトルデータ統合部114による以
下のような統合処理を行う。図4(a)は、図1に示し
た変換部113の出力である統合前のスペクトルデータ
の一例を示す図である。図4(b)は、図1に示したス
ペクトルデータ統合部114による統合処理後のスペク
トルデータの一例を示す図である。スペクトルデータ統
合部114は、図4(a)に示すように、1フレーム1
024サンプルのスペクトルデータのうち、低域部側の
512サンプルはそのまま量子化部115に出力し、高
域部側の512サンプルについては、周波数軸上で連続
する2サンプルのスペクトルデータから統合値を求め、
図4(b)のように、連続する2サンプルのスペクトル
データを、求められた統合値を表す1サンプルのスペク
トルデータに統合して量子化部115に出力する。ここ
では、連続する2サンプルのスペクトルデータの絶対値
を比較して、絶対値が大きい方のスペクトルデータの値
を統合値としている。図4(a)では、連続する2サン
プルのうち、絶対値が大きい方のスペクトルデータを、
ハッチングで示している。図4(b)のように、スペク
トルデータ統合部114の統合処理により、図4(a)
に示した高域部512サンプルのスペクトルデータが、
統合値のみからなる256サンプルに統合されているこ
とがわかる。The quantizing unit 115 determines the scale factor while calculating the amount of bits used for transmitting coded data for one frame when quantizing each scale factor band. At this time, if the calculated data amount is very large compared to the transmission rate of the transmission path, in order to reduce the data amount after encoding, the quantized value of each spectrum data becomes a small value, Determine the scale factor. This is remarkable especially in the high range. As a result, if the quantization unit 115 performs normalization and quantization as in the conventional case in such a case,
It often happens that the quantized value continuously becomes "0" in the high frequency region. However, even if the quantized value of the spectrum data is “0” in this way, the corresponding encoded data amount does not become “0”. Therefore, in the coding apparatus 111 of the present embodiment, the spectrum data output from the conversion unit 113 is subjected to the following integration processing by the spectrum data integration unit 114 before being quantized by the quantization unit 115. To do. FIG. 4A is a diagram showing an example of the spectrum data before integration which is the output of the conversion unit 113 shown in FIG. FIG. 4B is a diagram showing an example of spectrum data after the integration processing by the spectrum data integration unit 114 shown in FIG. 1. As shown in FIG. 4 (a), the spectrum data integration unit 114 displays 1 frame 1
Of the 024 samples of spectrum data, the 512 samples on the low frequency side are output to the quantizer 115 as they are, and the 512 samples on the high frequency side are integrated values from the spectrum data of the two samples continuous on the frequency axis. Seeking,
As shown in FIG. 4B, the continuous spectrum data of two samples is integrated into the spectrum data of one sample representing the calculated integrated value and output to the quantization unit 115. Here, the absolute values of the spectrum data of two consecutive samples are compared, and the value of the spectrum data with the larger absolute value is used as the integrated value. In FIG. 4A, the spectral data of the larger absolute value of the two consecutive samples is
It is shown by hatching. As shown in FIG. 4B, the integration processing of the spectrum data integration unit 114 causes the FIG.
The spectral data of the 512 high-frequency samples shown in
It can be seen that they are integrated into 256 samples consisting of integrated values only.
【0024】このように、連続する2サンプルを1サン
プルに統合することによって、統合によって間引かれた
スペクトルデータの分だけ符号化後のデータ量を削減す
ることができる。また、統合により量子化の対象となる
スペクトルデータの数を大幅に低減することができるの
で、高域部スケールファクターバンドにおけるスケール
ファクターの調整において、量子化値の「0」化を防止す
ることができるという効果がある。As described above, by integrating two consecutive samples into one sample, it is possible to reduce the data amount after encoding by the amount of the spectral data thinned by the integration. In addition, since the number of spectrum data to be quantized can be significantly reduced by the integration, it is possible to prevent the quantization value from becoming “0” in the adjustment of the scale factor in the high frequency band scale factor band. The effect is that you can do it.
【0025】また、このように、連続2サンプルのうち
絶対値が大きい方のスペクトルデータを統合値とするこ
とによって、高域部におけるスペクトル値として、連続
2サンプルの両方ともが「0」の場合には、繰り返され
る「0」の一方をデータとして送信しない分だけデータ
量を削減することができる上に、連続2サンプルの一方
が「0」以外の値を持つ場合であれば、その値を漏れな
く統合値として(すなわち、データとして)残すことが
できるという利点がある。In this way, by using the spectrum data of the larger absolute value of the continuous two samples as the integrated value, when the continuous two samples are both "0" as the spectrum value in the high frequency region. In addition to reducing the amount of data by not transmitting one of the repeated "0" as data, if one of the two consecutive samples has a value other than "0", then that value is There is an advantage that it can be left as an integrated value (that is, as data) without omission.
【0026】上記の統合処理は、スペクトルデータ統合
部114において以下のような手順でデータ処理を行う
ことによって実行される。図5は、図4に示したスペク
トルデータ統合処理におけるスペクトルデータ統合部1
14の動作を示すフローチャートである。同図におい
て、i,jは、それぞれのスペクトルデータの番号を示
す序数である。また、レジスタは、変数の値を一時記憶
する記憶領域である。まず、スペクトルデータ統合部1
14は、変換部113から1フレーム1024サンプル
のスペクトルデータspectral[i],i=0,
1,・・・,1023を入力する(S501)。これら
のスペクトルデータは、それぞれi=0,1,・・・,
1023によって特定される1次元配列で表された記憶
領域spectral[i]に格納されている。次い
で、スペクトルデータ統合部114は、レジスタiおよ
びレジスタjに「512」を代入し、以後の処理を51
2番目(高域部の先頭)以降のスペクトルデータについ
て行う(S502)。さらに、iが「1024」未満で
あるか否かを判断する(S503)。iが「1024」
未満であれば、まだ、統合処理が終了していないので、
i番目のスペクトルデータの絶対値abs(spect
ral[i])を計算してレジスタaに代入するととも
に、(i+1)番目のスペクトルデータの絶対値abs
(spectral[i+1])を計算してレジスタb
に代入する(S504)。ここでは、512番目のスペ
クトルデータの絶対値がレジスタaに、513番目のス
ペクトルデータの絶対値がレジスタbに代入される。The above-mentioned integration processing is executed by the data processing in the spectrum data integration unit 114 in the following procedure. FIG. 5 is a spectrum data integration unit 1 in the spectrum data integration process shown in FIG.
14 is a flowchart showing the operation of No. 14. In the figure, i and j are ordinal numbers indicating the numbers of the respective spectrum data. The register is a storage area for temporarily storing the value of the variable. First, the spectrum data integration unit 1
Reference numeral 14 denotes spectrum data spectral [i], i = 0, of 1024 samples per frame from the conversion unit 113.
1, ..., 1023 are input (S501). These spectral data are i = 0, 1, ...,
It is stored in the storage area spectral [i] represented by the one-dimensional array specified by 1023. Next, the spectrum data integration unit 114 assigns “512” to the register i and the register j, and performs the subsequent processing as 51
This is performed for the second (the top of the high frequency band) and subsequent spectrum data (S502). Further, it is determined whether i is less than "1024" (S503). i is “1024”
If it is less than, since the integration process has not been completed yet,
Absolute value of i-th spectrum data abs (spect
ral [i]) is calculated and substituted in the register a, and the absolute value abs of the (i + 1) th spectrum data is obtained.
Calculate (spectral [i + 1]) and register b
To (S504). Here, the absolute value of the 512th spectrum data is assigned to the register a and the absolute value of the 513th spectrum data is assigned to the register b.
【0027】さらに、j番目のスペクトルデータを格納
する領域であるspectral[j]に、あらかじめ
i番目のスペクトルデータspectral[i]を代
入しておき、次いで、レジスタaに格納されているi番
目のスペクトルデータの絶対値abs(spectra
l[i])と、レジスタbに格納されている(i+1)
番目のスペクトルデータの絶対値abs(spectr
al[i+1])とを比較する。すなわち、spect
ral[j=512]にspectral[i=51
2]を代入しておき、次いで、レジスタaに格納されて
いる512番目のスペクトルデータの絶対値と、レジス
タbに格納されている513番目のスペクトルデータの
絶対値とを比較する。比較の結果、レジスタbに格納さ
れている(i+1)番目のスペクトルデータの絶対値の
方が、レジスタaに格納されているi番目のスペクトル
データの絶対値より大きい場合には、j番目のスペクト
ルデータを格納する領域であるspectral[j]
に、(i+1)番目のスペクトルデータであるspec
tral[i+1]の値を上書きする(S505)。す
なわち、比較の結果、レジスタbに格納されている51
3番目のスペクトルデータの絶対値の方が大きい場合、
spectral[j=512]に、513番目のスペ
クトルデータであるspectral[i+1=51
3]の値を上書きする。この結果、隣接する2つのスペ
クトルデータのうち、絶対値が大きい方のスペクトルデ
ータの値がspectral[j=512]に書き込ま
れることになる。次いで、スペクトルデータ統合部11
4は、iを「2」インクリメントし、jを「1」インク
リメントして(S506)、ステップS503に戻る。
この結果、i=514、j=513となる。Further, the i-th spectrum data spectral [i] is previously substituted into the spectral [j] which is an area for storing the j-th spectrum data, and then the i-th spectrum data stored in the register a is stored. Absolute value of spectral data abs (spectra
l [i]) and (i + 1) stored in register b
Absolute value of the th spectral data abs (spectr
al [i + 1]). That is, spec
ral [j = 512] to spectral [i = 51
2] is substituted, and then the absolute value of the 512th spectrum data stored in the register a and the absolute value of the 513th spectrum data stored in the register b are compared. If the absolute value of the (i + 1) th spectrum data stored in the register b is larger than the absolute value of the i-th spectrum data stored in the register a as a result of the comparison, the jth spectrum Spectral [j], which is an area for storing data
Is the (i + 1) th spectrum data
The value of tral [i + 1] is overwritten (S505). That is, as a result of the comparison, 51 stored in the register b
If the absolute value of the third spectrum data is larger,
In spectral [j = 512], spectral [i + 1 = 51, which is the 513th spectrum data.
3] is overwritten. As a result, of the two adjacent spectrum data, the value of the spectrum data having the larger absolute value is written to spectral [j = 512]. Next, the spectrum data integration unit 11
4 increments i by "2" and j by "1" (S506), and returns to step S503.
As a result, i = 514 and j = 513.
【0028】このようにして、iを「2」インクリメン
トし、jを「1」インクリメントしながら以下のステッ
プS503〜S506の処理を繰り返すことにより、ス
ペクトルデータ統合部114は、順次、連続する2つの
スペクトルデータの絶対値を大小比較し、絶対値の大き
い方のスペクトルデータを、jの配列であるspect
ral[j]に書き込んでいく。この結果、ステップS
503においてiが「1024」以上になったときに
は、記憶領域spectral[j]、j=512,5
13,・・・,767には、高域部512サンプルのう
ち、連続する2サンプルの統合値のみからなる256サ
ンプルのスペクトルデータがすべて保持されていること
になる。従って、スペクトルデータ統合部114は、ス
テップS503においてiが「1024」以上になった
ときには、記憶領域spectral[i]に保持され
ているi=0番目から511番目までのスペクトルデー
タと、記憶領域spectral[j]に保持されてい
るj=512番目から767番目までのスペクトルデー
タとからなるスペクトルデータspectral
[k]、k=0,1,・・・,767を量子化部115
に出力して(S507)、統合情報の作成を除く当該フ
レームにおける統合処理を終了する。In this way, the spectrum data integrating unit 114 repeats the processing of two successive consecutive steps by incrementing i by "2" and incrementing j by "1" and repeating the processing of the following steps S503 to S506. The absolute values of the spectrum data are compared, and the spectrum data with the larger absolute value is used as the array j.
Write to ral [j]. As a result, step S
When i becomes “1024” or more in 503, the storage area spectral [j], j = 512, 5
13, ..., 767, all the spectral data of 256 samples consisting of only the integrated value of two consecutive samples of the high frequency part 512 samples are held. Therefore, when i becomes “1024” or more in step S503, the spectrum data integration unit 114 stores the spectrum data from i = 0th to 511th stored in the storage area spectral [i] and the storage area spectral. Spectral data spectral consisting of j = 512th to 767th spectral data held in [j]
[K], k = 0, 1, ...
(S507), and the integration process in the frame except for the creation of the integration information ends.
【0029】上記統合処理の結果、高域部512サンプ
ルのスペクトルデータを256サンプルに低減し、1フ
レーム1024サンプルのスペクトルデータを768サ
ンプルに削減することができる。このように、スペクト
ルデータ統合部114によれば、簡単な処理によって容
易に高域スペクトルデータのデータ量を低減することが
できる。さらに、高域において連続する2つが1つに統
合された768サンプルのスペクトルデータを、本来1
フレーム1024サンプルのスペクトルデータに対して
割り当てられているスケールファクターバンドに、決め
られたサンプル数ずつ低周波数側から順次割り当ててい
くことによって、量子化の対象となるスケールファクタ
ーバンドの数を減少し、この結果、量子化部115の量
子化処理における負荷を低減することができるばかりで
なく、スケールファクターバンドの数が減少するので、
伝送すべきスケールファクターの数が低減され、符号化
信号のデータ量をさらに低減することができる。このよ
うに、統合によってスペクトルデータのサンプル数を従
来に比べて大きく低減することができるので、符号化ビ
ットストリームのデータ量を従来と同じにする場合に
は、各量子化値およびスケールファクターにより多くの
ビット数を割り当てることができ、より高い精度での符
号化を行うことができる。As a result of the above integration processing, it is possible to reduce the spectrum data of 512 samples in the high frequency band to 256 samples and the spectrum data of 1024 samples in one frame to 768 samples. As described above, the spectrum data integration unit 114 can easily reduce the data amount of the high frequency spectrum data by a simple process. Furthermore, the spectral data of 768 samples in which two consecutive two in the high range are integrated into one is originally
By sequentially allocating a predetermined number of samples from the low frequency side to the scale factor bands allocated to the spectrum data of the frame 1024 samples, the number of scale factor bands to be quantized is reduced, As a result, not only the load on the quantization processing of the quantization unit 115 can be reduced, but also the number of scale factor bands is reduced.
The number of scale factors to be transmitted is reduced, and the data amount of the encoded signal can be further reduced. In this way, the number of samples of spectrum data can be greatly reduced by integration as compared with the conventional method, so if the data amount of the encoded bitstream is the same as the conventional method, each quantization value and scale factor will be increased. , The number of bits can be assigned, and encoding can be performed with higher accuracy.
【0030】なお、ここで、スペクトルデータの統合処
理を高域側半分のスペクトルデータにのみ適用したの
は、スペクトルデータの統合により生じる再生音の音質
劣化が低域側ではより知覚されやすいためであり、従っ
て低域はそのままで、高域にのみ統合処理を施してい
る。The reason why the integration processing of the spectrum data is applied only to the spectrum data of the high frequency side half is that the sound quality deterioration of the reproduced sound caused by the integration of the spectrum data is more easily perceived on the low frequency side. Yes, so the low range remains the same and only the high range is integrated.
【0031】図6は、図4のスペクトルデータ統合処理
を行った場合に生成される統合情報500の一例を示す
図である。統合情報500は、ヘッダ510と1または
複数のブロック520とから構成される。ヘッダ510
は、当該統合情報500についての情報を表す部分であ
って、統合情報ID511、フレーム番号512および
データ長513の各項目を含んでいる。統合情報ID5
11の項目には、このデータが統合情報500であるこ
とを示すIDが記録される。フレーム番号512には、
この統合情報500がどのフレームの統合を表している
かを示す、すなわち、フレームを特定するためのフレー
ム番号が記録される。データ長513には、統合情報5
00が可変長であるので、当該統合情報500に含まれ
る最初のブロック520の先頭から最後のブロック52
0の末尾までのビット長が記録される。FIG. 6 is a diagram showing an example of integrated information 500 generated when the spectral data integration process of FIG. 4 is performed. The integrated information 500 includes a header 510 and one or more blocks 520. Header 510
Is a part that represents information about the integrated information 500 and includes items of integrated information ID 511, frame number 512, and data length 513. Integrated information ID 5
In the 11th item, an ID indicating that this data is the integrated information 500 is recorded. In frame number 512,
A frame number for indicating which frame the integrated information 500 represents, that is, a frame number for identifying the frame is recorded. Integrated information 5 is included in the data length 513.
00 has a variable length, the first block 520 to the last block 52 of the first block 520 included in the integrated information 500.
The bit length up to the end of 0 is recorded.
【0032】各ブロック520には、統合処理の具体的
内容が示され、1フレーム内での統合方法が切り替わる
ごとにその部分での統合方法が記録される。具体的に
は、各ブロック520は、統合処理の適用範囲を指定す
る部分と、指定された統合範囲内における詳細な統合方
法を指定する部分とに分かれる。各ブロック520にお
いて統合処理の適用範囲を指定する部分は、指定方法5
21、開始522、終了523の項目から構成される。
指定方法521は、統合範囲が何によって指定されるか
が示される部分で、「sfb」と「SD」とのいずれか
が選択されて記録される。ここで「sfb」が選択され
ている場合には、開始522および終了523の各項目
で示される統合範囲がスケールファクターバンドの番号
で記述される。「SD」が選択されている場合には、開
始522および終了523の各項目がスペクトルデータ
の番号で記述される。開始522の項目には、統合範囲
の開始位置が、指定方法521に応じた値で記述され
る。終了523の項目には、前記統合範囲の終了位置
が、指定方法521に応じた値で記述される。例えば、
各フレーム1024サンプルの各スペクトルデータに
「0」から「1023」までのシリアル番号が与えられ
ており、高域部512サンプルが同一の統合方法に従っ
て統合されるとした場合、指定方法521の項目が「S
D」であれば、開始522の項目には「511」が、終
了523の項目には「1023」が記録される。Each block 520 shows specific contents of the integration process, and each time the integration method in one frame is switched, the integration method in that portion is recorded. Specifically, each block 520 is divided into a part for designating an application range of the integration process and a part for designating a detailed integration method within the specified integration range. In each block 520, the part for designating the application range of the integration process is the designation method 5.
21, the start 522, and the end 523.
The designation method 521 is a portion showing what is designated by the integrated range, and either “sfb” or “SD” is selected and recorded. When "sfb" is selected here, the integrated range indicated by each item of the start 522 and the end 523 is described by the scale factor band number. When "SD" is selected, each item of the start 522 and the end 523 is described by the spectrum data number. In the item of start 522, the start position of the integrated range is described with a value according to the designation method 521. In the item of end 523, the end position of the integrated range is described with a value according to the designation method 521. For example,
If the serial numbers from “0” to “1023” are given to each spectrum data of each frame 1024 samples, and it is assumed that the high frequency band 512 samples are integrated according to the same integration method, the item of the designation method 521 is "S
If it is “D”, “511” is recorded in the item of start 522, and “1023” is recorded in the item of end 523.
【0033】各ブロック520で統合方法を指定する部
分には、統合数524、スペクトル選択方法525、統
合値526および重み付け527の項目が含まれてい
る。統合数524の項目には、統合対象のスペクトルデ
ータの数が記録される。ここでは、「2」が記録されて
おり、2つのスペクトルデータが統合されることが示さ
れている。また、スペクトル選択方法525には、統合
対象のスペクトルデータを選択する方法、例えば、統合
数524の項目に示される数のスペクトルデータを連続
して選択するか、1つおきに選択するかなどの方法が記
録される。ここでは、「連続」が記録されている。さら
に、統合値526には、選択されたスペクトルデータか
ら統合値を求める方法が記録される。ここでは、「絶対
最大値」が記録されており、統合対象として選択された
スペクトルデータのうち、絶対値が最も大きいスペクト
ルデータの値が統合値となることが示されている。重み
付け527の項目には、統合対象として選択されたスペ
クトルデータのそれぞれに係数をかけるなど、何らかの
重み付けを行うか否かが記録される。また、重み付けが
行われる場合には、重み付けされるスペクトルデータの
指定と、その重み付け係数の数値とが記録される。ここ
では、「なし」が記録されている。The part for designating the integration method in each block 520 includes items of integration number 524, spectrum selection method 525, integration value 526 and weighting 527. In the item of integration number 524, the number of spectrum data to be integrated is recorded. Here, “2” is recorded, which indicates that the two pieces of spectral data are integrated. In addition, the spectrum selection method 525 includes a method of selecting spectrum data to be integrated, for example, whether the number of spectrum data indicated by the item of the integration number 524 is continuously selected or every other data is selected. The method is recorded. Here, "continuous" is recorded. Further, in the integrated value 526, a method for obtaining the integrated value from the selected spectrum data is recorded. Here, the “absolute maximum value” is recorded, and it is shown that, of the spectrum data selected as the integration target, the value of the spectrum data having the largest absolute value becomes the integration value. In the item of weighting 527, whether or not to perform some weighting, such as multiplying each spectrum data selected as the integration target by a coefficient, is recorded. When weighting is performed, the designation of the spectrum data to be weighted and the numerical value of the weighting coefficient are recorded. Here, “none” is recorded.
【0034】このように記録された統合情報500を参
照することによって、復号化装置122側では、このフ
レームにおいて、高域部の512サンプルのスペクトル
データのうち、連続する2つのスペクトルデータが、絶
対値が大きい方のスペクトルデータの値を統合値として
1つのスペクトルデータに統合されていることを知るこ
とができ、これに対応してもとのスペクトルデータに近
いスペクトルデータを復元することができる。By referring to the integrated information 500 recorded in this way, on the decoding device 122 side, two consecutive spectral data among the spectral data of 512 samples in the high frequency band are absolute in this frame. It can be known that the value of the larger spectrum data is integrated into one spectrum data as an integrated value, and the spectrum data close to the original spectrum data can be restored corresponding to this.
【0035】なお、この例の場合、1つのブロック52
0によって統合範囲が当該フレームの最後まで指定され
たので、当該統合情報500に含まれるブロック520
は例示した1つのみであるが、1フレームにおいて複数
の統合方法が用いられる場合は、複数のブロック520
が含まれる。また、この例では、1フレームにつき、少
なくとも1つのブロック520を含む上記統合情報50
0を生成すると説明したが、符号化装置111と復号化
装置122との間であらかじめ定められている項目につ
いては、統合情報500から削除してもよい。例えば、
どのフレームについても高域部512サンプルのみを、
同じ統合方法を用いた統合処理の適用範囲とする場合に
は、統合処理の適用範囲を指定する部分、すなわち、指
定方法521、開始522および終了523の項目を削
除した統合情報500を生成してもよい。さらに、以降
の項目においても、例えば、重み付けを行わないフレー
ムまたは統合処理対象範囲では、重み付け527の項目
に「なし」を記載するのではなく、重み付け527の項
目そのものを統合情報500から削除して伝送し、重み
付けを行うフレームまたは統合処理対象範囲でのみ、重
み付け係数を記述した重み付け527の項目を統合情報
500に挿入して伝送するようにしてもよい。In this example, one block 52
Since the integration range is specified up to the end of the frame by 0, the block 520 included in the integration information 500.
Is only one illustrated, but a plurality of blocks 520 are used when a plurality of integration methods are used in one frame.
Is included. Further, in this example, the integrated information 50 including at least one block 520 for one frame.
Although it has been described that 0 is generated, items that are predetermined between the encoding device 111 and the decoding device 122 may be deleted from the integrated information 500. For example,
For every frame, only the high-frequency part 512 samples,
In the case where the application range of the integration process using the same integration method is set, a part that specifies the application range of the integration process, that is, the integration information 500 in which the items of the specification method 521, the start 522, and the end 523 are deleted is generated. Good. Further, also in the following items, for example, in a frame in which weighting is not performed or in the integration processing target range, “none” is not described in the item of the weighting 527, but the item of the weighting 527 itself is deleted from the integration information 500. It is also possible to insert the item of the weighting 527 describing the weighting coefficient into the integrated information 500 and transmit it only in the frame to be transmitted and weighted or in the range to be integrated.
【0036】上記のように生成された統合情報500
は、ハフマン符号化され、ストリーム用のフォーマット
に変換された後、符号化信号から変換されたMPEG−
2 AACの符号化ビットストリーム中の従来の復号化
装置では無視される又はその動作が規定されていない領
域に組み込まれる。Integrated information 500 generated as described above
Is Huffman-encoded, converted into a format for a stream, and then converted from an encoded signal MPEG-
2 It is ignored in a conventional decoding device in a coded bitstream of 2 AAC or is incorporated in a region whose operation is not specified.
【0037】図7(a)は、統合情報500が組み込ま
れたMPEG−2 AAC音響符号化ビットストリーム
600のデータ構造の一例を示す図である。図7(b)
は、統合情報500が組み込まれた他のMPEG−2
AAC音響符号化ビットストリーム610のデータ構造
の例を示す図である。図7(a)および図7(b)にお
いて斜線で示される部分には、それぞれ本発明の統合情
報500が組み込まれる。図7(a)のように、音響符
号化ビットストリーム600は、ヘッダ601および符
号化信号602の各項目を含み、さらに、Fill Element
またはData Stream Element(DSE)などの領域60
3を含んでいる。ヘッダ601には、この音響符号化ビ
ットストリーム600に関する情報、例えば、このデー
タがMPEG−2 AACに準拠する音響符号化ビット
ストリームであることを示す識別子、音響符号化ビット
ストリーム600のデータ長、符号化信号602が対応
するフレームの番号、符号化信号602に対応するスケ
ールファクターバンドの数などが記録される。符号化信
号602の項目には、スペクトルデータ統合部114に
よって統合されたスペクトルデータが量子化および符号
化された上に、フォーマット変換された符号化信号が記
録される。FIG. 7A is a diagram showing an example of the data structure of an MPEG-2 AAC audio coded bit stream 600 in which integrated information 500 is incorporated. Figure 7 (b)
Is another MPEG-2 with integrated information 500 incorporated.
It is a figure which shows the example of a data structure of AAC audio encoding bit stream 610. The integrated information 500 of the present invention is incorporated in each of the hatched portions in FIGS. 7A and 7B. As shown in FIG. 7A, the acoustic coded bit stream 600 includes items of a header 601 and a coded signal 602, and further, a Fill Element.
Or area 60 such as Data Stream Element (DSE)
Includes 3. The header 601 contains information about the audio coded bitstream 600, for example, an identifier indicating that this data is an audio coded bitstream conforming to MPEG-2 AAC, a data length of the audio coded bitstream 600, and a code. The frame number corresponding to the encoded signal 602, the number of scale factor bands corresponding to the encoded signal 602, and the like are recorded. In the item of the coded signal 602, the spectrum data integrated by the spectrum data integration unit 114 is quantized and coded, and the format-converted coded signal is recorded.
【0038】Fill Elementは、音響符号化ビットストリ
ーム600のデータ長を固定長に合わせるために「0」
で埋められる領域であり、Fill Elementであることを示
すFill Element識別子およびFill Element603全体の
ビット長を示すビット数データなどを含んだヘッダ情報
が設けられている。例えば、領域603がFill Element
である場合、この領域603に統合情報500を格納す
る際には、前記ヘッダ情報以下の本来であれば「0」が
記録される領域に統合情報500を記録する。このよう
に、Fill Elementに統合情報500を格納した場合、従
来の復号化装置では復号化すべき符号化信号とは認識さ
れず、無視される。The Fill Element is "0" in order to adjust the data length of the acoustically encoded bit stream 600 to a fixed length.
Header information including a Fill Element identifier indicating that it is a Fill Element and bit number data indicating the bit length of the entire Fill Element 603 is provided. For example, the area 603 is the Fill Element
If the integrated information 500 is stored in the area 603, the integrated information 500 is recorded in an area where “0” is originally recorded below the header information. As described above, when the integrated information 500 is stored in the Fill Element, the conventional decoding device does not recognize the encoded signal to be decoded and ignores it.
【0039】また、DSEは、将来の拡張のためMPE
G−2 AACの規格によってビット長などの物理的構
造だけが規定された領域であり、このDSEにも、Fill
Elementと同様、以下のデータがDSEであることを示
すDSE識別子およびDSE全体のビット長を示すビッ
ト数データなどが含まれたヘッダ情報が設けられてい
る。例えば、領域603がDSEである場合、この領域
603に統合情報500を格納する際には、ヘッダ情報
に続くDSEのデータ領域となる部分に統合情報500
を格納する。このDSEに統合情報500を格納した場
合、従来の復号化装置によって統合情報500が読み取
られたとしても、読み取られた統合情報500に対する
復号化装置の動作が規定されていないので、復号化装置
はこれに対応する処理を何も行わない。The DSE is an MPE for future expansion.
This is an area in which only the physical structure such as bit length is defined by the G-2 AAC standard.
Similar to Element, header information including a DSE identifier indicating that the following data is a DSE and bit number data indicating the bit length of the entire DSE is provided. For example, when the area 603 is the DSE, when the integrated information 500 is stored in this area 603, the integrated information 500 is added to the portion which becomes the data area of the DSE following the header information.
To store. When the integrated information 500 is stored in this DSE, even if the integrated information 500 is read by the conventional decoding device, the operation of the decoding device for the read integrated information 500 is not specified, so the decoding device No processing corresponding to this is performed.
【0040】従って、上記のような領域に統合情報50
0を格納しておけば、本発明の符号化装置111による
音響符号化ビットストリームが従来の復号化装置に入力
された場合でも、統合情報500は音響符号化信号とし
て復号化されないために、統合情報500を正しく復号
化することができないことに起因する雑音の発生等を防
止することができる。ただし、高域部において、統合の
結果、連続する2つに1つ間引かれたスペクトルデータ
の分だけ統合値スペクトルデータが低域側スケールファ
クターバンドにシフトされているので、高域部の再生帯
域が狭くなり、復元される音の高域部の音質が、本来サ
ンプリングされた音響信号と異なるものになることは避
けられない。なお、ここではDSEを、符号化音響ビッ
トストリームの末尾に位置する領域603として説明し
ているが、DSEはヘッダ601と符号化信号602と
の間、または符号化信号602の中にあってもよい。Therefore, the integrated information 50 is stored in the above area.
If 0 is stored, the integrated information 500 will not be decoded as an audio coded signal even if the audio coded bit stream by the coding apparatus 111 of the present invention is input to the conventional decoding apparatus. It is possible to prevent noise and the like due to the fact that the information 500 cannot be correctly decoded. However, in the high frequency band, as a result of the integration, the integrated value spectrum data is shifted to the low frequency side scale factor band by the amount of the spectral data that is thinned out to every two continuous data, so that the high frequency band is reproduced. It is unavoidable that the band becomes narrower and the sound quality of the high frequency part of the restored sound becomes different from the originally sampled acoustic signal. Although the DSE is described here as the area 603 located at the end of the coded audio bitstream, the DSE may be located between the header 601 and the coded signal 602, or even in the coded signal 602. Good.
【0041】また、以上では、統合情報500を、MP
EG−2 AACの規格に従う音響符号化ビットストリ
ーム中の従来の復号化装置では無視されるような領域に
格納するとしたが、音響符号化ビットストリーム610
を本発明の復号化装置122のみを対象として出力する
場合には、統合情報500を、ヘッダ情報601内の所
定の領域611に組み込んでもよいし、符号化信号60
2内の領域603以外の所定位置(例えば、領域61
2)に組み込んでもよいし、ヘッダ情報601と符号化
信号602との両方にまたがって組み込んでもよい。
(例えば、領域611と領域612とにまたがってもよ
い。)また音響符号化ビットストリーム610内に統合
情報500を格納するために、ヘッダ601においても
符号化信号602においても、連続した領域を確保しな
くてもよい。例えば、符号化信号602内の所定領域で
ある領域612と領域613とにまたがって組み込んで
もよい。Further, in the above, the integrated information 500 is set to MP
The acoustic coded bitstream according to the EG-2 AAC standard is stored in an area that is ignored by a conventional decoding device, but the acoustic coded bitstream 610 is stored.
When only the decoding device 122 of the present invention is output, the integrated information 500 may be incorporated in a predetermined area 611 in the header information 601, or the encoded signal 60 may be included.
2 in a predetermined position other than the area 603 (for example, the area 61
2) or may be incorporated over both the header information 601 and the encoded signal 602.
(For example, it may extend over the area 611 and the area 612.) In order to store the integrated information 500 in the audio coded bitstream 610, a continuous area is secured in the header 601 and the coded signal 602. You don't have to. For example, the coded signal 602 may be incorporated over a predetermined area, that is, an area 612 and an area 613.
【0042】上記のような音響符号化ビットストリーム
を、衛星放送電波を介して入力した復号化装置122で
は、音響符号化ビットストリームから符号化信号を取り
出し、これを復号化する。しかし、取り出された符号化
信号は、高域部のスペクトルデータを統合されているの
で、復号化装置122は、取り出された符号化信号を復
号化および逆量子化した後、高域部256サンプルのス
ペクトルデータを512サンプルに展開する処理を行
う。図8(a)は、図1に示した逆量子化部125の出
力である展開前のスペクトルデータの一例を示す図であ
る。図8(b)は、図1に示したスペクトルデータ展開
部126による展開処理後のスペクトルデータの一例を
示す図である。この展開方法は、図4に示したスペクト
ルデータ統合方法に対応しており、逆量子化部125に
よる逆量子化結果である1フレーム768サンプルを1
024サンプルのスペクトルデータに展開する方法であ
る。スペクトルデータ展開部126は、図8(a)に示
す1フレーム768サンプルのスペクトルデータのう
ち、低域部512サンプルはそのままで、高域部側25
6サンプルの各サンプルを周波数軸上で連続する2サン
プルのスペクトルデータに展開して、高域部512サン
プルのスペクトルデータを生成する。図8(b)に示す
展開後のスペクトルデータと、図4(a)に示す原音の
スペクトルデータとを比較すると、大まかにではある
が、原音に類似したスペクトルデータが復元されている
ことが分かる。The decoding device 122, which has input the above acoustically encoded bit stream via satellite broadcast radio waves, extracts an encoded signal from the acoustically encoded bit stream and decodes it. However, since the extracted coded signal has the spectrum data of the high band part integrated, the decoding device 122 decodes and dequantizes the extracted coded signal, and then samples 256 high band parts. Processing for expanding the spectral data of the above into 512 samples. FIG. 8A is a diagram showing an example of the spectrum data before expansion which is the output of the inverse quantization unit 125 shown in FIG. FIG. 8B is a diagram showing an example of the spectrum data after the expansion processing by the spectrum data expansion unit 126 shown in FIG. This expansion method corresponds to the spectral data integration method shown in FIG. 4, and one frame of 768 samples, which is the result of inverse quantization by the inverse quantization unit 125, is converted into one.
This is a method of expanding the spectrum data of 024 samples. The spectrum data expanding unit 126 keeps the low band portion 512 samples of the spectrum data of 768 samples of one frame shown in FIG.
Each of the 6 samples is expanded into the spectral data of 2 samples continuous on the frequency axis to generate the spectral data of 512 samples in the high frequency region. Comparing the expanded spectrum data shown in FIG. 8B with the spectrum data of the original sound shown in FIG. 4A shows that the spectrum data similar to the original sound is roughly restored. .
【0043】上記の展開処理は、スペクトルデータ展開
部126において、具体的に以下のような手順でデータ
処理を行うことによって実行される。図9は、図8に示
したスペクトルデータ展開処理におけるスペクトルデー
タ展開部126の動作を示すフローチャートである。同
図において、i,jは、それぞれのスペクトルデータの
番号を示す序数である。スペクトルデータ展開部126
は、逆量子化部125から、逆符号化および逆量子化の
結果であるスペクトルデータのinv_spectra
l[j],j=0,1,・・・,767を入力する(S
1001)。これらのスペクトルデータは、それぞれj
=0,1,・・・,767によって特定される1次元配
列で表された記憶領域inv_spectral[j]
に格納されている。次いで、スペクトルデータ統合部1
14は、レジスタiおよびレジスタjに「512」を代
入し、512番目(高域部の先頭)以降のスペクトルデ
ータについて以後の処理を行う(S1002)。さら
に、jが「768」未満であるか否かを判断する(S1
003)。jが「768」未満であれば、まだ、展開処
理が終了していないので、i=512,513,・・
・,1023に対応する1次元配列で表された一時的な
記憶領域tmp[i]とtmp[i+1]とにinv_
spectral[j]の値を代入する(S100
4)。まず、ここでは、tmp[512]とtmp[5
13]とにinv_spectral[512]が格納
される。The above-mentioned expansion processing is executed by the spectrum data expansion unit 126 by specifically performing data processing in the following procedure. FIG. 9 is a flowchart showing the operation of the spectrum data expanding section 126 in the spectrum data expanding process shown in FIG. In the figure, i and j are ordinal numbers indicating the numbers of the respective spectrum data. Spectral data expansion unit 126
From the inverse quantization unit 125, inv_spectra of spectrum data that is the result of inverse encoding and inverse quantization.
Input l [j], j = 0, 1, ..., 767 (S
1001). These spectral data are respectively j
Storage area inv_spectral [j] represented by a one-dimensional array specified by = 0, 1, ..., 767
It is stored in. Next, the spectrum data integration unit 1
14 assigns “512” to the register i and the register j, and performs the subsequent processing for the 512th (the top of the high frequency band) and subsequent spectrum data (S1002). Further, it is determined whether j is less than "768" (S1).
003). If j is less than "768", the expansion process is not yet completed, so i = 512, 513, ...
, Inv_ in the temporary storage areas tmp [i] and tmp [i + 1] represented by the one-dimensional array corresponding to 1023.
Substitute the value of spectral [j] (S100
4). First, here, tmp [512] and tmp [5]
13] and inv_spectral [512] are stored.
【0044】さらに、スペクトルデータ展開部126
は、iを「2」インクリメントし、jを「1」インクリ
メントした後(S1005)、ステップS1003に戻
る。この結果、i=514、j=513となる。Further, the spectral data expansion unit 126
Increments i by "2" and j by "1" (S1005), and then returns to step S1003. As a result, i = 514 and j = 513.
【0045】このようにして、iを「2」インクリメン
トし、jを「1」インクリメントしながら以下のステッ
プS1003〜S1005の処理を繰り返すことによ
り、inv_spectral[513]がtmp[5
14]とtmp[515]とに展開され、inv_sp
ectral[514]がtmp[516]とtmp
[517]とに展開されるというように、逆量子化部1
25から入力された連続する各スペクトルデータが、そ
れぞれ連続する2つの一時的な記憶領域に順次、2つず
つ展開されていく。この結果、ステップS1003にお
いてjが「768」以上になったときには、一時的記憶
領域tmp[i]、j=512,513,・・・,10
23には、連続する2サンプルずつが同じ値を持つ高域
部512サンプルのスペクトルデータが保持されている
ことになる。従って、スペクトルデータ展開部126
は、ステップS1003においてjが「768」以上に
なったときには、一時的記憶領域tmp[i],i=5
12,513,・・・,1023に保持されているスペ
クトルデータを、それぞれ記憶領域inv_spect
ral[i],i=512,513,・・・,1023
に上書きし(S1006)、展開処理を受けていない低
域部スペクトルデータinv_spectral
[i],i=0,1,・・・,511と併せて、inv
_spectral[i],i=0,1,・・・,10
23を逆変換部127に出力して(S1007)、当該
フレームにおける展開処理を終了する。In this way, inv_spectral [513] is changed to tmp [5] by incrementing i by "2" and incrementing j by "1" and repeating the processing of the following steps S1003 to S1005.
14] and tmp [515], and inv_sp
electrical [514] is tmp [516] and tmp
The inverse quantizer 1 is expanded to [517].
Each of the continuous spectrum data input from 25 is sequentially expanded into two continuous temporary storage areas, two by two. As a result, when j becomes “768” or more in step S1003, the temporary storage area tmp [i], j = 512, 513, ..., 10
In 23, the spectrum data of 512 samples in the high frequency part having the same value for each two consecutive samples are held. Therefore, the spectrum data expansion unit 126
When j becomes “768” or more in step S1003, the temporary storage area tmp [i], i = 5
The spectrum data held in 12, 513, ..., 1023 are respectively stored in the storage area inv_spect.
ral [i], i = 512, 513, ..., 1023
(S1006), and the low-frequency spectrum data inv_spectral that has not been subjected to expansion processing
Inv in combination with [i], i = 0, 1, ..., 511
_Spectral [i], i = 0, 1, ..., 10
23 is output to the inverse conversion unit 127 (S1007), and the expansion processing in the frame ends.
【0046】以上のように、本実施の形態の符号化装置
111によれば、1フレーム1024サンプルのスペク
トルデータを、768サンプルに統合するので、符号化
装置111においては量子化および符号化処理における
負荷を軽減することができる上、伝送路においても音響
符号化ビットストリームを無理なく伝送することができ
る。また、復号化装置122側では、統合された1フレ
ーム768サンプルのスペクトルデータから全再生帯域
1024サンプルのスペクトルデータを復元することが
できるので、高音質な音響データを復元することができ
る。さらに本実施の形態の放送システム100では、従
来に比べて、伝送される1フレームあたりのサンプル数
が少ないために、同じデータ量の音響符号化ビットスト
リームを伝送するのであれば、従来よりも1サンプル当
りの情報量を増加して伝送することができる。したがっ
て、音響符号化ビットストリーム中の各サンプルデータ
を、より高い精度で表すことができ、復号化装置122
側で、より原音に忠実な音響を再現することができる。As described above, according to the coding apparatus 111 of the present embodiment, the spectral data of 1024 samples in one frame is integrated into 768 samples, so that the coding apparatus 111 can perform quantization and coding processing. The load can be reduced, and the acoustically encoded bit stream can be transmitted without difficulty on the transmission path. Further, since the decoding device 122 side can restore the spectrum data of 1024 samples in the entire reproduction band from the integrated spectrum data of 768 samples of one frame, it is possible to restore high-quality sound data. Further, in the broadcasting system 100 according to the present embodiment, the number of samples per frame to be transmitted is smaller than that in the conventional case, and therefore, if the acoustic coded bit stream having the same data amount is transmitted, the number is more than that in the past. The amount of information per sample can be increased and transmitted. Therefore, each sample data in the audio coded bit stream can be represented with higher accuracy, and the decoding device 122
On the side, it is possible to reproduce a sound that is more faithful to the original sound.
【0047】また、本実施の形態における符号化装置1
11および復号化装置122は、従来の符号化装置およ
び復号化装置にスペクトルデータ統合部114およびス
ペクトルデータ展開部126を追加しただけであるた
め、既存の符号化装置および復号化装置の構成を大幅に
変更することなく実現することができる。Further, the coding apparatus 1 according to the present embodiment
11 and the decoding device 122 are only the addition of the spectrum data integration unit 114 and the spectrum data expansion unit 126 to the conventional encoding device and decoding device, so that the configuration of the existing encoding device and decoding device is greatly improved. It can be realized without changing to.
【0048】なお、本実施の形態の放送システム100
は、放送衛星130を用いた衛星デジタル放送システム
であるとして説明したが、本発明の放送システムは、こ
のようなBSデジタル放送システムに限らず、通信衛星
を用いたCSデジタル放送システムであってもよいこと
はもちろん、地上波を用いたデジタル放送システムであ
ってもよい。また、本発明の符号化装置および復号化装
置は、前記放送システムの送信側装置と受信側装置とに
それぞれ適用できるばかりでなく、インターネットなど
の双方向通信ネットワークを利用したコンテンツ配信シ
ステムや、電話システムの送信側装置と受信側装置とに
も適用することができる。さらに、本発明の符号化装置
は、CD(Compact Disc)などの記録媒体に音響信号を
記録する記録装置に、復号化装置は、当該記録媒体から
音響信号を再生する再生装置に適用することができる。
また符号化装置111および復号化装置122による処
理は、ハードウェアはもちろん、ソフトウェアでも実現
でき、また、1部ハードウェア、残りをソフトウェアと
いう構成でも実現できる。The broadcasting system 100 of the present embodiment
Has been described as a satellite digital broadcasting system using the broadcasting satellite 130, but the broadcasting system of the present invention is not limited to such a BS digital broadcasting system, and may be a CS digital broadcasting system using a communication satellite. Needless to say, it may be a digital broadcasting system using terrestrial waves. Further, the encoding device and the decoding device of the present invention can be applied not only to the transmission side device and the reception side device of the broadcasting system, but also to a content distribution system using a bidirectional communication network such as the Internet or a telephone. It can also be applied to the transmitting side device and the receiving side device of the system. Furthermore, the encoding device of the present invention can be applied to a recording device that records an acoustic signal on a recording medium such as a CD (Compact Disc), and the decoding device can be applied to a reproducing device that reproduces the acoustic signal from the recording medium. it can.
The processing by the encoding device 111 and the decoding device 122 can be realized by software as well as hardware, or can be realized by a configuration in which one part hardware and the rest are software.
【0049】なお、本実施の形態においては、MPEG
−2 AACを従来技術の例に挙げて説明したが、本発
明は、他の既存の音響符号化方式にも適用することがで
きるし、既存しない他の音響符号化方式にも適用するこ
とができる。In this embodiment, MPEG is used.
-2 Although AAC has been described as an example of the prior art, the present invention can be applied to other existing acoustic coding schemes and can also be applied to other existing acoustic coding schemes. it can.
【0050】また、本実施の形態のスペクトルデータ統
合部114は、低域部半分(512サンプル)はそのま
まで、高域側半分(512サンプル)のスペクトルデー
タを統合処理適用範囲としたが、統合処理適用範囲の定
め方は、もちろんこの例に限定されない。図10(a)
は、1フレームにおける統合処理適用範囲の他の例を示
す図である。例えば、図10(a)のように、フレーム
先頭から低域部256サンプルをそのまま量子化部11
5に出力し、連続する高域部768サンプルを統合する
など、半分より低域側から統合処理を適用してもよい。
また、図10(b)は、1フレームにおける統合処理適
用範囲のさらに他の例を示す図である。例えば、図10
(b)のように、フレーム先頭から低域部768サンプ
ルをそのまま量子化部115に出力し、連続する高域部
256サンプルを統合するなど、半分の512番目スペ
クトルデータより高域側から統合処理を適用してもよ
い。これ以外にも、1フレーム1024サンプル全てに
統合処理を適用してもよい。さらに、図10(c)は、
1フレームにおける統合処理適用範囲のさらに他の例を
示す図である。例えば、図10(c)のように、1フレ
ーム内で256番目から319番目までの連続するスペ
クトルデータと、768番目から1023番目までの連
続するスペクトルデータとを当該フレームの統合適用範
囲としてもよい。すなわち、周波数軸方向に連続しない
複数の領域に統合処理を適用してもよい。Further, although the spectrum data integration unit 114 of the present embodiment sets the spectrum data of the high frequency side half (512 samples) as the integration processing application range while keeping the low frequency band half (512 samples) as it is, Of course, the method of defining the processing application range is not limited to this example. Figure 10 (a)
FIG. 9 is a diagram showing another example of the integration processing application range in one frame. For example, as shown in FIG. 10A, the low-frequency part 256 samples from the beginning of the frame are directly used by the quantizer 11
It is also possible to apply the integration process from the lower half side than the half, such as outputting to 5, and integrating 768 consecutive high-frequency parts.
Further, FIG. 10B is a diagram showing still another example of the integration processing application range in one frame. For example, in FIG.
As shown in (b), 768 samples in the low frequency band are directly output to the quantizing unit 115 from the beginning of the frame, 256 continuous samples in the high frequency band are integrated, and so on. May be applied. Alternatively, the integration process may be applied to all 1024 samples in one frame. Furthermore, FIG.
It is a figure which shows the further another example of the integration process application range in 1 frame. For example, as shown in FIG. 10C, the continuous spectrum data of 256th to 319th and the continuous spectrum data of 768th to 1023th in one frame may be the integrated application range of the frame. . That is, the integration process may be applied to a plurality of regions that are not continuous in the frequency axis direction.
【0051】また、上記統合処理の適用範囲として、フ
レーム単位に異なる範囲を定めてもよい。図11(a)
は、フレーム単位に異なる統合処理適用範囲を定める場
合におけるスペクトルデータ統合部114の統合処理適
用範囲の一例を示す図である。図11(a)に示すよう
に、あるフレームでは1フレーム1024サンプル全て
に統合処理を適用し、あるフレームではまったく統合処
理を適用しないとしてもよい。図11(b)は、フレー
ム単位に異なる統合処理適用範囲を定める場合における
スペクトルデータ統合部114の統合処理適用範囲の他
の例を示す図である。さらに、スペクトルデータ統合部
114は、図11(b)のように、あるフレームでは低
域部512サンプルをそのまま量子化部115に出力
し、高域部512サンプルを統合処理の適用範囲とし、
次のフレームでは低域部768サンプルをそのまま出力
し、高域部256サンプルを統合処理の適用範囲とする
というように、フレームごとに適用範囲を定めてもよ
い。Further, as the applicable range of the above integration processing, different ranges may be set for each frame. FIG. 11 (a)
FIG. 8 is a diagram showing an example of an integration processing application range of the spectrum data integration unit 114 when different integration processing application ranges are set for each frame. As shown in FIG. 11A, the integration processing may be applied to all 1024 samples in one frame in a certain frame, and the integration processing may not be applied in a certain frame at all. FIG. 11B is a diagram showing another example of the integration processing application range of the spectrum data integration unit 114 when different integration processing application ranges are set for each frame. Further, as shown in FIG. 11B, the spectrum data integration unit 114 outputs the low frequency band 512 samples to the quantization unit 115 as they are in a certain frame, and the high frequency region 512 samples as the application range of the integration process,
In the next frame, 768 samples in the low-frequency part may be output as they are, and 256 samples in the high-frequency part may be set as the applicable range of the integration process, so that the applicable range may be determined for each frame.
【0052】また、本実施の形態においては、スペクト
ルデータ統合部114は、図6の統合情報500を生成
して、各フレームにおける統合処理適用範囲を指定する
と説明したが、必ずしも統合情報500を生成する必要
はなく、例えば、「奇数番目のフレームでは高域部51
2サンプルを統合処理の適用範囲とし、偶数番目のフレ
ームでは768番目以降の連続する256サンプルを適
用範囲とする」というように、符号化装置111と復号
化装置122との間であらかじめ各フレームの統合処理
適用範囲を定めておく場合には、統合情報500に適用
範囲を指定しなくてもよい。Further, in the present embodiment, the spectrum data integration unit 114 has been described as generating the integration information 500 of FIG. 6 and designating the integration processing application range in each frame, but the integration information 500 is not always generated. It is not necessary to perform, for example, “in the high-frequency part 51 in the odd-numbered frame
2 samples are set as the application range of the integration process, and in the even-numbered frame, the 768th and subsequent consecutive 256 samples are set as the application range. " When the integrated processing application range is defined, the application range need not be specified in the integrated information 500.
【0053】さらに、本実施の形態において統合情報5
00は、1以上のブロック520を含み、当該ブロック
520に統合処理の具体的内容が示され、1フレーム内
での統合方法が切り替わるごとにその部分での統合方法
が記録されると説明したが、統合情報500は、この例
に限定されない。例えば、1フレーム内でどのように統
合処理を行うかをあらかじめ定めておけば、統合情報5
00としては、フレームごとに統合処理を行うか否かを
示す1ビットのフラグのみで十分である。また、直前の
フレームに対する統合処理と同じ処理を行う場合には、
当該フレームに対する統合情報500の生成を省略する
としてもよい。Furthermore, in this embodiment, the integrated information 5
00 includes one or more blocks 520, the specific contents of the integration process are shown in the block 520, and each time the integration method is switched in one frame, the integration method in that portion is recorded. The integrated information 500 is not limited to this example. For example, if it is determined in advance how to perform the integration processing within one frame, the integration information 5
As 00, only a 1-bit flag indicating whether or not to perform integration processing for each frame is sufficient. Also, when performing the same processing as the integration processing for the immediately preceding frame,
The generation of the integrated information 500 for the frame may be omitted.
【0054】なお本実施の形態においては、スペクトル
データ統合部114は、連続する2サンプルのスペクト
ルデータを1サンプルに統合したが、本発明は、この例
に限定されない。図12(a)は、統合されるスペクト
ルデータの組み合わせの他の例を示す図である。例え
ば、図12(a)に示すように、連続する3サンプルの
スペクトルデータを1サンプルに統合してもよいし、そ
れ以上の数の連続するサンプルを1サンプルに統合する
としてもよい。In the present embodiment, the spectrum data integration unit 114 integrates the continuous spectrum data of two samples into one sample, but the present invention is not limited to this example. FIG. 12A is a diagram showing another example of a combination of integrated spectrum data. For example, as shown in FIG. 12A, the spectral data of three consecutive samples may be integrated into one sample, or a larger number of consecutive samples may be integrated into one sample.
【0055】さらに、非連続なサンプルを統合してもよ
い。図12(b)は、統合されるスペクトルデータの組
み合わせのさらに他の例を示す図である。例えば、図1
2(b)では、1つおきに連続する2サンプルのスペク
トルデータが1サンプルに統合されている。これと同様
にして、1つおきに連続する3サンプルまたはそれ以上
を統合してもよいし、2つおき、3つおきにまたはそれ
以上おきに連続するサンプルを統合してもよい。さら
に、統合対象となるサンプルデータを少なくとも1つ前
以上の統合処理対象サンプルデータとオーバーラップさ
せてもよい。図12(c)は、統合されるスペクトルデ
ータの組み合わせのさらに他の例を示す図である。図1
2(c)は、連続する3サンプルのスペクトルデータが
1サンプルに統合される例であるが、連続する3サンプ
ルの先頭のスペクトルデータが、直前の組の末尾のサン
プルとオーバーラップされている。In addition, discontinuous samples may be combined. FIG. 12B is a diagram showing still another example of a combination of integrated spectrum data. For example, in FIG.
In 2 (b), the spectral data of every two consecutive samples is integrated into one sample. In a similar manner, every third consecutive sample or more may be combined, or every second, third, or more consecutive samples may be combined. Further, the sample data to be integrated may be overlapped with at least one sample data to be integrated. FIG. 12C is a diagram showing still another example of a combination of integrated spectrum data. Figure 1
2 (c) is an example in which the spectral data of three consecutive samples is integrated into one sample, and the spectral data at the beginning of the consecutive three samples overlaps with the last sample of the immediately preceding set.
【0056】また、上記統合処理が適用されるサンプル
の組み合わせはフレーム単位に異なってもよいし、帯域
ごとに異なってもよい。例えば、あるフレームでは連続
する2サンプルを1サンプルに統合するが、別のフレー
ムでは連続する3サンプルを統合するというようにフレ
ーム単位に定めてもよいし、低域512サンプルでは連
続する2サンプルを統合するが、高域512サンプルで
は連続する4サンプルを統合するというように、帯域ご
とに定めてもよい。また、統合されるサンプルの組み合
わせをスケールファクターバンドごとに定めてもよい。
これにおいて、さらに、統合されるスペクトルデータの
数をスペクトルデータの周波数に応じて変更してもよ
い。例えば、高域のスケールファクターバンドほど多数
のサンプルを統合するというようにしてもよい。The combination of samples to which the above-mentioned integration processing is applied may be different for each frame or for each band. For example, in one frame, two consecutive samples may be integrated into one sample, but in another frame, three consecutive samples may be integrated, or in a low-range 512 sample, two consecutive samples may be combined. Although they are integrated, it may be determined for each band such that four consecutive samples are integrated in the high frequency 512 samples. Also, the combination of integrated samples may be determined for each scale factor band.
In this, the number of integrated spectrum data may be changed according to the frequency of spectrum data. For example, a larger number of samples may be integrated in a higher scale factor band.
【0057】またさらに、統合されるサンプルの数をそ
のフレームの実際のスペクトルデータに応じて定めても
よい。例えば、高域部において10サンプルのスペクト
ルデータが連続的に「0」となっているような場合、こ
れらの連続する10サンプルのスペクトルデータをスペ
クトル値が「0」の1サンプルに統合されるようにして
もよい。また、統合されるサンプルの数のみならず、統
合値の計算方法や、統合処理適用範囲、統合されるサン
プルの組み合わせ、重み付けの有無およびその数値など
も、当該フレームのスペクトルデータに応じて定めるよ
うにしてもよい。なお、このように統合処理を行う場
合、スペクトルデータ統合部114は、各フレーム内で
想定されるスペクトルのパターンに対応付けて、あらか
じめそれぞれの場合の統合方法を保持しておき、各フレ
ームのスペクトルデータを関数変換することによってス
ペクトルのパターンを識別し、識別の結果、該当するパ
ターンが出現した場合には、それに対応する統合方法を
適用する。また、統合方法に関する上記の各項目は、こ
のうちのいくつかを符号化装置と復号化装置とであらか
じめ決めておき、それらの項目については統合情報50
0を生成せず、実際のスペクトルデータに応じて定めた
ものについては、統合情報500を生成してその中に記
述するようにしてもよい。Furthermore, the number of samples to be integrated may depend on the actual spectral data of the frame. For example, when the spectrum data of 10 samples in the high frequency region is continuously “0”, the spectrum data of these 10 consecutive samples should be integrated into one sample of which the spectrum value is “0”. You may In addition to the number of samples to be integrated, the method of calculating the integrated value, the range of integration processing, the combination of integrated samples, the presence / absence of weighting, and their numerical values should be determined according to the spectrum data of the frame. You may When performing the integration process in this way, the spectrum data integration unit 114 holds the integration method in each case in advance in association with the pattern of the spectrum assumed in each frame, and the spectrum of each frame. The pattern of the spectrum is identified by converting the data into a function, and if a corresponding pattern appears as a result of the identification, the corresponding integration method is applied. Further, some of the above items regarding the integration method are determined in advance by the encoding device and the decoding device, and the integration information 50 is set for these items.
It is also possible to generate integrated information 500 and describe it in the information defined according to actual spectrum data without generating 0.
【0058】なお、本実施の形態においては、統合対象
のサンプルデータのうち最大絶対値を持つものを統合値
として説明したが、本発明の統合方法はこの例に限定さ
れない。図13(a)は、連続する2サンプルのスペク
トルデータから統合値を算出する場合の他の例を示す図
である。例えば、のように、統合対象の各スペクトル
データS(A)、S(B)に、それぞれ係数α、βをか
けて重み付けし、その後、絶対値が最大となるスペクト
ルデータの値を、この2つのスペクトルデータS
(A)、S(B)の統合値としてもよい。また、のよ
うに、統合対象サンプルデータS(A)とS(B)との
平均値を求めて統合値としてもよいし、この平均値はそ
れぞれのスペクトルデータS(A)、S(B)の絶対値
から計算してもよい。また、この平均値は、統合対象の
各サンプルデータS(A)、S(B)に重み付け係数を
付加したものから計算してもよい。さらに、のよう
に、あらかじめ統合値とするサンプルデータの順番を決
めておいてもよい。すなわち、例えば、連続する2つの
スペクトルデータのうち、周波数の低い方のスペクトル
データの値を統合値とするよう定めておいてもよい。も
ちろん、周波数の低い方のスペクトルデータの値を統合
値とするよう定めておいてもよい。In this embodiment, the sample data having the maximum absolute value among the sample data to be integrated has been described as the integrated value, but the integrating method of the present invention is not limited to this example. FIG. 13A is a diagram showing another example of the case where the integrated value is calculated from the spectrum data of two consecutive samples. For example, as described above, the spectral data S (A) and S (B) to be integrated are weighted by multiplying the coefficients α and β, respectively, and then, the value of the spectral data having the maximum absolute value is calculated as Spectral data S
It may be an integrated value of (A) and S (B). Further, as described above, the average value of the integration target sample data S (A) and S (B) may be obtained as an integrated value, and the average value may be the respective spectrum data S (A) and S (B). It may be calculated from the absolute value of. Further, this average value may be calculated from each sample data S (A), S (B) to be integrated with a weighting coefficient. Furthermore, as described above, the order of the sample data to be the integrated value may be determined in advance. That is, for example, the value of the lower spectrum data of the two consecutive spectrum data may be set as the integrated value. Of course, the value of the spectrum data with the lower frequency may be set as the integrated value.
【0059】図13(b)は、連続する2サンプルのス
ペクトルデータから統合値を算出する場合のさらに他の
例を示す図である。図13(b)に示すように、スペク
トルデータ統合部114はさらに、前述のように算出さ
れた統合値に対し、統合対象のサンプルデータの両側に
隣接するスペクトルデータを参照して、統合値を調整す
るようにしてもよい。例えば、図13(b)の例では、
統合対象の各スペクトルデータS(A)、S(B)の低
域側、高域側に隣接するそれぞれ2サンプルのスペクト
ルデータS(C)、S(D)、S(E)及びS(F)を
参照し、参照された隣接スペクトルデータS(C)、S
(D)、S(E)及びS(F)のいずれかに、あらかじ
め定められたしきい値を超えるものがあれば、所定の重
み付け係数「1.5」を乗算している。これにおいて、
参照される隣接スペクトルの数は2サンプルに限られ
ず、1サンプルであってもよいし、3サンプル以上であ
ってもよい。また、高域側のみに隣接するスペクトルデ
ータを参照してもよいし、低域側のみでもよい。さら
に、所定の重み付け係数は「1.5」に限定されず、さ
らに「1」以上である必要もない。例えば、隣接するス
ペクトルデータの値が非常に大きい場合には、統合値を
示すスペクトルデータがマスキングされてしまう可能性
もある。このような場合には、例えば「0」であっても
よい。FIG. 13B is a diagram showing still another example of the case where the integrated value is calculated from the spectrum data of two consecutive samples. As shown in FIG. 13B, the spectral data integration unit 114 further refers to the spectral data adjacent to both sides of the sample data to be integrated with respect to the integrated value calculated as described above to obtain the integrated value. It may be adjusted. For example, in the example of FIG.
Spectral data S (C), S (D), S (E), and S (F) of two samples respectively adjacent to the low-frequency side and the high-frequency side of each spectrum data S (A), S (B) to be integrated. ) With reference to the adjacent spectrum data S (C), S
If any of (D), S (E) and S (F) exceeds a predetermined threshold value, a predetermined weighting coefficient “1.5” is multiplied. In this,
The number of adjacent spectra to be referred to is not limited to 2 samples, and may be 1 sample or 3 or more samples. Further, the spectrum data adjacent to only the high band side may be referred to, or only the low band side may be referred to. Further, the predetermined weighting coefficient is not limited to "1.5", and it is not necessary that it be "1" or more. For example, if the values of adjacent spectrum data are very large, the spectrum data indicating the integrated value may be masked. In such a case, it may be "0", for example.
【0060】なお、統合値の計算方法はまた、これらに
限ったものでなくてもよい。例えば、統合対象の各サン
プルデータにあらかじめ定めた上記と異なる関数変換を
行い、統合値となるスペクトル値を求めるようにしても
よい。また、統合値の計算方法はフレーム単位に異なっ
てもよいし、帯域ごとに異なってもよいし、スケールフ
ァクターバンドごとに異なってもよい。The method of calculating the integrated value is not limited to these. For example, it is possible to obtain a spectrum value as an integrated value by performing a function conversion different from the above, which is predetermined, on each sample data to be integrated. The method of calculating the integrated value may be different for each frame, for each band, or for each scale factor band.
【0061】また、統合値の計算方法は、符号化装置と
復号化装置との間であらかじめ決めておいてもよいし、
統合情報500の中に記述してもよい。特に、これらの
統合値を用いて、復号化装置内でスペクトルデータを展
開する際の展開方法を、統合情報500に記述しておく
とよい。The method of calculating the integrated value may be determined in advance between the encoding device and the decoding device,
It may be described in the integrated information 500. In particular, it is preferable to describe, in the integrated information 500, a method of expanding the spectrum data in the decoding device by using these integrated values.
【0062】なお、本実施の形態においては、スケール
ファクターバンドの構成については、スペクトルデータ
の統合後も統合前と同じものを用いたが、もちろん統合
前と統合後とで変更してもよい。図14(a)は、統合
前の高域部スペクトルデータとスケールファクターバン
ドとの一例を示す図である。図14(b)は、統合後の
高域部スペクトルデータとスケールファクターバンドと
の関係の一例を示す図である。図14(c)は、本実施
の形態における統合後の高域部スペクトルデータとスケ
ールファクターバンドとの関係を示す図である。なお、
図14(a)〜図14(c)において、低域部スペクト
ルデータは統合処理適用範囲外としているので、スペク
トルデータもスケールファクターバンドも変化しないた
め省略している。また、ここでは説明のため、スケール
ファクターバンド番号が「40番」のスケールファクタ
ーバンドを、高域部512スペクトルデータの先頭スケ
ールファクターバンドとしている。本実施の形態では、
スペクトルデータ統合部114により図5に示したフロ
ーチャートにしたがって統合されたスペクトルデータ
は、変換部113によって設定されたスケールファクタ
ーバンドにそのまま配分される。このため、スペクトル
データ統合部114によって統合されたスペクトルデー
タは、図14(c)のように、統合によって減少したス
ペクトルデータの分だけ前のスケールファクターバンド
に移行し、高域部のスケールファクターバンドの数が減
少されることになる。本実施の形態では、このようにス
ペクトルデータを統合することによって、符号化信号と
して伝送される量子化値の数だけでなく、符号化信号と
して伝送されるスケールファクターの数も低減すること
によって、符号化信号のデータ量を大きく低減すること
ができる。In the present embodiment, the structure of the scale factor band is the same as that before the integration of the spectrum data, but of course it may be changed before and after the integration. FIG. 14A is a diagram showing an example of high-frequency band spectrum data and scale factor bands before integration. FIG. 14B is a diagram showing an example of the relationship between the integrated high band spectrum data and the scale factor band. FIG. 14C is a diagram showing the relationship between the integrated high frequency band spectrum data and the scale factor band in the present embodiment. In addition,
In FIG. 14A to FIG. 14C, the low frequency band spectrum data is out of the integration processing application range, and therefore the spectrum data and the scale factor band do not change, and therefore are omitted. Further, for the sake of explanation, the scale factor band having the scale factor band number “40” is set as the leading scale factor band of the high frequency band 512 spectrum data for the sake of description. In this embodiment,
The spectrum data integrated by the spectrum data integration unit 114 according to the flowchart shown in FIG. 5 is directly distributed to the scale factor band set by the conversion unit 113. Therefore, the spectrum data integrated by the spectrum data integration unit 114 shifts to the previous scale factor band by the amount of the spectrum data reduced by the integration, as shown in FIG. 14C, and the scale factor band in the high frequency band. Will be reduced. In the present embodiment, by integrating the spectrum data in this way, by reducing not only the number of quantized values transmitted as an encoded signal, but also the number of scale factors transmitted as an encoded signal, The data amount of the encoded signal can be greatly reduced.
【0063】しかし、本発明の統合方法は、上記スケー
ルファクターバンドの構成に限定されず、図14(b)
に示すように、統合処理適用範囲内のスケールファクタ
ーバンドの構成を変更してもよい。各スケールファクタ
ーバンドに含まれるスペクトルデータの数は、MPEG
−2 AACによって定められているが、本発明ではこ
れを変更し、例えば、2つのスペクトルデータを1つの
スペクトルデータに統合する場合には、各スケールファ
クターバンドに含まれるスペクトルデータの数もそれぞ
れ2分の1に変更するようにしてもよい。このようにす
ることによって、統合処理適用範囲内の各スケールファ
クターバンドにおいて、より精度の高い量子化を行うこ
とができるので、スケールファクターの数を低減するこ
とはできないが、量子化値の数を低減することによって
符号化信号のデータ量を低減しつつ、より精度の高い音
響データを伝送することができるという効果がある。こ
れにおいて、スケールファクターバンドの変更は、符号
化装置と復号化装置とであらかじめ決めておいてもよい
し、統合情報として符号化してもよい。However, the integration method of the present invention is not limited to the configuration of the scale factor band described above, and FIG.
As shown in, the configuration of the scale factor band within the integrated processing application range may be changed. The number of spectrum data included in each scale factor band is MPEG.
-2 AAC, but this is changed in the present invention. For example, when two spectral data are integrated into one spectral data, the number of spectral data included in each scale factor band is also 2 respectively. It may be changed to one-half. By doing this, more accurate quantization can be performed in each scale factor band within the integrated processing application range, so the number of scale factors cannot be reduced, but the number of quantized values can be reduced. By reducing the amount, it is possible to reduce the data amount of the encoded signal and to transmit more accurate acoustic data. In this case, the change of the scale factor band may be determined in advance by the encoding device and the decoding device, or may be encoded as integrated information.
【0064】なお、本実施の形態においては、図9のよ
うに、統合値を示す1つのスペクトルデータを2つのス
ペクトルデータに展開したが、例えば、2つのうち1つ
のデータにのみコピーしてもよい。すなわち、スペクト
ルデータ展開部126は、統合値を示すスペクトルデー
タからなる高域部側256サンプルの各サンプルを、周
波数軸上で連続する2サンプルの一方(統合値)として
他方にコピーし、512サンプルを生成するとしてもよ
い。また、統合値スペクトルデータに重み付け係数を乗
算した後、他方にコピーしてもよい。さらに、展開また
はコピーして得られた2つのスペクトルデータのそれぞ
れに重み付け係数を乗算してもよい。In the present embodiment, as shown in FIG. 9, one spectrum data indicating the integrated value is expanded into two spectrum data. However, for example, even if only one of the two data is copied, Good. That is, the spectrum data expansion unit 126 copies each sample of the high frequency side 256 samples including the spectrum data indicating the integrated value to one of the two continuous samples (integrated value) on the frequency axis to the other and outputs 512 samples. May be generated. Alternatively, the integrated value spectrum data may be multiplied by a weighting coefficient and then copied to the other. Further, each of the two spectrum data obtained by expanding or copying may be multiplied by a weighting coefficient.
【0065】また本発明のスペクトルデータ展開部は、
統合情報があればそれに従ってスペクトルデータを展開
してもよいし、統合情報の有無に関わらず、独自の展開
手法に従って展開してもよい。またこれらに限ったもの
でなくてもよい。The spectral data expansion unit of the present invention is
If there is integrated information, the spectrum data may be expanded according to it, or may be expanded according to a unique expansion method regardless of the presence or absence of integrated information. Further, it is not limited to these.
【0066】[0066]
【発明の効果】本発明の符号化装置は、入力された音響
信号を符号化する符号化装置であって、入力された音響
信号を一定時間ごとのフレームに切り出して周波数スペ
クトルデータ群に変換する変換手段と、前記周波数スペ
クトルデータ群に含まれる特定の周波数帯域内におい
て、所定の関数にしたがって、2以上のスペクトルデー
タをそれらのスペクトルデータを代表するより少数のス
ペクトルデータに統合して出力する統合手段と、統合さ
れた前記スペクトルデータを量子化および符号化して符
号化データを出力する符号化手段とを備える。The coding device of the present invention is a coding device for coding an input acoustic signal, and the input acoustic signal is cut into frames at regular time intervals and converted into a frequency spectrum data group. A conversion means and an integration for integrating and outputting two or more spectrum data into a smaller number of spectrum data representing the spectrum data according to a predetermined function in a specific frequency band included in the frequency spectrum data group. And a coding means for quantizing and coding the integrated spectrum data and outputting the coded data.
【0067】本発明の符号化装置によれば、前記統合手
段は、所定の関数に基づくスペクトルデータの統合によ
って、伝送される符号化音響信号のデータ量を低減し、
低転送レートの伝送路においても無理なく符号化音響信
号を伝送することを可能にするとともに、前記スペクト
ルデータ群に含まれる特定の周波数帯域内において2以
上のスペクトルデータを統合するので、例えば、聴覚的
に認識されにくい高周波帯域を統合することによって、
統合による音質の劣化が認識されることを最小限に抑え
ることができる。また、統合が行われた特定の周波数帯
域においても、2以上のスペクトルデータに対してそれ
らを代表するスペクトルデータが符号化されるので、特
定の周波数帯域をまったく伝送しない従来に比べ、元の
スペクトルデータが代表スペクトルとして符号化された
分だけ音質が向上される。この結果、符号化音響信号の
データ量を削減することと、品質の高い符号化音響信号
を伝送することとを両立することができる。According to the encoding device of the present invention, the integrating means reduces the data amount of the encoded audio signal to be transmitted by integrating the spectrum data based on a predetermined function,
Since it is possible to comfortably transmit the coded acoustic signal even in a transmission path of a low transfer rate, and integrates two or more spectrum data within a specific frequency band included in the spectrum data group, for example, hearing By integrating the high frequency band which is hard to be recognized,
It is possible to minimize the recognition of deterioration of sound quality due to integration. Further, even in the specific frequency band in which the integration is performed, the spectrum data representative of them is encoded with respect to two or more spectrum data. The sound quality is improved as much as the data is encoded as the representative spectrum. As a result, it is possible to achieve both reduction of the data amount of the coded audio signal and transmission of the coded audio signal of high quality.
【0068】さらに、本発明の符号化装置によれば、統
合が行われた特定の周波数帯域においても、2以上のス
ペクトルデータがそれよりも少数のスペクトルデータに
なるだけであるので、本発明の符号化装置による符号化
音響信号が従来の復号化装置に入力された場合であって
も、復号化することができる。これにおいて、統合によ
ってスペクトルデータの数が減っている分、本来の音響
と当該符号化音響信号から再生される音響との間に多少
の音質の差がでることは否めないが、前記特定の周波数
帯域を聴覚的に知覚されにくい高周波帯域に選んでおけ
ば、スペクトルデータの統合による音質の変化が知覚さ
れることを最小限に抑えることができるという効果があ
る。Further, according to the encoding device of the present invention, the spectral data of 2 or more becomes a smaller number of spectral data than that even in the specific frequency band in which the integration is performed. Even when the encoded audio signal by the encoding device is input to the conventional decoding device, it can be decoded. In this case, it is undeniable that there is a slight difference in sound quality between the original sound and the sound reproduced from the encoded sound signal due to the decrease in the number of spectrum data due to the integration. If the band is selected as a high frequency band that is hard to be perceptually perceived, it is possible to minimize the perceived change in sound quality due to the integration of the spectrum data.
【0069】また、本発明の他の符号化装置によれば、
周波数軸上で連続するまたは非連続な2以上のスペクト
ルデータごとに統合するので、ある帯域のデータをカッ
トするのとは異なり、どの帯域もまんべんなく間引いて
伝送することができ、復号化装置において原音を完全に
忠実に復元することはできないけれども、伝送路を伝送
される符号化音響ビットストリームのデータ量を大幅に
低減しつつ、より原音に忠実な品質の高い音響を再現す
ることができる。According to another encoding device of the present invention,
Since it is integrated for each of two or more spectral data that are continuous or discontinuous on the frequency axis, unlike the case of cutting data in a certain band, it is possible to evenly thin out and transmit any band, and the decoding device can output the original sound. However, it is possible to reproduce a high-quality sound that is more faithful to the original sound while significantly reducing the data amount of the encoded audio bit stream transmitted through the transmission path.
【0070】本発明のさらに他の符号化装置によれば、
前記統合手段は、各周波数帯域内のスペクトルに応じて
定まる統合方法を用いて、前記帯域ごとに前記2以上の
スペクトルデータを統合するので、より原音にふさわし
い統合方法を用いてスペクトルデータを統合することが
できる。この結果、原音を復元するために結果的に不必
要になると予測されるデータを選択的に削減し、伝送路
を伝送される符号化音響ビットストリームのデータ量を
低減するとともに、データ量の削減に伴う音質の低下を
最小限に抑えることができるという効果がある。According to still another encoding device of the present invention,
Since the integrating means integrates the two or more spectrum data for each band by using an integrating method determined according to the spectrum in each frequency band, the spectrum data is integrated by using an integrating method more suitable for the original sound. be able to. As a result, it is possible to selectively reduce the data that is expected to be unnecessary in order to restore the original sound, reduce the data amount of the coded acoustic bit stream transmitted through the transmission path, and reduce the data amount. There is an effect that it is possible to minimize the deterioration of the sound quality due to.
【0071】また、本発明の復号化装置は、入力した符
号化データを復号化して音響信号を復元する復号化装置
であって、入力された前記符号化データを復号化および
逆量子化して周波数スペクトルデータ群に変換する逆量
子化手段と、前記周波数スペクトルデータ群に含まれる
スペクトルデータを、特定の帯域において、あらかじめ
定められた逆関数を用いてそれぞれ2以上のスペクトル
データに展開する展開手段と、展開後のスペクトルデー
タを時間軸上の音響信号に変換して出力する逆変換手段
とを備える。The decoding device of the present invention is a decoding device for decoding input coded data to restore an acoustic signal, and decoding and dequantizing the input coded data to obtain a frequency. Dequantizing means for converting into spectral data group, and expanding means for expanding the spectral data contained in the frequency spectral data group into two or more spectral data respectively by using a predetermined inverse function in a specific band. , And inverse conversion means for converting the expanded spectrum data into an acoustic signal on the time axis and outputting the acoustic signal.
【0072】本発明の復号化装置によれば、上記符号化
装置が生成した符号化データから本来の数のスペクトル
データに復元することができるので、従来では伝送され
なかった特定の周波数帯域についても、元のスペクトル
に近いスペクトルが復元され、より少ない符号化データ
から周波数帯域の広い音響信号を復元することができる
という効果がある。According to the decoding device of the present invention, since the encoded data generated by the encoding device can be restored to the original number of spectrum data, it is possible to restore a specific frequency band which has not been transmitted conventionally. As a result, a spectrum close to the original spectrum is restored, and an acoustic signal having a wide frequency band can be restored from less encoded data.
【図1】本実施の形態の放送システムの構成を示すブロ
ック図である。FIG. 1 is a block diagram showing a configuration of a broadcasting system of the present embodiment.
【図2】(a)図1に示した音響信号入力部によって切
り出される時間軸上の音響データの簡略的な波形の一例
を示す図である。
(b)時間軸上の音響データが図1に示した変換部によ
ってMDCT変換された場合の周波数軸上のスペクトル
データの一例を示す図である。2 (a) is a diagram showing an example of a simplified waveform of acoustic data on a time axis cut out by the acoustic signal input unit shown in FIG. 1. FIG. FIG. 3B is a diagram showing an example of spectrum data on the frequency axis when the acoustic data on the time axis is MDCT-transformed by the conversion unit shown in FIG. 1.
【図3】図1に示した変換部によってスペクトルデータ
が分類されるスケールファクターバンドの一例を示す図
である。FIG. 3 is a diagram showing an example of a scale factor band in which spectrum data is classified by the conversion unit shown in FIG.
【図4】(a)図1に示した変換部の出力である統合前
のスペクトルデータの一例を示す図である。
(b)図1に示したスペクトルデータ統合部による統合
処理後のスペクトルデータの一例を示す図である。4A is a diagram showing an example of spectrum data before integration which is an output of the conversion unit shown in FIG. FIG. 2B is a diagram showing an example of spectrum data after integration processing by the spectrum data integration unit shown in FIG. 1.
【図5】図4に示したスペクトルデータ統合処理におけ
るスペクトルデータ統合部の動作を示すフローチャート
である。5 is a flowchart showing an operation of a spectrum data integration unit in the spectrum data integration process shown in FIG.
【図6】図4のスペクトルデータ統合処理を行った場合
に生成される統合情報の一例を示す図である。6 is a diagram showing an example of integrated information generated when the spectral data integration process of FIG. 4 is performed.
【図7】(a)統合情報が組み込まれたMPEG−2
AAC音響符号化ビットストリームのデータ構造の一例
を示す図である。
(b)統合情報が組み込まれた他のMPEG−2 AA
C音響符号化ビットストリームのデータ構造の例を示す
図である。FIG. 7 (a) MPEG-2 with integrated information incorporated
It is a figure which shows an example of the data structure of an AAC audio encoding bit stream. (B) Other MPEG-2 AA with integrated information
It is a figure which shows the example of the data structure of C audio encoding bit stream.
【図8】(a)図1に示した逆量子化部の出力である展
開前のスペクトルデータの一例を示す図である。
(b)図1に示したスペクトルデータ展開部による展開
処理後のスペクトルデータの一例を示す図である。8 (a) is a diagram showing an example of spectrum data before expansion which is an output of the inverse quantization unit shown in FIG. 1. FIG. FIG. 2B is a diagram showing an example of spectrum data after the expansion processing by the spectrum data expanding unit shown in FIG. 1.
【図9】図8に示したスペクトルデータ展開処理におけ
るスペクトルデータ展開部の動作を示すフローチャート
である。9 is a flowchart showing an operation of a spectrum data expanding section in the spectrum data expanding process shown in FIG.
【図10】(a)1フレームにおける統合処理適用範囲
の他の例を示す図である。
(b)1フレームにおける統合処理適用範囲のさらに他
の例を示す図である。
(c)1フレームにおける統合処理適用範囲のさらに他
の例を示す図である。FIG. 10A is a diagram showing another example of the integration processing application range in one frame. (B) It is a figure which shows the further another example of the integration process application range in 1 frame. (C) It is a figure which shows the further another example of the integration process application range in 1 frame.
【図11】(a)フレーム単位に異なる統合処理適用範
囲を定める場合におけるスペクトルデータ統合部の統合
処理適用範囲の一例を示す図である。
(b)フレーム単位に異なる統合処理適用範囲を定める
場合におけるスペクトルデータ統合部の統合処理適用範
囲の他の例を示す図である。FIG. 11A is a diagram showing an example of an integration processing application range of a spectrum data integration unit when a different integration processing application range is determined for each frame. (B) It is a figure which shows the other example of the integration process application range of the spectrum data integration part in the case of defining different integration process application range for every frame unit.
【図12】(a)統合されるスペクトルデータの組み合
わせの他の例を示す図である。
(b)統合されるスペクトルデータの組み合わせのさら
に他の例を示す図である。
(c)統合されるスペクトルデータの組み合わせのさら
に他の例を示す図である。FIG. 12A is a diagram showing another example of a combination of integrated spectrum data. (B) It is a figure which shows the further another example of the combination of the integrated spectrum data. (C) It is a figure which shows other example of the combination of the integrated spectrum data.
【図13】(a)連続する2サンプルのスペクトルデー
タから統合値を算出する場合の他の例を示す図である。
(b)連続する2サンプルのスペクトルデータから統合
値を算出する場合のさらに他の例を示す図である。FIG. 13A is a diagram showing another example of a case where an integrated value is calculated from continuous two-sample spectrum data. (B) It is a figure which shows another example at the time of calculating an integrated value from the spectrum data of two continuous samples.
【図14】(a)統合前の高域部スペクトルデータとス
ケールファクターバンドとの一例を示す図である。
(b)統合後の高域部スペクトルデータとスケールファ
クターバンドとの関係の一例を示す図である。
(c)本実施の形態における統合後の高域部スペクトル
データとスケールファクターバンドとの関係を示す図で
ある。FIG. 14A is a diagram showing an example of high-frequency band spectrum data and scale factor bands before integration. (B) It is a figure which shows an example of the relationship between the high frequency part spectrum data after integration, and a scale factor band. (C) It is a figure which shows the relationship between the high frequency part spectrum data after integration and a scale factor band in this Embodiment.
100 放送システム 110 放送局 112 音響信号入力部 113 変換部 114 スペクトルデータ統合部 115 量子化部 116 符号化部 117 ストリーム出力部 118 送信装置 120 家庭 121 受信装置 122 復号化装置 123 ストリーム入力部 124 復号化部 125 逆量子化部 126 スペクトルデータ展開部 127 逆変換部 128 音響信号出力部 129 スピーカ 130 放送衛星 100 broadcasting system 110 broadcasting stations 112 Acoustic signal input section 113 converter 114 spectral data integration unit 115 Quantizer 116 encoder 117 Stream output unit 118 transmitter 120 households 121 Receiver 122 Decoding device 123 Stream input section 124 Decoding unit 125 inverse quantizer 126 Spectral data expansion unit 127 inverse converter 128 acoustic signal output section 129 speaker 130 broadcasting satellites
Claims (22)
装置であって、 入力された音響信号を一定時間ごとのフレームに切り出
して周波数スペクトルデータ群に変換する変換手段と、 前記周波数スペクトルデータ群に含まれる特定の周波数
帯域内において、2以上のスペクトルデータをそれらの
スペクトルデータを代表するより少数のスペクトルデー
タに統合して出力する統合手段と、 統合された前記スペクトルデータを量子化および符号化
して符号化データを出力する符号化手段とを備えること
を特徴とする符号化装置。1. A coding device for coding an input acoustic signal, wherein the input acoustic signal is cut out into frames at regular time intervals and converted into a frequency spectrum data group, and the frequency spectrum data. Integrating means for integrating and outputting two or more spectrum data into a smaller number of spectrum data representative of the spectrum data within a specific frequency band included in the group, and quantizing and encoding the integrated spectrum data. And a coding unit that outputs the coded data.
ルデータは、2以上のスペクトルデータを評価し、それ
より少ないスペクトルデータに統合する関数により求め
られることを特徴とする請求項1記載の符号化装置。2. The encoding device according to claim 1, wherein the spectrum data integrated by the integrating means is obtained by a function that evaluates two or more spectrum data and integrates them into less spectrum data. .
2以上のスペクトルデータごとに、これらを代表するよ
り少数のスペクトルデータを決定する関数であることを
特徴とする請求項2記載の符号化装置。3. The code according to claim 2, wherein the function is a function for determining a smaller number of spectrum data representing each of the two or more spectrum data continuous on the frequency axis. Device.
2以上のスペクトルデータごとに、これらを代表するよ
り少数のスペクトルデータを決定する関数であることを
特徴とする請求項2記載の符号化装置。4. The function according to claim 2, wherein for each of the two or more spectral data that is discontinuous on the frequency axis, a smaller number of spectral data representative of these is determined. Encoding device.
ータのうち、当該2以上のスペクトルデータの統合結果
として、絶対値が最大となるスペクトルデータを選択す
る関数であることを特徴とする請求項2記載の符号化装
置。5. The function is a function for selecting, from the two or more spectrum data, the spectrum data having the maximum absolute value as a result of the integration of the two or more spectrum data. 2. The encoding device according to 2.
ータの平均値を値とするスペクトルデータを、前記2以
上のスペクトルデータの統合結果とする関数であること
を特徴とする請求項2記載の符号化装置。6. The function according to claim 2, wherein the function is a function that sets spectrum data having an average value of the two or more spectrum data as a value to an integration result of the two or more spectrum data. Encoding device.
ータごとに、それらのスペクトルデータを周波数軸上に
並べた列における所定の位置にあるスペクトルデータを
統合結果とする関数であることを特徴とする請求項2記
載の符号化装置。7. The function is a function that, for each of the two or more spectrum data, sets the spectrum data at a predetermined position in a row in which the spectrum data are arranged on a frequency axis as an integration result. The encoding device according to claim 2.
ータに重み付けした後、前記統合結果を決定する関数で
あることを特徴とする請求項2記載の符号化装置。8. The encoding apparatus according to claim 2, wherein the function is a function that determines the integration result after weighting the two or more spectrum data.
記関数を選択し、前記2以上のスペクトルデータを統合
することを特徴とする請求項2記載の符号化装置。9. The encoding apparatus according to claim 2, wherein the integrating unit selects the function for each frame and integrates the two or more spectrum data.
ペクトルに応じて定まる前記関数を用いて、前記帯域ご
とに前記2以上のスペクトルデータを統合することを特
徴とする請求項2記載の符号化装置。10. The code according to claim 2, wherein the integrating means integrates the two or more spectrum data for each band by using the function determined according to the spectrum in each frequency band. Device.
データの統合結果を、当該2以上のスペクトルデータと
その近隣のスペクトルデータとの両方に依存する値に決
定することを特徴とする請求項2記載の符号化装置。11. The function determines the integration result of the two or more spectrum data as a value that depends on both the two or more spectrum data and the spectrum data in the vicinity thereof. Encoding device described.
スペクトルデータ群を、それらに含まれるスペクトルデ
ータの数がそれぞれあらかじめ定められた複数のグルー
プに区分し、 前記統合手段は、統合の対象とされなかったスペクトル
データと統合後の複数のスペクトルデータとを周波数の
順に配列し、配列された複数のスペクトルデータを前記
あらかじめ定められた数ずつ前記各グループに区分し、 前記符号化手段は、前記各グループを単位とするパラメ
ータを用いて各グループに区分されたスペクトルデータ
を量子化することを特徴とする請求項1記載の符号化装
置。12. The conversion means divides the frequency spectrum data group after conversion into a plurality of groups each having a predetermined number of spectrum data included therein, and the integration means determines a target of integration. Arranged spectrum data and a plurality of spectrum data after integration in the order of frequency, the plurality of arranged spectrum data is divided into each group by the predetermined number, the encoding means, The coding apparatus according to claim 1, wherein the spectrum data divided into each group is quantized using a parameter having each group as a unit.
情報を生成する統合情報生成手段を備え、 前記符号化手段は、前記統合情報を符号化し前記符号化
データに組み込んで出力することを特徴とする請求項1
記載の符号化装置。13. The integrating means further comprises integrated information generating means for generating integrated information indicating an integrating method of the two or more spectrum data, and the encoding means encodes the integrated information and the code. The data is embedded in the digitized data and is output.
Encoding device described.
段による統合方法が直前フレームと同じである場合には
前記統合情報を生成しないことを特徴とする請求項13
記載の符号化装置。14. The integrated information generating means does not generate the integrated information when the integrating method by the integrating means is the same as the immediately preceding frame.
Encoding device described.
とに切り出された音響信号のフレームごとに復号化して
音響信号を復元する復号化装置であって、 入力された前記符号化データを復号化および逆量子化し
て周波数スペクトルデータ群に変換する逆量子化手段
と、 前記周波数スペクトルデータ群に含まれるスペクトルデ
ータを、特定の帯域において、あらかじめ定められた関
数を用いてそれぞれ2以上のスペクトルデータに展開す
る展開手段と、 展開後のスペクトルデータを時間軸上の音響信号に変換
して出力する逆変換手段とを備えることを特徴とする復
号化装置。15. A decoding device for decoding input coded data for each frame of an acoustic signal cut out at regular time intervals to restore an acoustic signal, wherein the input coded data is decoded. And dequantizing means for dequantizing and converting to frequency spectrum data group, and spectrum data included in the frequency spectrum data group into two or more spectrum data in a specific band using a predetermined function. A decoding device comprising: a expanding means for expanding and an inverse converting means for converting the expanded spectrum data into an acoustic signal on a time axis and outputting the acoustic signal.
ータ群に含まれるスペクトルデータをそれぞれコピーし
て2以上のスペクトルデータに展開する関数であること
を特徴とする請求項15記載の復号化装置。16. The decoding apparatus according to claim 15, wherein the function is a function for copying each spectrum data included in the frequency spectrum data group and expanding the spectrum data into two or more spectrum data.
ータ群に含まれるスペクトルデータに重み付けをした後
展開することを特徴とする請求項15記載の復号化装
置。17. The decoding device according to claim 15, wherein the function is expanded after weighting the spectrum data included in the frequency spectrum data group.
号化データから2以上のスペクトルデータの統合方法を
示した統合情報を抽出し、 前記展開手段は、抽出された前記統合情報に基づいて、
前記スペクトルデータを展開することを特徴とする請求
項15記載の復号化装置。18. The dequantizing means further extracts integrated information indicating an integrating method of two or more spectrum data from the encoded data, and the expanding means based on the extracted integrated information. ,
The decoding device according to claim 15, wherein the spectral data is expanded.
されなかった際には、 直前フレームの統合情報に基づいて、前記スペクトルデ
ータを展開することを特徴とする請求項18記載の復号
化装置。19. The decoding apparatus according to claim 18, wherein the expanding means expands the spectrum data based on the integrated information of the immediately preceding frame when the integrated information is not extracted. .
化装置と、前記符号化装置から符号化データを受信して
復号化し、音響信号を復元する復号化装置とからなる放
送システムであって、 前記符号化装置は、 入力された音響信号を一定時間ごとのフレームに切り出
して周波数スペクトルデータ群に変換する変換手段と、 前記周波数スペクトルデータ群に含まれる特定の周波数
帯域内において、所定の第1関数にしたがって、2以上
のスペクトルデータをそれらのスペクトルデータを代表
するより少数のスペクトルデータに統合して出力する統
合手段と、 統合された前記スペクトルデータを量子化および符号化
して符号化データを出力する符号化手段とを備え、 前記復号化装置は、 入力された前記符号化データを復号化および逆量子化し
て周波数スペクトルデータ群に変換する逆量子化手段
と、 前記周波数スペクトルデータ群に含まれるスペクトルデ
ータを、特定の帯域において、あらかじめ定められた第
2関数を用いてそれぞれ2以上のスペクトルデータに展
開する展開手段と、 展開後のスペクトルデータを時間軸上の音響信号に変換
して出力する逆変換手段とを備えることを特徴とする放
送システム。20. A broadcasting system comprising a coding device for coding an input acoustic signal, and a decoding device for receiving coded data from the coding device and decoding the data to restore the acoustic signal. The encoding device cuts the input acoustic signal into frames at constant time intervals and converts the acoustic signal into a frequency spectrum data group, and a predetermined frequency band included in the frequency spectrum data group. An integrating means for integrating and outputting two or more spectrum data into a smaller number of spectrum data representing those spectrum data according to one function, and quantizing and encoding the integrated spectrum data to obtain encoded data. And a decoding unit that decodes and dequantizes the input coded data. Dequantization means for converting into frequency spectrum data group, and expansion for expanding the spectrum data included in the frequency spectrum data group into two or more spectrum data in a specific band by using a predetermined second function A broadcasting system comprising: means and an inverse conversion means for converting the expanded spectrum data into an acoustic signal on a time axis and outputting the acoustic signal.
化装置のためのプログラムであって、 入力された音響信号を一定時間ごとのフレームに切り出
して周波数スペクトルデータ群に変換する変換手段と、 前記周波数スペクトルデータ群に含まれる特定の周波数
帯域内において、所定の関数にしたがって、2以上のス
ペクトルデータをそれらのスペクトルデータを代表する
より少数のスペクトルデータに統合して出力する統合手
段と、 統合された前記スペクトルデータを量子化および符号化
して符号化データを出力する符号化手段としてコンピュ
ータを機能させるためのプログラム。21. A program for an encoding device that encodes an input acoustic signal, the converting means extracting the input acoustic signal into frames at regular time intervals and converting the frames into frequency spectrum data groups. Integrating means for integrating and outputting two or more spectrum data into a smaller number of spectrum data representing the spectrum data according to a predetermined function within a specific frequency band included in the frequency spectrum data group; A program for causing a computer to function as an encoding unit that quantizes and encodes the generated spectrum data and outputs the encoded data.
響信号を復元する復号化装置のためのプログラムであっ
て、 入力された前記符号化データを復号化および逆量子化し
て周波数スペクトルデータ群に変換する逆量子化手段
と、 前記周波数スペクトルデータ群に含まれるスペクトルデ
ータを、特定の帯域において、あらかじめ定められた関
数を用いてそれぞれ2以上のスペクトルデータに展開す
る展開手段と、 展開後のスペクトルデータを時間軸上の音響信号に変換
して出力する逆変換手段としてコンピュータを機能させ
るためのプログラム。22. A program for a decoding device for decoding input coded data to restore an acoustic signal, wherein the input coded data is decoded and dequantized into a frequency spectrum data group. Dequantizing means for transforming, expanding means for expanding the spectrum data included in the frequency spectrum data group into two or more spectrum data in a specific band by using a predetermined function, and the expanded spectrum A program for causing a computer to function as an inverse conversion unit that converts data into an acoustic signal on a time axis and outputs the acoustic signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002132313A JP2003029797A (en) | 2001-05-11 | 2002-05-08 | Encoder, decoder and broadcasting system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001141211 | 2001-05-11 | ||
JP2001-141211 | 2001-05-11 | ||
JP2002132313A JP2003029797A (en) | 2001-05-11 | 2002-05-08 | Encoder, decoder and broadcasting system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003029797A true JP2003029797A (en) | 2003-01-31 |
Family
ID=26614949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002132313A Withdrawn JP2003029797A (en) | 2001-05-11 | 2002-05-08 | Encoder, decoder and broadcasting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003029797A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014520282A (en) * | 2011-06-01 | 2014-08-21 | サムスン エレクトロニクス カンパニー リミテッド | Audio encoding method and apparatus, audio decoding method and apparatus, recording medium thereof, and multimedia device employing the same |
JP2016500839A (en) * | 2012-10-10 | 2016-01-14 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | Apparatus and method for efficiently synthesizing sinusoids and sweeps by utilizing spectral patterns |
-
2002
- 2002-05-08 JP JP2002132313A patent/JP2003029797A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014520282A (en) * | 2011-06-01 | 2014-08-21 | サムスン エレクトロニクス カンパニー リミテッド | Audio encoding method and apparatus, audio decoding method and apparatus, recording medium thereof, and multimedia device employing the same |
US9589569B2 (en) | 2011-06-01 | 2017-03-07 | Samsung Electronics Co., Ltd. | Audio-encoding method and apparatus, audio-decoding method and apparatus, recoding medium thereof, and multimedia device employing same |
US9858934B2 (en) | 2011-06-01 | 2018-01-02 | Samsung Electronics Co., Ltd. | Audio-encoding method and apparatus, audio-decoding method and apparatus, recoding medium thereof, and multimedia device employing same |
JP2018067008A (en) * | 2011-06-01 | 2018-04-26 | サムスン エレクトロニクス カンパニー リミテッド | Audio encoding method, audio decoding method, and recording medium |
JP2016500839A (en) * | 2012-10-10 | 2016-01-14 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | Apparatus and method for efficiently synthesizing sinusoids and sweeps by utilizing spectral patterns |
US9570085B2 (en) | 2012-10-10 | 2017-02-14 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns |
JP2018036668A (en) * | 2012-10-10 | 2018-03-08 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1440432B1 (en) | Audio encoding and decoding device | |
JP5048697B2 (en) | Encoding device, decoding device, encoding method, decoding method, program, and recording medium | |
JP3926726B2 (en) | Encoding device and decoding device | |
USRE46082E1 (en) | Method and apparatus for low bit rate encoding and decoding | |
EP1351401A1 (en) | Audio signal decoding device and audio signal encoding device | |
WO2013027629A1 (en) | Encoding device and method, decoding device and method, and program | |
JP2006011456A (en) | Method and device for coding/decoding low-bit rate and computer-readable medium | |
JPH08237132A (en) | Signal coding method and device, signal decoding method and device, and information recording medium and information transmission method | |
US20060100885A1 (en) | Method and apparatus to encode and decode an audio signal | |
US6772111B2 (en) | Digital audio coding apparatus, method and computer readable medium | |
US20020169601A1 (en) | Encoding device, decoding device, and broadcast system | |
US7835915B2 (en) | Scalable stereo audio coding/decoding method and apparatus | |
US7583804B2 (en) | Music information encoding/decoding device and method | |
JP3923783B2 (en) | Encoding device and decoding device | |
JP4308229B2 (en) | Encoding device and decoding device | |
US5864813A (en) | Method, system and product for harmonic enhancement of encoded audio signals | |
JP4399185B2 (en) | Encoding device and decoding device | |
JPH0846516A (en) | Device and method for information coding, device and method for information decoding and recording medium | |
JP4317355B2 (en) | Encoding apparatus, encoding method, decoding apparatus, decoding method, and acoustic data distribution system | |
JP3984468B2 (en) | Encoding device, decoding device, and encoding method | |
US6463405B1 (en) | Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband | |
JP2003029797A (en) | Encoder, decoder and broadcasting system | |
US6516299B1 (en) | Method, system and product for modifying the dynamic range of encoded audio signals | |
JP2008033211A (en) | Additional signal generation device, restoration device of signal converted signal, additional signal generation method, restoration method of signal converted signal, and additional signal generation program | |
JP2001094432A (en) | Sub-band coding and decoding method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050113 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20060609 |