JP2005345993A - Device and method for sound decoding - Google Patents

Device and method for sound decoding Download PDF

Info

Publication number
JP2005345993A
JP2005345993A JP2004168784A JP2004168784A JP2005345993A JP 2005345993 A JP2005345993 A JP 2005345993A JP 2004168784 A JP2004168784 A JP 2004168784A JP 2004168784 A JP2004168784 A JP 2004168784A JP 2005345993 A JP2005345993 A JP 2005345993A
Authority
JP
Japan
Prior art keywords
error
frequency data
value
frequency
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004168784A
Other languages
Japanese (ja)
Other versions
JP4539180B2 (en
Inventor
Shigeo Sugimori
茂夫 杉森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004168784A priority Critical patent/JP4539180B2/en
Publication of JP2005345993A publication Critical patent/JP2005345993A/en
Application granted granted Critical
Publication of JP4539180B2 publication Critical patent/JP4539180B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device and method for sound decoding that detect errors occurring in sample data and corrects errors, when errors are detected. <P>SOLUTION: The sample data multiplexed with an encoded stream are decoded and converted into frequency data of respective bands, and an error in the converted frequency data is detected, by comparing the absolute value of the difference between two successive frequency data with the threshold. When an error detection part 8 detects the error, frequency data of it are corrected by a sample correcting part 9. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、符号化されたオーディオデータを復号する音響復号装置及び音響復号方法に関する。   The present invention relates to an acoustic decoding apparatus and an acoustic decoding method for decoding encoded audio data.

オーディオデータを効率的に蓄積したり伝達したりするために、様々な符号化(圧縮)技術が開発されている。このオーディオデータを高能率・高音質で圧縮する代表的な手法として、オーディオデータをサブバンド符号化やMDCT(Modified Discrete Cosine Transform: 変形離散コサイン変換)によって周波数帯域に変換し、また人間の聴覚モデルを利用して人間の耳に聞こえない情報を削減し、さらにハフマン符号化等によって情報の冗長度を減らすことにより、データサイズを減らす方法がある。その代表例として、MPEG(Moving Picture Experts Group)によってISO(International Organization for Standardization)・IEC(International Electro for Standardization)標準式となったMPEG1,2,4オーディオ、Dolby社が策定したDolby Digital(商標)、ソニー株式会社が開発したATRAC(商標)等が挙げられる。MPEGオーディオ規格には複数の方式が存在し、MPEG−1及びMPEG−2オーディオレイヤ3は、通称MP3としてパーソナルコンピュータや携帯用オーディオプレーヤに広く使われている。また、MPEG‐2 AACは、ディジタル放送用の圧縮方式として採用されている。また、Dolby Digital(商標)は、DVD(Digital Versatile Disc)用のオーディオ圧縮方式に採用されている。また、ATRAC(商標)は、主にMini Disk(商標)やMemory Stick Walkman(商標)等の携帯用オーディオプレーヤに採用されている。   Various encoding (compression) techniques have been developed in order to efficiently store and transmit audio data. As a representative method of compressing audio data with high efficiency and high sound quality, the audio data is converted into a frequency band by subband coding or MDCT (Modified Discrete Cosine Transform), and a human auditory model There is a method of reducing the data size by reducing information that cannot be heard by human ears by using, and further reducing the redundancy of information by Huffman coding or the like. Typical examples are MPEG1, 2, 4 audio, which has become an ISO (International Organization for Standardization) / IEC (International Electro for Standardization) standard by MPEG (Moving Picture Experts Group), Dolby Digital (trademark) developed by Dolby. And ATRAC (trademark) developed by Sony Corporation. There are a plurality of MPEG audio standards, and the MPEG-1 and MPEG-2 audio layer 3 are commonly used as MP3 in personal computers and portable audio players. MPEG-2 AAC is adopted as a compression method for digital broadcasting. Dolby Digital (trademark) is adopted as an audio compression method for DVD (Digital Versatile Disc). ATRAC (trademark) is mainly used in portable audio players such as Mini Disk (trademark) and Memory Stick Walkman (trademark).

ここで、ビデオCD(Compact Disc)や組み込み機器の分野で広く使われているMPEG−1オーディオレイヤ2方式について説明する。MPEG−1オーディオレイヤ2方式の符号化ストリームにおける1フレームには、大きく分けて、フレームの先頭を示す情報を含むヘッダと、各周波数帯域にどれだけの情報を割り当てるかについての情報を含むビットアロケーション情報と、周波数データを正規化したときのスケールファクタをどのサブバンドに使用したかについての情報が含まれているスケールファクタ選択情報と、周波数データを正規化したときの乗算係数のインデックス値が記述されているスケールファクタと、圧縮された音響情報が周波数のインデックス値として記述されているサンプルデータと、アンシラリデータとが多重化されている。   Here, the MPEG-1 audio layer 2 system widely used in the field of video CD (Compact Disc) and embedded devices will be described. One frame in the MPEG-1 audio layer 2 encoded stream is roughly divided into a header including information indicating the head of the frame, and bit allocation including information on how much information is allocated to each frequency band. Describes information, scale factor selection information that contains information about which subband the scale factor when frequency data was normalized to, and the index value of the multiplication coefficient when frequency data was normalized Scale data, sample data in which compressed acoustic information is described as a frequency index value, and ancillary data are multiplexed.

図9は、従来の音響復号装置101を示すブロック図である。音響復号装置101は、符号化ストリームを蓄えるフレームバッファ102と、蓄えられた符号化ストリームから各データを分離するデータ分離部103と、分離されたヘッダを分析するヘッダ分析部104と、分離されたビットアロケーション情報、スケールファクタ選択情報及びスケールファクタを復号するサイド情報復号部105と、サンプルデータを復号し、ビットアロケーション情報を用いて逆量子化するサンプル逆量子化部106と、スケールファクタを用いて周波数データを算出するサンプル逆正規化部107と、複数帯域の周波数データからオーディオデータを合成する帯域合成部108とを備えている。   FIG. 9 is a block diagram showing a conventional acoustic decoding device 101. The acoustic decoding device 101 is separated into a frame buffer 102 that stores an encoded stream, a data separator 103 that separates each data from the stored encoded stream, and a header analyzer 104 that analyzes the separated header. A side information decoding unit 105 that decodes bit allocation information, scale factor selection information, and scale factor, a sample dequantization unit 106 that decodes sample data and performs inverse quantization using the bit allocation information, and a scale factor A sample denormalization unit 107 that calculates frequency data and a band synthesis unit 108 that synthesizes audio data from a plurality of bands of frequency data are provided.

次に、音響復号装置101の動作について説明する。音響復号装置101に入力された符号化ストリームは、フレームバッファ102に保持される。データ分離部103は、フレームバッファ102に保持された符号化ストリームに対し、その符号化ストリーム中に多重化されている各データを分離する。MPEG‐1 オーディオレイヤ2方式の符号化ストリームの1フレームには、上述した各データが規定された固定ビット長、且つ規定された順序で含まれているため、データ分離部103は、符号化ストリームの先頭から順次規定ビットずつ取り出すことにより、各データを分離する。   Next, the operation of the acoustic decoding device 101 will be described. The encoded stream input to the acoustic decoding device 101 is held in the frame buffer 102. The data separation unit 103 separates each data multiplexed in the encoded stream from the encoded stream held in the frame buffer 102. Since one frame of the encoded stream of the MPEG-1 audio layer 2 system includes the above-described data in a specified fixed bit length and in a specified order, the data separation unit 103 Each data is separated by sequentially taking out the specified bits sequentially from the head of the.

データ分離部103によって分離されたヘッダは、ヘッダ分析部104で分析され、データの先頭を意味するシンクワード及びチャネル数と圧縮モードを示すモードの情報が抽出される。ここで、ヘッダ中にCRC情報が含まれている場合には、ヘッダ分析部104は、ヘッダ、ビットアロケーション情報及びスケールファクタ選択情報から計算されたCRCデータと、符号化時に予めフレーム中に付加されたCRCデータとを比較して巡回冗長検査を行う。   The header separated by the data separation unit 103 is analyzed by the header analysis unit 104, and the sync word indicating the head of the data, the number of channels, and the mode information indicating the compression mode are extracted. Here, when CRC information is included in the header, the header analysis unit 104 adds CRC data calculated from the header, bit allocation information, and scale factor selection information, and is added to the frame in advance during encoding. The cyclic redundancy check is performed by comparing with the CRC data.

巡回冗長検査でエラーが検出された場合には、そのフレーム全体は、復号不可能であるためエラーフレームと判断される。そして、このエラーフレームは、例えば、ミュート処理されたり、正常な前フレームで補間されたりする。   If an error is detected in the cyclic redundancy check, the entire frame is determined to be an error frame because it cannot be decoded. The error frame is, for example, muted or interpolated with a normal previous frame.

エラーが検出されなかった場合、サイド情報復号部105は、データ分離部103によって分離されたビットアロケーション情報、スケールファクタ選択情報及びスケールファクタを復号する。   When no error is detected, the side information decoding unit 105 decodes the bit allocation information, the scale factor selection information, and the scale factor separated by the data separation unit 103.

データ分離部103によって分離されたサンプルデータは、サンプル逆量子化部106で復号され、復号されたサンプルデータは、サイド情報復号部105によって復号されたビットアロケーション情報を用いて逆量子化される。   The sample data separated by the data separation unit 103 is decoded by the sample inverse quantization unit 106, and the decoded sample data is inversely quantized using the bit allocation information decoded by the side information decoding unit 105.

サンプル逆量子化部106で逆量子化されたサンプルデータは、サンプル逆正規化部107で、サイド情報復号部105によって復号されたスケールファクタが乗算され、周波数データに変換される。周波数データに変換された段階でのMPEG−1 オーディオレイヤ2方式のデータは、3つのサブフレームからなる32帯域のサブバンドデータ(周波数データ)が、時間軸方向に12グループ続く構成となっている。   The sample data dequantized by the sample dequantization unit 106 is multiplied by the scale factor decoded by the side information decoding unit 105 by the sample denormalization unit 107 and converted into frequency data. The MPEG-1 audio layer 2 format data at the stage of conversion to frequency data has a structure in which 32 groups of subband data (frequency data) consisting of three subframes continue in 12 groups in the time axis direction. .

帯域合成部108は、サンプル逆正規化部107で変換された周波数データをサブバンド合成や逆MDCT演算することにより、オーディオデータを合成する。MPEG−1オーディオレイヤ2方式では、32サンプルの周波数データを演算することで、32サンプルのPCM(Pulse Code Modulation)データが出力され、これを3サブフレーム×12グループ回繰り返し、1フレームで1chあたり1152サンプルのPCMデータが出力される。   The band synthesizing unit 108 synthesizes audio data by performing subband synthesis or inverse MDCT operation on the frequency data converted by the sample denormalization unit 107. In the MPEG-1 audio layer 2 system, 32 samples of PCM (Pulse Code Modulation) data is output by calculating 32 samples of frequency data, and this is repeated 3 sub-frames x 12 groups per channel per channel. 1152 samples of PCM data are output.

特開平11−355145号公報JP-A-11-355145 特開平6−349198号公報JP-A-6-349198

しかしながら、上述したようなCRC情報によるエラーの検出では、その検出対象であるヘッダ、ビットアロケーション情報及びスケールファクタ選択情報以外のデータのビット誤りは検出できない。すなわち、スケールファクタやサンプルデータにビット誤りやデータ破壊が発生した場合には、エラーを検出することができず、ノイズが発生してしまう。   However, in the error detection based on the CRC information as described above, bit errors of data other than the header, bit allocation information, and scale factor selection information that are detection targets cannot be detected. That is, when a bit error or data destruction occurs in the scale factor or sample data, the error cannot be detected and noise is generated.

特許文献1には、スケールファクタ中のエラーに関し、隣接する部分領域を比較する手法が記述されているが、サンプルデータのエラーに関してはその影響は小さいとして何らの対策も記述されていない。しかし、サンプルデータ内でデータ破壊が起こるとそのデータ部分だけ微小なノイズが発生し、受聴者には耳障りな音として認識される虞がある。しかも、符号化ストリームの大部分はサンプルデータが占めるため、この部分のデータにエラーが発生する可能性はヘッダやビットアロケーション情報部分等よりもかなり高い。   Patent Document 1 describes a method of comparing adjacent partial areas with respect to an error in a scale factor, but does not describe any countermeasures regarding the error of sample data because its influence is small. However, if data destruction occurs in the sample data, a minute noise is generated only in the data portion, and there is a possibility that the listener recognizes it as an irritating sound. In addition, since most of the encoded stream is occupied by the sample data, the possibility that an error will occur in this portion of data is considerably higher than that of the header and the bit allocation information portion.

また、特許文献2には、アンシラリデータに誤り訂正信号を挿入する方式が提案されている。しかし、この方式では、符号化装置側に誤り訂正信号を挿入するための追加処理が必要となってしまう。また、この方式を用いた音響復号装置は、訂正信号が挿入されていない符号化ストリームに対して、誤り訂正をすることができない。さらに、誤り訂正信号部分のために余分なビットを使う結果、サンプルデータに割り当てる情報量が減り、音質が損なわれてしまう虞がある。   Patent Document 2 proposes a method of inserting an error correction signal into ancillary data. However, this method requires additional processing for inserting an error correction signal on the encoding device side. In addition, an acoustic decoding device using this method cannot perform error correction on an encoded stream in which no correction signal is inserted. Furthermore, as a result of using extra bits for the error correction signal portion, the amount of information assigned to the sample data may be reduced, and sound quality may be impaired.

本発明は、このような従来の実情に鑑みて提案されたものであり、サンプルデータ内で発生するエラーを検出し、エラーを検出した場合には、そのエラーを修正するようにした音響復号装置及び音響復号方法を提供することを目的とする。   The present invention has been proposed in view of such conventional circumstances, and detects an error that occurs in sample data, and if an error is detected, an acoustic decoding device that corrects the error. It is another object of the present invention to provide an acoustic decoding method.

そこで、上述した目的を達成するために、本発明に係る音響復号装置は、所定の時間間隔毎に分割されたオーディオデータを複数の周波数帯域の周波数データに分割し、上記複数の周波数帯域の周波数データを各グループが各周波数帯域について時系列順に一定数の周波数データを含むように複数のグループに分割し、符号化して得られた符号化ストリームを復号する音響復号装置において、上記符号化ストリームを復号し、上記複数のグループに分割された周波数データを復元する復元手段と、上記復元手段により復元された2つの周波数データの差分の絶対値としきい値とを比較し、上記差分の絶対値が上記しきい値よりも大きい場合、上記差分をとった2つの周波数データのうち一方をエラーと判断するエラー検出手段と、上記エラーと判断された周波数データを修正する修正手段と、上記複数のグループに分割された周波数データからオーディオデータを合成する合成手段とを有することを特徴としている。   Therefore, in order to achieve the above-described object, the acoustic decoding device according to the present invention divides audio data divided at predetermined time intervals into frequency data of a plurality of frequency bands, and the frequency of the plurality of frequency bands. In an acoustic decoding apparatus that decodes an encoded stream obtained by dividing data into a plurality of groups so that each group includes a certain number of frequency data in time series for each frequency band, the encoded stream is A decoding unit that decodes and restores the frequency data divided into the plurality of groups, compares an absolute value of a difference between the two frequency data restored by the restoring unit and a threshold value, and the absolute value of the difference is An error detection means for determining one of the two frequency data obtained by the difference as an error when the threshold is greater than the threshold; and the error And correction means for correcting the determined frequency data, is characterized by having a synthesizing means for synthesizing the audio data from the divided frequency data to the plurality of groups.

また、本発明に係る音響復号方法は、所定の時間間隔毎に分割されたオーディオデータを複数の周波数帯域の周波数データに分割し、上記複数の周波数帯域の周波数データを各グループが各周波数帯域について時系列順に一定数の周波数データを含むように複数のグループに分割し、符号化して得られた符号化ストリームを復号する音響復号方法において、上記符号化ストリームを復号し、上記複数のグループに分割された周波数データを復元する復元工程と、上記復元工程により復元された2つの周波数データの差分の絶対値としきい値とを比較し、上記差分の絶対値が上記しきい値よりも大きい場合、上記差分をとった2つの周波数データのうち一方をエラーと判断するエラー検出工程と、上記エラーと判断された周波数データを修正する修正工程と、上記複数のグループに分割された周波数データからオーディオデータを合成する合成工程とを有することを特徴としている。   Also, the audio decoding method according to the present invention divides audio data divided at predetermined time intervals into frequency data of a plurality of frequency bands, and each group has frequency data of the plurality of frequency bands for each frequency band. In an acoustic decoding method for decoding an encoded stream obtained by dividing into a plurality of groups so as to include a certain number of frequency data in time series order, the encoded stream is decoded and divided into the plurality of groups Comparing the restored frequency data and the absolute value of the difference between the two frequency data restored by the restoring step and the threshold value, and the absolute value of the difference is greater than the threshold value, An error detection step of determining one of the two frequency data obtained as a difference as an error, and correcting the frequency data determined as the error And correcting step is characterized by having a synthesis step of synthesizing the audio data from the divided frequency data to the plurality of groups.

本発明によれば、連続する2つの周波数データの差分の絶対値としきい値とを比較することにより、符号化ストリームに多重化されているサンプルデータのエラーを検出することができる。   According to the present invention, it is possible to detect an error in sample data multiplexed in an encoded stream by comparing an absolute value of a difference between two consecutive frequency data and a threshold value.

また、エラーが検出された場合、その周波数データに応じた修正方法を選択することにより、サンプルデータ中のビット誤りやデータ破壊によって発生するノイズを効果的に抑えることができる。   Further, when an error is detected, by selecting a correction method according to the frequency data, it is possible to effectively suppress noise generated by bit errors or data destruction in the sample data.

本発明の具体例として示す音響復号装置及び音響復号方法は、サンプルデータを逆量子化及び逆正規化して周波数データにした段階で、サンプルデータに含まれるエラーを検出し、エラーを検出した場合には修正処理を行うものである。なお、本実施の形態では、MPEG‐1 オーディオレイヤ2方式のオーディオデータを用いて説明するが、これに限定されるものではない。   The acoustic decoding device and the acoustic decoding method shown as specific examples of the present invention detect an error included in sample data at the stage where the sample data is dequantized and denormalized into frequency data, and an error is detected. Is a correction process. In this embodiment, the audio data of the MPEG-1 audio layer 2 method is used for explanation, but the present invention is not limited to this.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。図1は、MPEG‐1 オーディオレイヤ2方式の符号化ストリームのフォーマットを示す図である。この符号化ストリームの1フレームは、大きく分けて、ヘッダ、ビットアロケーション情報、スケールファクタ選択情報、スケールファクタ、サンプルデータ及びアンシラリデータに分かれている。以下、各データを説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. FIG. 1 is a diagram showing a format of an MPEG-1 audio layer 2 encoded stream. One frame of the encoded stream is roughly divided into a header, bit allocation information, scale factor selection information, scale factor, sample data, and ancillary data. Each data will be described below.

ヘッダには、データの先頭を意味するシンクワード、レイヤ番号、転送データ量を示すビットレート、チャネル数と圧縮モードを示すモード、サンプリング周波数、CRC(Cyclic Redundancy Check)情報等が含まれている。   The header includes a sync word indicating the head of data, a layer number, a bit rate indicating the amount of transfer data, a mode indicating the number of channels and a compression mode, a sampling frequency, CRC (Cyclic Redundancy Check) information, and the like.

このCRC情報が含まれている場合には、符号化時にヘッダ、ビットアロケーション情報、スケールファクタ選択情報から計算されたCRCデータがフレーム中に付加されている。すなわち、CRC情報によるビット誤りの保護対象は、ヘッダ、ビットアロケーション情報、スケールファクタ選択情報である。このCRCデータは、復号時のエラーチェックである巡回冗長検査に用いられる。   When this CRC information is included, CRC data calculated from the header, bit allocation information, and scale factor selection information at the time of encoding is added to the frame. That is, the bit error protection targets by the CRC information are header, bit allocation information, and scale factor selection information. This CRC data is used for cyclic redundancy check which is an error check at the time of decoding.

なお、CRC情報が含まれてない場合には、復号時にエラーの検出ができないため、符号化ストリームにビット誤りやデータ破壊が発生した場合、1フレーム(48KHzサンプリングの場合は24msec, 32KHzサンプリングの場合には32msec)の間、ノイズが発生することになる。   If CRC information is not included, errors cannot be detected at the time of decoding, so if a bit error or data corruption occurs in the encoded stream, 1 frame (24 msec for 48 KHz sampling, 32 KHz sampling) Noise is generated for 32 msec).

ビットアロケーション情報には、分離された各周波数帯域にどれだけの情報を割り当てるかについての情報が含まれている。   The bit allocation information includes information on how much information is allocated to each separated frequency band.

スケールファクタには、周波数データを正規化したときの乗算係数のインデックス値が記述されている。また、スケールファクタ選択情報には、正規化したときのスケールファクタをどのサブバンドに使用したかについての情報が含まれている。   In the scale factor, an index value of a multiplication coefficient when the frequency data is normalized is described. The scale factor selection information includes information on which subband the scale factor when normalized is used.

また、サンプルデータには、符号化されたオーディオデータが周波数帯域のインデックス値として記述されている。   In the sample data, encoded audio data is described as a frequency band index value.

図2は、本実施の形態における音響復号装置1の構成を示すブロック図である。音響復号装置1は、入力された符号化ストリームを保持するフレームバッファ2と、符号化ストリームを各データに分離するデータ分離部3と、分離されたヘッダを分析するヘッダ分析部4と、分離されたビットアロケーション情報、スケールファクタ選択情報及びスケールファクタを復号するサイド情報復号部5と、符号化ストリームから分離されたサンプルデータを復号し、ビットアロケーション情報を用いて逆量子化するサンプル逆量子化部6と、スケールファクタを用いて周波数データを算出するサンプル逆正規化部7と、周波数データのエラーを検出するエラー検出部8と、エラー検出部8においてエラーが検出された場合、周波数データの修正を行うサンプル修正部9と、複数の帯域の周波数データからオーディオデータを合成する帯域合成部10とを備えている。   FIG. 2 is a block diagram showing a configuration of the acoustic decoding device 1 according to the present embodiment. The acoustic decoding device 1 is separated into a frame buffer 2 that holds an input encoded stream, a data separator 3 that separates the encoded stream into data, and a header analyzer 4 that analyzes the separated header. Side information decoding unit 5 that decodes the bit allocation information, scale factor selection information, and scale factor, and a sample dequantization unit that decodes the sample data separated from the encoded stream and performs inverse quantization using the bit allocation information 6, a sample denormalization unit 7 that calculates frequency data using a scale factor, an error detection unit 8 that detects an error in frequency data, and correction of frequency data when an error is detected in the error detection unit 8 A sample correction unit 9 for performing audio data synthesis from frequency data of a plurality of bands And a band synthesis portion 10 that.

フレームバッファ2は、入力された符号化ストリームをフレーム単位で保持する。   The frame buffer 2 holds the input encoded stream in units of frames.

データ分離部3は、フレームバッファ2に保持された符号化ストリームから、その符号化ストリーム中に多重化されている各データを分離する。図1に示すように、MPEG‐1 オーディオレイヤ2方式の符号化ストリームの1フレームには、ヘッダ、ビットアロケーション情報、スケールファクタ選択情報、スケールファクタ、サンプルデータ及びアンシラリデータが規定された固定ビット長、且つ規定された順序で含まれており、データ分離部3は、フレームバッファ2に保持された符号化ストリームの先頭から順次規定ビットずつ取り出し、各データに分離する。   The data separation unit 3 separates each data multiplexed in the encoded stream from the encoded stream held in the frame buffer 2. As shown in FIG. 1, a fixed bit in which a header, bit allocation information, scale factor selection information, scale factor, sample data, and ancillary data are defined in one frame of an MPEG-1 audio layer 2 encoded stream The data separation unit 3 sequentially takes out prescribed bits from the head of the encoded stream held in the frame buffer 2 and separates each data.

ヘッダ分析部4は、データ分離部3によって分離されたヘッダ中のシンクワード及びモードを分析する。ここで、ヘッダ中にCRC情報が含まれている場合には、ヘッダ分析部4は、ヘッダ、ビットアロケーション情報及びスケールファクタ選択情報から計算されたCRCデータと、符号化時に予めフレーム中に付加されたCRCデータとを比較して巡回冗長検査を行う。   The header analysis unit 4 analyzes the sync word and mode in the header separated by the data separation unit 3. Here, when CRC information is included in the header, the header analysis unit 4 adds CRC data calculated from the header, bit allocation information and scale factor selection information, and is added to the frame in advance during encoding. The cyclic redundancy check is performed by comparing with the CRC data.

サイド情報復号部5は、データ分離部3によって分離されたビットアロケーション情報、スケールファクタ選択情報及びスケールファクタを復号する。   The side information decoding unit 5 decodes the bit allocation information, the scale factor selection information, and the scale factor separated by the data separation unit 3.

サンプル逆量子化部6は、データ分離部3によって分離されたサンプルデータを復号し、そのサンプルデータをサイド情報復号部5によって復号されたビットアロケーション情報を用いて逆量子化する。   The sample dequantization unit 6 decodes the sample data separated by the data separation unit 3 and dequantizes the sample data using the bit allocation information decoded by the side information decoding unit 5.

サンプル逆正規化部7は、サンプル逆量子化部6で逆量子化されたサンプルデータに、サイド情報復号部5によって復号されたスケールファクタを乗算して周波数データを算出する。周波数データが算出された段階でのMPEG−1オーディオレイヤ2方式のデータは、図3(a)に示すように3つのサブフレームからなる32帯域のサブバンドデータ(周波数データ)が、時間軸方向に12グループ続く構成となっている。この周波数データは、周波数の低い順に、0から31までのサブバンド番号が付されている。以下、周波数データを、サンプル番号k(0〜11)、サブフレーム番号(0〜2)t及びサブバンド番号n(0〜31)を用いて、S [k][t][n]で表すこととする。なお、図3(a)に示されているサブバンド境界値は、オーディオデータの符号化の際に符号化された周波数帯域(サブバンド)と符号化されなかった周波数帯域(サブバンド)との境界を示している。   The sample denormalization unit 7 calculates the frequency data by multiplying the sample data dequantized by the sample dequantization unit 6 by the scale factor decoded by the side information decoding unit 5. As shown in FIG. 3A, the data of the MPEG-1 audio layer 2 method at the stage where the frequency data is calculated includes subband data (frequency data) of 32 bands including three subframes in the time axis direction. This is a structure that continues to 12 groups. This frequency data is assigned subband numbers from 0 to 31 in ascending order of frequency. Hereinafter, the frequency data is represented by S [k] [t] [n] using the sample number k (0 to 11), the subframe number (0 to 2) t, and the subband number n (0 to 31). I will do it. Note that the subband boundary values shown in FIG. 3A are the frequency bands (subbands) encoded at the time of encoding audio data and the frequency bands (subbands) that were not encoded. Indicates the boundary.

エラー検出部8は、サンプル逆正規化部7によって算出された周波数データのエラーを検出する。エラーの検出は、周波数データの差分の絶対値としきい値とを比較することにより検出する。例えば、サブバンド番号が連続する2つの周波数データの差分の絶対値(| S [k][t][n+1] ‐ S [k][t][n] |)と予め設定されたしきい値とを比較し、差分の絶対値がしきい値よりも大きい場合、サブバンド番号が連続する周波数データS [k][t][n]とS [k][t][n+1]のうち絶対値が大きい方をエラーと判断する。   The error detection unit 8 detects an error in the frequency data calculated by the sample denormalization unit 7. The error is detected by comparing the absolute value of the frequency data difference with a threshold value. For example, the absolute value of the difference between two frequency data with consecutive subband numbers (| S [k] [t] [n + 1]-S [k] [t] [n] |) is set in advance. If the absolute value of the difference is greater than the threshold value, the frequency data S [k] [t] [n] and S [k] [t] [n + 1 ] With the larger absolute value is judged as an error.

サンプル修正部9は、エラー検出部8によってエラーが検出された周波数データを修正する。例えば、サブバンド番号が連続する2つの周波数データの差分の絶対値がしきい値になるようにエラーが検出された周波数データを修正する。   The sample correction unit 9 corrects the frequency data in which an error is detected by the error detection unit 8. For example, the frequency data in which the error is detected is corrected so that the absolute value of the difference between two frequency data having consecutive subband numbers becomes a threshold value.

帯域合成部10は、各帯域の周波数データをサブバンド合成や逆MDCT(Modified Discrete Cosine Transform:変形離散コサイン変換)演算することにより、オーディオデータを合成する。MPEG‐1 オーディオレイヤ2方式では、図3(b)に示すように32サンプルの周波数データSを演算することで、32サンプルのPCM(Pulse Code Modulation)データが出力され、これを3サブフレーム×12グループ回繰り返し、1フレームで1chあたり1152サンプルのPCMデータが出力される。   The band synthesizing unit 10 synthesizes audio data by performing subband synthesis or inverse MDCT (Modified Discrete Cosine Transform) on the frequency data of each band. In the MPEG-1 audio layer 2 system, 32 samples of PCM (Pulse Code Modulation) data are output by calculating the frequency data S of 32 samples as shown in FIG. Repeats 12 groups, and outputs 1152 samples of PCM data per channel in one frame.

次に、本実施の形態における音響復号装置1のエラー検出部8について詳細に説明する。サブバンド合成前の周波数データは、連続する周波数領域方向と、時間軸方向とで関連性がある。例えば人の声や楽器の音などの通常耳にする音源では、その音が周波数データの1サンプルだけから成ることはなく、周波数領域方向にも、また時間軸方向にも値が広がりを持つことで一連の音色になる。しかし、周波数データの一部分が壊れたりしてノイズが発生する場合には、周波数領域方向や時間軸方向において一瞬だけ大きな変化が発生する。本発明では、周波数帯域での急激な値の変化を調べることでノイズを検出する。   Next, the error detection unit 8 of the acoustic decoding device 1 in the present embodiment will be described in detail. The frequency data before subband synthesis is related to the continuous frequency domain direction and the time axis direction. For example, in the case of a sound source that is normally heard, such as a human voice or instrument sound, the sound does not consist of only one sample of frequency data, and the value is spread both in the frequency domain direction and in the time axis direction. A series of sounds. However, when noise occurs due to a part of the frequency data being broken, a large change occurs momentarily in the frequency domain direction or the time axis direction. In the present invention, noise is detected by examining a sudden change in value in the frequency band.

図4は、本発明を適用させたエラー検出部8の構成を示すブロック図である。エラー検出部8は、サブバンド番号が連続する2つの周波数データを周波数しきい値テーブル81に基づいて比較する周波数データ比較部82と、前サンプル記憶部83に記憶されたサンプル番号が1つ小さい周波数データと現周波数データとを時間軸しきい値テーブル84に基づいて比較する時間軸データ比較部85とを備えている。   FIG. 4 is a block diagram showing a configuration of the error detection unit 8 to which the present invention is applied. The error detection unit 8 compares the frequency data comparison unit 82 that compares two frequency data having consecutive subband numbers based on the frequency threshold value table 81, and the sample number stored in the previous sample storage unit 83 is one smaller. A time axis data comparison unit 85 that compares the frequency data and the current frequency data based on the time axis threshold value table 84 is provided.

エラー検出部8は、周波数データ比較部82又は時間軸データ比較部85のどちらか一方でもエラーと判断された周波数データをエラーデータとして検出する。エラー検出部8に入力される周波数データは、例えば、図3(a)に示すMPEG−1オーディオレイヤ2方式のように3つのサブフレームからなる32帯域のサブバンドデータ(周波数データ)が、時間軸方向に12グループ続く構成となっている。ここで、グループは、各グループが各周波数帯域について時系列順に3つの周波数データを含むようにしたものであり、サンプル番号k(0〜11)と対応している。   The error detection unit 8 detects frequency data determined as an error as error data in either the frequency data comparison unit 82 or the time axis data comparison unit 85. The frequency data input to the error detection unit 8 is, for example, subband data (frequency data) of 32 bands including three subframes as in the MPEG-1 audio layer 2 system shown in FIG. It is configured to continue 12 groups in the axial direction. Here, each group includes three frequency data in time series order for each frequency band, and corresponds to a sample number k (0 to 11).

周波数データ比較部82は、サンプル逆正規化部7によって算出された周波数領域方向に連続する2帯域の周波数データS [k][t][n]とS [k][t][n+1]の差分の絶対値Diff[n]を(1)式に示すように算出する。
Diff[n] = | S [k][t][n+1] S [k][t][n] | (1)
すなわち、上記(1)式により、サンプル番号及びサブフレーム番号は同一で、連続するサブバンド番号の周波数データSの差分が求められる。
The frequency data comparison unit 82 includes two band frequency data S [k] [t] [n] and S [k] [t] [n + 1] that are continuous in the frequency domain direction calculated by the sample denormalization unit 7. ] Is calculated as shown in the equation (1).
Diff [n] = | S [k] [t] [n + 1] S [k] [t] [n] | (1)
That is, according to the above equation (1), the difference between the frequency data S of consecutive subband numbers is obtained with the same sample number and subframe number.

そして、周波数データ比較部82は、算出された差分の絶対値Diff[n]と周波数しきい値テーブル81のしきい値f[n]とを比較し、この差分の絶対値Diff[n]がしきい値f[n]よりも大きい場合、周波数データS [k][t][n]とS [k][t][n+1]のうち絶対値が大きい方をエラーデータと判断し、その周波数データのサンプル番号k、サブフレーム番号t及びサブバンド番号nのエラー情報を出力する。また、差分を求めた周波数データS [k][t][n]とS [k][t][n+1]とを時間軸データ比較部85に出力する。   Then, the frequency data comparison unit 82 compares the calculated absolute value Diff [n] of the difference with the threshold value f [n] of the frequency threshold value table 81, and the absolute value Diff [n] of the difference is obtained. If it is larger than the threshold value f [n], the frequency data S [k] [t] [n] and S [k] [t] [n + 1] with the larger absolute value is determined as error data. The error information of the sample number k, subframe number t, and subband number n of the frequency data is output. Further, the frequency data S [k] [t] [n] and S [k] [t] [n + 1] for which the difference is obtained are output to the time axis data comparison unit 85.

周波数しきい値テーブル81は、例えば、図5に示すようにサブバンド番号nに対応したしきい値f[n]を格納している。通常、低域では周波数データの値の変化量が大きく、高域では周波数データの値の変化量が小さいので、これを考慮して周波数しきい値テーブル81を作成することが好ましい。なお、図5に示すしきい値は、0〜25の26個のサブバンドに対応しているが、これは、図3に示す32個のサブバンドのうち0〜25までの26個のサブバンドを有効サブバンドとした例である。すなわち、図3に示すサブバンド境界値をサブバンド番号25までとした場合のものである。   The frequency threshold value table 81 stores, for example, a threshold value f [n] corresponding to the subband number n as shown in FIG. Usually, the amount of change in the value of the frequency data is large in the low range, and the amount of change in the value of the frequency data is small in the high range, so it is preferable to create the frequency threshold value table 81 in consideration of this. The threshold shown in FIG. 5 corresponds to 26 subbands from 0 to 25. This is because the 26 subbands from 0 to 25 out of the 32 subbands shown in FIG. This is an example in which a band is an effective subband. That is, the subband boundary value shown in FIG.

時間軸データ比較部85は、周波数帯域が同じであって前サンプル記憶部83に記憶された周波数データS [k][t][n]と時間的に次の周波数データS [k+1][t][n]との周波数データSの差分の絶対値Diff_t[n]を(2)式に示すように算出する。
Diff_t[n] = | S [k+1][t][n] S [k][t][n] | (2)
すなわち、上記(2)式により、サブバンド番号及びサブフレーム番号は同一で、連続するサンプル番号を持つ周波数データSにより差分が求められる。
The time axis data comparison unit 85 has the same frequency band and the frequency data S [k] [t] [n] stored in the previous sample storage unit 83 and the next frequency data S [k + 1] in time. The absolute value Diff_t [n] of the difference between the frequency data S and [t] [n] is calculated as shown in equation (2).
Diff_t [n] = | S [k + 1] [t] [n] S [k] [t] [n] | (2)
That is, according to the above equation (2), the subband number and the subframe number are the same, and the difference is obtained from the frequency data S having consecutive sample numbers.

そして、時間軸しきい値テーブル84のしきい値t[n]と比較し、このDiff_t[n]がしきい値t[n]よりも大きい場合、周波数データS [k][t][n]とS [k+1][t][n]のうち絶対値の大きい方をエラーデータと判断し、その周波数データのサンプル番号k、サブフレーム番号t及びサブバンド番号nのエラー情報を出力する。   Then, when compared with the threshold value t [n] of the time axis threshold value table 84, if this Diff_t [n] is larger than the threshold value t [n], the frequency data S [k] [t] [n ] And S [k + 1] [t] [n], the one with the larger absolute value is determined as error data, and error information of the frequency data sample number k, subframe number t, and subband number n is output. To do.

時間軸しきい値テーブル84は、例えば、図6に示すようにサブバンド番号nに対応したしきい値t[n]を格納している。図5に示す周波数しきい値テーブル81と同様に、通常、低域では周波数データの値の変化量が大きく、高域では周波数データの値の変化量が小さいのでこれを考慮して時間軸しきい値テーブル84を作成することが好ましい。また、図6に示す0〜25の26個のサブバンドに対応している時間軸方向のしきい値は、図5に示す周波数領域方向のしきい値と同様に、図3に示す32個のサブバンドのうち0〜25までの26個のサブバンドを有効サブバンドとした例である。   For example, the time axis threshold value table 84 stores a threshold value t [n] corresponding to the subband number n as shown in FIG. Similar to the frequency threshold value table 81 shown in FIG. 5, the change amount of the frequency data value is usually large in the low frequency range, and the change amount of the frequency data value is small in the high frequency range. It is preferable to create a threshold table 84. Further, the thresholds in the time axis direction corresponding to the 26 subbands 0 to 25 shown in FIG. 6 are the same as the threshold values in the frequency domain direction shown in FIG. This is an example in which 26 subbands from 0 to 25 are effective subbands.

なお、修正対象となる周波数データは、周波数データ比較部82又は時間軸データ比較部85でエラーと判断された2つの周波数データのうち絶対値の大きい方とすることとしたが、絶対値の小さい方ととしてもよい。   It should be noted that the frequency data to be corrected is the larger of the two frequency data determined as an error by the frequency data comparison unit 82 or the time axis data comparison unit 85, but the absolute value is small. It's also good with you.

また、エラー検出部8は、周波数データ比較部82又は時間軸データ比較部85のどちらか一方でエラーと判断された場合にエラーを検出したこととしたが、周波数データ比較部82及び時間軸データ比較部85の両方でエラーと判断した場合にエラーを検出したこととしてもよい。   In addition, the error detection unit 8 detects an error when either the frequency data comparison unit 82 or the time axis data comparison unit 85 determines that an error has occurred, but the frequency data comparison unit 82 and the time axis data An error may be detected when both comparators 85 determine that an error has occurred.

また、エラー検出部8は、周波数領域方向に連続する周波数データの差分の絶対値と、時間軸方向の周波数データの差分の絶対値と、周波数領域方向及び時間軸方向に隣接した周波数データの差分の絶対値とを組み合わせて、予め設定されたしきい値と比較するようにしてもよい。ここで、斜め方向の周波数データの差分の絶対値は、周波数データS [k][t][n]とその斜め方向の周波数データS [k+1][t][n+1]とから算出される。   In addition, the error detection unit 8 includes an absolute value of a difference between frequency data consecutive in the frequency domain direction, an absolute value of a difference between frequency data in the time axis direction, and a difference between frequency data adjacent in the frequency domain direction and the time axis direction. These may be combined with an absolute value and compared with a preset threshold value. Here, the absolute value of the difference between the frequency data in the diagonal direction is obtained from the frequency data S [k] [t] [n] and the frequency data S [k + 1] [t] [n + 1] in the diagonal direction. Calculated.

このように、エラー検出部8は、周波数領域方向や時間軸方向などに連続する周波数データの差分の絶対値を用いて、予め算出されたしきい値と比較することにより、各帯域の周波数データ単位でエラーの検出をすることができる。   As described above, the error detection unit 8 uses the absolute value of the difference between the frequency data continuous in the frequency domain direction, the time axis direction, and the like, and compares the frequency data of each band with a previously calculated threshold value. An error can be detected in units.

次に、本実施の形態における音響復号装置1のサンプル修正部9について説明する。サンプル修正部9は、エラー検出部8によってエラーが検出された周波数データを修正し、サンプルデータのノイズを減少させる処理を行う。   Next, the sample correction unit 9 of the acoustic decoding device 1 in the present embodiment will be described. The sample correction unit 9 corrects the frequency data in which an error is detected by the error detection unit 8 and performs processing for reducing noise in the sample data.

図7は、サンプル修正部9の構成を示すブロック図である。サンプル修正部9は、エラー検出部8から入力されたエラー情報に基づいて周波数データを修正する方法を選択する修正方式選択部91と、修正方式選択部91によって選択された修正方法により周波数データを修正する周波数データ修正部92、93、94とを備えている。   FIG. 7 is a block diagram showing the configuration of the sample correction unit 9. The sample correction unit 9 selects a method for correcting the frequency data based on the error information input from the error detection unit 8, and the frequency data by the correction method selected by the correction method selection unit 91. Frequency data correction units 92, 93, and 94 for correction are provided.

ここでは、先ず、各周波数データ修正部92、93、94において行われる修正方法を説明する。また、周波数データの修正は、周波数データ比較部82でエラーと判断された場合も、時間軸データ比較部85でエラーと判断された場合も、同様な方式によって行われる。以下、周波数領域方向又は時間軸方向に連続する周波数データをそれぞれS[m]及びS[m+1]で表し、|S[m+1]| > |S[m] |とする。すなわち、修正対象はS[m+1]として説明する。   Here, the correction method performed in each frequency data correction part 92,93,94 is demonstrated first. Further, the correction of the frequency data is performed by the same method whether the frequency data comparison unit 82 determines that an error has occurred or the time axis data comparison unit 85 determines that an error has occurred. Hereinafter, frequency data continuous in the frequency domain direction or the time axis direction are represented by S [m] and S [m + 1], respectively, and | S [m + 1] |> | S [m] |. That is, the correction target is described as S [m + 1].

(修正方法1)
周波数データ修正部92は、S[m+1]を(3)式に示すように連続する周波数データの差分の絶対値がしきい値になるように修正する。なお、Th[m]は、周波数しきい値テーブル81に格納されたしきい値f[n]又は時間軸しきい値テーブル84に格納されたしきい値t[n]である。
if(S[m+1]>0) S[m+1] = S[m] + Th[m]
else S[m+1] = S[m]−Th[m] (3)
このように、修正対象ではない周波数データS[m]との差分の絶対値がしきい値Th[m]となるように、修正対象の周波数データS[m+1]を修正することで、周波数データ間の急激な変化をなくすことができ、受聴時に気になるノイズを低減することができる。この方式は、通常時でも周波数データの値の変化量が大きい低域部分で、特に有効である。
(Correction method 1)
The frequency data correction unit 92 corrects S [m + 1] so that the absolute value of the difference between successive frequency data becomes a threshold value as shown in equation (3). Note that Th [m] is the threshold value f [n] stored in the frequency threshold value table 81 or the threshold value t [n] stored in the time axis threshold value table 84.
if (S [m + 1]> 0) S [m + 1] = S [m] + Th [m]
else S [m + 1] = S [m] −Th [m] (3)
Thus, by correcting the frequency data S [m + 1] to be corrected so that the absolute value of the difference from the frequency data S [m] that is not the correction target becomes the threshold value Th [m], Abrupt changes between frequency data can be eliminated, and noise anxious during listening can be reduced. This method is particularly effective in a low frequency region where the amount of change in the frequency data value is large even during normal times.

(修正方法2)
周波数データ修正部93は、(4)式に示すように絶対値の大きなデータを絶対値の小さなデータで置き換える。
S[m+1] = S[m] (4)
周波数データを絶対値の小さいデータで置き換えて修正することで、両者の差分の絶対値を0にすることができる。これによって受聴時に気になるノイズを抑えることができる。
(Correction method 2)
The frequency data correction unit 93 replaces data having a large absolute value with data having a small absolute value as shown in the equation (4).
S [m + 1] = S [m] (4)
By replacing the frequency data with data having a small absolute value and correcting it, the absolute value of the difference between the two can be made zero. As a result, it is possible to suppress noise that is a concern during listening.

(修正方法3)
周波数データ修正部94は、(5)式に示すように絶対値の大きなデータを0で置き換える。
S[m+1] = 0 (5)
周波数データを0にすることで、その周波数成分をなくすことになり、これによって受聴時に気になるノイズを抑えることができる。この方式は、周波数データの値が0に近い高域部分で、特に有効である。
(Correction method 3)
The frequency data correction unit 94 replaces data having a large absolute value with 0 as shown in the equation (5).
S [m + 1] = 0 (5)
By setting the frequency data to 0, the frequency component is eliminated, thereby suppressing noise that is a concern during listening. This method is particularly effective in the high frequency portion where the frequency data value is close to zero.

次に上記3つの修正方法を選択する修正方式選択部91の動作について説明する。修正方式選択部91は、エラー検出部8から入力されたエラー情報に基づいて修正方法を選択する。   Next, the operation of the correction method selection unit 91 that selects the above three correction methods will be described. The correction method selection unit 91 selects a correction method based on the error information input from the error detection unit 8.

(動作例1)
修正方式選択部91は、次に示すように連続する周波数領域方向又は時間軸方向の周波数データS[m]とS[m+1]のうちエラー検出部8でエラーと判断されてない絶対値が小さいS[m]と予め設定された設定値th_numとの大小関係に応じて、修正方法1、2を切り替える。なお、この設定値th_numは、周波数領域方向又は時間軸方向に応じて異なる値であることが好ましい。
S[m] < th_num なら 修正方法2を使用
th_num ≦S[m] なら 修正方法1を使用
S[m]<th_numの場合は、エラーが検出された周波数データS[m+1]が設定値th_numより小さい周波数データS[m]から急に変化した場合を想定しているので、エラーが検出された周波数データS[m+1]をS[m]で置き換える修正方法2を選択する。なお、周波数データS[m]が0の場合は0で置き換えられる。
(Operation example 1)
The correction method selection unit 91, as shown below, out of the continuous frequency domain direction or time axis direction frequency data S [m] and S [m + 1] absolute values that are not determined as errors by the error detection unit 8 The correction methods 1 and 2 are switched in accordance with the magnitude relationship between the small S [m] and the preset setting value th_num. The set value th_num is preferably a different value depending on the frequency domain direction or the time axis direction.
If S [m] <th_num, use correction method 2.
If th_num ≤ S [m], use correction method 1
In the case of S [m] <th_num, it is assumed that the frequency data S [m + 1] in which the error is detected suddenly changes from the frequency data S [m] smaller than the set value th_num. The correction method 2 for replacing the detected frequency data S [m + 1] with S [m] is selected. If the frequency data S [m] is 0, it is replaced with 0.

また、th_num≦S[m]の場合は、周波数データS[m]が大きなものから変化した場合を想定しているので、周波数データの値の変化量をしきい値に抑える修正方法1を選択する。   In addition, when th_num ≦ S [m], it is assumed that the frequency data S [m] has changed from a large one, so the correction method 1 that suppresses the amount of change in the frequency data value to the threshold is selected. To do.

(動作例2)
また、動作例2として、修正方式選択部91は、エラー検出部8でエラーと判断された周波数データが属する帯域、すなわちサブバンド番号nに応じて、修正方法1、2、3を切り替える。エラーが検出された周波数データのサブバンド番号は、エラー検出部8から出力されたエラー情報に含まれている。
(Operation example 2)
As operation example 2, the correction method selection unit 91 switches between the correction methods 1, 2, and 3 according to the band to which the frequency data determined to be an error by the error detection unit 8, that is, the subband number n. The subband number of the frequency data in which the error is detected is included in the error information output from the error detection unit 8.

修正選択部91は、帯域毎に付されたサブバンド番号nと、修正方法が変化する境界値th_band1及びth_band2が予め決定されたテーブルとに従い、例えば次のような選択を行う。この境界値は、サンプリング周波数とビットレートに基づいて設定される。
n < th_band1 なら 修正方法1を使用
th_band1 ≦ n < th_band2 なら 修正方法2を使用
th_band2 ≦ n なら 修正方法3を使用
n < th_band1の場合は、周波数データの値の変化量が大きい低域部分でのエラーの発生を想定しているので、変化量をしきい値に抑える修正方法1を選択する。
The correction selection unit 91 performs, for example, the following selection according to a subband number n assigned to each band and a table in which boundary values th_band1 and th_band2 in which the correction method changes are determined in advance. This boundary value is set based on the sampling frequency and the bit rate.
If n <th_band1, use correction method 1.
If th_band1 ≤ n <th_band2, use correction method 2.
If th_band2 ≤ n, use correction method 3.
In the case of n <th_band1, since it is assumed that an error occurs in a low-frequency portion where the amount of change in the frequency data value is large, the correction method 1 that suppresses the amount of change to the threshold value is selected.

また、th_band1 ≦ n < th_band2の場合は、周波数データの値の変化量が少ない中〜高域でのエラーの発生を想定しているので、変化量を0にする修正方法2を選択する。   Further, in the case of th_band1 ≦ n <th_band2, it is assumed that an error occurs in the middle to high range where the change amount of the frequency data value is small. Therefore, the correction method 2 for changing the change amount to 0 is selected.

また、th_band2 ≦ nの場合は、通常、周波数データが0になることが多い高域部分でのエラーの発生を想定しているので、周波数データを0で置き換える修正方法3を選択する。   In addition, when th_band2 ≦ n, it is normally assumed that an error occurs in the high frequency part where the frequency data often becomes 0, so the correction method 3 for replacing the frequency data with 0 is selected.

このように、サンプル修正部9は、エラー検出部8から入力されたエラー情報に基づいて修正方法を選択することができるので、エラーが検出された周波数データに適した修正を行うことができる。   As described above, the sample correction unit 9 can select a correction method based on the error information input from the error detection unit 8, and thus can perform correction suitable for the frequency data in which the error is detected.

次に、帯域合成部10の処理について図8に示すフローチャートを参照して説明する。帯域合成部10には、サンプル修正部9で修正処理された帯域の周波数データを含む各帯域の周波数データが入力される。MPEG方式では、32の帯域の周波数データごとに逆量子化が行われ、帯域合成処理が行われる。   Next, the processing of the band synthesizing unit 10 will be described with reference to the flowchart shown in FIG. The band synthesizing unit 10 receives frequency data of each band including frequency data of the band corrected by the sample correcting unit 9. In the MPEG system, inverse quantization is performed for each frequency data of 32 bands, and band synthesis processing is performed.

ステップS1では、生成される64個の新たなVベクタに備えて、(6)式により1024個のVベクトル群中、前の結果の64個をシフト処理する。   In step S1, in preparation for the 64 new V vectors to be generated, the previous 64 of the 1024 V vector groups are shifted according to equation (6).

Figure 2005345993
Figure 2005345993

そして、ステップS2では、入力された32の周波数データから新たなVベクタを(7)式により64個算出する。   In step S2, 64 new V vectors are calculated from the input 32 frequency data by the equation (7).

Figure 2005345993
Figure 2005345993

Vベクタは、ステップS2で新規に算出された64個のVベクタと過去15回分のVベクタ(64×15=980)とを合わせて1024個用意される。   1024 V vectors are prepared by combining the 64 V vectors newly calculated in step S2 and the past 15 V vectors (64 × 15 = 980).

ステップS3では、(8)式により1024個のVベクトル群から512個のUベクタ群を生成する。   In step S3, 512 U vector groups are generated from 1024 V vector groups according to equation (8).

Figure 2005345993
Figure 2005345993

ステップS4では、(9)式によりUベクタ群にウィンドウ処理に用いられる係数である係数Diを乗算し、ウィンドウ処理してWベクタ群を生成する。   In step S4, the U vector group is multiplied by a coefficient Di, which is a coefficient used for window processing, by equation (9), and window processing is performed to generate a W vector group.

Figure 2005345993
Figure 2005345993

ステップ4で生成されたWベクタ群は、所定方向に32個加算されて、(10)式のように1フレーム分のオーディオデータPCM(Pulse Code Modulation)を伸張する(ステップS5)。   The 32 W vector groups generated in step 4 are added in a predetermined direction, and the audio data PCM (Pulse Code Modulation) for one frame is expanded as shown in equation (10) (step S5).

Figure 2005345993
Figure 2005345993

以上、説明したように本実施形態における音響復号装置は、符号化ストリームに多重化されているサンプルデータのエラーを検出し、エラーが検出された場合、その周波数データを修正することができるので、サンプルデータ中のビット誤りやデータ破壊によって発生するノイズを抑え、高音質なオーディオデータを提供することができる。   As described above, the acoustic decoding device according to the present embodiment detects an error in the sample data multiplexed in the encoded stream, and can correct the frequency data when an error is detected, as described above. Noise generated by bit errors and data destruction in sample data can be suppressed, and high-quality audio data can be provided.

なお、本実施形態では、MPEG‐1オーディオレイヤ2方式のオーディオデータを用いて説明したが、MPEG‐1オーディオレイヤ2方式に限らず、他の方式のオーディオデータにも適用させることができる。   Although the present embodiment has been described using MPEG-1 audio layer 2 format audio data, the present invention is not limited to the MPEG-1 audio layer 2 format and can be applied to audio data of other formats.

MPEG‐1 オーディオレイヤ2方式の符号化ストリームのオーディオフレームを示す図である。It is a figure which shows the audio frame of the encoding stream of an MPEG-1 audio layer 2 system. 本実施の形態における音響復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the audio decoding apparatus in this Embodiment. MPEG‐1 オーディオレイヤ2方式におけるサンプルデータの復号を説明するための図である。It is a figure for demonstrating decoding of the sample data in an MPEG-1 audio layer 2 system. 本実施の形態におけるエラー検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the error detection part in this Embodiment. 本実施の形態における周波数しきい値テーブルを説明するための図である。It is a figure for demonstrating the frequency threshold value table in this Embodiment. 本実施の形態における時間軸しきい値テーブルを説明するための図である。It is a figure for demonstrating the time-axis threshold value table in this Embodiment. 本実施の形態におけるサンプル修正部の構成を示すブロック図である。It is a block diagram which shows the structure of the sample correction part in this Embodiment. 本実施の形態における帯域合成部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the zone | band synthetic | combination part in this Embodiment. 従来の音響復号装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional acoustic decoding apparatus.

符号の説明Explanation of symbols

1 音響復号装置、 2 フレームバッファ、 3 データ分離部、 4 ヘッダ分析部、 5 サイド情報復号部、 6 サンプル逆量子化部、 7 サンプル逆正規化部、 8 エラー検出部、 9 サンプル修正部、 10 帯域合成部、 81 周波数しきい値テーブル、 82 周波数データ比較部、 83 前サンプル記憶部、 84 時間軸しきい値テーブル、 85 時間軸データ比較部、 91 修正方式選択部、 92、93、94 周波数データ修正部、 101 音響復号装置、 102 フレームバッファ、 103 データ分離部、 104 ヘッダ分析部、 105 サイド情報復号部、 106 サンプル逆量子化部、 107 サンプル逆正規化部、 108 帯域合成部
DESCRIPTION OF SYMBOLS 1 Acoustic decoding apparatus, 2 Frame buffer, 3 Data separation part, 4 Header analysis part, 5 Side information decoding part, 6 Sample dequantization part, 7 Sample denormalization part, 8 Error detection part, 9 Sample correction part, 10 Band synthesis unit, 81 frequency threshold table, 82 frequency data comparison unit, 83 previous sample storage unit, 84 time axis threshold table, 85 time axis data comparison unit, 91 correction method selection unit, 92, 93, 94 frequency Data correction unit, 101 acoustic decoding device, 102 frame buffer, 103 data separation unit, 104 header analysis unit, 105 side information decoding unit, 106 sample dequantization unit, 107 sample denormalization unit, 108 band synthesis unit

Claims (22)

所定の時間間隔毎に分割されたオーディオデータを複数の周波数帯域の周波数データに分割し、上記複数の周波数帯域の周波数データを各グループが各周波数帯域について時系列順に一定数の周波数データを含むように複数のグループに分割し、符号化して得られた符号化ストリームを復号する音響復号装置において、
上記符号化ストリームを復号し、上記複数のグループに分割された周波数データを復元する復元手段と、
上記復元手段により復元された2つの周波数データの差分の絶対値としきい値とを比較し、上記差分の絶対値が上記しきい値よりも大きい場合、上記差分をとった2つの周波数データのうち一方をエラーと判断するエラー検出手段と、
上記エラーと判断された周波数データを修正する修正手段と、
上記複数のグループに分割された周波数データからオーディオデータを合成する合成手段と
を有することを特徴とする音響復号装置。
Audio data divided at predetermined time intervals is divided into frequency data of a plurality of frequency bands, and each group includes a certain number of frequency data in time series for each frequency band. In an acoustic decoding device that decodes an encoded stream obtained by dividing into a plurality of groups and encoding,
Decoding means for decoding the encoded stream and restoring the frequency data divided into the plurality of groups;
When the absolute value of the difference between the two frequency data restored by the restoration means is compared with a threshold value, and the absolute value of the difference is larger than the threshold value, Error detection means for determining one of the errors,
Correction means for correcting the frequency data determined to be the error;
A sound decoding apparatus comprising: a synthesizing unit that synthesizes audio data from the frequency data divided into the plurality of groups.
上記差分の絶対値は、時系列上の同時点で周波数帯域が連続した2つの周波数データにより算出されることを特徴とする請求項1記載の音響復号装置。   2. The acoustic decoding device according to claim 1, wherein the absolute value of the difference is calculated from two frequency data having continuous frequency bands at the same time point in time series. 上記差分の絶対値は、同一の周波数帯域でグループが連続した2つの周波数データにより算出されることを特徴とする請求項1記載の音響復号装置。   2. The acoustic decoding device according to claim 1, wherein the absolute value of the difference is calculated from two frequency data in which groups are continuous in the same frequency band. 上記差分の絶対値は、周波数帯域及びグループが連続した2つの周波数データにより算出されることを特徴とする請求項1記載の音響復号装置。   The acoustic decoding device according to claim 1, wherein the absolute value of the difference is calculated from two frequency data in which a frequency band and a group are continuous. 上記修正手段は、上記エラー検出手段でエラーと判断されなかった周波数データの値と予め設定された設定値とを比較して、上記エラーと判断された周波数データの修正方式を選択することを特徴とする請求項1記載の音響復号装置。   The correction means compares the value of the frequency data that is not determined to be an error by the error detection means and a preset setting value, and selects a correction method for the frequency data determined to be the error. The acoustic decoding device according to claim 1. 上記修正手段は、上記エラー検出手段でエラーと判断されなかった周波数データの値が上記設定値以上の場合、上記エラーと判断されなかった周波数データとの差分の絶対値が上記しきい値となるように、上記エラーと判断された周波数データを修正することを特徴とする請求項5記載の音響復号装置。   In the correcting means, when the value of the frequency data not determined to be an error by the error detecting means is equal to or greater than the set value, the absolute value of the difference from the frequency data not determined to be the error becomes the threshold value. 6. The acoustic decoding apparatus according to claim 5, wherein the frequency data determined as the error is corrected. 上記修正手段は、上記エラー検出手段でエラーと判断されなかった周波数データの値が上記設定値より小さい場合、上記エラーと判断された周波数データの値を上記エラーと判断されなかった周波数データの値に置き換えて修正することを特徴とする請求項5記載の音響復号装置。   When the frequency data value that has not been determined to be an error by the error detection means is smaller than the set value, the correction means determines that the frequency data value that has been determined to be an error is the frequency data value that has not been determined to be the error. The acoustic decoding device according to claim 5, wherein the acoustic decoding device is corrected by being replaced with the above. 上記修正手段は、上記エラー検出手段でエラーと判断された周波数データの周波数帯域に応じて上記エラーと判断された周波数データを修正する修正方式を選択することを特徴とする請求項1記載の音響復号装置。   2. The sound according to claim 1, wherein the correction means selects a correction method for correcting the frequency data determined to be an error according to a frequency band of the frequency data determined to be an error by the error detection means. Decoding device. 上記修正手段は、上記エラー検出手段でエラーと判断された周波数データの周波数帯域が所定の境界値より小さい場合、上記エラーと判断されなかった周波数データとの差分の絶対値が上記しきい値となるように、上記エラーと判断された周波数データを修正することを特徴とする請求項8記載の音響復号装置。   When the frequency band of the frequency data determined to be an error by the error detection means is smaller than a predetermined boundary value, the correction means has an absolute value of a difference from the frequency data not determined to be the error as the threshold value. The sound decoding apparatus according to claim 8, wherein the frequency data determined as the error is corrected. 上記修正手段は、上記エラー検出手段でエラーと判断された周波数データの周波数帯域が第1の境界値以上、且つ第2の境界値未満の場合、上記エラーと判断された周波数データの値を上記エラーと判断されなかった周波数データの値に置き換えて修正することを特徴とする請求項8記載の音響復号装置。   When the frequency band of the frequency data determined to be an error by the error detection means is equal to or higher than the first boundary value and less than the second boundary value, the correction means sets the value of the frequency data determined to be the error as the value. 9. The acoustic decoding device according to claim 8, wherein the acoustic decoding device is corrected by replacing with a value of frequency data not determined to be an error. 上記修正手段は、上記エラー検出手段でエラーと判断された周波数データの周波数帯域が所定の境界値以上の場合、上記エラーと判断された周波数データの値を0に置き換えて修正することを特徴とする請求項8記載の音響復号装置。   When the frequency band of the frequency data determined as an error by the error detection means is equal to or greater than a predetermined boundary value, the correction means replaces the value of the frequency data determined as the error with 0 to correct it. The acoustic decoding device according to claim 8. 所定の時間間隔毎に分割されたオーディオデータを複数の周波数帯域の周波数データに分割し、上記複数の周波数帯域の周波数データを各グループが各周波数帯域について時系列順に一定数の周波数データを含むように複数のグループに分割し、符号化して得られた符号化ストリームを復号する音響復号方法において、
上記符号化ストリームを復号し、上記複数のグループに分割された周波数データを復元する復元工程と、
上記復元工程により復元された2つの周波数データの差分の絶対値としきい値とを比較し、上記差分の絶対値が上記しきい値よりも大きい場合、上記差分をとった2つの周波数データのうち一方をエラーと判断するエラー検出工程と、
上記エラーと判断された周波数データを修正する修正工程と、
上記複数のグループに分割された周波数データからオーディオデータを合成する合成工程と
を有することを特徴とする音響復号方法。
Audio data divided at predetermined time intervals is divided into frequency data of a plurality of frequency bands, and each group includes a certain number of frequency data in time series for each frequency band. In an acoustic decoding method for decoding an encoded stream obtained by dividing into a plurality of groups and encoding,
A decoding step of decoding the encoded stream and recovering the frequency data divided into the plurality of groups;
The absolute value of the difference between the two frequency data restored by the restoration process is compared with a threshold value, and when the absolute value of the difference is larger than the threshold value, An error detection step of determining one as an error;
A correction process for correcting the frequency data determined to be the error;
A synthesis step of synthesizing audio data from the frequency data divided into the plurality of groups.
上記差分の絶対値は、時系列上の同時点で周波数帯域が連続した2つの周波数データにより算出されることを特徴とする請求項12記載の音響復号方法。   13. The acoustic decoding method according to claim 12, wherein the absolute value of the difference is calculated from two frequency data having continuous frequency bands at the same time point in time series. 上記差分の絶対値は、同一の周波数帯域でグループが連続した2つの周波数データにより算出されることを特徴とする請求項12記載の音響復号方法。   13. The acoustic decoding method according to claim 12, wherein the absolute value of the difference is calculated from two frequency data in which groups are continuous in the same frequency band. 上記差分の絶対値は、周波数帯域及びグループが連続した2つの周波数データにより算出されることを特徴とする請求項12記載の音響復号方法。   The acoustic decoding method according to claim 12, wherein the absolute value of the difference is calculated from two frequency data in which a frequency band and a group are continuous. 上記修正工程は、上記エラー検出工程でエラーと判断されなかった周波数データの値と予め設定された設定値とを比較して、上記エラーと判断された周波数データの修正方式を選択することを特徴とする請求項12記載の音響復号方法。   In the correction step, the frequency data value not determined to be an error in the error detection step is compared with a preset setting value, and a correction method for the frequency data determined to be the error is selected. The acoustic decoding method according to claim 12. 上記修正工程は、上記エラー検出工程でエラーと判断されなかった周波数データの値が上記設定値以上の場合、上記エラーと判断されなかった周波数データとの差分の絶対値が上記しきい値となるように、上記エラーと判断された周波数データを修正することを特徴とする請求項16記載の音響復号方法。   In the correction step, when the value of the frequency data that is not determined to be an error in the error detection step is equal to or greater than the set value, the absolute value of the difference from the frequency data that is not determined to be the error becomes the threshold value. The acoustic decoding method according to claim 16, wherein the frequency data determined to be the error is corrected. 上記修正工程は、上記エラー検出工程でエラーと判断されなかった周波数データの値が上記設定値より小さい場合、上記エラーと判断された周波数データの値を上記エラーと判断されなかった周波数データの値に置き換えて修正することを特徴とする請求項16記載の音響復号方法。   In the correction step, when the value of the frequency data that is not determined to be an error in the error detection step is smaller than the set value, the value of the frequency data that is determined to be the error is the value of the frequency data that is not determined to be the error The acoustic decoding method according to claim 16, wherein the acoustic decoding method is modified by being replaced with the above. 上記修正工程は、上記エラー検出工程でエラーと判断された周波数データの周波数帯域に応じて上記エラーと判断された周波数データを修正する修正方式を選択することを特徴とする請求項12記載の音響復号方法。   13. The sound according to claim 12, wherein the correction step selects a correction method for correcting the frequency data determined to be the error according to a frequency band of the frequency data determined to be an error in the error detection step. Decryption method. 上記修正工程は、上記エラー検出工程でエラーと判断された周波数データの周波数帯域が所定の境界値より小さい場合、上記エラーと判断されなかった周波数データとの差分の絶対値が上記しきい値となるように、上記エラーと判断された周波数データを修正することを特徴とする請求項19記載の音響復号方法。   In the correction step, when the frequency band of the frequency data determined as an error in the error detection step is smaller than a predetermined boundary value, the absolute value of the difference from the frequency data not determined as the error is the threshold value. 20. The acoustic decoding method according to claim 19, wherein the frequency data determined as the error is corrected. 上記修正工程は、上記エラー検出工程でエラーと判断された周波数データの周波数帯域が第1の境界値以上、且つ第2の境界値未満の場合、上記エラーと判断された周波数データの値を上記エラーと判断されなかった周波数データの値に置き換えて修正することを特徴とする請求項19記載の音響復号方法。   In the correction step, when the frequency band of the frequency data determined to be an error in the error detection step is equal to or higher than the first boundary value and less than the second boundary value, the value of the frequency data determined to be the error is The acoustic decoding method according to claim 19, wherein the acoustic decoding method is corrected by replacing with a value of frequency data not determined to be an error. 上記修正工程は、上記エラー検出工程でエラーと判断された周波数データの周波数帯域が所定の境界値以上の場合、上記エラーと判断された周波数データの値を0に置き換えて修正することを特徴とする請求項19記載の音響復号方法。
In the correction step, when the frequency band of the frequency data determined to be an error in the error detection step is equal to or greater than a predetermined boundary value, the value of the frequency data determined to be the error is replaced with 0 and corrected. The acoustic decoding method according to claim 19.
JP2004168784A 2004-06-07 2004-06-07 Acoustic decoding device and acoustic decoding method Expired - Fee Related JP4539180B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004168784A JP4539180B2 (en) 2004-06-07 2004-06-07 Acoustic decoding device and acoustic decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004168784A JP4539180B2 (en) 2004-06-07 2004-06-07 Acoustic decoding device and acoustic decoding method

Publications (2)

Publication Number Publication Date
JP2005345993A true JP2005345993A (en) 2005-12-15
JP4539180B2 JP4539180B2 (en) 2010-09-08

Family

ID=35498410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004168784A Expired - Fee Related JP4539180B2 (en) 2004-06-07 2004-06-07 Acoustic decoding device and acoustic decoding method

Country Status (1)

Country Link
JP (1) JP4539180B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119555A1 (en) * 2021-12-23 2023-06-29 三菱電機株式会社 Acoustic decoding device, program, and acoustic decoding method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6236931A (en) * 1985-08-09 1987-02-17 Matsushita Electric Ind Co Ltd Decoding device
JPH05100696A (en) * 1991-10-04 1993-04-23 Kokusai Electric Co Ltd Method and device for correcting error of voice code
JPH07503115A (en) * 1992-01-27 1995-03-30 ドイチエ トムソン−ブラント ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Error prevention protection method in subband encoder
JPH07221713A (en) * 1994-02-03 1995-08-18 Matsushita Electric Ind Co Ltd Coded signal decoder
JPH0855443A (en) * 1994-08-12 1996-02-27 Matsushita Electric Ind Co Ltd Encoded signal decoding device
JPH08286698A (en) * 1994-12-21 1996-11-01 Samsung Electron Co Ltd Method and apparatus for concealment of error of acoustic signal
JPH08328599A (en) * 1995-06-01 1996-12-13 Mitsubishi Electric Corp Mpeg audio decoder
JP2003091294A (en) * 2001-09-18 2003-03-28 Sharp Corp Device and method for decoding speech, and speech decoding program
JP2004500599A (en) * 1999-12-08 2004-01-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Digital audio data decoding method
JP2007514977A (en) * 2003-12-19 2007-06-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Improved error concealment technique in the frequency domain

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6236931A (en) * 1985-08-09 1987-02-17 Matsushita Electric Ind Co Ltd Decoding device
JPH05100696A (en) * 1991-10-04 1993-04-23 Kokusai Electric Co Ltd Method and device for correcting error of voice code
JPH07503115A (en) * 1992-01-27 1995-03-30 ドイチエ トムソン−ブラント ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Error prevention protection method in subband encoder
JPH07221713A (en) * 1994-02-03 1995-08-18 Matsushita Electric Ind Co Ltd Coded signal decoder
JPH0855443A (en) * 1994-08-12 1996-02-27 Matsushita Electric Ind Co Ltd Encoded signal decoding device
JPH08286698A (en) * 1994-12-21 1996-11-01 Samsung Electron Co Ltd Method and apparatus for concealment of error of acoustic signal
JPH08328599A (en) * 1995-06-01 1996-12-13 Mitsubishi Electric Corp Mpeg audio decoder
JP2004500599A (en) * 1999-12-08 2004-01-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング Digital audio data decoding method
JP2003091294A (en) * 2001-09-18 2003-03-28 Sharp Corp Device and method for decoding speech, and speech decoding program
JP2007514977A (en) * 2003-12-19 2007-06-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) Improved error concealment technique in the frequency domain

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119555A1 (en) * 2021-12-23 2023-06-29 三菱電機株式会社 Acoustic decoding device, program, and acoustic decoding method

Also Published As

Publication number Publication date
JP4539180B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP5485909B2 (en) Audio signal processing method and apparatus
US7328161B2 (en) Audio decoding method and apparatus which recover high frequency component with small computation
KR20010021226A (en) A digital acoustic signal coding apparatus, a method of coding a digital acoustic signal, and a recording medium for recording a program of coding the digital acoustic signal
JP2006126826A (en) Audio signal coding/decoding method and its device
JP2004361731A (en) Audio decoding system and audio decoding method
JP2010078915A (en) Audio decoding method, apparatus, and program
US7835915B2 (en) Scalable stereo audio coding/decoding method and apparatus
WO2007066880A1 (en) Method and apparatus for encoding/decoding
US7466245B2 (en) Digital signal processing apparatus, digital signal processing method, digital signal processing program, digital signal reproduction apparatus and digital signal reproduction method
EP1780895B1 (en) Signal decoding apparatus
US20120065984A1 (en) Decoding device and decoding method
JP4022504B2 (en) Audio decoding method and apparatus for restoring high frequency components with a small amount of calculation
JP4947145B2 (en) Decoding device, decoding method, and program
JP4973397B2 (en) Encoding apparatus and encoding method, and decoding apparatus and decoding method
JP4539180B2 (en) Acoustic decoding device and acoustic decoding method
JP2004109362A (en) Apparatus, method, and program for noise removal of frame structure
KR20070091512A (en) Method and apparatus for error concealment of decoded audio signal
JPH10308708A (en) Voice encoder
JP2007178529A (en) Coding audio signal regeneration device and coding audio signal regeneration method
JPH11355145A (en) Acoustic encoder and acoustic decoder
JP2006023658A (en) Audio signal encoding apparatus and audio signal encoding method
JP2005148539A (en) Audio signal encoding device and audio signal encoding method
JP2002073091A (en) Decoder
JP2013134301A (en) Playback system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100614

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees