JP5048680B2 - オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置 - Google Patents

オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置 Download PDF

Info

Publication number
JP5048680B2
JP5048680B2 JP2008544254A JP2008544254A JP5048680B2 JP 5048680 B2 JP5048680 B2 JP 5048680B2 JP 2008544254 A JP2008544254 A JP 2008544254A JP 2008544254 A JP2008544254 A JP 2008544254A JP 5048680 B2 JP5048680 B2 JP 5048680B2
Authority
JP
Japan
Prior art keywords
symbol
audio signal
context
bit plane
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008544254A
Other languages
English (en)
Other versions
JP2009518934A (ja
Inventor
ミアオ,レイ
オー,ウン−ミ
キム,ジュン−フェ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2009518934A publication Critical patent/JP2009518934A/ja
Application granted granted Critical
Publication of JP5048680B2 publication Critical patent/JP5048680B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ信号の符号化及び復号化に係り、特にオーディオデータの符号化または復号化時のコードブックのサイズを最小化できるオーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置に関する。
最近、デジタル信号処理技術の発達により、オーディオ信号は、デジタルデータとして保存されて再生される場合がほとんどである。デジタルオーディオ保存/再生装置は、アナログオーディオ信号をサンプリングして量子化してデジタル信号であるPCM(Pulse Code Modulation)オーディオデータに変換してCD、DVDのような情報記録媒体に保存した後、ユーザーが必要とする時にそれを再生して聴取可能にする。デジタル方式によるオーディオ信号の保存/復元方式は、LP(Long−Play)レコード、マグネチックテープのようなアナログ保存/復元方式に比べて音質を非常に向上させ、保存期間による劣化現象を顕著に低下させたが、デジタルデータのサイズが小さくなくて保存及び伝送が円滑でないという問題点があった。
かかる問題点を解決するために、デジタルオーディオ信号の大きさを減らすための多様な圧縮方式が使われている。ISO(International Standard Organization)により標準化作業がなされたMPEG(Moving Pictures Expert Group)/オーディオやドルビー社により開発されたAC−2/AC−3は、人間の心理音響モデルを利用してデータの量を減らす方法を採用し、その結果、信号の特性に関係なく効率的にデータの量を減らすことができた。
従来には、変換及び量子化されたオーディオ信号を符号化するステップでエントロピー符号化及び復号化を行う場合に、符号化及び復号化方式としてコンテキスト基盤の符号化及び復号化方式を使用できるが、かかるコンテキスト基盤下で符号化及び復号化のためのコードブックが必要になる。しかし、かかる適正なコードブックを備えるためには、メモリサイズが大きくならなければならないという問題点をもたらす。
本発明の目的は、符号化のためのコードブックのサイズを最小化し、かつ符号化及び復号化効率を向上させるオーディオ信号の符号化及び復号化方法、その符号化及び復号化装置を提供するところにある。
一実施例による符号化方法は、
入力されたオーディオ信号を周波数領域に変換するステップと、
前記周波数領域に変換されたオーディオ信号を量子化するステップと、
ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用して、前記量子化されたオーディオ信号の符号化対象のシンボルをビットプレーンコーディング方式で符号化するステップと、
を含み、前記符号化するステップにおいて、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル代表する1つのコンテキストを決定し、決定された前記コンテキストを使用して、前記現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とするオーディオ信号の符号化方法である。
一実施例による復号化方法は、
ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用してビットプレーンコーディング方式で符号化されたオーディオ信号を復号化するステップと、
前記復号化されたオーディオ信号を逆量子化するステップと、
前記逆量子化されたオーディオ信号を時間領域の信号に変換するステップと、
を含み、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル群を代表する1つのコンテキストを決定し、前記コンテキストとして使用して、前記オーディオ信号に対してハフマンデコーディングを行うことを特徴とするオーディオ信号の復号化方法である。
一実施例による符号化装置は、
入力されたオーディオ信号を周波数領域に変換する変換部と、
前記周波数領域に変換されたオーディオ信号を量子化する量子化部と、
ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用して、前記量子化されたオーディオ信号の符号化対象のシンボルをビットプレーンコーディング方式で符号化する符号化部と、
を含み、前記符号化部において、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル代表する1つのコンテキストを決定し、決定された前記コンテキストを使用して、前記現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とするオーディオ信号の符号化装置である。
一実施例による復号化装置は、
ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用してビットプレーンコーディング方式で符号化されたオーディオ信号を復号化する復号化部と、
前記復号化されたオーディオ信号を逆量子化する逆量子化部と、
前記逆量子化されたオーディオ信号を時間領域の信号に変換する変換部と、
を含み、前記復号化部において、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル代表する1つのコンテキストを決定し、前記コンテキストとして使用して、前記オーディオ信号に対してハフマンデコーディングを行うことを特徴とするオーディオ信号の復号化装置である。
前述したように、オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置は、オーディオ信号をビットプレーンコーディング方式で符号化するとき、上位ビットプレーンの複数のシンボルを代表するコンテキストを使用して符号化することによって、メモリに保存されたコードブックのサイズを減らしつつも効果的な符号化を行うことができる。
以下、本発明によるオーディオ信号の符号化方法を、添付された図面を参照して詳細に説明する。
図1は、本発明のオーディオ信号の符号化方法を説明するための一実施形態のフローチャートである。
入力されたオーディオ信号を周波数領域に変換する(ステップ10)。時間領域のオーディオ信号であるPCM(Pulse Coded Modulation)オーディオデータを入力されて、心理音響モデルに関する情報を参照して周波数領域の信号に変換する。時間領域では、人間が認知するオーディオ信号の特性差があまり大きくないが、変換を通じて得られた周波数領域のオーディオ信号は、人間の心理音響モデルによって各周波数帯域で人間が感じる信号と感じられない信号との特性差が大きいため、各周波数帯域別に割り当てられるビット数を異ならせることによって圧縮の効率を向上させる。本実施形態は、周波数領域への変換中にMDCT(Modified Discrete Cosine Transform)変換を行う。
ステップ10後に、周波数領域に変換されたオーディオ信号を量子化する(ステップ12)。人間が聞いても感じられないように各帯域の量子化ノイズの大きさがマスキングしきい値より小さいように、各帯域のオーディオ信号を対応するスケールファクタ情報に基づいてスカラー量子化して量子化サンプルを出力する。
ステップ12後に、量子化されたオーディオ信号をビットプレーンコーディング方式で符号化するとき、上位ビットプレーンが有する多様なシンボルを代表するコンテキストを使用して符号化する(ステップ14)。本発明によれば、各階層に該当する量子化されたサンプルを、ビットプレーン符号化方式を使用して符号化する。
図2は、階層構造で符号化されたビットストリームを構成するフレームの構造図の一例を示す図である。図2に示すように、本発明によるビットストリームのフレームは、量子化サンプルと付加情報とを階層構造にマッピングさせて符号化されている。すなわち、下位階層のビットストリームが上位階層のビットストリームに含まれている階層構造を有する。各階層に必要な付加情報は、階層別に分けられて符号化される。
ビットストリームの先頭には、ヘッダ情報が保存されたヘッダ領域が設けられ、階層0の情報がパッキングされている。各階層情報としては、付加情報及び符号化されたオーディオデータが保存されている。例えば、階層2情報として、付加情報2及び符号化された量子化サンプルが保存されている。ここで、Nは、1以上の整数である 。
図3は、付加情報の詳細構造図の一例である。図3に示すように、任意の階層情報としては、付加情報及び符号化された量子化サンプルが保存されており、本実施形態において、付加情報は、ハフマンコーディングモデル情報、量子化ファクタ情報、チャンネルについての付加情報及びその他の付加情報を含む。ハフマンコーディングモデル情報は、対応する階層に属する量子化サンプルの符号化に使われるか、または復号化に使われるべきハフマンコーディングモデルについてのインデックス情報をいう。量子化ファクタ情報は、対応する階層に属するオーディオデータを量子化または逆量子化するための量子化ステップサイズを知らせる。チャンネルについての付加情報とは、M/S(Middle/Side)ステレオのようなチャンネルについての情報をいう。その他の付加情報は、M/Sステレオの採用如何についてのフラッグ情報などをいう。
図4は、図1に示したステップ14を説明するための一実施形態のフローチャートである。
量子化されたオーディオ信号の複数個の量子化サンプルをビットプレーン上にマッピングする(ステップ30)。複数個の量子化サンプルをビットプレーン上にマッピングさせて二進データで表し、二進データの最上位ビット(Most Significant Bit:MSB)で構成されたシンボルから最下位ビット(LeastSignificant Bit:LSB)で構成されたシンボルの順序で該階層に割り当てられたビット範囲内で符号化する。ビットプレーン上で重要な情報は先に符号化し、相対的に重要でない情報は後で符号化することによって、符号化過程で各階層に該当するビット率及び階層別の周波数帯域を固定してバーディー効果という歪曲を減らすことができる 。
図5は、図4に示したステップ30を説明するための参考図である。図5に示すように、量子化サンプル9,2,4,0をビットプレーンにマッピングすれば、それぞれ1001b,0010b,0100b,0000bの二進データで表示される。すなわち、本実施形態において、ビットプレーン上で符号化単位となる符号化ブロックのサイズは4×4である。量子化サンプルのそれぞれに対する同じ順位のビットの集合をシンボルと称す。最上位ビットMSBで構成されたシンボルは"1000b"であり、その次のビットMSB−1で構成されたシンボルは"0010b"であり、その次のビットMSB−2で構成されたシンボルは"0100b"であり、最下位ビットMSB−3で構成されたシンボルは"1000b"である。
ステップ30後に、符号化しようとする現在のビットプレーンの上側にある上位ビットプレーンが有する多様なシンボルを代表するコンテキストを決定する(ステップ32)。ここで、コンテキストは、符号化のために必要な上位ビットプレーンのシンボルを意味する。
ステップ32は、上位ビットプレーンが有する多様なシンボルの二進データのうち"1"の数字が三つ以上であるシンボルを代表するコンテキストを、符号化のための上位ビットプレーンのシンボルとして決定する。例えば、4ビットからなる上位ビットプレーンのシンボルの二進データを"0111","1011","1101","1110"または"1111"のうちいずれか一つというとき、シンボル内の"1"の数字が三つ以上であることを確認できる。このように、シンボルの二進データのうち"1"の数字が三つ以上であるシンボルを代表する一つのシンボルをコンテキストとして決定する。
一方、ステップ32は、上位ビットプレーンが有する多様なシンボルの二進データのうち"1"の数字が二つであるシンボルを代表するコンテキストを、符号化のための上位ビットプレーンのシンボルとして決定することもできる。例えば、4ビットからなる上位ビットプレーンのシンボルの二進データを"0011","0101","0110","1001","1010"または"1100"のうちいずれか一つというとき、シンボル内の"1"の数字が二つであることを確認できる。このように、シンボルの二進データのうち"1"の数字が二つであるシンボルを代表する一つのシンボルをコンテキストとして決定する。
一方、ステップ32は、上位ビットプレーンが有する多様なシンボルの二進データのうち"1"の数字が一つであるシンボルを代表するコンテキストを、符号化のための上位ビットプレーンのシンボルとして決定することもできる。例えば、4ビットからなる上位ビットプレーンのシンボルの二進データを"0001","0010","0100"または"1000"のうちいずれか一つというとき、シンボル内の"1"の数字が一つであることを確認できる。このように、シンボルの二進データのうち"1"の数字が一つであるシンボルを代表する一つのシンボルをコンテキストとして決定する。
図6は、図4に示したステップ32を説明するためのコンテキストの一例を示す参考図である。図6の"Process1"では、二進データのうち"1"の数字が三つ以上である場合に、それを代表するコンテキストとして"0111","1011","1101","1110"または"1111"のうちいずれか一つを決定した一例を表している。また、図6の"Process2"では、二進データのうち"1"の数字が二つである場合に、それを代表するコンテキストとして"0011","0101","0110","1001","1010"または"1100"のうちいずれか一つを決定し、二進データのうち"1"の数字が三つ以上である場合に、それを代表するコンテキストとして"0111","1011","1101","1110"または"1111"のうちいずれか一つを決定した一例を表している。図6から分かるように、従来には、上位ビットプレーンのシンボルのそれぞれに対するコードブックをそれぞれ備えねばならなかった。すなわち、シンボルが4ビットで構成されれば、16個の種類にシンボルが分けられているが、本願発明によれば、図6の"Process 2"の過程を経て上位ビットプレーンのシンボルを代表するコンテキストを決定すれば、7個のシンボルにのみ分けられているため、必要なコードブックのサイズを減らすことができる。
図7は、オーディオ信号に対してハフマンコーディングを行うために擬似コードで表現した一例を示す図である。図7には、"upper_vector_mapping();"を使用して、上位ビットプレーンの複数のシンボルを代表するコンテキストを決定するためのコードが例示されている。
ステップ32後に、決定されたコンテキストを使用して現在のビットプレーンのシンボルに対して符号化する(ステップ34)。
特に、決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とする。
ハフマン符号化のためのハフマンモデル情報、すなわちコードブックインデックスは、表1の通りである。
Figure 0005048680
表1によれば、同じ重要度(本実施形態では、MSBのビット数)に対しても二つのモデルが存在するということが分かるが、これは、異なる分布を表す量子化サンプルに対して二つのモデルを生成したためである。
図5の例を表1によって符号化する過程をさらに具体的に説明すれば、次の通りである。
シンボルのビット数が4以下である場合、本発明によるハフマン符号化は、式(1)による。
ハフマンコード値=Huffman Codebook[コードブックインデックス][上位ビットプレーン][シンボル] (1)
すなわち、ハフマン符号化は、三つの入力変数としてコードブックインデックス、上位ビットプレーン及びシンボルを有する。コードブックインデックスは、表1から得られた値を指し、上位ビットプレーンは、ビットプレーン上で現在符号化しようとするシンボルの真上のシンボルを指す。ここで、前述したステップ32で決定されたコンテキストが上位ビットプレーンのシンボルとして入力される。シンボルは、現在符号化しようとするビットプレーンの二進データをいう。
図5の例では、重要度が4であるので、ハフマンモデルは、13ないし16または17ないし20が選択される。符号化される付加情報が7であれば、MSBで構成されたシンボルのコードブックインデックスは16、MSB−1で構成されたシンボルのコードブックインデックスは15、MSB−2で構成されたシンボルのコードブックインデックスは14、MSB−3で構成されたシンボルのコードブックインデックスは13となる。
一方、最上位シンボルであるMSBは、上位ビットプレーンのデータを有さないので、上位ビットプレーン値を0であると仮定すれば、Huffman Codebook[16][0b][1000b]のコードで符号化される。MSB−1で構成されたシンボルは、上位ビットプレーンが1000bであるので、Huffman Codebook[15][1000b][0010b]のコードで符号化される。MSB−2で構成されたシンボルは、上位ビットプレーンが0010bであるので、Huffman Codebook[14][0010b][0100b]のコードで符号化される。MSB−3で構成されたシンボルは、上位ビットプレーンが0100bであるので、Huffman Codebook[13][0100b][1000b]のコードで符号化される。
シンボル単位で符号化した後、符号化された総ビット数をカウントし、使用可能なビット数と比較して符号化されたビット数が該階層で使用可能なビット数を超える場合、符号化を中止する。符号化されずに残ったビットは、次の階層に余裕空間が生じる時に符号化して入れる。該階層に割り当てられた量子化サンプルをいずれも符号化してからも使用可能なビット数が残る場合、すなわち余裕空間が生じる場合には、下位階層で符号化されずに残った量子化サンプルを符号化する。
一方、MSBで構成されたシンボルのビット数が5以上である場合には、現在のビットプレーン上の位置を利用してハフマンコード値を決定する。すなわち、重要度が5以上である場合には、それぞれのビットプレーン上のデータは統計的に大きい差を表さないため、いずれも同じハフマンモデルを使用してハフマン符号化する。すなわち、ビットプレーン当たり一つのハフマンモデルが存在する。
重要度が5以上である場合(シンボルのビット数が5以上である場合)、本発明によるハフマン符号化は式(2)による。
ハフマンコード値=20+bpl (2)
ここで、bplは、現在コーディングしようとするビットプレーンのインデックスを指し、したがって、1以上の整数値を有する。20は、表1の付加情報8に対応するハフマンモデルの最後のインデックスが20であるので、インデックスを21から始めるために加える値である。したがって、コーディングバンドについての付加情報は、単純に重要度のみを表す。下記の表2で、ハフマンモデルは、現在符号化しようとするビットプレーンのインデックスによって決定される。
Figure 0005048680
一方、付加情報のうち量子化ファクタ情報及びハフマンモデル情報は、対応するコーディングバンドに対して差分符号化(DPCM)を行う。量子化ファクタ情報を符号化するとき、差分符号化の初期値は、フレームのヘッダ情報に8ビットで表現される。ハフマンモデル情報についての差分符号化の初期値は、0に設定する。
ビット率を調整するためには、すなわちスケーラビリティを適用する場合、一つのフレームに該当するビットストリームを、各階層で使用可能なビット数を考慮してカットすることによって、少ないデータのみでも復号化できる。
一方、決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対して算術コーディングを行うこともできる。算術コーディングを通じて符号化する場合には、コードブックでない確率テーブルを利用して符号化を行う。このとき、コードブックインデックス及び決定されたコンテキストを同一に使用し、ArithmeticFrequencyTable[][][]で確率テーブルが必要である。各次元の入力変数は、ハフマン方式と同一であり、テーブルは、所定のシンボルが発生する確率を表す。例えば、ArithmeticFrequencyTable[3][0][1]の値が0.5である場合には、コードブックインデックスが3であり、コンテキストが0である場合に1のシンボルが発生する確率が0.5であることを表す。通常、固定少数点演算のために、確率テーブルは、所定の値をかけて整数で表現する。
以下、本発明によるオーディオ信号の復号化方法を、添付された図面を参照して詳細に説明する。
図8は、本発明のオーディオ信号の復号化方法を説明するための一実施形態のフローチャートである。
ビットプレーンコーディング方式で符号化されたオーディオ信号を復号化するとき、上位ビットプレーンが有する多様なシンボルを代表するコンテキストを使用してオーディオ信号を復号化する(ステップ50)。
図9は、図8に示したステップ50を説明するための一実施形態のフローチャートである。
決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対して復号化する(ステップ70)。符号化されたビットストリームは、符号化ステップで決定されたコンテキストを使用して符号化されたものである。かかる階層構造で符号化されたオーディオデータで構成されたビットストリームを受信して、フレーム別に設けられたヘッダ情報を復号化する。次いで、最初の階層に相応するスケールファクタ情報及びコーディングモデル情報を含む付加情報を復号化する。次いで、コーディングモデル情報を参照して、最上位ビットで構成されたシンボルから最下位ビットで構成されたシンボルの順序でシンボル単位で復号化する。
特に、決定されたコンテキストを使用して、オーディオ信号に対してハフマンデコーディングを行うことを特徴とする。ハフマンデコーディング過程は、前述したハフマンコーディングの逆過程を行うものである。
一方、決定されたコンテキストを使用して、オーディオ信号に対して算術デコーディングを行うこともできる。算術デコーディング過程は、前述した算術コーディング過程の逆過程である。
ステップ70後に、復号化されたシンボルが配列されたビットプレーンから量子化されたサンプルを抽出する(ステップ72)。各階層に対する量子化サンプルを求める。
一方、ステップ50後に、復号化されたオーディオ信号を逆量子化する(ステップ52)。求められた量子化サンプルを、スケールファクタ情報を参照して逆量子化する。
ステップ52後に、逆量子化されたオーディオ信号を逆変換する(ステップ54)。
復元されたサンプルを周波数/時間マッピングして、時間領域のPCMオーディオデータに変換して出力する。本実施形態では、MDCTによる逆変換を行う。
以下、本発明によるオーディオ信号の符号化装置を、図10及び図11を参照して詳細に説明する。
図10は、本発明のオーディオ信号の符号化装置を説明するための一実施形態のブロック図であって、変換部100、心理音響モデル部110、量子化部120及び符号化部130で構成される。
変換部100は、時間領域のオーディオ信号であるPCMオーディオデータを入力されて、心理音響モデル部110から提供される心理音響モデルに関する情報を参照して周波数領域の信号に変換する。時間領域では、人間が認知するオーディオ信号の特性差があまり大きくないが、変換を通じて得られた周波数領域のオーディオ信号は、人間の心理音響モデルによって各周波数帯域で人間が感じる信号と感じられない信号との特性差が大きいため、各周波数帯域別に割り当てられるビット数を異ならせることによって圧縮の効率を向上させる。本実施形態において、変換部100は、MDCT変換を行う。
心理音響モデル部110は、アタック感知情報など心理音響モデルに関する情報を変換部100に提供する一方、変換部100により変換されたオーディオ信号を適切なサブバンドの信号にまとめ、各信号の相互作用により発生するマスキング現像を利用して各サブバンドでのマスキングしきい値を計算して量子化部120に提供する。マスキングしきい値とは、オーディオ信号の相互作用により人間が聞いても感じられない信号の最大サイズをいう。本実施形態において、心理音響モデル部110は、BMLD(Binaural Masking Level Depression)を利用してステレオ成分に対するマスキングしきい値などを計算する。
量子化部120は、人間が聞いても感じられないように各帯域の量子化ノイズの大きさが心理音響モデル部110で提供されたマスキングしきい値より小さいように、各帯域のオーディオ信号を対応するスケールファクタ情報に基づいてスカラー量子化して量子化サンプルを出力する。すなわち、量子化部120は、心理音響モデル部110で計算されたマスキングしきい値と各帯域で発生するノイズとの比率であるNMR(Noise−to−Mask Ratio)を利用して、全帯域のNMR値を0dB以下に量子化する。NMR値が0dB以下というのは、量子化ノイズを人間が聞けないことを意味する。
符号化部130は、量子化されたオーディオ信号をビットプレーンコーディング方式で符号化するとき、上位ビットプレーンが有する多様なシンボルを代表するコンテキストを使用して符号化する。符号化部130は、各階層に属する量子化サンプル及び付加情報を符号化して階層構造でパッキングする。付加情報は、各階層に該当するスケールバンド情報、コーディングバンド情報、そのスケールファクタ情報及びコーディングモデル情報を含む。スケールバンド情報及びコーディングバンド情報は、ヘッダ情報としてパッキングされて復号化装置へ伝送されることもあり、各階層ごとの付加情報として符号化されてパッキングされて復号化装置へ伝送されることもあり、復号化装置にあらかじめ保存されることによって伝送されないこともある。さらに具体的に、符号化部130は、最初の階層に相応するスケールファクタ情報及びコーディングモデル情報を含む付加情報を符号化する一方、最初の階層に相応するコーディングモデル情報を参照して、最上位ビットで構成されたシンボルから最下位ビットで構成されたシンボルの順序でシンボル単位で符号化する。次いで、二番目の階層に対しても同じ過程を反復する。すなわち、既定の複数個の階層に対する符号化が完了するまで階層を増加させつつ符号化する。
本実施形態において、符号化部130は、スケールファクタ情報及びコーディングモデル情報は差分符号化し、量子化サンプルを符号化する。スケールバンド情報は、オーディオ信号の周波数特性によってさらに適切に量子化を行うための情報であって、周波数領域を複数個のバンドに分けて各バンドに適したスケールファクタを割り当てたとき、各階層に対応するスケールバンドを知らせる情報をいう。これにより、各階層は、少なくとも一つのスケールバンドに属する。各スケールバンドは、割り当てられた一つのスケールファクタを有する。コーディングバンド情報も、オーディオ信号の周波数特性によってさらに適切に符号化を行うための情報であって、周波数領域を複数個のバンドに分けて各バンドに適したコーディングモデルを割り当てたとき、各階層に対応するコーディングバンドを知らせる情報をいう。スケールバンド及びコーディングバンドは、実験により適切に分けられ、対応するスケールファクタ及びコーディングモデルが決定される。
図11は、図10に示した符号化部130を説明するための一実施形態のブロック図であって、マッピング部200、コンテキスト決定部210及びエントロピー符号化部220で構成される。
マッピング部200は、量子化されたオーディオ信号の複数個の量子化サンプルをビットプレーン上にマッピングし、マッピングした結果をコンテキスト決定部210に出力する。マッピング部200は、複数個の量子化サンプルをビットプレーン上にマッピングさせて二進データで表す。
コンテキスト決定部210は、上位ビットプレーンが有する多様なシンボルを代表するコンテキストを決定する。コンテキスト決定部210は、複数のシンボルの二進データのうち"1"の数字が三つ以上であるシンボルを代表するコンテキストを決定することを特徴とする。また、コンテキスト決定部210は、複数のシンボルの二進データのうち"1"の数字が二つであるシンボルを代表するコンテキストを決定することを特徴とする。また、コンテキスト決定部210は、複数のシンボルの二進データのうち"1"の数字が一つであるシンボルを代表するコンテキストを決定することを特徴とする。
例えば、図6に示したように、"Process1"では、二進データのうち"1"の数字が三つ以上である場合に、それを代表するコンテキストとして"0111","1011","1101","1110"または"1111"のうちいずれか一つを決定した一例を表しており、"Process2"では、二進データのうち"1"の数字が二つである場合に、それを代表するコンテキストとして"0011","0101","0110","1001","1010"または"1100"のうちいずれか一つを決定し、二進データのうち"1"の数字が三つ以上である場合に、それを代表するコンテキストとして"0111","1011","1101","1110"または"1111"のうちいずれか一つを決定した一例を表している。
エントロピー符号化部220は、決定されたコンテキストを使用して現在のビットプレーンのシンボルに対して符号化する。
特に、エントロピー符号化部220は、決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とする。ハフマンコーディング過程は、前述した方法発明で説明したので、詳細な説明は省略する。
また、エントロピー符号化部220は、決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対して算術コーディングを行うことを特徴とする。算術コーディング過程は、前述した方法発明で説明したので、詳細な説明は省略する。
以下、本発明によるオーディオ信号の復号化装置を、添付された図面を参照して詳細に説明する。
図12は、本発明のオーディオ信号の復号化装置を説明するための一実施形態のブロック図であって、復号化部300、逆量子化部310及び逆変換部320で構成される。
復号化部300は、ビットプレーンコーディング方式で符号化されたオーディオ信号を復号化するとき、上位ビットプレーンが有する多様なシンボルを代表するコンテキストを使用してオーディオ信号を復号化し、復号化した結果を逆量子化部310に出力する。復号化部300は、決定されたコンテキストを使用して、現在のビットプレーンのシンボルに対して復号化し、復号化されたシンボルが配列されたビットプレーンから量子化されたサンプルを抽出する。符号化されたビットストリームは、符号化ステップで決定されたコンテキストを使用して符号化されたものである。復号化部300は、かかる階層構造で符号化されたオーディオデータで構成されたビットストリームを受信してフレーム別に設けられたヘッダ情報を復号化する。次いで、復号化部300は、最初の階層に相応するスケールファクタ情報及びコーディングモデル情報を含む付加情報を復号化する。次いで、復号化部300は、コーディングモデル情報を参照して、最上位ビットで構成されたシンボルから最下位ビットで構成されたシンボルの順序でシンボル単位で復号化する。
特に、復号化部300は、決定されたコンテキストを使用して、オーディオ信号に対してハフマンデコーディングを行うことを特徴とする。ハフマンデコーディング過程は、前述したハフマンコーディングの逆過程を行うものである。
一方、復号化部300は、決定されたコンテキストを使用して、オーディオ信号に対して算術デコーディングを行うこともできる。算術デコーディング過程は、前述した算術コーディング過程の逆過程である。
逆量子化部310は、復号化されたオーディオ信号を逆量子化し、逆量子化された結果を逆変換部320に出力する。逆量子化部310は、各階層の量子化サンプルを対応するスケールファクタ情報によって逆量子化して復元する。
逆変換部320は、逆量子化されたオーディオ信号を逆変換する。逆変換部320は、復元されたサンプルを周波数/時間マッピングして時間領域のPCMオーディオデータに変換して出力する。本実施形態において、逆変換部320は、MDCTによる逆変換を行う。
一方、前述した本発明の方法発明は、コンピュータで読み取り可能なコード/命令/プログラムで具現され、媒体、例えばコンピュータで読み取り可能な記録媒体を利用して、前記コード/命令/プログラムを動作させる汎用のデジタルコンピュータで具現される。前記コンピュータで読み取り可能な記録媒体は、磁気記録媒体(例えば、ROM、フロッピー(登録商標)ディスク、ハードディスク、マグネチックテープなど)、光学的読み取り媒体(例えば、CD−ROM、DVDなど)及びキャリアウェーブ(例えば、インターネットを通じた伝送)のような記録媒体を含む。また、本発明の実施形態は、コンピュータで読み取り可能なコードを内蔵する媒体として具現されて、ネットワークを通じて連結された複数個のコンピュータシステムが分配されて処理動作可能にする。本発明を実現する機能的なプログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマにより容易に推論される。
かかる本願発明であるオーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置は、理解を助けるために図面に示した実施形態を参考にして説明されたが、これは、例示的なものに過ぎず、当業者ならば、これから多様な変形及び均等な他の実施形態が可能であるという点を理解できるであろう。したがって、本発明の真の技術的保護範囲は、特許請求の範囲により決まらねばならない。
本発明のオーディオ信号の符号化方法を説明するための一実施形態のフローチャートである。 階層構造で符号化されたビットストリームを構成するフレームの構造図である。 図2の付加情報の詳細構造図である。 図1に示したステップ14を説明するための一実施形態のフローチャートである。 図4に示したステップ30を説明するための参考図である。 図4に示したステップ32を説明するためのコンテキストの一例を示す参考図である。 オーディオ信号に対してハフマンコーディングを行うために擬似コードで表現した一例の図である。 本発明のオーディオ信号の復号化方法を説明するための一実施形態のフローチャートである。 図8に示したステップ50を説明するための一実施形態のフローチャートである。 本発明のオーディオ信号の符号化装置を説明するための一実施形態のブロック図である。 図10に示した符号化部を説明するための一実施形態のブロック図である。 本発明のオーディオ信号の復号化装置を説明するための一実施形態のブロック図である。

Claims (10)

  1. 入力されたオーディオ信号を周波数領域に変換するステップと、
    前記周波数領域に変換されたオーディオ信号を量子化するステップと、
    ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用して、前記量子化されたオーディオ信号の符号化対象のシンボルをビットプレーンコーディング方式で符号化するステップと、
    を含み、前記符号化するステップにおいて、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル群を代表する1つのコンテキストを決定し、決定された前記コンテキストを使用して、前記現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とするオーディオ信号の符号化方法。
  2. 前記符号化するステップは、前記量子化されたオーディオ信号の複数個の量子化サンプルをビットプレーン上にマッピングするステップと、前記コンテキストを決定するステップと、決定されたコンテキストを使用して現在のビットプレーンのシンボルを符号化するステップと、を含むことを特徴とする請求項1に記載のオーディオ信号の符号化方法。
  3. 請求項1に記載の方法を符号化装置に実行させるプログラムを記録したコンピュータで読み取り可能な記録媒体。
  4. ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用してビットプレーンコーディング方式で符号化されたオーディオ信号を復号化するステップと、
    前記復号化されたオーディオ信号を逆量子化するステップと、
    前記逆量子化されたオーディオ信号を時間領域の信号に変換するステップと、
    を含み、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル群を代表する1つのコンテキストを決定し、前記コンテキストとして使用して、前記オーディオ信号に対してハフマンデコーディングを行うことを特徴とするオーディオ信号の復号化方法。
  5. 前記オーディオ信号を復号化するステップは、前記コンテキストを使用して現在のビットプレーンのシンボルを復号化するステップと、前記復号化されたシンボルが配列されたビットプレーンから量子化されたサンプルを抽出するステップと、を含むことを特徴とする請求項に記載のオーディオ信号の復号化方法。
  6. 請求項4に記載の方法を復号化装置に実行させるプログラムを記録したコンピュータで読み取り可能な記録媒体。
  7. 入力されたオーディオ信号を周波数領域に変換する変換部と、
    前記周波数領域に変換されたオーディオ信号を量子化する量子化部と、
    ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用して、前記量子化されたオーディオ信号の符号化対象のシンボルをビットプレーンコーディング方式で符号化する符号化部と、
    を含み、前記符号化部において、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル群を代表する1つのコンテキストを決定し、決定された前記コンテキストを使用して、前記現在のビットプレーンのシンボルに対してハフマンコーディングを行うことを特徴とするオーディオ信号の符号化装置。
  8. 前記符号化部は、前記量子化されたオーディオ信号の複数個の量子化サンプルをビットプレーン上にマッピングするマッピング部と、前記コンテキストを決定するコンテキスト決定部と、前記決定されたコンテキストを使用して現在のビットプレーンのシンボルに対して符号化するエントロピー符号化部と、を備えることを特徴とする請求項7に記載のオーディオ信号の符号化装置。
  9. ビットプレーンにおいて符号化対象のシンボルより上位側にある上位ビットプレーンのシンボルを表しかつ1つのシンボルが表現可能な値の総数より少ない数のシンボルを表すコンテキストを使用してビットプレーンコーディング方式で符号化されたオーディオ信号を復号化する復号化部と、
    前記復号化されたオーディオ信号を逆量子化する逆量子化部と、
    前記逆量子化されたオーディオ信号を時間領域の信号に変換する変換部と、
    を含み、前記復号化部において、前記シンボルの二進データのうち“1”の数字が二つであるシンボル群を代表する1つのコンテキストと“1”の数字が三つ以上であるシンボル群を代表する1つのコンテキストを決定し、前記コンテキストとして使用して、前記オーディオ信号に対してハフマンデコーディングを行うことを特徴とするオーディオ信号の復号化装置。
  10. 前記復号化部は、前記コンテキストを使用して現在のビットプレーンのシンボルを復号化し、前記復号化されたシンボルが配列されたビットプレーンから量子化されたサンプルを抽出することを特徴とする請求項9に記載のオーディオ信号の復号化装置。
JP2008544254A 2005-12-07 2006-12-06 オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置 Expired - Fee Related JP5048680B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US74288605P 2005-12-07 2005-12-07
US60/742,886 2005-12-07
KR1020060049043A KR101237413B1 (ko) 2005-12-07 2006-05-30 오디오 신호의 부호화 및 복호화 방법, 오디오 신호의부호화 및 복호화 장치
KR10-2006-0049043 2006-05-30
PCT/KR2006/005228 WO2007066970A1 (en) 2005-12-07 2006-12-06 Method, medium, and apparatus encoding and/or decoding an audio signal

Publications (2)

Publication Number Publication Date
JP2009518934A JP2009518934A (ja) 2009-05-07
JP5048680B2 true JP5048680B2 (ja) 2012-10-17

Family

ID=38356105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008544254A Expired - Fee Related JP5048680B2 (ja) 2005-12-07 2006-12-06 オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置

Country Status (6)

Country Link
US (1) US8224658B2 (ja)
EP (1) EP1960999B1 (ja)
JP (1) JP5048680B2 (ja)
KR (1) KR101237413B1 (ja)
CN (2) CN102306494B (ja)
WO (1) WO2007066970A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4981174B2 (ja) * 2007-08-24 2012-07-18 フランス・テレコム 確率テーブルの動的な計算によるシンボルプレーン符号化/復号化
KR101756834B1 (ko) 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
KR101456495B1 (ko) 2008-08-28 2014-10-31 삼성전자주식회사 무손실 부호화/복호화 장치 및 방법
WO2010086342A1 (en) * 2009-01-28 2010-08-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, method for encoding an input audio information, method for decoding an input audio information and computer program using improved coding tables
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
KR20100136890A (ko) * 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법
WO2011048099A1 (en) * 2009-10-20 2011-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using a region-dependent arithmetic coding mapping rule
BR122021008583B1 (pt) 2010-01-12 2022-03-22 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Codificador de áudio, decodificador de áudio, método de codificação e informação de áudio, e método de decodificação de uma informação de áudio que utiliza uma tabela hash que descreve tanto valores de estado significativos como limites de intervalo
KR101676477B1 (ko) * 2010-07-21 2016-11-15 삼성전자주식회사 컨텍스트 기반의 무손실 부호화 장치 및 방법, 그리고 복호화 장치 및 방법
EP2469741A1 (en) * 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
CN103797803A (zh) * 2011-06-28 2014-05-14 三星电子株式会社 用于熵编码/解码的方法和设备
CN106409299B (zh) * 2012-03-29 2019-11-05 华为技术有限公司 信号编码和解码的方法和设备
WO2015069177A1 (en) * 2013-11-07 2015-05-14 Telefonaktiebolaget L M Ericsson (Publ) Methods and devices for vector segmentation for coding
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
US10950251B2 (en) * 2018-03-05 2021-03-16 Dts, Inc. Coding of harmonic signals in transform-based audio codecs
US20210210108A1 (en) * 2018-06-21 2021-07-08 Sony Corporation Coding device, coding method, decoding device, decoding method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE511186C2 (sv) * 1997-04-11 1999-08-16 Ericsson Telefon Ab L M Förfarande och anordning för att koda datasekvenser
SE512291C2 (sv) 1997-09-23 2000-02-28 Ericsson Telefon Ab L M Inbäddad DCT-baserad stillbildskodningsalgoritm
AUPQ982400A0 (en) 2000-09-01 2000-09-28 Canon Kabushiki Kaisha Entropy encoding and decoding
JP2002368625A (ja) * 2001-06-11 2002-12-20 Fuji Xerox Co Ltd 符号量予測装置、符号化選択装置および符号化装置ならびにその方法
US7110941B2 (en) * 2002-03-28 2006-09-19 Microsoft Corporation System and method for embedded audio coding with implicit auditory masking
JP3990949B2 (ja) 2002-07-02 2007-10-17 キヤノン株式会社 画像符号化装置及び画像符号化方法
KR100908117B1 (ko) * 2002-12-16 2009-07-16 삼성전자주식회사 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
KR100561869B1 (ko) 2004-03-10 2006-03-17 삼성전자주식회사 무손실 오디오 부호화/복호화 방법 및 장치
KR101050261B1 (ko) * 2004-07-14 2011-07-19 에이전시 포 사이언스, 테크놀로지 앤드 리서치 콘텍스트 기반의 신호 엔코딩 및 디코딩
US7161507B2 (en) * 2004-08-20 2007-01-09 1St Works Corporation Fast, practically optimal entropy coding
US7196641B2 (en) * 2005-04-26 2007-03-27 Gen Dow Huang System and method for audio data compression and decompression using discrete wavelet transform (DWT)

Also Published As

Publication number Publication date
US20070127580A1 (en) 2007-06-07
WO2007066970A1 (en) 2007-06-14
EP1960999A4 (en) 2010-05-12
CN102306494B (zh) 2014-07-02
JP2009518934A (ja) 2009-05-07
CN102306494A (zh) 2012-01-04
KR101237413B1 (ko) 2013-02-26
EP1960999A1 (en) 2008-08-27
US8224658B2 (en) 2012-07-17
KR20070059849A (ko) 2007-06-12
CN101055720B (zh) 2011-11-02
EP1960999B1 (en) 2013-07-03
CN101055720A (zh) 2007-10-17

Similar Documents

Publication Publication Date Title
JP5048680B2 (ja) オーディオ信号の符号化及び復号化方法、オーディオ信号の符号化及び復号化装置
JP5788833B2 (ja) オーディオ信号の符号化方法、オーディオ信号の復号化方法及び記録媒体
KR100571824B1 (ko) 부가정보 삽입된 mpeg-4 오디오 bsac부호화/복호화 방법 및 장치
EP1715476B1 (en) Low-bitrate encoding/decoding method and system
KR100908117B1 (ko) 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
JP4925671B2 (ja) デジタル信号の符号化/復号化方法及びその装置並びに記録媒体
JPH08190764A (ja) ディジタル信号処理方法、ディジタル信号処理装置及び記録媒体
KR20070037945A (ko) 오디오 신호의 부호화/복호화 방법 및 장치
JP3964860B2 (ja) ステレオオーディオの符号化方法、ステレオオーディオ符号化装置、ステレオオーディオの復号化方法、ステレオオーディオ復号化装置及びコンピュータで読み取り可能な記録媒体
JP4647923B2 (ja) デジタルデータの符号化/復号化方法および装置
US20050254586A1 (en) Method of and apparatus for encoding/decoding digital signal using linear quantization by sections
KR100682915B1 (ko) 다채널 신호 부호화/복호화 방법 및 장치
KR100707173B1 (ko) 저비트율 부호화/복호화방법 및 장치
KR100300887B1 (ko) 디지털 오디오 데이터의 역방향 디코딩 방법
JPH0863901A (ja) 信号記録方法及び装置、信号再生装置、並びに記録媒体
KR100928966B1 (ko) 저비트율 부호화/복호화방법 및 장치
KR20040051369A (ko) 비트율 조절가능한 오디오 부호화 방법, 복호화 방법,부호화 장치 및 복호화 장치
KR100940532B1 (ko) 저비트율 복호화방법 및 장치
JP2002157000A (ja) 符号化装置及び復号化装置、符号化処理プログラム及び復号化処理プログラム、符号化処理プログラム又は復号化処理プログラムを記録した記録媒体、並びに符号化装置又は復号化装置を用いた放送システム
Bosi et al. DTS Surround Sound for Multiple Applications

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110907

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110907

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees