JP2005527851A - 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法 - Google Patents

時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法 Download PDF

Info

Publication number
JP2005527851A
JP2005527851A JP2003585070A JP2003585070A JP2005527851A JP 2005527851 A JP2005527851 A JP 2005527851A JP 2003585070 A JP2003585070 A JP 2003585070A JP 2003585070 A JP2003585070 A JP 2003585070A JP 2005527851 A JP2005527851 A JP 2005527851A
Authority
JP
Japan
Prior art keywords
block
integer
difference
quantized
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003585070A
Other languages
English (en)
Other versions
JP4081447B2 (ja
Inventor
ラルフ ガイガー
トーマス シュポーラー
カールハインツ ブランデンブルグ
ユルゲン ヘルレ
ユルゲン コラー
ヨヒム デグアラ
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2005527851A publication Critical patent/JP2005527851A/ja
Application granted granted Critical
Publication of JP4081447B2 publication Critical patent/JP4081447B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

時間離散オーディオ信号を処理して量子化されたスペクトル値を有する量子化ブロックを供給(52)する。次に、整数変換アルゴリズムを用いて、時間離散オーディオ信号から整数スペクトル表現を生成(56)する。聴覚心理モデル(54)を用いて生成された量子化ブロックを逆量子化してラウンディング(58)し、整数スペクトル値とこの逆量子化されラウンディングされたスペクトル値との間の差分を形成する。復号化の際には、量子化ブロックは聴覚心理的に符号化/復号化された損失のあるオーディオ信号を提供し、他方、量子化ブロックは結合ブロックと共に、損失がないか略損失がない状態で符号化/復号化されたオーディオ信号を提供する。周波数ドメインで差分信号を生成することで、より簡素な符号器/復号器を構築できる。

Description

本発明はオーディオ符号化/復号化に関し、特に、聴覚心理の第1スケーリングレイヤと第2スケーリングレイヤとを備え、損失のない復号化のための補助オーディオデータを含むスケーラブル符号化/復号化アルゴリズムに関する。
例えばMPEGレイヤ3(MP3)またはMPEG AACのような現代的なオーディオ符号化の方法は、オーディオ信号のブロック状の周波数表示を得るために、例えばいわゆる変形離散コサイン変換(MDCT)等の変換を用いている。そのようなオーディオ符号器は通常、時間離散オーディオサンプルからなるストリームを得る。オーディオサンプルからなるストリームは、ウィンドウ化され、例えば1024個または2048個のウィンドウ化オーディオサンプルからなる1個のウィンドウ化ブロックを得る。このウィンドウ化のためには、例えばサインウィンドウなど、様々なウィンドウ関数が用いられる。
ウィンドウ化された時間離散オーディオサンプルは、その後フィルタバンクによりスペクトル表示に変換される。これには原則的に、フーリエ変換、または特別な理由により、例えばFFT(高速フーリエ変換)や上述したMDCTなど、このフーリエ変換の変形が用いられる。フィルタバンクの出力におけるオーディオスペクトル値のブロックは、その後必要に応じてさらなる処理を受けてもよい。上述のオーディオ符号器では、次にオーディオスペクトル値の量子化が行われる。この場合、量子化ステージは、量子化に伴って入り込む量子化ノイズが聴覚心理マスキング閾値より低い値になる方法、すなわち典型的には「マスキングにより消去」されるような方法が選択される。量子化とは損失(データ削減量)のある符号化を意味する。さらにデータ量を削減するために、この量子化されたスペクトル値には次に、ハフマン符号化等によるエントロピー符号化が実行される。ビットストリームマルチプレクサにより、この量子化されエントロピー符号化されたスペクトル値から、例えばスケールファクタ等のサイドインフォメーションを追加することで、記憶されあるいは送信されるためのビットストリームが生成される。
オーディオ復号器の中では、ビットストリームは、ビットストリームデマルチプレクサにより、量子化され符号化されたスペクトル値とサイドインフォメーションとに分離される。この量子化されエントロピー符号化されたスペクトル値は、まずエントロピー復号化され、量子化されたスペクトル値を得る。その後、量子化されたスペクトル値は逆量子化され、復号化されたスペクトル値を得る。ここで得られる復号化されたスペクトル値は量子化ノイズを含むが、しかしこのノイズは聴覚心理マスキング閾値よりも低い範囲にあり、結果的に聞こえることはない。これらのスペクトル値は、その後合成フィルタバンク(synthesis filterbank)により時間ドメイン表示に変換され、復号化時間離散オーディオサンプルを得る。合成フィルタバンク内では、上記変換アルゴリズムとは逆の変換アルゴリズムが使用されなければならない。さらに、周波数−時間逆または後方変換の後に、ウィンドウ化は解除されなければならない。
良好な周波数選択性(frequency selectivity)を達成するために、現代的なオーディオ符号器は、典型的にはブロックオーバーラップを用いている。図4aはこのような場合を示している。最初、手段402により、例えば2048個の時間離散オーディオサンプルが取り出され、ウィンドウ化される。このウィンドウは、手段402を具体的に表現したものであるが、2N個のサンプルのウィンドウ長を持ち、その出力側において、2N個のウィンドウ化サンプルからなる1つのブロックを出力する。手段404によるウィンドウのオーバーラップを達成するために、2N個のウィンドウ化サンプルからなる第2ブロックが生成される。この手段404は、明確に示す目的で、図4aにおいては手段402とは別に示されているが、手段404に入力される2048個のサンプルは、第1ウィンドウからそのまま連続する時間離散オーディオサンプルではなく、手段402によりウィンドウ化されるサンプルの後半を含み、さらに追加的に、「新たな」サンプルを1024個だけ含む。図4aにおいて、このオーバーラップが手段406により図式的に示されてあり、この手段406は50%程度のオーバーラップを発生させる。次に、手段402により出力された2N個のウィンドウ化サンプルと、手段404により出力された2N個のウィンドウ化サンプルとの両方に対し、手段408および410によってMDCTアルゴリズム処理が行われる。手段408は、公知のMDCTアルゴリズムに従って、第1ウィンドウのためのN個のスペクトル値を出力し、他方、手段410もまた、第2ウィンドウのためのN個のスペクトル値を出力し、第1ウィンドウと第2ウィンドウとの間には50%のオーバーラップが存在する。
復号器の中では、図4bに示すように、第1ウィンドウのN個のスペクトル値が手段412へと供給され、この手段412では、逆変形離散コサイン変換が実行される。同様に、第2ウィンドウのN個のスペクトル値もまた手段414へと供給され、この手段414でも逆変形離散コサイン変換が実行される。これら両方の手段412と手段414とは、2N個のサンプルを、第1ウィンドウと第2ウィンドウとに対して、それぞれ供給する。
図4bにおいて、TDAC(時間ドメインエリアシングキャンセレーション=高効率変換符号化)と表示された手段416内では、上述の2つのウィンドウがオーバーラップしている事実が考慮に入れられる。特に、第1ウィンドウの後半にある1つのサンプルy1、すなわちN+kの指数が付けられたサンプルy1は、第2ウィンドウの前半にある1つのサンプルy2、すなわちkの指数が付けられたサンプルy2と合計され、その結果、復号器の出力側ではN個の復号化時間サンプルが出力される。
注目すべきことは、この手段416の関数すなわち加算関数と呼ぶことができる関数においては、符号器内で実行され、かつ図4aに概略的に示されたウィンドウ化が、自動的に考慮されるということである。その結果、図4bに示される復号器内では、格別な「逆ウィンドウ化」は不要となる。
もし、手段402または404により実行される関数をw(k)とし、指数kは時間を示すとすれば、次の条件を満たす必要がある。すなわち、2乗されたウィンドウ重量(squared window weight)w(k)と2乗されたウィンドウ重量w(N+k)とが加算されて1となり、kは0からN−1まで変化するという条件である。もしウィンドウ重量(window weights)がサイン関数の波形の前半をたどるサインウィンドウを使用すれば、この条件は常に満たされることになる。なぜなら、サインの2乗とコサインの2乗との和は全ての角度において1の値となるからである。
図4aに示され、MDCT関数を後続に持つウィンドウ方式の欠点は、ウィンドウ化が時間離散サンプルを乗算することで達成されるという事実であり、特にサインウィンドウを考慮した場合、浮動小数点数を用いて達成されるという事実である。なぜなら、0°から180°までの角度のサインは、90°を除けば整数にはならないからである。たとえ整数時間離散サンプルがウィンドウ化されても、浮動小数点数はウィンドウ化の後に生ずる。
従って、たとえ聴覚心理符号器が使用されない場合、すなわちたとえ損失なしの符号化が実施されるべき場合でも、合理的に実行可能なエントロピー符号化処理を実行することができるように、手段408および/または410の出力側においては量子化が必要となる。
図4aに基づいて示されるような公知の変換方法を、損失がないオーディオ符号化のために使用する場合には、上記浮動小数点数のラウンディング(丸め操作)に基づいて生じるエラーを無視できるように、非常に精度の高い量子化を実行するか、あるいは、そのエラー信号も例えば時間ドメインの中で追加的に符号化しなければならない。
前者の方法の概念、すなわち、量子化を非常に高い精度で調整し、その結果、浮動小数点数のラウンディングによって生じるエラーを無視できる程度に小さくする方法の概念は、例えば、特許文献1により明らかにされた。ここでは、オーディオ信号はスペクトル表示に変換され、量子化されたスペクトル値を得るために量子化される。量子化されたスペクトル値は、逆量子化され、時間ドメインに変換され、オリジナルのオーディオ信号と比較される。もしエラー、すなわちオリジナルのオーディオ信号と量子化/逆量子化されたオーディオ信号との間に起こるエラーが、エラー閾値を越えて存在する場合は、量子化器はフィードバックよりさらに高い精度で調整され、閾値との比較は再度実行される。エラーが閾値を下回るとき、この調整の反復は終了する。恐らくまだ存在するであろう剰余の信号は、時間ドメイン符号器によって符号化され、ビットストリームの中に書き込まれる。このビットストリームは、時間ドメイン符号化されたこの剰余の信号の他に、符号化されたスペクトル値であって、上記量子化器を調整する方法で量子化され、反復の終了時に存在していた値も含んでいる。注意すべきことは、量子化器は聴覚心理モデルによって制御される必要はなく、そのためこのように符号化されたスペクトル値は、典型的な聴覚心理モデルによって符号化された場合と比較して、より高い精度で量子化されるということである。
非特許文献1では、スケーラブル符号器が説明されている。ここスペクトル値では、例えばMPEG符号器を第一の損失のあるデータ圧縮モジュールとして含み、このモジュールは、ブロック状のデジタル信号形式を入力信号として持ち、圧縮されたビットストリームを生成する。さらに、現存のある復号器でも、符号化が終了し、符号化/復号化された信号が生成される。この信号は、オリジナルの入力信号から符号化/復号化された信号を減算することにより、初期の入力信号と比較される。次に、エラー信号は第2モジュールに送られ、ここでは損失のないビット変換が用いられる。この変換は2つのステップを持つ。第1のステップは、2の補数フォーマット(a two'scomplement format)から前兆補数フォーマット(presign-complement format)への変換から成り、第2のステップは、処理ブロック内の垂直絶対値シーケンス(vertical magnitude sequence) から水平ビットシーケンス(horizontal bit sequence)への変換から成る。損失のないデータ変換は、ゼロの数、またはシーケンス内の連続するゼロの数を最大限にするよう実行され、デジタル数字の結果として存在する時間的エラー信号の、最良の圧縮を実現する。この原則は、非特許文献2に示されているビットスライス算術符号化(bit slice arithmetic coding)(BSAC)配列に基づく。
上述の概念の不利な点は、損失のない拡張レイヤ(expansion layer)のためのデータ、すなわちオーディオ信号の損失のない復号化を達成するのに必要な補助データは、時間ドメインの中で得られなければならないという事実である。これは、周波数/時間変換を含む完全な復号化が、時間ドメインの中で符号化/復号化された信号を得るために必要とされることを意味し、その結果、聴覚心理の符号化により損失のある符号化/復号化されたオーディオ信号と、オリジナルのオーディオ入力信号との間において、サンプル形式で差分を計ることで、エラー信号が計算されることを意味する。この概念は次の点で特に不利である。すなわち、オーディオデータストリームを作り出す符号器内では、例えばフィルタバンク、すなわちMDCTアルゴリズムのような、完全な時間/周波数変換手段が、前方変換のために必要であり、さらに同時に、上述のエラー信号を発生させるためだけのために、完全な逆フィルタバンクまたは完全な統合アルゴリズムが必要となる点である。そのため符号器は、本来備わっている符号器機能に加えて、完全な復号器の機能を備えていなければならない。もし符号器がソフトウェアで実現されたなら、これに対する蓄積能力と処理能力が必要となり、符号器の実現にかかる経費増加につながる。
ドイツ特許DE 197 42 201 C1 A Design of Lossy and Lossless Scalable Audio Coding (T. Moriya et al., Proc. ICASSP, 2000) Multi-Layer Bit Sliced Bit Rate Scalable Audio Coder (103rd AES Convention, Preprint No. 4520, 1997) " Audio Coding Based on Integer Transforms (111th AES convention, New York, 2001) Factoring Wavelet Transforms Into Lifting Steps (Ingrid Daubechies and Wim Sweldens, Preprint, Bell Laboratories, Lucent Technologies Multirate Systems And Filter Banks (P. P. Vaidyanathan, Prentice Hall, Englewood Cliffs, 1993) Signal Processing With Lapped Transforms (H. S. Malvar, Artech House, 1992) Enhancing the Performance of Perceptual Audio Coders by Using Temporal Noise Shaping (TNS) (J. Herre, J. D. Johnston, 101st, AES Convention,Los Angeles, 1996, Preprint 4384)
本発明の目的は、少なくともほとんど損失がない方法で復号化されるオーディオデータストリームを生成する概念であって、より安価で実現可能な概念を提供することである。
この目的は、請求項1に記載の時間離散オーディオ信号を符号化するための装置、請求項21に記載の時間離散オーディオ信号を符号化するための方法、または請求項22に記載の符号化されたオーディオデータを復号化するための装置、請求項31に記載の符号化されたオーディオデータを復号化するための方法、または請求項32あるいは33に記載のコンピュータプログラムにより達成される。
本発明は、以下の知見に基づいている。すなわち、オーディオ信号の損失のない復号化を可能にしている補助オーディオデータは、量子化されたスペクトル値のブロックを通常通りに提供し、次に、逆量子化されたスペクトル値を得るために上記量子化されたスペクトル値を逆量子化することで得られ、この逆量子化されたスペクトル値は聴覚心理モデルによる量子化のために損失があるという知見に基づいている。この逆量子化されたスペクトル値は、次にラウンディングされ、逆量子化されラウンディングされたスペクトル値からなるラウンディングブロックを得る。差分形成のための参照として、本発明に従えば、整数変換アルゴリズムが使用されるが、このアルゴリズムは、整数時間離散サンプルのブロックからの整数スペクトル値だけを含む、スペクトル値の整数のブロックを生成する。本発明によると、ラウンディングブロック内のスペクトル値と整数ブロック内のスペクトル値との結合は、スペクトル値を基にして、つまり周波数ドメイン内で行われるので、符号器の中では、いかなる統合アルゴリズム、つまり逆フィルタバンクや逆MDCTアルゴリズム等も必要ではない。差分スペクトル値を含む結合ブロックは整数値のみを含み、この値は整数変換アルゴリズムとラウンディングされた量子化値とにより、公知の方法でエントロピー符号化されても良い。注意すべきことは、この結合ブロックのエントロピー符号化のために、ハフマン符号器や算術符号器など、任意のエントロピー符号器を使用しても良いということである。
量子化ブロックの量子化されたスペクトル値を符号化するために、現代的なオーディオ符号器に通常に使われる公知の装置などの、任意の符号器が使われても良い。
注意すべきことは、本発明の符号化/復号化の概念は、ウィンドウスイッチ、TNS、またはマルチチャンネルオーディオ信号のためのセンター/サイド符号化などの、現代的な符号化の装置と共有できることである。
本発明の望ましい実施例では、聴覚心理モデルを使って量子化されたスペクトル値の量子化ブロックを提供するために、MDCTが使われる。さらに、整数変換アルゴリズムとしていわゆる整数MDCT(IntMDCT) を使うことが望ましい。
本発明の他の実施例では、これは通常のMDCTを使わずに実行されることもでき、整数MDCTはMDCTの近似として使われても良い。つまり、整数変換アルゴリズムによって得た整数スペクトルを聴覚心理量子化器に供給し、量子化された整数MDCTスペクトル値を得、その後再度、逆量子化しラウンディングしてオリジナルの整数スペクトル値と比較する。この場合、1回の変換だけが必要となる。つまり、整数時間離散サンプルから整数スペクトル値を生成する整数MDCTである。
一般に、プロセッサは整数によって働くか、またはそれぞれの浮動小数点数を整数として表しても良い。もしプロセッサ内で整数の算術が使用されるならば、逆量子化されたスペクトル値のラウンディングを省略することもできる。なぜなら、プロセッサの計算によりラウンディングされた値は、LSB(least significant bit)すなわち最も重要でないビットの精度の範囲内に結局存在するからである。この場合、完全に損失のない処理、すなわち使用されたプロセッサシステムの精度の範囲内での処理が達成される。他の方法として、低い精度へのラウンディングが実行されても良い。この場合、結合ブロック内の差分信号はラウンディング関数により固定された精度にラウンディングされる。プロセッサシステムの既存のラウンディングを超えるラウンディングを導入することで、符号化の損失をなくす「度合」に影響する程度の適応性を可能にし、データ圧縮の意味でほぼ損失のない符号器を構成する。
本発明の復号器の特徴は、聴覚心理的に符号化されビットストリーム復号化されたオーディオデータと、そのオーディオデータから引き出され現存しうるエントロピー復号化を施された補助オーディオデータとが、次のように処理されることである。まず復号器内の量子化ブロックは逆量子化され、符号器で使われているラウンディング関数と同一の関数を使ってラウンディングされ、その後、エントロピー復号化された補助オーディオデータに加算される。復号器内には、オーディオ信号の聴覚心理的に圧縮されたスペクトル表現とオーディオ信号の損失のないスペクトル表現とが存在し、オーディオ信号の聴覚心理的に圧縮されたスペクトル表現は時間ドメインに変換され、損失のある符号化/復号化されたオーディオ信号を得る。他方では、損失のないスペクトル表現は、整数変換アルゴリズムと逆の整数変換アルゴリズムを使って時間ドメインに変換され、損失なく、または上述のようにほぼ損失なく符号化/復号化されたオーディオ信号を得る。
上記本発明の特徴および他の目的と特徴は、以下に添付した図を参照しながらさらに詳細に説明する。
時間離散オーディオサンプルを処理して整数値を得、この整数値から整数スペクトル値が得られるような望ましい方法のブロック回路図である。 本発明の望ましい実施例に従った、ギブンズ回転におけるMDCTおよび逆MDCTと、2つのDCT(離散コサイン変換)タイプIV操作とを示す分解概要図である。 順番に50%のオーバーラップを伴うMDCTとDCTタイプIV操作との分解図である。 MDCTおよび50%のオーバーラップを伴う公知の符号器を示す概要ブロック回路図である。 図4aの符号器によって生成された値を復号化するための公知の復号器を示すブロック回路図である。 本発明の望ましい符号器の原理を示すブロック回路図である。 本発明の他の望ましい符号器の原理を示すブロック回路図である。 本発明の望ましい復号器の原理を示すブロック回路図である。 第1スケーリングレイヤと第2スケーリングレイヤとを備えたビットストリームの概要図である。 第1スケーリングレイヤと複数のさらなるスケーリングレイヤとを備えたビットストリームの概要図である。 差分スペクトル値の精度(ビット)および/または差分スペクトル値の周波数(サンプル率)について、可能なスケーリングを表示するための、バイナリ符号化された差分スペクトル値の概要図である。
以下に、図5から図7に基づいて、本発明の符号器回路(図5と図6)または本発明の望ましい復号器回路(図7)について説明する。図5に示される本発明の符号器は、時間離散オーディオ信号が供給されても良い入力50と、符号化されたオーディオデータが出力されても良い出力52とを含む。入力50へと供給された時間離散オーディオ信号は、量子化ブロックを供給する手段52に送られ、この手段52は、出力側で時間離散オーディオ信号の量子化ブロックを提供し、この量子化ブロックは、時間離散オーディオ信号50の、聴覚心理モデル54を用いて量子化されたスペクトル値を含む。本発明の符号器は、さらに整数変換アルゴリズムを用いて整数ブロックを生成するための手段56を含み、ここでは整数アルゴリズムが整数時間離散サンプルから整数スペクトル値を形成する働きをする。
本発明の符号器はさらに、手段52から出力された量子化ブロック出力を逆量子化する手段58を含み、プロセッサの精度とは異なる精度が必要であれば、さらにラウンディング関数を含む。もし、上述のように、プロセッサシステムの精度を達成しなければならないときは、ラウンディング関数は量子化ブロックの逆量子化の中に本質的に含まれる。なぜなら、整数の算術を行うプロセッサは結局、非整数値を提供できないからである。手段58は、逆量子化されたスペクトル値を含む、いわゆるラウンディングブロックを提供する。これらのスペクトル値は整数であり、すなわち既に内在的または明示的にラウンディングされた値である。ラウンディングブロックと整数ブロックとは、差分形成を用いて差分スペクトル値を有する差分ブロックを提供する結合手段に送られる。ここで「差分ブロック」という表現は、差分スペクトル値が整数ブロックとラウンディングブロックとの間の差分を含む値であることを示す。
手段52から出力された量子化ブロックと差分形成手段58から出力された差分ブロックとの両方は、例えば量子化ブロックの通常処理を行い、かつ差分ブロックを例えばエントロピー符号化する処理手段60に供給される。処理手段60は、出力52で符号化されたオーディオデータを出力し、このデータは量子化ブロックと差分ブロックの両方の情報とを含んでいる。
図6のように、第1の望ましい実施例では、時間離散オーディオ信号がMDCTによってスペクトル表現に変換され、量子化される。量子化ブロックを提供する手段52はMDCT手段52aと量子化器52bとから成る。
さらに、整数変換アルゴリズムとして整数MDCT手段56を用い、整数ブロックを形成するのが望ましい。
図6では、図5に示された処理手段60が、手段52bにより出力された量子化ブロックをビットストリーム符号化するためのビットストリーム符号化手段60aと、差分ブロックをエントロピー符号化するためのエントロピー符号器60bとして示される。ビットストリーム符号器60aは、聴覚心理的に符号化されたオーディオデータを出力し、エントロピー符号器60bはエントロピー符号化された差分ブロックを出力する。ブロック60aと60bの2つの出力データは適切な方法でビットストリーム内で結合されても良く、このビットストリームは、第1スケーリングレイヤとして聴覚心理的に符号化されたオーディオデータを持ち、第2スケーリングレイヤとして損失のない復号化のために追加的なオーディオデータを持つ。このようにスケールされたビットストリームは、図5に示す符号器の出力52における符号化されたオーディオデータと一致する。
他の望ましい実施例では、図5で点線の矢印62により示されるように、図6のMDCTブロック52aを省略しても良い。この場合、整数変換手段56により提供された整数スペクトルは、差分形成手段58と図6の量子化器52bとの両方に供給される。整数変換により形成されたスペクトル値は、ここで、ある意味では通常のMDCTスペクトルの近似として用いられる。この実施例は、整数MDCTアルゴリズムのみが符号器内に存在し、整数MDCTアルゴリズムとMDCTアルゴリズムとの両方が符号器内に存在しなくてもよいという利点がある。
図6を参照して注意すべきことは、実線で描かれたブロックと線はMPEG標準の一つに従う通常のオーディオ符号器を示し、点線で描かれたブロックと線はそのような通常のMPEG符号器の拡張を示すということである。そのため注目すべきことは、通常のMPEG符号器を根本的に変える必要はなく、本発明にかかる、整数変換による損失のない符号化のための補助オーディオデータのデータ収集手段が、符号器/復号器の基本的な構造を変化させずに追加されても良いということである。
図7は、図5の出力52で出力された、符号化したオーディオデータを復号化するための、本発明の復号器の原理を示すブロック回路図である。このデータはまず、一つは聴覚心理的に符号化されたオーディオデータに、もう一つは補助オーディオデータに分離される。聴覚心理的に符号化されたオーディオデータは通常のビットストリーム復号器70に供給され、補助オーディオデータは、上記の符号器内でエントロピー符号化されていた場合は、エントロピー復号器72によってエントロピー復号化される。図7のビットストリーム復号器70の出力では、量子化されたスペクトル値が存在し、これが逆量子化器74に供給される。この逆量子化器74は、図6に示された逆量子化器と本質的に等しい構造を持っていても良い。もしプロセッサの精度と対応しない精度が要求される場合には、復号器内にもラウンディング手段76を備え、この手段76が図6の手段58内で実行されたのと同じアルゴリズムまたは同じラウンディング関数を備え、実際の数字を整数に変えるようにしても良い。復号器側の結合器78では、逆量子化されラウンディングされたスペクトル値は、エントロピー符号化された補助オーディオデータと、望ましくは加算的にスペクトル値を基にして結合され、その結果、復号器内では、一方では手段74の出力で逆量子化されたスペクトル値が存在し、もう一方では結合器78の出力で整数スペクトル値が存在する。
手段74の出力側のスペクトル値は、その後、逆MDCTを実行する手段80によって時間ドメインに変換され、聴覚心理的に損失がある状態に符号化され、再度復号化されたオーディオ信号を得ても良い。手段82によって逆の整数MDCT(IntMDCT)を実行するために、結合器78の出力信号もまた時間表現に変換され、損失のないように符号化/復号化されたオーディオ信号か、あるいは対応する精度の低いラウンディングが使用されたときは、ほぼ損失のないように符号化され再度復号化されたオーディオ信号を生成する。
以下に、図6のエントロピー符号器60bの特に望ましい実施例について説明する。通常の現代的なMPEG符号器内には、量子化されたスペクトル値の平均統計に依存して選択される複数のコード表が存在するので、結合器58の出力において差分ブロックのエントロピー符号化のためにも、同じコード表またはコードブックを使うことが望ましい。差分ブロック、すなわち剰余の整数MDCTスペクトルの絶対値が量子化の精度に依存するので、エントロピー符号器60bのコードブックの選択は、補助サイド情報なしに行われても良い。
MPEG−2 AAC符号器では、スペクトル係数、すなわち量子化されたスペクトル値が、量子化ブロック内のスケールファクタバンドにグループ化され、このときこのスペクトル値が、1つのスケールファクタバンドと関連した対応するスケールファクタから得られる1つのゲインファクタによって重み付けされる。この公知の符号器の概念では、不均一の量子化器が重み付けされたスペクトル値を量子化するのに用いられているので、剰余値のサイズ、すなわち結合器58の出力におけるスペクトル値は、スケールファクタだけでなく、量子化された値自体に依存する。しかし、スケールファクタと量子化されたスペクトル値は、図6の手段60aによって生成されたビットストリーム、すなわち聴覚心理的に符号化されたオーディオデータ内に含まれるので、符号器内では、差分スペクトル値のサイズに基づいたコードブックの選択を行うこと、また復号器内では、ビットストリーム内に送信されて来たスケールファクタと量子化された値との両方を基にして符号器内で使われているコード表を確認することが望ましい。結合器58の出力においては、差分スペクトル値をエントロピー符号化するために、いかなるサイド情報も送信される必要がないので、エントロピー符号化はデータの割合圧縮のみにつながり、データストリーム内のいかなる信号用ビット(signalization bits)も、エントロピー符号器60bのためのサイド情報として拡張する必要がない。
標準的なMPEG−2 AACに従うオーディオ符号器の内では、一時的なオーディオ信号エリヤ内のプリエコーを防ぐためにウィンドウスイッチが用いられている。この技術は、MDCTウィンドウの各半分の中にウィンドウの形を個別に選択する可能性に基づいており、かつ連続するブロック内でのブロックサイズの変化を可能にする。同様に、図1から図3を参照しながら説明したように、整数MDCTの形式を有する整数変換アルゴリズムは、ウィンドウ化とMDCTの分離の時間ドメインエリアシング部分とにおいて、異なるウィンドウの形を使用するように実行される。そのため望ましいことは、整数変換アルゴリズムと、量子化ブロックを生成する変換アルゴリズムとの両方のために、同一のウィンドウ決定を使用することである。
MPEG−2 AACに従う符号器においては、複数のさらなる符号化ツールも存在するが、これらのうちで、TNS(temporal noise shaping)とセンター/サイド(CS)ステレオ符号化のみについて言及する。TNS符号化では、ちょうどCS符号化のように、量子化の前にスペクトル値の修正が行われる。その結果、整数MDCTの値すなわち整数ブロックと、量子化されたMDCTの値との差は増大する。本発明によれば、整数変換アルゴリズムは、整数スペクトル値のTNSとセンター/サイド符号化との両方を許容するように形成されている。TNS技術は、周波数に関するMDCT値の適応型前方予測に基づいている。信号適応型の方法で通常のTNSモジュールによって計算された同じ予測フィルタは、整数スペクトル値を予測するのにも使用されることが望ましく、この場合、もし非整数値がそれによって発生すると、下流方向へのラウンディングが使用され、再度整数値を形成しても良い。このラウンディングは各予測ステップの後で行われることが望ましい。復号器では、オリジナルのスペクトルが再度、整数フィルタと同じラウンディング関数を使用することで再構築されても良い。同様に、リフティング操作に基づいて、π/4の角度を持つラウンディングされたギブンズ回転を適用することにより、CS符号化もまた整数MDCTスペクトル値に適用されても良い。それにより、復号器内のオリジナルの整数MDCT値が再度、再構築されても良い。
注意すべきことは、整数変換アルゴリズムとして整数MDCTを備えた本発明の望ましい実施例における概念は、MDCTに基づいた全ての聴覚適応型オーディオ符号器に適用されても良いということである。一例として挙げると、そのような符号器は、MPEG−4 AACスケーラブル、MPEG−4 AAC低遅延、MPEG−4 BSAC、MPEG−4ツインVQ、ドルビーAC−3などに従う符号器である。
特に注意すべきことは、本発明の概念は逆方向にも適応できることである。聴覚適応型符号器または復号器は取り替えられるのではなく、ただ拡張されるのである。損失のない構成要素のための補助情報は、MPEG−2 AAC内の領域「補助データ」内のように、逆方向に適用できる方法で、聴覚適応型の方法により符号化されたビットストリーム内で送信されても良い。図7に点線で示された従来の聴覚適応型復号器への追加部分は、この補助データを評価し、量子化されたMDCTスペクトルとともに、聴覚適応型復号器からの損失のない整数MDCTスペクトルを再構築しても良い。
聴覚心理符号化の本発明の概念は、損失のない、またはほぼ損失のない符号化により補足され、スケーラブルデータストリームの生成、送信、そして復号化に特に適応している。スケーラブルデータストリームは様々なスケーリングレイヤを含み、少なくともその最も低いスケーリングレイヤは、より高いスケーリングレイヤとは独立して送信され復号化されることは公知である。さらなるスケーリングレイヤまたは拡張レイヤ(enhancement layers)は、データのスケーラブル処理において、第1スケーリングレイヤまたはベースレイヤに付加される。完全な装備を持つ符号器は、第1スケーリングレイヤを備え、原則として、任意の数のさらなるスケーリングレイヤを備えるスケーラブルデータストリームを生成してもよい。上記スケーリング概念の利点は、ブロードバンド送信チャンネルが使用可能な場合、符号器によって生成されたスケールされたデータストリームは、そのブロードバンド送信チャンネルを介して、完全に、すなわち全てのスケーリングレイヤを含んだ状態で送信されても良い。しかし、もしもナロー(幅狭の)バンド送信チャンネルだけが存在する場合は、符号化された信号はこの場合でも送信チャンネルを通して送信されるが、第1スケーリングレイヤまたは特定数のさらなるスケーリングレイヤの形式において送信されるだけであり、このときの特定数とは、符号器によって生成されたスケーリングレイヤの全体の数より少ない。もちろん、接続されたチャンネルに対して適応する符号器は、ベーススケーリングレイヤまたは第1スケーリングレイヤと、そのチャンネルに依存するいくつかの更なるスケーリングレイヤとを、すでに生成していても良い。
復号器側でも、スケーラブル概念には、逆方向に適用できるという利点がある。つまり、第1スケーリングレイヤの処理だけができる復号器は、データストリーム内の第2とさらなるスケーリングレイヤとを単純に無視し、使用可能な出力信号を生成することができるという意味である。しかし、もし復号器が、スケーリングされたデータストリームから複数のスケーリングレイヤを処理することができる典型的な現代型の復号器であれば、この復号器は符号記と同じデータストリームを受け取りうるかもしれない。
本発明では、基本スケーラビリティは、量子化ブロック、すなわちビットストリーム符号器60aの出力が図8の第1スケーリングレイヤ81に書き込まれ、これは図6から分かるように、例えば1つのフレームのために、聴覚心理的に符号化されたデータを含む。結合器58によって生成され、望ましくはエントロピー符号化された差分スペクトル値は、単純なスケーラビリティでは第2スケーリングレイヤに書き込まれ、これは図8aの番号82に示されており、1つのフレームのための補助オーディオデータを含む。
もし符号器から復号器への送信チャンネルがブロードバンド送信チャンネルであれば、スケーリングレイヤ81と82との両方が復号器に送信されても良い。しかし、もし送信チャンネルがナローバンド送信チャンネルであって、第1スケーリングレイヤのみが「適合」するものである場合は、第2スケーリングレイヤは、送信の前に単にデータストリームから取り除かれても良く、その場合は、復号器に送信されるものは第1スケーリングレイヤだけになる。
復号器側では、聴覚心理的に符号化されたデータのみを処理することできる「ベース復号器」が、ブロードバンド送信チャンネルを通して第2スケーリングレイヤ82を受け取った場合、単にその第2スケーリングレイヤ82を省略しても良い。しかし、もし復号器が、聴覚心理復号化アルゴリズムと整数復号化アルゴリズムとの両方を含む完全に装備された復号器であれば、この完全に装備された復号器は、第1スケーリングレイヤと第2スケーリングレイヤとの両方を復号化のために使用し、損失のないよう符号化され、そして再び復号化された出力信号を生成することができる。
本発明の望ましい実施例では、図8aにその概要を示されているように、フレームのための聴覚心理的に符号化されたデータは、やはり第1スケーリングレイヤに入る。しかし図8bの第2スケーリングレイヤは、もっと微細にスケールされ、その結果この図8bの第2スケーリングレイヤから、(さらに小さな)第2スケーリングレイヤ、第3スケーリングレイヤ、第4スケーリングレイヤ等の複数のスケーリングレイヤが発生する。
結合器58から出力された差分スペクトルの値は、図9に基づいて示されたように、さらなるサブスケーリングに特に適合する。図9はバイナリ符号化されたスペクトル値を概要的に示す。図9の各横列90はバイナリ符号化された差分スペクトル値を表している。図9では、矢印91に示されるように、差分スペクトル値が周波数に従って分類され、差分スペクトル値92は、差分スペクトル値90より高い周波数を持つ。図9の格子図表の左から第1縦列は、差分スペクトル値の最重要ビット(MSB)を示す。第2縦列に記入された数字は、MSB−1の重要度を備えたビットであることを示す。第3縦列は、MSB−2の重要度を備えたビットであることを示す。最後から数えて3番目の縦列は、LSB+2(最低重要度+2)のビットであること示す。最後から2番目の縦列は、LSB+1の重要度を備えたビットを示す。最後に、最終縦列は、重要度が最低のビット(LSB)、すなわち差分スペクトル値の最低重要度ビットであることを示している。
本発明の望ましい実施例では、精度スケーリング(accuracy scaling)は次のように実行される。すなわち、例えば差分スペクトル値の16個の最も重要なビットが第2スケーリングレイヤとして使用され、そしてもし必要ならば、エントロピー符号器60bによりエントロピー符号化される。第2スケーリングレイヤを使用した復号器は、出力側で16ビットの精度を備えた差分スペクトル値を得、その結果この第2スケーリングレイヤは、第1スケーリングレイヤと共に、CDの品質においては損失のないように復号化されたオーディオ信号を提供する。16ビットの幅のあるCD品質のオーディオサンプルが存在することは公知である。
もし他方で、スタジオ品質のオーディオ信号、すなわち各サンプルに24ビットを含むサンプルを備えたオーディオ信号が符号器に送られた場合は、符号器はさらに、差分スペクトル値の最終の8ビットを含み、また必要に応じてエントロピー符号化された(図6の手段60)第3スケーリングレイヤを生成しても良い。
完全に装備された復号器が、第1スケーリングレイヤと、(差分スペクトル値の16個の最重要ビットを含む)第2スケーリングレイヤと、(差分スペクトル値の8個の重要度が低いビットを含む)第3スケーリングレイヤとを備えたデータストリームを得た場合は、スタジオ品質で損失のないように符号化/復号化されたオーディオ信号、すなわち復号器の出力において存在する24ビットのサンプルの語幅を備えた信号を、3つのスケーリングレイヤ全てを使用して出力しても良い。
注意すべきことは、一般的に、スタジオ領域内においては、消費者の領域内よりもサンプルの語長が大きいということである。消費者領域では、オーディオCD内の語幅は16ビットであるのに対し、スタジオ領域内では24または20ビットが使用される。
整数MDCT領域でのスケーリングの概念に基づいて、上述のように、3つの精度全て(16ビット、20ビット、または24ビット)、または最低では1ビットでスケールされた任意の精度が、スケーラブルに符号化されても良い。
ここで、24ビットの精度で示されたオーディオ信号は、逆整数MDCTを用いて整数スペクトル領域内に示され、かつ聴覚適応型のMDCTに基づくオーディオ符号器出力信号と、スケーラブルに結合される。
損失のない表現のために存在する整数差分値は、1つのスケーリングレイヤに完全に符号化されるのではなく、まず低い精度で符号化される。正確な表現に必要な剰余値は、さらなるスケーリングレイヤの中でのみ送信される。しかし他の方法として、差分スペクトル値は、例えば24ビットによってさらなるスケーリングレイヤ内にも完全に表現される。その場合、このさらなるスケーリングレイヤを復号化するために、根底にあるスケーリングレイヤは必要ではない。この方法はすべて、ビットストリームサイズを大きくすることになるが、しかし、送信チャンネルのバンド幅に問題がなければ、復号器内での単純化に貢献するかもしれない。なぜなら、復号器内では、スケーリングレイヤはもはや結合される必要がなくなり、常に1つのスケーリングレイヤだけで復号化には充分だからである。
もし、例えば図9に示されるように重要度が低い8つのLSBが最初に送信されなければ、24ビットと16ビットとの間のスケーラビリティは達成される。
低い精度で送信された値を時間ドメインへと逆変換するために、送信された値は望ましくは、例えば28 によって乗算することで、たとえば24ビットのオリジナルの領域にスケールバックされる。その後、逆整数MDCTが同様にスケールバックされた値に適応される。
周波数ドメインにおける本発明の精度スケーリングでは、さらに望ましいことは、LSB内での冗長性(redundancy)を利用することである。もし、例えばオーディオ信号が上部周波数ドメイン内でほんのわずかなエネルギーしか保持していないならば、これは整数MDCTスペクトルにおいても非常に微小な値で表われ、例えば8ビットで可能な値(120から127)より著しく小さい。これは、整数MDCTスペクトルのLSB値の圧縮率において表れる。さらに注意すべきことは、非常に小さな差分スペクトル値においては、一般的にMSBからMSB−1までのビットの数がゼロに等しく、そのためバイナリ符号化された差分スペクトル値において1番目すなわち先頭の1は、重要度MSB−n−1を有するビットの前には発生しない。このような場合、第2スケーリングレイヤの差分スペクトル値がゼロのみを含むとき、エントロピー符号化はさらなるデータ圧縮に特によく適している。
本発明のさらなる実施例によると、図8aの第2スケーリングレイヤ82のために、サンプルレートスケーラビリティーが望ましい。サンプルレートスケーラビリティーは、図9の右側に示されているように、第2スケーリングレイヤに含まれる第1カット・オフ周波数(cut-off frequency)までの差分スペクトル値により達成され、他方、さらなるスケーリングレイヤには、第1カット・オフ周波数と最大周波数との間の周波数を有する差分スペクトル値が含まれる。もちろん、さらなるスケーリングが実行され、複数のスケーリングレイヤが周波数ドメイン全体から生成されても良い。
本発明の望ましい実施例では、図9の第2スケーリングレイヤは、48kHzのサンプルレートに対応する24kHzの周波数まで差分スペクトル値を含む。第3スケーリングレイヤは、96kHzのサンプルレートに対応する、24kHzから48kHzまでの差分スペクトル値を含む。
さらに注意すべきことは、第2スケーリングレイヤと第3スケーリングレイヤでは、差分スペクトル値の全てのビットを符号化する必要はないことである。結合されたスケーラビリティのさらなる形式では、第2スケーリングレイヤが、所定のカット・オフ周波数までの差分スペクトル値のビットMSBからMSB−Xまでを含むことができるであろう。第3スケーリングレイヤは、第1カット・オフ周波数から最高周波数までの差分スペクトル値のビットMSBからMSB−Xまでを含むことができるであろう。第4スケーリングレイヤは、カット・オフ周波数までの差分スペクトル値のための剰余のビットを含むことができるであろう。そして最後のスケーリングレイヤは、それ以上の周波数のための差分スペクトル値のための剰余のビットを含むことができるであろう。この概念により図9の格子図表は4つの区域に分割され、これら4区域はそれぞれ1つのスケーリングレイヤを表している。
周波数のスケーラビリティに関しては、本発明の望ましい実施例においては、48kHzから96kHzまでのサンプルレートのスケーラビリティを説明する。96kHzサンプル信号は、損失のない拡張レイヤの整数MDCT領域でまず半分だけ符号化され、送信される。もし上半分が追加的に送信されなければ、復号器内でゼロとみなされる。(符号器内と同じ長さの)逆整数MDCT内では96kHz信号が発生し、この信号は高周波数ドメイン内にエネルギーを含まず、そのため48kHzで品質の損失なくサブサンプル化されるであろう。
固定された境界を有する図9の上記4区域内における差分スペクトル値の上記のスケーリングは、スケーリングレイヤのサイズに関して望ましい。なぜなら、スケーリングレイヤ内には、実際、たとえば16ビットあるいは8ビットのみとか、または上記カット・オフ周波数までのスペクトル値、あるいは上記カット・オフ周波数を超えるスペクトル値が含まれなければならないからである。
他のスケーリングは、図9の4区域の境界をある程度「緩和する」ものである。周波数スケーラビリティの例では、これはカット・オフ周波数前の差分スペクトル値は変化せず、カット・オフ周波数後はゼロであるという理由で、いわゆる「れんが壁ローパス」(brickwall low pass)を適応するのではないことを意味する。その代り、差分スペクトル値もまた、任意のローパスでフィルタリングされ、カット・オフ周波数を下回るスペクトル値を既にある程度抑制している可能性があり、カット・オフ周波数を上回るスペクトル値は、まだエネルギーを持っているが、差分スペクトル値はエネルギーにおいては減少している。このように生成されたスケーリングレイヤにおいても、カット・オフ周波数を上回るスペクトル値が含まれる。しかし、このようなスペクトル値は比較的小さいので、エントロピー符号化によって効果的に符号化しやすい。この場合、最高スケーリングレイヤは、完全な差分スペクトル値と第2スケーリングレイヤに含まれるスペクトル値との間の差分を有するであろう。
精度スケーリングもまた、同様にある程度柔軟と言える。第1スケーリングレイヤはたとえば16ビット以上のスペクトル値を含んでも良く、この場合、次のスケーリングレイヤは依然として差分を有する。一般的に、第2スケーリングレイヤは低い精度で差分スペクトル値を持ち、他方、次のスケーリングレイヤ内では、残り、すなわち完全スペクトル値と第2スケーリングレイヤに含まれるスペクトル値の差分が送信される。これにより、様々な精度の低減が実現する。
本発明の符号化または復号化の方法は、望ましくは電子的に読み取り可能な制御信号とともにフレキシブルディスクなどのデジタル記憶媒体に記憶され、この制御信号はプログラムできるコンピュータシステムと協同し、符号化および/または復号化の方法が実行されても良い。言い換えれば、このプログラムがコンピュータ上で実行されるとき、符号化方法および/または復号化方法を実行するための、機械で読み取り可能な運搬媒体に記憶されたプログラムコードを備えた、コンピュータプログラムの製品が存在するということである。このプログラムがコンピュータ上で実行されるとき、本発明の方法は、本発明の方法を実行するためのプログラムコードを備えたコンピュータプログラムによって実現されるであろう。
以下に、整数変換アルゴリズムのための例として、非特許文献3に示されている整数MDCT変換アルゴリズムについて説明する。整数MDCTは、オーディオ信号の良好なスペクトル表現や、臨界サンプリング(critical sampling)や、ブロックオーバーラップなどの、MDCTの優れた特質を持っているため特に望ましい。整数MDCTによるMDCTの良好な近似も、図5に示される符号器内で1つの変換アルゴリズムのみを使用することを可能にしている。これは、図5の矢印62で示されている。図1から図4を基にして、整数変換アルゴリズムのこの特別な形式の本質的な特質を説明する。
図1は、オーディオ信号を表す時間離散サンプルを処理するための本発明の望ましい装置であって、整数値を得、その整数値に基づいて整数MDCT変換アルゴリズムが使用される装置を示す全体図である。時間離散サンプルは図1に示される装置によりウィンドウ化され、選択的にスペクトル表現に変換される。時間離散サンプルは入力10においてこの装置に入力され、2N個の時間離散サンプルに相当する長さを持つウィンドウWでウィンドウ化される。その結果、出力12において整数のウィンドウ化サンプルが得られ、このサンプルは変換により、特に整数DCTを実行する手段14により、スペクトル表現に変換されるのに適している。整数DCTはN個の入力値からN個の出力値を生成するように作られており、これは図4aのMDCTの関数408とは対照的である。なぜなら、関数408は、MDCTの方程式に従って、2N個のウィンドウ化されたサンプルからN個のスペクトル値しか生成しないからである。
時間離散サンプルをウィンドウ化するために、まず2個の時間離散サンプルが手段16内において選択され、これらは合同して時間離散サンプルの1個のベクトルを表す。手段16により選択された1つの時間離散サンプルは、ウィンドウの第1クォータ内に含まれ、もう1つの時間離散サンプルは、ウィンドウの第2クォータ内に含まれる。この点に関しては、図3においてより詳細に説明する。次に、手段16により生成されたベクトルに対し、2×2のディメンションを持つ回転マトリクスが適用される。このベクトル回転操作は単一のステップで実行されるわけではなく、複数のいわゆるリフティングマトリクスによって実行される。
リフティングマトリクスとは、ウィンドウWに依存し、かつ“1”でも“0”でもない成分を1つだけ備えるという特徴を持つ。
リフティングステップへのウェーブレット変換(wavelet transform)の因数分解は、非特許文献4に表されている。一般的に、リフティングの概要は、同一のローパスフィルタまたはハイパスフィルタを備えた完全再構築型フィルタ対の間の単純な関係式である。補足的なフィルタからなる各対は、リフティングステップへと因数分解されてもよい。特に、これはギブンズ回転に対して適用される。多相マトリクスがギブンズ回転である場合を考えてみる。この時、以下の方程式が適応される。
Figure 2005527851
等記号の右側にある3つのリフティングマトリクスの夫々は、主対角成分(main diagonal elements)として値“1”を持つ。さらに、各リフティングマトリクスにおいて、主対角上には存在しない成分の1つは0であり、主対角上には存在しないもう1つの成分は回転角αに依存する。
ベクトルは、まず第3のリフティングマトリクス、すなわち上述の方程式の最も右側にあるリフティングマトリクスを用いて乗算され、第1結果ベクトルを得る。これは、図1内では手段18により示されている。まず第1結果ベクトルは、実数値を整数値にマッピングする任意のラウンディング関数によりラウンディングされる。これは、図1内では手段20により示されており、ラウンディングされた第1結果ベクトルが手段20の出力において得られる。このラウンディングされた第1結果ベクトルは手段22に供給され、ここで上述の方程式の中央のリフティングマトリクス、すなわち第2のリフティングマトリクスを用いて乗算され、第2結果ベクトルを得る。この第2結果ベクトルは、手段24において再度ラウンディングされ、ラウンディングされた第2結果ベクトルを得る。このラウンディングされた第2結果ベクトルは、次に手段26に対して供給され、上述の方程式の左側に記載のリフティングマトリクス、すなわち第1リフティングマトリクスを用いて乗算され、第3結果ベクトルを得る。この第3結果ベクトルは、手段28により最終的にもう一度ラウンディングされ、出力12においては整数ウィンドウ化サンプルが最終的に得られる。もしこの値のスペクトル表現が求められる場合には、スペクトル出力30において整数スペクトル値を得るために、この整数ウィンドウ化サンプルは次に手段14により処理されなければならない。
望ましくは、上記手段14は整数DCTとして具体化させる。
長さNを持ちタイプIVに従う離散コサイン変換(DCT−IV)は、以下の方程式で表現できる。
Figure 2005527851
DCT−IVの係数は正規直交N×Nマトリクスを形成する。各直交N×NマトリクスはN(N−1)/2ギブンズ回転に分解されてもよい。この点に関しては、非特許文献5に説明の通りである。また、さらなる分解も存在することにも留意すべきである。
様々なDCTアルゴリズムの分類に関しては、非特許文献6を参照されたい。一般的に、DCTアルゴリズムはそれらの基底関数の種類により区別されている。本発明において望ましいとされるDCT−IVは、非対称基底関数、すなわちコサイン1/4波、コサイン3/4波、コサイン5/4波、コサイン7/4波等を含むが、例えば、タイプIIの離散コサイン変換(DCT−II)は軸対称かつ点対称の基底関数を含む。0番目の基底関数はDC要素(component)を持ち、1番目の基底関数は1/2コサイン波であり、2番目の基底関数は全コサイン波である等である。タイプIIの離散コサイン変換は特にDC要素を考慮するという事実から、このタイプIIの離散コサイン変換はビデオ符号化に使用され、オーディオ符号化には使用されない。なぜなら、オーディオ符号化においては、ビデオ符号化とは対照的に、DC要素は関係がないからである。
以下に、ギブンズ回転の回転角αがいかにウィンドウ関数に依存するかという点について、説明する。
2Nウィンドウ長を持つMDCTは、Nウィンドウ長を持つタイプIVの離散コサイン変換へと減数されてもよい。これは、時間ドメインにおいてTDAC操作を格別に実行し、その後DCT−IVを適用することで達成できる。50%のオーバーラップにより、ブロックtに対するウィンドウの左半分は、先行するブロック、すなわちブロックt−1の右半分と重複する。2個の連続するブロックt−1とブロックtの重複する部分は時間ドメインの中で前処理される。すなわち、上記変換に先立ち、図1内の入力10から出力12の間で下記のように処理される。
Figure 2005527851
波型記号を付して示された値は、図1の出力12の値であり、他方、上記の式内で波型記号を付けずにx値として示される値は、図1の入力10の値または選択手段16の後の値である。変数(running index)kは0からN/2−1まで変化し、wはウィンドウ関数を表す。
ウィンドウ関数wのためのTDACの条件から、以下の関係が成り立つ。
Figure 2005527851
ある所定の角度αk,k=0,…,N/2−1について、この時間ドメインにおける前処理は、上述のように、ギブンズ回転として記載されてもよい。
ギブンズ回転の角度αは以下のようにウィンドウ関数wに依存する。
Figure 2005527851
留意すべき点は、このTDACの条件が満たされる限りにおいては、任意のウィンドウ関数wも用いることができるという点である。
以下に、図2に基づいてカスケード符号器および復号器を説明する。1個のウィンドウで一緒に「ウィンドウ化」された時間離散サンプルx(0)〜x(2N−1)は、まず図1内の手段16により以下のように選択される。つまり、ウィンドウの第1クォータからサンプルx(0)が選択され、ウィンドウの第2クォータからサンプルx(N−1)が選択され、手段16の出力においてベクトルを形成する。途中で交差する矢印は、DCT−IVのブロックの入力において整数ウィンドウ化サンプルを得るための、手段18と20、手段22と24、または手段26と28のリフティングマトリクスによる乗算とそれに続くラウンディングとを概略的に示す。
上述のような最初のベクトルが処理された時、ウィンドウの第1クォータからサンプルx(N/2−1)が選択され、ウィンドウの第2クォータからサンプルx(N/2)が選択されて2番目のベクトルも選択され、その後図1に示されたアルゴリズムによって再度処理される。上記と同様に、ウィンドウの第1および第2クォータからの他の全てのサンプルの対が処理される。同様の処理が第1ウィンドウの第3および第4クォータに対しても実行される。この時点で、出力12においてN個のウィンドウ化された整数サンプルが存在し、これらは次に、図2に示されるように、DCT−IV変換に対して入力される。特に、第2および第3クォータの整数ウィンドウ化サンプルがDCTに対して入力される。ウィンドウの第1クォータの整数ウィンドウ化サンプルは、先行するウィンドウの第4クォータの整数ウィンドウ化サンプルと一緒に、先行するDCT−IV内で処理される。これと同様に、図2内の第4クォータの整数ウィンドウ化サンプルは、後続ウィンドウの第1クォータのサンプルと一緒に、DCT−IV変換に対して入力される。図2に示されるように、中間の整数DCT−IVは、N個の整数スペクトル値y(0)からy(N−1)までを供給する。これらの整数スペクトル値は、次に、例えばいかなる中間の量子化をも必要とせず、単純にエントロピー符号化されてもよい。なぜなら、上記のウィンドウ化と変換とは、整数出力値を提供するからである。
図2の右半分には、復号器が示されている。逆変換と「逆ウィンドウ化」とを含む復号器は、符号器とは逆に操作する。図2に示すように、DCT−IVの逆変換のために、逆DCT−IVが使用されてもよいことは既に公知である。図2に示すように、復号器DCT−IVの出力値は、先行する変換または後続の変換の対応する値と共に逆処理され、その結果、上記復号器DCT−IVの出力における整数ウィンドウ化サンプル、または前後の変換の出力における整数ウィンドウ化サンプルから、時間離散オーディオサンプルx(0)〜x(2N−1)が生成される。
出力側の操作は、逆ギブンズ回転により実行される。すなわち、ブロック26と28、ブロック22と24、またはブロック18と20を逆方向に通過することになる。これは、方程式(1)の第2リフティングマトリクスに基づいて詳細に表されている。もし、(符号器内で)第2結果ベクトルが、ラウンディングされた第1結果ベクトルに第2リフティングマトリクスを乗算することで形成されるならば(手段22)、その結果は以下の式に示される。
Figure 2005527851
上記の式の右側にある値x,yは整数である。しかし、x・sinαの値は整数ではない。そこで、ラウンディング関数rが以下の方程式のように導入されなければならない。
Figure 2005527851
上記手段24はこの操作を実行する。
逆マッピング(復号器における)は、以下のように定義される。
Figure 2005527851
ラウンディング操作の前にあるマイナス記号から自明なことは、リフティングステップの整数近似値は、いかなる誤差も導入されずに逆転されることができるということである。3つの各リフティングステップにおいてこの近似を適用すれば、ギブンズ回転の整数近似につながる。(符号器内で)ラウンディングされた回転は、(復号器内で)誤差を導入せずに逆回転させることができる。つまり、ラウンディングされた逆リフティングステップを逆の順序で実行することで、誤差を導入せずに逆回転させることが可能である。換言すれば、復号化において、図1に示されたアルゴリズムを下から上へという順序で実行すれば可能である。
もし、ラウンディング関数rが点対称であれば、逆ラウンディングされた回転は、角度−αでラウンディングされた回転と同一であり、次の式が成り立つ。
Figure 2005527851
この場合、復号器のため、すなわち逆ギブンズ回転のためのリフティングマトリクスは、方程式(1)の“sinα”という表現を“−sinα”という表現に置き換えることで、直ちに結果が得られる。
以下に、オーバーラップウィンドウ40〜46を備えた一般的なMDCTの分解を、図3を参照しながら再度説明する。ウィンドウ40〜46は、それぞれ50%のオーバーラップを持つ。各ウィンドウにおいて、ギブンズ回転は最初にウィンドウの第1および第2クォータ内またはウィンドウの第3および第4クォータ内で実行される。これは、矢印48により図式的に示されている。次に、回転された値、すなわちウィンドウ化整数サンプルは、NからNへの離散コサイン変換(N−to−N−DCT)に入力され、その結果、ウィンドウの第2クォータと第3クォータ、または第4クォータと後続のウィンドウの第1クォータとがDCT−IVアルゴリズムにより常に一緒にスペクトル表現へと変換されるようになる。
このように、通常のギブンズ回転はリフティングマトリクスに分解される。これらのリフティングマトリクスの乗算は順に実行され、各リフティングマトリクスの乗算後にラウンディングステップが実行される。そのため、浮動小数点数が発生すると直ちにラウンディングされるので、結果ベクトルと(次の)リフティングマトリクスとの各乗算の前において、結果ベクトルは整数しか含まない。
以上のように、出力値は常に整数となるが、入力値も整数を使用することが望ましい。ただし、これに制約されるものではない。なぜなら、CDに記憶されたいかなる典型的なPCMサンプルも整数値であるからであり、その値の領域はビット幅に依存して変化し、つまりは時間離散デジタル入力値が16ビット値か24ビット値かという点に依存しているからである。しかし、上述のように、逆の順序で逆回転マトリクスを実行することで、全体的な処理を逆転させることが可能である。そのため、MDCTの整数近似による、完全な再生、すなわち損失のない変換が可能となる。
上述の変換は、浮動小数点値に代えて整数出力値を提供する。それにより、もし前方変換およびその後の後方変換が実行された場合に、誤差が導入されずに完全な再生を実現できる。本発明の望ましい実施例によれば、この変換は変形離散コサイン変換に代わるものである。しかし、回転への分解と、その回転のリフティングステップへの分解とが可能であれば、他の変換方法もまた整数で実行可能であろう。
整数MDCTは、MDCTの望ましい特性の大部分を有する。オーバーラップ構造を備え、その結果として、オーバーラップなしのブロック変換より良好な周波数選択性を得ることができる。変換に先立つウィンドウ化の時に既に考慮されていたTDAC関数のために、臨界サンプリングが維持され、その結果、1つのオーディオ信号を表すスペクトル値の全体数が入力サンプルの全体数と等しくなる。
浮動小数点サンプルを提供する通常のMDCTと比較して、上述の望ましい整数変換は以下の長所を開示している。すなわち、信号レベルが殆どないスペクトル領域でのみ、ノイズが上記通常のMDCTと比較して増大し、他方、意味のある信号レベルの中ではこのノイズの増大は認識されないという長所である。このため、上記の整数処理はハードウェアによる能率的な実施に適している。なぜなら、乗算ステップのみが使用されるからであり、それは容易にシフト/加算ステップに分解され、つまりはハードウェアで容易かつ迅速に実行可能であるからである。もちろん、ソフトウェアによる実施も可能である。
上記の整数変換は、オーディオ信号の良好なスペクトル表現を提供し、かつ整数領域に留まるものである。もし、オーディオ信号の調性部分(tonal parts)に適用される場合には、これにより、良好なエネルギー集中が得られる。このため、図1に示すウィンドウ化/変換をエントロピー符号器とカスケード接続することで、能率的で損失のない符号化機構が構築できるであろう。特に、MPEG AACに使用されているような、エスケープ値を用いた積層符号化(stacked coding)は、望ましいものである。適切なコード表に適合するまで全ての値をある2の基数(power)により縮小し、その後追加的に、除外された最小限の重要性を持つビットを符号化することが望ましい。他の方法としてより大きなコード表を使用する方法があるが、その場合と比較して、上述の方法はコード表を記憶させるための記憶消費量という観点から見て、より望ましい。重要性がほとんどないビット内の所定のものを単純に除外することで、ほとんど損失のない符号器を得ることも可能であろう。
特に、調性信号に関しては、整数スペクトル値のエントロピー符号化は高い符号化ゲインを可能にする。信号の一時的な部分に関しては、この符号化ゲインは低い。これは、一時的信号のフラットスペクトル、すなわち0または略0に等しい低い数のスペクトル値に基づくからである。非特許文献7に記載のように、このフラット部分は、周波数ドメイン内で線形予測を用いることで使用されても良い。他の方法としては、開ループによる予測があり、さらに他の方法としては、閉ループによる予測がある。前者の方法、すなわち開ループによる予測は、TNSと呼ばれるものである。予測の後の量子化により、結果的に生じる量子化ノイズをオーディオ信号の時間構造に適応させ、聴覚心理オーディオ符号器におけるプリエコーを防止する。損失のないオーディオ符号化のためには、2番目の方法、すなわち閉ループによる予測がより適している。なぜなら、閉ループによる予測は入力信号の正確な再生を可能にするからである。もし、この技術が生成されたスペクトルに対して適用されれば、整数領域に留まるために、ラウンディングステップは各予測フィルタのステップの後で実行されなければならない。逆フィルタおよび同様のラウンディング関数を使用することで、オリジナルスペクトルが正確に再生されるであろう。
データ削減のため、2つのチャンネル間の冗長性を利用するために、もしα/4の角度を持つラウンディングされた回転が使用されるならば、損失のない方法でセンター/サイド符号化を用いてもよい。ステレオ信号の左右のチャネルの合計と差とを計算する他の方法と比較して、ラウンディングされた回転はエネルギーの維持という利点がある。標準MPEG AACでも実行されているように、いわゆるジョイントステレオ符号化技術の使用は、各バンドに対してスウィッチオンまたはオフさせてもよい。2チャンネル間の冗長性をより柔軟に減少させることができるように、さらなる回転角度もまた考慮してもよい。

Claims (33)

  1. 時間離散オーディオ信号を符号化し、符号化オーディオデータを得るための装置であって、
    上記時間離散オーディオ信号のスペクトル値の量子化ブロックであって、聴覚心理モデル(54)を用いて量子化された量子化ブロックを供給する手段(52)と、
    逆量子化されラウンディングされたスペクトル値を含むラウンディングブロックを提供するために、上記量子化ブロックを逆量子化し、この逆量子化されたスペクトル値をラウンディングする手段(58)と、
    整数時間離散サンプルのブロックからスペクトル値の整数ブロックを生成するため構成された整数変換アルゴリズムを用いて、整数スペクトル値の整数ブロックを生成する手段(56)と、
    差分スペクトル値を有する差分ブロックを得るために、上記ラウンディングブロックと上記整数ブロックとの間のスペクトル値を基にした差分に依存して上記差分ブロックを形成する結合手段(58)と、
    上記量子化ブロックに関する情報と上記差分ブロックに関する情報とを含む符号化オーディオデータを生成するために、上記量子化ブロックと上記差分ブロックとを処理する手段(60)と、
    を含むことを特徴とする装置。
  2. 請求項1に記載の装置において、
    上記量子化ブロックを供給するための手段(52)は、
    MDCTを用いて時間オーディオ信号値の時間ブロックからMDCTスペクトル値のMDCTブロックを生成し、かつ
    量子化されたMDCTスペクトル値を含む上記量子化ブロックを生成するために、聴覚心理モデルを用いて上記MDCTブロックを量子化するように構成されていることを特徴とする装置。
  3. 請求項2に記載の装置において、
    上記整数ブロックを生成するための手段(56)は、
    上記時間ブロックに対して整数MDCTを実行して、整数MDCTスペクトル値を含む上記整数ブロックを生成するように形成されていることを特徴とする装置。
  4. 請求項1乃至3のいずれかに記載の装置において、
    上記量子化ブロックを供給するための手段(52)は、
    浮動小数点変換アルゴリズムを用いて上記量子化ブロックを計算するように構成されていることを特徴とする装置。
  5. 請求項1乃至3のいずれかに記載の装置において、
    上記量子化ブロックを供給するための手段(52)は、
    上記整数ブロックを生成するための手段(56)によって生成された整数ブロックを用いて上記量子化ブロックを計算するように構成されていることを特徴とする装置。
  6. 請求項1乃至5のいずれかに記載の装置において、
    上記処理手段(60)は、
    上記量子化ブロックをエントロピー符号化し、エントロピー符号化された量子化ブロックを得る手段(60a)と、
    上記ラウンディングブロックをエントロピー符号化し、エントロピー符号化されたラウンディングブロックを得る手段(60b)と、を備え、
    上記符号化オーディオデータを表すスケーリングされたデータストリームの第1スケーリングレイヤに上記エントロピー符号化された量子化ブロックを変換し、
    上記スケーリングされたデータストリームの第2スケーリングレイヤに上記エントロピー符号化されたラウンディングブロックを変換することを特徴とする装置。
  7. 請求項6に記載の装置において、
    上記処理手段(60)は、上記量子化ブロックのエントロピー符号化のために、上記量子化されたスペクトル値に依存して、複数のコード表から1つのコード表を使用するように形成され、かつ
    上記処理手段(60)は、上記差分ブロックのエントロピー符号化のために、上記量子化ブロックを生成するための量子化において使用される量子化器の特性に依存して、複数のコード表から1つのコード表を選択するように形成されていることを特徴とする装置。
  8. 請求項1乃至7のいずれかに記載の装置において、
    上記量子化ブロックを供給するための手段(52)は、オーディオ信号値の時間ブロックをウィンドウ化するための複数のウィンドウから、上記オーディオ信号の特性に依存して1つのウィンドウを使用し、
    上記整数ブロックを生成するための手段(56)は、上記整数変換アルゴリズムのために、同じウィンドウを選択することを特徴とする装置。
  9. 請求項1乃至8のいずれかに記載の装置において、
    上記整数ブロックを生成するための手段(56)は、
    時間離散サンプルを2N個の時間離散サンプルに対応する長さを持つウィンドウ(W)でウィンドウ化する第1ステップであって、N個の入力値からN個の出力値を生成することができる変換によって、上記時間離散サンプルをスペクトル表現に変換するためのウィンドウ化された時間離散サンプルを提供するステップであり、以下のサブステップ1〜3、すなわち、
    1つの時間離散サンプルを上記ウィンドウの1つのクォータから選択(16)し、もう1つの時間離散サンプルを上記ウィンドウの他のクォータから選択して、時間離散サンプルのベクトルを得るサブステップ1と、
    上記ベクトルに対し回転マトリクスを適用するサブステップ2であって、この回転マトリクスのディメンションは上記ベクトルのディメンションと一致し、さらに上記回転マトリクスは複数のリフティングマトリクスにより表現され、1つのリフティングマトリクスは上記ウィンドウ(W)に依存しかつ1でも0でもない成分を1つだけ有するものであり、さらに以下の小ステップ1〜3、すなわち、
    上記ベクトルに1つのリフティングマトリクスを乗算(18)し、第1結果ベクトルを得る小ステップ1と、
    上記第1結果ベクトルの要素を、実数を整数にマッピングするラウンディング関数(r)でラウンディング(20)し、ラウンディングされた第1結果ベクトルを得る小ステップ2と、
    全てのリフティングマトリクスが処理されるまで乗算(22)およびラウンディング(24)のステップを他のリフティングマトリクスを用いて順に実行し、その結果、上記ウィンドウの上記1つのクォータからの整数ウィンドウ化サンプルと上記ウィンドウの上記他のクォータからの整数ウィンドウ化サンプルとを有する回転されたベクトルを得る小ステップ3と、を含む回転マトリクスを適用するサブステップ2と、
    上記ウィンドウの残りのクォータの全ての時間離散サンプルに対して上記ウィンドウ化ステップを実行し、2N個のウィンドウ化された整数サンプルを得るサブステップ3と、を含むウィンドウ化の第1ステップと、
    上記ウィンドウの第2クォータおよび第3クォータのウィンドウ化された整数サンプルを持つ値に対して、整数DCT変換を実行し、N個のウィンドウ化整数サンプルをスペクトル表現に変換(14)し、N個の整数スペクトル値を得る第2ステップと、
    を含む整数変換アルゴリズムを使用するように形成されたことを特徴とする装置。
  10. 請求項1乃至9のいずれかに記載の装置において、
    上記量子化ブロックを供給するための手段(52)は、量子化ステップ(52b)に先立ち、予測フィルタを用いて周波数に関するスペクトル値の予測を実行し、量子化後の上記量子化ブロックを表現する予測剰余スペクトル値を得るように形成され、
    上記整数ブロックの上記整数スペクトル値の周波数に関する予測を実行する予測手段が設けられ、
    さらに、上記ラウンディングブロックを表す上記整数スペクトル値によって、上記予測剰余スペクトル値をラウンディングするためのラウンディング手段が設けられていることを特徴とする装置。
  11. 請求項1乃至10のいずれかに記載の装置において、
    上記時間離散オーディオ信号は少なくとも2つのチャンネルを備え、
    上記量子化ブロックを供給するための手段(52)は、上記時間離散オーディオ信号のスペクトル値に対してセンター/サイド符号化を実行し、センター/サイドスペクトル値の量子化の後で上記量子化ブロックを得るように構成され、
    上記整数ブロックを生成するための手段(56)は、上記量子化ブロックを供給するための手段(52)のセンター/サイド符号化に対応するセンター/サイド符号化を実行するように構成されていることを特徴とする装置。
  12. 請求項1乃至11のいずれかに記載の装置において、
    上記処理装置(60)は、MPEG−2 AACデータストリームを生成するように構成され、
    補助データの分野において、上記整数変換アルゴリズムのための補助情報が導入されることを特徴とする装置。
  13. 請求項1乃至12のいずれかに記載の装置において、
    上記処理装置(60)は、上記符号化オーディオデータを複数のスケーリングレイヤを持つデータストリームとして出力するよう構成されていることを特徴とする装置。
  14. 請求項13に記載の装置において、
    上記処理装置(60)は、上記量子化ブロックに関する情報を第1スケーリングレイヤ(81)に挿入し、かつ上記差分ブロックに関する情報を第2スケーリングレイヤ(82)に挿入するよう構成されていることを特徴とする装置。
  15. 請求項13に記載の装置において、
    上記処理装置(60)は、上記量子化ブロックに関する情報を第1スケーリングレイヤに挿入し、かつ上記差分ブロックに関する情報を少なくとも第2および第3のスケーリングレイヤに挿入するよう構成されていることを特徴とする装置。
  16. 請求項15に記載の装置において、
    上記第2スケーリングレイヤの中に精度の低い差分スペクトル値が含まれ、
    1つまたはそれ以上の高いスケーリングレイヤの中に上記差分スペクトル値の余剰部が含まれていることを特徴とする装置。
  17. 請求項15または16に記載の装置において、
    上記差分ブロックに関する情報はバイナリ符号化差分スペクトル値を含み、
    上記差分スペクトル値のための第2スケーリングレイヤは、最高重要ビット(MSB)から低重要ビット(MSB−x)までの差分スペクトル値のための幾つかのビットを含み、
    第3スケーリングレイヤは、低重要ビット(MSB−x−1)から最低重要ビット(LSB)までの幾つかのビットを含むことを特徴とする装置。
  18. 請求項17に記載の装置において、
    上記時間離散オーディオ信号が24ビットの幅を持つサンプルの形式で存在し、
    上記処理装置(60)は、差分スペクトル値のさらに重要な16ビットを第2スケーリングレイヤに挿入し、差分スペクトル値の剰余の8ビットを第3スケーリングレイヤに挿入するよう構成され、その結果、上記第2スケーリングレイヤを用いた復号器はCD品質に到達し、上記第3スケーリングレイヤをも用いた復号器はスタジオ品質に到達することを特徴とする装置。
  19. 請求項15に記載の装置において、
    上記処理装置(60)は、ローパスフィルタリングされた信号を表すための差分スペクトル値の少なくとも一部を第2スケーリングレイヤに挿入し、上記第2スケーリングレイヤ内の差分スペクトル値とオリジナル差分スペクトル値との間の差分を少なくとも1つのさらなるスケーリングレイヤに挿入するよう構成されていることを特徴とする装置。
  20. 請求項15または19に記載の装置において、
    上記処理装置(60)は、所定のカット・オフ周波数までの差分スペクトル値の少なくとも一部を第2スケーリングレイヤに挿入し、上記所定のカット・オフ周波数より高周波数の差分スペクトル値の少なくとも一部を第3スケーリングレイヤに挿入するよう構成されていることを特徴とする装置。
  21. 時間離散オーディオ信号を符号化し、符号化オーディオデータを得るための方法であって、
    聴覚心理モデル(54)を用いて量子化された時間離散オーディオ信号のスペクトル値の量子化ブロックを供給するステップ(52)と、
    上記量子化ブロックを逆量子化し、この逆量子化されたスペクトル値をラウンディングして、逆量子化されラウンディングされたスペクトル値のラウンディングブロックを得るステップ(58)と、
    整数時間離散サンプルのブロックからスペクトル値の整数ブロックを生成するため構成された整数変換アルゴリズムを用いて、整数スペクトル値の整数ブロックを生成するステップ(56)と、
    差分スペクトル値を有する差分ブロックを得るために、上記ラウンディングブロックと上記整数ブロックとの間のスペクトル値を基にした差分に依存して上記差分ブロックを形成するステップ(58)と、
    上記量子化ブロックに関する情報と上記差分ブロックに関する情報とを含む符号化オーディオデータを生成するために、上記量子化ブロックと上記差分ブロックとを処理するステップ(60)と
    を含むことを特徴とする方法。
  22. 聴覚心理モデル(54)を用いて量子化された時間離散オーディオ信号のスペクトル値の量子化ブロックを供給(52)し、上記量子化ブロックを逆量子化(58)し、この逆量子化されたスペクトル値をラウンディングして、逆量子化されラウンディングされたスペクトル値のラウンディングブロックを得、整数時間離散サンプルのブロックからスペクトル値の整数ブロックを生成するため構成された整数変換アルゴリズムを用いて、整数スペクトル値の整数ブロックを生成(56)し、差分スペクトル値を有する差分ブロックを得るために、上記ラウンディングブロックと上記整数ブロックとの間のスペクトル値を基にした差分に依存して上記差分ブロックを形成(58)することによって、時間離散オーディオ信号から生成された符号化オーディオデータを復号化するための装置であって、
    量子化ブロックと差分ブロックとを得るために、上記符号化オーディオデータを処理する手段(70)と、
    逆量子化された整数量子化ブロックを得るために、上記量子化ブロックを逆量子化しかつラウンディングするための手段(74)と、
    結合ブロックを得るために、上記整数量子化ブロックと上記差分ブロックとをスペクトル値を基にして結合させるための手段(78)と、
    上記結合ブロックと、上記整数変換アルゴリズムとは逆の整数変換アルゴリズムとを用いて、上記時間離散オーディオ信号の時間的表現を生成するための手段(82)と、
    を備えたことを特徴とする装置。
  23. 請求項22に記載の復号化するための装置において、
    上記符号化オーディオデータはスケールされ、かつ複数のスケーリングレイヤを含み、上記符号化オーディオデータを処理する手段(70)は、第1スケーリングレイヤとして上記符号化オーディオデータから上記量子化ブロックを確認し、第2スケーリングレイヤとして上記符号化オーディオデータから上記差分ブロックを確認するように構成されていることを特徴とする装置。
  24. 請求項22に記載の装置において、
    上記差分ブロックに関する情報はバイナリ符号化差分スペクトル値を含み、
    上記符号化オーディオデータはスケーリングされ、かつ複数のスケーリングレイヤを含み、
    上記符号化オーディオデータを処理する手段(70)は、第1スケーリングレイヤとして上記符号化オーディオデータから上記量子化ブロックを確認し、第2スケーリングレイヤとして上記差分スペクトル値の表現を低い精度で引き出すように構成されていることを特徴とする装置。
  25. 請求項24に記載の装置において、
    上記符号化オーディオデータを処理する手段(70)は、第2スケーリングレイヤとして、最高重要ビットから重要度が低いビットまでの幾つかのビットを引き出すように構成され、上記重要度が低いビットとは差分スペクトル値の最低重要ビットよりも重要度が高いビットであり、
    上記時間離散オーディオ信号の時間的表現を生成するための手段(82)は、上記整数変換アルゴリズムを用いる前に、差分スペクトル値のためにミッシングビットを合成的に生成するように構成されていることを特徴とする装置。
  26. 請求項25に記載の装置において、
    上記手段(82)は、上記合成的な生成のために第2スケーリングレイヤのアップスケーリングを、そのアップスケーリングにおいて2n、(nは第2スケーリングレイヤに含まれない低重要ビットの数である)に等しいスケールファクタが用いられるよう実行し、または上記合成的な生成のためにディザリングアルゴリズム(dithering algorithm)を用いるよう構成されていることを特徴とする装置。
  27. 請求項22に記載の装置において、
    上記符号化オーディオデータはスケールされ、かつ複数のスケーリングレイヤを含み、上記符号化オーディオデータを処理する手段(70)は、第1スケーリングレイヤとして上記符号化オーディオデータの量子化ブロックを確認し、第2スケーリングレイヤとしてローパスフィルタリングされた差分スペクトル値を確認するように構成されていることを特徴とする装置。
  28. 請求項22または27に記載の装置において、
    上記符号化オーディオデータはスケールされ、かつ複数のスケーリングレイヤを含み、上記符号化オーディオデータを処理する手段(70)は、第1スケーリングレイヤとして上記符号化データの量子化ブロックを確認し、第2スケーリングレイヤとして第1カット・オフ周波数までの差分スペクトル値を確認するように構成され、
    上記第1カット・オフ周波数は符号器の中で生成されうる差分スペクトル値の最大周波数より低いことを特徴とする装置。
  29. 請求項28に記載の装置において、
    上記時間的表現を生成するための手段(82)は、上記第2スケーリングレイヤのカット・オフ周波数より高い入力値を、全長の整数変換アルゴリズムにおいて、所定値にセットし、かつ符号器の中で生成されうる差分スペクトル値の最大周波数と上記カット・オフ周波数との比に応じて選択されたファクタによって上記逆整数変換アルゴリズムを用いた後で、上記時間離散オーディオ信号の時間的表現をダウンサンプリングするように構成されていることを特徴とする装置。
  30. 請求項29に記載の装置において、
    上記所定値は上記カット・オフ周波数より高いすべての入力値に対してゼロであることを特徴とする装置。
  31. 供給し、逆量子化し、生成し、形成することによって、時間離散オーディオ信号から生成された符号化オーディオデータを復号化するための方法であって、
    量子化ブロックと差分ブロックとを得るために、上記符号化オーディオデータを処理するステップ(70)と、
    逆量子化された整数量子化ブロックを得るために、上記量子化ブロックを逆量子化しかつラウンディングするステップ(74)と、
    結合ブロックを得るために、上記整数量子化ブロックと上記差分ブロックとをスペクトル値を基にして結合させるステップ(78)と、
    上記結合ブロックと上記整数変換アルゴリズムとは逆の整数変換アルゴリズムとを用いて、上記時間離散オーディオ信号の時間的表現を生成するステップ(82)と、
    を備えたことを特徴とする方法。
  32. コンピュータ上で実行されるプログラムであって、請求項21に記載の符号化方法を実行するためのプログラムコードを持つコンピュータプログラム。
  33. コンピュータ上で実行されるプログラムであって、請求項31に記載の復号化方法を実行するためのプログラムコードを持つコンピュータプログラム。
JP2003585070A 2002-04-18 2002-12-02 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法 Expired - Lifetime JP4081447B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10217297A DE10217297A1 (de) 2002-04-18 2002-04-18 Vorrichtung und Verfahren zum Codieren eines zeitdiskreten Audiosignals und Vorrichtung und Verfahren zum Decodieren von codierten Audiodaten
PCT/EP2002/013623 WO2003088212A1 (de) 2002-04-18 2002-12-02 Vorrichtung und verfahren zum codieren eines zeitdiskreten audiosignals und vorrichtung und verfahren zum decodieren von codierten audiodaten

Publications (2)

Publication Number Publication Date
JP2005527851A true JP2005527851A (ja) 2005-09-15
JP4081447B2 JP4081447B2 (ja) 2008-04-23

Family

ID=28798541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003585070A Expired - Lifetime JP4081447B2 (ja) 2002-04-18 2002-12-02 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法

Country Status (9)

Country Link
EP (1) EP1495464B1 (ja)
JP (1) JP4081447B2 (ja)
KR (1) KR100892152B1 (ja)
CN (1) CN1258172C (ja)
AT (1) ATE305655T1 (ja)
CA (1) CA2482427C (ja)
DE (2) DE10217297A1 (ja)
HK (1) HK1077391A1 (ja)
WO (1) WO2003088212A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010508550A (ja) * 2006-11-02 2010-03-18 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトル値の後処理用装置と方法及びオーディオ信号のエンコーダとデコーダ
JP2010538314A (ja) * 2007-08-27 2010-12-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 切り換え可能な時間分解能を用いた低演算量のスペクトル分析/合成
JP2013539548A (ja) * 2010-07-30 2013-10-24 クゥアルコム・インコーポレイテッド 複数段階の形状ベクトル量子化のためのシステム、方法、装置、およびコンピュータ可読媒体
US9208792B2 (en) 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
JP2020512587A (ja) * 2017-03-22 2020-04-23 イマージョン・ネットワークス・インコーポレイテッドImmersion Networks, Inc. オーディオデータを処理するためのシステム及び方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MXPA06003508A (es) * 2003-09-29 2007-01-25 Agency Science Tech & Res Metodo para transformar una senal digital del dominio de tiempo al dominio de frecuencia y viceversa.
JP4849466B2 (ja) * 2003-10-10 2012-01-11 エージェンシー フォー サイエンス, テクノロジー アンド リサーチ デジタル信号をスケーラブルビットストリームにエンコードする方法、及びスケーラブルビットストリームをデコードする方法
DE102004007184B3 (de) * 2004-02-13 2005-09-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Quantisieren eines Informationssignals
DE102004007200B3 (de) * 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
DE102004059979B4 (de) 2004-12-13 2007-11-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Berechnung einer Signalenergie eines Informationssignals
US8494667B2 (en) 2005-06-30 2013-07-23 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US7761303B2 (en) 2005-08-30 2010-07-20 Lg Electronics Inc. Slot position coding of TTT syntax of spatial audio coding application
KR100878828B1 (ko) 2005-10-05 2009-01-14 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US7761289B2 (en) 2005-10-24 2010-07-20 Lg Electronics Inc. Removing time delays in signal paths
EP1852849A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
EP1883067A1 (en) * 2006-07-24 2008-01-30 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
EP1903559A1 (en) 2006-09-20 2008-03-26 Deutsche Thomson-Brandt Gmbh Method and device for transcoding audio signals
DE102007003187A1 (de) * 2007-01-22 2008-10-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines zu sendenden Signals oder eines decodierten Signals
KR101149448B1 (ko) * 2007-02-12 2012-05-25 삼성전자주식회사 오디오 부호화 및 복호화 장치와 그 방법
EP2015293A1 (en) * 2007-06-14 2009-01-14 Deutsche Thomson OHG Method and apparatus for encoding and decoding an audio signal using adaptively switched temporal resolution in the spectral domain
EP2063417A1 (en) * 2007-11-23 2009-05-27 Deutsche Thomson OHG Rounding noise shaping for integer transform based encoding and decoding
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
JP5555707B2 (ja) * 2008-10-08 2014-07-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン マルチ分解能切替型のオーディオ符号化及び復号化スキーム
JP5863765B2 (ja) 2010-03-31 2016-02-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 符号化方法および装置、そして、復号化方法および装置
JP5799707B2 (ja) * 2011-09-26 2015-10-28 ソニー株式会社 オーディオ符号化装置およびオーディオ符号化方法、オーディオ復号装置およびオーディオ復号方法、並びにプログラム
EP2830058A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Frequency-domain audio coding supporting transform length switching
CN105632503B (zh) * 2014-10-28 2019-09-03 南宁富桂精密工业有限公司 信息隐藏方法及系统
EP3471271A1 (en) * 2017-10-16 2019-04-17 Acoustical Beauty Improved convolutions of digital signals using a bit requirement optimization of a target digital signal
WO2019091576A1 (en) * 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
CN107911122A (zh) * 2017-11-13 2018-04-13 南京大学 基于分解压缩的分布式光纤振动传感数据无损压缩方法
US11281312B2 (en) 2018-01-08 2022-03-22 Immersion Networks, Inc. Methods and apparatuses for producing smooth representations of input motion in time and space
WO2019199995A1 (en) 2018-04-11 2019-10-17 Dolby Laboratories Licensing Corporation Perceptually-based loss functions for audio encoding and decoding based on machine learning
DE102019204527B4 (de) * 2019-03-29 2020-11-19 Technische Universität München Kodierungs-/dekodierungsvorrichtungen und verfahren zur kodierung/dekodierung von vibrotaktilen signalen
KR102250835B1 (ko) * 2019-08-05 2021-05-11 국방과학연구소 수동 소나의 협대역 신호를 탐지하기 위한 lofar 또는 demon 그램의 압축 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010508550A (ja) * 2006-11-02 2010-03-18 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトル値の後処理用装置と方法及びオーディオ信号のエンコーダとデコーダ
US8321207B2 (en) 2006-11-02 2012-11-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for postprocessing spectral values and encoder and decoder for audio signals
JP2010538314A (ja) * 2007-08-27 2010-12-09 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 切り換え可能な時間分解能を用いた低演算量のスペクトル分析/合成
JP2013539548A (ja) * 2010-07-30 2013-10-24 クゥアルコム・インコーポレイテッド 複数段階の形状ベクトル量子化のためのシステム、方法、装置、およびコンピュータ可読媒体
US8831933B2 (en) 2010-07-30 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for multi-stage shape vector quantization
US8924222B2 (en) 2010-07-30 2014-12-30 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for coding of harmonic signals
US9236063B2 (en) 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
US9208792B2 (en) 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
JP2020512587A (ja) * 2017-03-22 2020-04-23 イマージョン・ネットワークス・インコーポレイテッドImmersion Networks, Inc. オーディオデータを処理するためのシステム及び方法

Also Published As

Publication number Publication date
CA2482427A1 (en) 2003-10-23
EP1495464B1 (de) 2005-09-28
DE50204426D1 (de) 2005-11-03
AU2002358578A1 (en) 2003-10-27
CN1625768A (zh) 2005-06-08
WO2003088212A1 (de) 2003-10-23
JP4081447B2 (ja) 2008-04-23
EP1495464A1 (de) 2005-01-12
ATE305655T1 (de) 2005-10-15
CA2482427C (en) 2010-01-19
DE10217297A1 (de) 2003-11-06
CN1258172C (zh) 2006-05-31
KR20050007312A (ko) 2005-01-17
HK1077391A1 (en) 2006-02-10
KR100892152B1 (ko) 2009-04-10

Similar Documents

Publication Publication Date Title
JP4081447B2 (ja) 時間離散オーディオ信号を符号化する装置と方法および符号化されたオーディオデータを復号化する装置と方法
US7275036B2 (en) Apparatus and method for coding a time-discrete audio signal to obtain coded audio data and for decoding coded audio data
US7343287B2 (en) Method and apparatus for scalable encoding and method and apparatus for scalable decoding
EP2270777B1 (en) Mixed lossy and lossless audio compression
KR100331166B1 (ko) 오디오신호를 코딩하기 위한 방법 및 장치와 비트스트림을디코딩하기 위한 방법 및 장치
EP1964111B1 (en) Device and method for postprocessing spectral values and encoder and decoder for audio signals
US20100274555A1 (en) Audio Coding Apparatus and Method Thereof
JP5400143B2 (ja) オーバーラッピング変換の2つのブロック変換への因数分解
JP3814611B2 (ja) 時間離散オーディオサンプル値を処理する方法と装置
WO1998042083A1 (en) Audio coding method and apparatus
WO2008072670A1 (ja) 符号化装置、復号装置、およびこれらの方法
EP2856776B1 (en) Stereo audio signal encoder
EP2227682A1 (en) An encoder
Geiger et al. IntMDCT-A link between perceptual and lossless audio coding
US20100292986A1 (en) encoder
US20100280830A1 (en) Decoder
Geiger et al. Integer low delay and MDCT filter banks
US20170206905A1 (en) Method, medium and apparatus for encoding and/or decoding signal based on a psychoacoustic model
JP4721355B2 (ja) 符号化データの符号化則変換方法および装置
US20190096410A1 (en) Audio Signal Encoder, Audio Signal Decoder, Method for Encoding and Method for Decoding
WO2005055203A1 (en) Audio signal coding
Herre Audio Coding Based on Integer Transforms

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071025

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4081447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term