JP5325294B2 - 共通の前処理を有する低ビットレート・オーディオ符号化/復号化方式 - Google Patents

共通の前処理を有する低ビットレート・オーディオ符号化/復号化方式 Download PDF

Info

Publication number
JP5325294B2
JP5325294B2 JP2011517014A JP2011517014A JP5325294B2 JP 5325294 B2 JP5325294 B2 JP 5325294B2 JP 2011517014 A JP2011517014 A JP 2011517014A JP 2011517014 A JP2011517014 A JP 2011517014A JP 5325294 B2 JP5325294 B2 JP 5325294B2
Authority
JP
Japan
Prior art keywords
signal
audio
branch
encoding
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011517014A
Other languages
English (en)
Other versions
JP2011527457A (ja
Inventor
ベルンハルト グリル
シュテファン バイエル
ギヨーム フックス
シュテファン ガヤーズベアガー
ラルフ ガイガー
ジョーハン ヒルペアト
ウルリヒ クレマー
イェレミー ルコンテ
マルクス マルトラス
マクス ノイエンドルフ
ハラルド ポップ
ニコラウス レッテルバッハ
フレドリック ナーゲル
サッシャ ディスヒ
ユールゲン ヘレ
嘉一 横谷
シュテファン ヴァブニック
ゲラルド シューラー
イェンス ヒルシュフェルト
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2011527457A publication Critical patent/JP2011527457A/ja
Application granted granted Critical
Publication of JP5325294B2 publication Critical patent/JP5325294B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation
    • G10L2019/0008Algebraic codebooks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ符号化に関し、特に、低ビットレートオーディオ符化方式に関する。
技術的に、MP3またはAACのような周波数領域符化方式は公知である。これらの周波数領域エンコーダは、時間領域/周波数領域変換、量子化誤差が音響心理学的要素からの情報を用いて制御される次の量子化ステージ、および量子化スペクトル係数および対応する副情報がコード表を用いてエントロピー符号化される符化ステージに基づいている。
一方において、例えば3GPP TS 26.290に示されるようなAMR−WB+などの音声処理に非常によく適しているエンコーダがある。このようなオーディオ符化方式は、時間領域信号の線形予測フィルタリングを実行する。このような線形予測フィルタリングは、入力時間領域信号の線形予測分析から得られる。結果として得られる線形予測フィルタ係数は、符化され、副情報として送信される。そのプロセスは、線形予測符化(LPC)として公知である。フィルタの出力で、励振信号としても知られる予測残差信号または予測誤差信号は、ACELPエンコーダの合成による分析ステージを使用して符号化されるか、あるいは、重なりのあるフーリエ変換を用いた変換エンコーダを用いて符号化される。ACELP符号化およびTCX符号化とも呼ばれている変換符励振符号化の間の決定は、閉ループまたは開ループ・アルゴリズムを用いて行われる。
AAC符化方式およびスペクトルバンド複製技術を組み合わせる高効率−AAC符化方式のような周波数領域オーディオ符化方式は、さらに、ジョイントステレオまたは「MPEGサラウンド」という名のもとに知られているマルチチャネル・コーディング・ツールに組み合わされることができる。
一方では、AMR−WB+のような音声エンコーダも、高周波強化ステージおよびステレオ機能性を有する。
周波数領域符化方式は、音楽信号に対して低ビットレートで高品位を示すという点で有利である。しかしながら、低ビットレートの音声信号の品質は、問題を含む。
音声符化方式は、低ビットレートでも音声信号に対して高品質を示すが、低ビットレートでの音楽信号に対して低品質を示す。
本発明の目的は、改良された符号化コンセプトを提供することである。
この目的は、請求項1のオーディオエンコーダ、請求項13のオーディオ符号化方法、請求項14のオーディオデコーダ、請求項24のオーディオ復号化方法、請求項25のコンピュータ・プログラムまたは請求項26の符号化オーディオ信号によって達成される。
本発明の態様において、スイッチを制御する決定ステージは、2つの分岐のうちの1つに共通の前処理ステージの出力を送るために用いられる。一方では、主にソースモデルおよび/またはSNRのような客観的計測値によって動機付けられ、他方では、シンクモデルおよび/または音響心理学的モデル、すなわち聴覚マスキングによって動機付けられる。典型的には、1つのブランチは周波数領域エンコーダを有し、他のブランチは音声コーダのようなLPC領域エンコーダを有する。ソースモデルは通常音声処理であり、したがって、LPCは共通して用いられる。このように、ジョイントステレオまたはマルチチャネル符号化ステージおよび/または帯域幅拡大ステージのような典型的な前処理ステージは、両方の符号化アルゴリズムのために共通して用いられ、完全なオーディオエンコーダおよび完全な音声コーダが同じ目的のために使われる状況に比べて、相当な量の記憶装置、チップ面積、消費電力を節約する。
好ましい実施例において、オーディオエンコーダは2つのブランチのための共通の前処理ステージを含み、第1のブランチは主にシンクモデルおよび/または音響心理学的なモデルによって、すなわち聴覚マスキングによって動機付けられ、第2のブランチは主にソースモデルによって、および区分SNR計算によって動機付けられる。オーディオエンコーダは、これらのブランチへの入力または決定ステージによって制御されるこれらのブランチの出力において、これらのブランチの間のスイッチングのための1つまたはそれ以上のスイッチを備えることが好ましい。オーディオエンコーダにおいて、第1のブランチは、音響心理学に基づくオーディオエンコーダを含み、第2のブランチはLPCおよびSNR分析器を含む。
好ましい実施例において、オーディオデコーダは、スペクトル領域復号化ブランチのような情報シンクに基づく復号化ブランチ、LPC領域復号化ブランチのような情報源に基づく復号化ブランチ、ブランチの間をスイッチングするためのスイッチ、および後処理されたオーディオ信号を得るために時間領域オーディオ信号を後処理するための共通の後処理ステージを含む。
本発明の更なる態様に従った符号化されたオーディオ信号は、情報シンクモデルを有する第1の符号化アルゴリズムに従って符号化されるオーディオ信号の第1の部分を表す第1の符化ブランチ出力信号であって、オーディオ信号を表す符化スペクトル情報を有する第1の符化ブランチ出力信号と;出力信号の第1の部分とは異なるものであって情報ソースモデルを有する第2の符化アルゴリズムに従って符化されるオーディオ信号の第2の部分を表す第2の符化ブランチ出力信号であって、中間信号を表す情報ソースモデルのための符化パラメータを有する第2の符化ブランチ出力と;オーディオ信号およびオーディオ信号の拡大バージョンの違いを表す共通の前処理パラメータとを含む。
本発明の好ましい実施例は、添付の図面を参照して記載されている。
図1aは、本発明の第1の態様に従った符号化方式を示すブロック図である。 図1bは、本発明の第1の態様に従った復号化方式を示すブロック図である。 図2aは、本発明の第2の態様に従った符号化方式を示すブロック図である。 図2bは、本発明の第2の態様に従った復号化方式を示す図解図である。 図3aは、本発明の更なる態様に従った符号化方式を示すブロック図である。 図3bは、本発明の更なる態様に従う復号化方式を示すブロック図である。 図4aは、符号化ブランチの前に配置されるスイッチを有するブロック図である。 図4bは、ブランチを符化した後に配置されるスイッチを有する符号化方式のブロック図である。 図4cは、好ましいコンバイナの実施例を示すブロック図である。 図5Iの図5aは準周期的なまたはインパルス状の信号部分としての時間領域音声セグメントの波形図であり、図5bは図5aのセグメントのスペクトルを示す。 図5IIの図5cは静止またはノイズ状の部分としての無声音の時間領域音声セグメントであり、図5dは図5cの時間領域波形のスペクトルである。 図6は、合成による分析CELPエンコーダのブロック図である。 図7aは、インパルス状および静止/ノイズ状の信号のための例としての有声/無声励振信号である。 図7bは、インパルス状および静止/ノイズ状の信号のための例としての有声/無声励振信号である。 図7cは、インパルス状および静止/ノイズ状の信号のための例としての有声/無声励振信号である。 図7dは、インパルス状および静止/ノイズ状の信号のための例としての有声/無声励振信号である。 図7eは、短期予測情報および予測誤差を提供するエンコーダ側LPCステージである。 図8は、本発明の実施例に従うジョイント・マルチチャネル・アルゴリズムのブロック図である。 図9は、帯域幅拡大アルゴリズムの好ましい実施例である。 図10aは、開ループ決定を実行するときのスイッチの詳細な説明である。 図10bは、閉ループ決定モードで作動するときのスイッチの実施例である。
モノラル信号、ステレオ信号またはマルチチャネル信号は、図1aの共通の前処理ステージ100に入力される。共通の前処理方式は、ジョイントステレオ機能性、サラウンド機能性および/または帯域幅拡大機能性を有する。ブロック100の出力で、スイッチ200に入力されるモノラル・チャネル、ステレオ・チャネルまたは多重チャネル、またはタイプの複数のスイッチ200がある。
ステージ100が2つまたはそれ以上の出力を有するとき、すなわち、ステージ100がステレオ信号またはマルチチャネル信号を出力するとき、スイッチ200はステージ100の出力ごとに存在することができる。典型的には、ステレオ信号の第1のチャネルは音声チャネルであり、ステレオ信号の第2のチャネルは音楽チャネルとすることができる。この状態で、決定ステージでの決定は、同じ時刻に関して2つのチャネルの間で異なることがありえる。
スイッチ200は、決定ステージ300によって制御される。決定ステージは、入力として、ブロック100に入力される信号またはブロック100によって出力される信号を受信する。あるいは、決定ステージ300は、モノラル信号、ステレオ信号またはマルチチャネル信号に含まれるか、または少なくともこのような信号に関連する副情報を受信し、例えば、もともとモノラル信号、ステレオ信号またはマルチチャネル信号を作成するときに生成される情報が存在する。
ある実施例において、決定ステージは前処理ステージ100を制御せず、ブロック300と100の間の矢印が存在しない。さらなる実施例において、決定に基づいて1つまたはそれ以上のパラメータをブロック100にセットするために、ブロック100の処理は、決定ステージ300によってある程度制御される。しかしながら、これはブロック100における一般のアルゴリズムに影響せず、ブロック100における主機能性は、ステージ300における決定にかかわりなく動作中である。
図1aの上側ブランチで例示される周波数符化部400または図1aの下側ブランチで例示されるLPC領域符号化部500のどちらかにおける共通の前処理ステージの出力を供給するために、決定ステージ300はスイッチ200を作動させる。
実施例において、スイッチ200は、2つの符号化ブランチ400、500の間で切り替わる。さらなる実施例において、第3の符化ブランチ、または第4の符化ブランチ、またはさらなる符化ブランチのように、付加的な符号化ブランチがあってもよい。3つの符号化ブランチを有する実施例において、第3の符化ブランチは第2の符号化ブランチに類似していてもよいが、第2のブランチ500の励振エンコーダ520と異なる励振エンコーダを含むことができる。本実施例において、第2のブランチは、LPCステージ510およびACELPにおけるようなコードブックに基づく励振エンコーダを含み、第3のブランチは、LPCステージと、LPCステージ出力信号のスペクトル表現上で動作する励振エンコーダとを含む。
周波数領域符号化ブランチの重要な要素は、共通の前処理ステージ出力信号をスペクトル領域に変換するスペクトル変換ブロック410である。スペクトル変換ブロックは、MDCTアルゴリズム、QMF、FFTアルゴリズム、ウェーブレット分析または一定数のフィルタバンクチャネルを有する決定的にサンプリングされたフィルタバンクのようなフィルタバンクを含み、このフィルタバンクにおけるサブバンド信号は、実数値の信号または複素数値の信号である。スペクトル変換ブロック410の出力は、AAC符化方式から知られているような処理ブロックを含むスペクトルオーディオエンコーダ420を用いて符号化される。
下側の符号化ブランチ500において、重要な要素は2種類の信号を出力するLPC510のようなソースモデル分析器である。1つの信号は、LPC合成フィルタのフィルタ特性を制御するために用いられるLPC情報信号である。このLPC情報は、デコーダに送信される。他のLPCステージ510出力信号は、励振エンコーダ520に入力される励振信号またはLPC領域信号である。励振エンコーダ520は、例えばCELPエンコーダ、ACELPエンコーダまたはLPC領域信号を処理する他のエンコーダのようなソースフィルタモデル・エンコーダによってもたらされることができる。
他の好ましい励振エンコーダの実現は、励振信号の変換符号化である。本実施例において、励振信号はACELPコードブック・メカニズムを用いて符号化されず、励振信号はスペクトル表現に返還され、フィルタバンクの場合にはサブバンド信号のような、またはFFTのような変換の場合には周波数係数のようなスペクトル表現値はデータ圧縮を得るために符号化される。このような励振エンコーダの実現は、AMR−WB+から知られているTCX符号化モードである。
決定ステージにおける決定は信号適応可能であり、決定手段は音楽/音声識別を行い、音楽信号が上側ブランチ400に入力され、音声信号が下側ブランチ500入力されるというような方法でスイッチ200を制御する。実施例において、決定ステージはその決定情報を出力ビットストリームに供給し、その結果、デコーダは正しい復号化動作を実行するためにこの決定情報を使用することができる。
このようなデコーダが図1bに例示されている。スペクトルオーディオエンコーダ420による信号出力は、送信の後、スペクトルオーディオデコーダ430に入力される。スペクトルオーディオデコーダ430の出力は、時間領域コンバータ440に入力される。同様に、図1aの励振エンコーダ520の出力は、LPC領域信号を出力する励振デコーダ530に入力される。LPC領域信号は、LPC合成ステージ540に入力され、それは、更なる入力として、対応するLPC分析ステージ510によって生成されるLPC情報を受信する。時間領域コンバータ440の出力および/またはLPC合成ステージ540の出力は、スイッチ600に入力される。スイッチ600は、例えば、決定ステージ300によって生成された、または、もともとのモノラル信号、ステレオ信号またはマルチチャネル信号の創作者によって例えば外部から与えられるスイッチ制御信号によって制御される。
スイッチ600の出力は完全なモノラル信号であり、その後、ジョイントステレオ処理または帯域幅拡大処理その他を実行する共通の後処理ステージ700に入力される。あるいは、スイッチの出力はステレオ信号であってもよく、マルチチャネル信号であってもよい。前処理が2つのチャネルへのチャネル縮小を含む場合、それはステレオ信号である。3つのチャネルへのチャネル縮小または全くチャネル縮小はないが、スペクトル帯域幅複製だけが実行される場合、それはマルチチャネル信号である。
共通の後処理ステージの特定の機能性に応じて、モノラル信号、ステレオ信号またはマルチチャネル信号は、共通の後処理ステージ700が帯域幅拡大動作を実行するとき、ブロック700への信号入力より大きい帯域幅を有する出力である。
実施例において、スイッチ600は、2つの復号化ブランチ430、440および530、540の間で切り替わる。さらなる実施例において、第3の復号化ブランチ、第4の復号化ブランチまたはそれ以上の復号化ブランチなどのような付加的な復号化ブランチがあってもよい。3つの復号化ブランチを有する実施例において、第3の復号化ブランチは第2の復号化ブランチと同様にすることができるが、第2のブランチ530、540の励振デコーダ530とは異なる励振デコーダを含んでいてもよい。この実施例において、第2のブランチは、例えばLPCステージ540およびACELPにおけるようなコードブックに基づく励振デコーダを含み、第3のブランチは、LPCステージと、LPCステージ540出力信号のスペクトル表現上で動作する励振デコーダとを含む。
前述したように、図2aは本発明の第2の態様に従った好ましい符号化方式を例示する。図1aからの100における共通の前処理方式は、現在、出力として、ジョイントステレオ・パラメータと、2つまたはそれ以上のチャネルを有する信号である入力信号をダウンミキシングすることによって生成されるモノラル出力信号とを生成するサラウンド/ジョイントステレオ・ブロック101を含む。通常、ブロック101の出力における信号は、より多くのチャネルを有する信号であってもよいが、ブロック101のダウンミキシング機能性のため、ブロック101の出力でのチャネルの数はブロック101に入力されるチャネルの数より小さい。
ブロック101の出力は、図2aのエンコーダにおいて、例えばその出力におけるローバンド信号またはローパス信号などの帯域制限信号を出力する帯域幅拡大ブロック102に入力される。さらに、ブロック102に入力される信号のハイバンドのために、MPEG−4のHE−AACプロファイルから知られているような、スペクトル包絡パラメータ、逆フィルタリング・パラメータ、ノイズフロア・パラメータなどのような帯域幅拡大パラメータが生成され、ビットストリーム・マルチプレクサ800に送られる。
好ましくは、決定ステージ300は、例えば、音楽モードまたは音声モードの間で決定をするために、ブロック101またはブロック102に入力される信号を受信する。音楽モードにおいては、上側の符号化ブランチ400が選択され、その一方で、音声モードにおいては、下側の符号化ブランチ500が選択される。好ましくは、決定ステージは、さらに、ジョイントステレオ・ブロック101および/または帯域幅拡大ブロック102を、これらのブロックの機能性を特定の信号に適応させるために制御する。このように、入力信号の特定の時間部分が音楽モードのような第1のモードにあると決定ステージが決定するとき、ブロック101および/またはブロック102の特定の特徴は決定ステージ300によって制御されることができる。あるいは、信号が音声モードに、または、LPC領域符号化モードにあると決定ステージ300が決定するとき、ブロック101および102の特定の特徴は決定ステージ出力に従って制御されることができる。
スイッチ200の入力信号から、または、ステージ200に入力される信号の基礎となるオリジナルのオーディオ信号の創作者のような外部信号源から導き出されるスイッチの決定に応じて、スイッチは、周波数符化ブランチ400およびLPC符号化ブランチ500の間で切り替わる。周波数符化ブランチ400は、スペクトル変換ステージ410およびその後に接続される量子化/符号化ステージ421(図2aに示すように)を含む。量子化/符号化ステージは、例えばAACエンコーダのような最新の周波数領域エンコーダからわかるような機能性のいずれかを含むことができる。さらに、量子化/符号化ステージ421の量子化動作は、例えば周波数全体を覆う音響心理学的なマスキング閾値のような音響心理学的な情報を生成する音響心理学的モジュールによって制御されることができ、この情報はステージ421に入力される。
好ましくは、スペクトル変換は、MDCT動作を用いて、より好ましくはタイムワープしたMDCT動作を用いて実行され、強度、または、通常、ワープ強度は、ゼロと高いワープ強度との間で制御されることができる。ゼロワープ強度において、ブロック411におけるMDCT動作は、従来から知られている直接的なMDCT動作である。タイムワープ副情報と時間歪曲強度は、副情報として、ビットストリーム・マルチプレクサ800に送信され/入力されることができる。したがって、TW―MDCTが使われる場合、タイムワープ副情報は図2aの424で示されるようにビットストリームに送信されなければならず、−デコーダ側において−タイムワープ副情報は、図2bのアイテム434で示すように、ビットストリームから受け取られなければならない。
LPC符号化ブランチにおいて、LPC領域エンコーダは、ピッチゲイン、ピッチラグおよび/または例えばコードブック・インデックスやコードゲインなどのコードブック情報を算出しているACELPコアを含む。
第1の符号化ブランチ400において、スペクトル・コンバータは、好ましくは、特定の窓関数と、それに続く量子化/エントロピー符化ステージとを含み、それは、ベクトル量子化ステージであってもよいが、好ましくは、図2aのアイテム421で示されているように、周波数領域符号化ブランチにおける量子化器/符号器のために示されているような量子化器/符号器である。
図2bは、図2aの符号化方式に対応する復号化方式を例示する。図2aのビットストリーム・マルチプレクサ800によって生成されたビットストリームは、ビットストリーム・デマルチプレクサ900に入力される。モード検出ブロック601を介して例えばビットストリームから得られる情報に応じて、デコーダ側のスイッチ600は、上側ブランチからの信号または下側ブランチからの信号のどちらかを帯域幅拡大ブロック701に送るように制御される。帯域幅拡大ブロック701は、ビットストリーム・デマルチプレクサ900から副情報を受信して、この副情報およびモード検出601の出力に基づいて、スイッチ600によって出力されるローバンドに基づいてハイバンドを再現する。
ブロック701で生成されるフルバンド信号は、2つのステレオチャネルまたはいくつかのマルチチャネルを再現するジョイントステレオ/サラウンド処理ステージ702に入力される。通常、ブロック702は、このブロックに入力されたより多くのチャネルを出力する。用途に応じて、ブロック702への入力は、ステレオモードにおけるように2つのチャネルを含み、このブロックによる出力がこのブロックへの入力より多いチャネルを有する限り、もっと多くのチャネルを含むことができる。
通常、励振デコーダ530が存在する。ブロック530において実行されるアルゴリズムは、エンコーダ側においてブロック520で使用される対応するアルゴリズムに適応している。ステージ431が周波数/時間コンバータ440を用いて時間領域に変換される時間領域信号から得られるスペクトルを出力する一方、ステージ530はLPC領域信号を出力する。ステージ530の出力データは、エンコーダ側で生成され送信されたLPC情報によって制御されるLPC合成ステージ540を用いて時間領域に変換される。そして、ブロック540に続いて、両方のブランチは、例えばモノラル信号、ステレオ信号またはマルチチャネル信号のようなオーディオ信号を最後に得るためにスイッチ制御信号に従って切り替えられる時間領域情報を有する。
スイッチ200は、一方のブランチだけが処理のために信号を受信し、他方のブランチは処理のために信号を受信しないように、両方のブランチの間で切り替わることを示した。しかしながら、別の実施例において、例えば、スイッチはオーディオエンコーダ420および励振エンコーダ520に続いて配置されてもよく、それは、両方のブランチ400,500が平行して同じ信号を処理することを意味している。しかしながら、ビットレートが倍にならないように、これらの符号化ブランチ400または500の1つによって出力される信号だけが出力ビットストリームに書き込まれるように選択される。ビットストリームに書き込まれる信号が特定の費用関数を最小化するように決定ステージは作動し、費用関数は、生成されたビットレートまたは生成された知覚変容または複合率/歪曲費用関数でありえる。したがって、このモード、または、各図において例示されるモードのいずれかで、決定ステージは、最後に、符化ブランチ出力だけが、与えられた知覚変容のために低いビットレートを有するか、または与えられたビットレートのために低い知覚変容を有するビットストリームに書き込まれることを確認するために、閉ループモードで動作することができる。
通常、ブランチ400における処理は、知覚に基づくモデルまたは情報シンクモデルにおける処理である。このように、このブランチは、音を受信する人間の聴覚系をモデル化する。それに対して、ブランチ500における処理は、励振、未処理またはLPC領域において信号を生成することである。通常、ブランチ500における処理は、音声モデルまたは情報生成モデルにおける処理である。音声信号のために、このモデルは、音を生成している人間の音声/音発生システムのモデルである。しかしながら、異なる音声生成モデルを必要としている異なる音源からの音が符号化されることになっている場合、ブランチ500における処理は異なってもよい。
図1aないし2bは装置のブロック図として示されているが、これらの図は同時に方法の説明図であり、ブロックの機能性は方法のステップに対応する。
図3aは、第1の符号化ブランチ400および第2の符号化ブランチ500の出力で符号化されたオーディオ信号を生成するためのオーディオエンコーダを示す。さらに、符号化されたオーディオ信号は、好ましくは、共通の前処理ステージからの前処理パラメータ、または、先の図と関連して述べられるように、スイッチ制御情報のような副情報を含む。
好ましくは、第1の符号化ブランチは、第1の符号化アルゴリズムに従ってオーディオ中間信号195を符号化するために働き、第1の符号化アルゴリズムは、情報シンクモデルを有する。第1の符号化ブランチ400は、オーディオ中間信号195の符号化されたスペクトル情報表現である第1のエンコーダ出力信号を生成する。
さらに、第2の符号化ブランチ500は、第2の符号化アルゴリズムに従ってオーディオ中間信号195を符号化するのに適応し、第2の符号化アルゴリズムは情報源モデルを有し、第1のエンコーダ出力信号において、中間オーディオ信号を表す情報源モデルのための符号化パラメータを生成する。
オーディオエンコーダは、さらに、オーディオ中間信号195を得るために、オーディオ入力信号99を前処理するための共通の前処理ステージを含む。具体的には、オーディオ中間信号195、すなわち、共通の前処理アルゴリズムの出力がオーディオ入力信号の圧縮バージョンであるように、共通の前処理ステージはオーディオ入力信号99を処理するために働く。
符号化オーディオ信号を生成するためのオーディオ符号化の好ましい方法は、第1の符化アルゴリズムに従ってオーディオ中間信号195を符号化するステップ400であって、第1の符化アルゴリズムは情報シンクモデルを有し、第1の出力信号においてオーディオ信号を表す符化スペクトル情報を生成するものであるステップと;第2の符化アルゴリズムに従ってオーディオ中間信号195を符化するステップ500であって、第2の符化アルゴリズムは情報源モデルを有し、第2の出力信号において中間信号195を表す情報源モデルのための符化パラメータを生成するものであるステップと;オーディオ中間信号195を得るためにオーディオ入力信号99を共通に前処理するステップ100とを含み;共通に前処理するステップにおいて、オーディオ中間信号195がオーディオ入力信号99の圧縮バージョンであるようにオーディオ入力信号99は処理され、オーディオ信号の所定の部分のために第1の出力信号または第2の出力信号のどちらかを含むものである。方法は、好ましくは、第1の符号化アルゴリズムを使用するかまたは第2の符号化アルゴリズムを使用してオーディオ中間信号の所定の部分を符号化するか、または、両方のアルゴリズムを使用して信号を符化し、符号化信号において第1の符号化アルゴリズムの結果または第2の符号化アルゴリズムの結果を出力するステップを含む。
通常、第1の符号化ブランチ400において用いられるオーディオ符号化アルゴリズムは、オーディオシンクの状況を反映して、モデル化する。オーディオ情報のシンクは、通常、人間の耳である。人間の耳は、周波数分析器としてモデル化されることができる。したがって、第1の符号化ブランチは、符化スペクトル情報を出力する。好ましくは、第1の符号化ブランチは、さらに、音響心理学的なマスキング閾値を適用するための音響心理学的なモデルを含む。オーディオスペクトル値を量子化するときに音響心理学的マスキング閾値が用いられ、好ましくは、音響心理学的閾値の下に隠されるスペクトルオーディオ値を量子化することによって量子化ノイズが導入されるように量子化が行われる。
第2の符号化ブランチは、オーディオサウンドの生成を反映する情報源モデルを表す。したがって、情報源モデルは、LPCステージによって、すなわち、時間領域信号をLPC領域に変換することによって、そして、その後LPC残留信号、すなわち励振信号を処理することによって反映される音声モデルを含む。しかしながら、他の音源モデルは、特定の手段、または現実世界に存在している特定の音源のような他の音波発生器を表すための音源モデルである。SNR計算に基づいて、すなわち、どの音源モデルがオーディオ信号の特定の時間部分および/または周波数部分を符化するのに最も適しているかについての計算に基づいて、いくつかの異なる音源モデルが得られるときに、異なる音源モデルの間の選択が行われることができる。しかしながら、好ましくは、符号化ブランチ間の切り替えは時間領域において実行される、すなわち、特定の時間部分が1つのモデルを用いて符号化され、中間信号の特定の異なる時間部分が他の符号化ブランチを用いて符号化される。
情報源モデルは、特定のパラメータによって表される。音声モデルに関して、AMR−WB+のような現代音声コーダを考慮したとき、パラメータはLPCパラメータおよび符号化励振パラメータである。AMR−WB+は、ACELPエンコーダとTCXエンコーダとを含む。この場合、符号化励振パラメータは、グローバルゲイン、ノイズフロアおよび可変長コードでありえる。
通常、すべての情報源モデルは、非常に効果的にオリジナルのオーディオ信号を反映するパラメータ・セットの設定を許容する。したがって、第2の符号化ブランチの出力は、オーディオ中間信号を表す情報源モデルのための符号化パラメータとなる。
図3bは、図3aに示されるエンコーダに対応するデコーダを示す。通常、図3bは、復号化オーディオ信号799を得るために、符号化されたオーディオ信号を復号化するためのオーディオデコーダを示す。デコーダは、情報シンクモデルを有する第1の符号化アルゴリズムに従って符号化された符号化信号を復号化するための第1の復号化ブランチ450を含む。さらに、オーディオデコーダは、情報源モデルを有する第2の符号化アルゴリズムに従って符号化された符号化情報信号を復号化するための第2の復号化ブランチ550を含む。さらに、オーディオデコーダは、結合信号を得るために、第1の復号化ブランチ450および第2の復号化ブランチ550からの出力信号を結合するためのコンバイナを含む。復号化オーディオ中間信号699として図3bに示される結合信号は、コンバイナ600によって出力される結合信号である復号化オーディオ中間信号699を後処理するための共通の後処理ステージに入力され、共通の前処理ステージの出力信号は結合信号の拡張されたバージョンである。このように、復号化オーディオ信号799は、復号化オーディオ中間信号699と比較して拡大情報量を有する。この情報拡大は、エンコーダからデコーダまで送信されることができる、または、復号化オーディオ中間信号自体から得られる前/後処理パラメータの助けを得て、共通の後処理ステージによって与えられている。しかしながら、この手順は復号化オーディオ信号の改良された品質を許容するため、好ましくは、前/後処理パラメータはエンコーダからデコーダに送信される。
図4aおよび4bは、スイッチ200の位置が異なる2つの異なる実施例を示す。図4aにおいて、スイッチ200は、共通の前処理ステージ100の出力と2つの符号化ブランチ400、500の入力との間に配置されている。図4aの実施例は、オーディオ信号が1つの符号化ブランチだけに入力され、共通の前処理ステージの出力に接続されない他の符号化ブランチは機能せず、従って、スイッチオフの状態かスリープモードにあることを確認する。この実施例は、非活性の符号化ブランチが電力、および特に電池式のモバイル・アプリケーションに役立つ計算資源を消費せず、電力消費の一般的限界を有するという点で好ましい。
しかしながら、一方では、電力消費が問題でないときに、図4bの実施例は好ましい。本実施例において、両方の符号化ブランチ400、500は常に動作中であり、特定の時間部分および/または特定の周波数部分のための選択された符号化ブランチの出力だけはビットストリーム・マルチプレクサ800として実施できるビットストリーム・フォーマッタに送られる。したがって、図4bの実施例において、両方の符号化ブランチは常に動作中であり、決定ステージ300によって選択される符号化ブランチの出力は出力ビットストリームに入力され、その一方で、他の選択されない符号化ブランチ400の出力は廃棄される、すなわち、出力ビットストリーム、すなわち符号化オーディオ信号に入力されない。
図4cは、好ましいデコーダ実現の更なる態様を示す。特に、第1のデコーダが時間エイリアシング発生デコーダまたは概説すると周波数領域デコーダであり、第2のデコーダが時間領域デバイスであるような状況において、可聴アーチファクトを避けるために、第1のデコーダ450および第2のデコーダ550によって出力されるブロックまたはフレームの間のボーダーは、特にスイッチング状態においては完全に連続的であってはならない。このように、第1のデコーダ450の第1のブロックが出力され、次の時間部分のために第2のデコーダのブロックが出力されるとき、クロスフェード・ブロック607で示されるように、クロスフェード動作を実行することが好ましい。この目的で、クロスフェード・ブロック607は、図4cに607a、607bおよび607cで示したように実行される。各ブランチは、正規化スケール上の0と1との間に重み係数m1を有する重み付けするものを有し、重み係数は、プロット609に示すように変化することができ、このようなクロスフェード規則は、ユーザーがいかなる音の変化も気付かないことを保障する連続的でスムーズなクロスフェードが行われることを確認する。
特定の場合において、第1のデコーダの最後のブロックは、窓が実際にこのブロックのフェードアウトを実行した窓を用いて生成された。この場合、ブロック607aにおける重み係数m1は1に等しく、実質的に、重み付けはこのブランチのために全く必要でない。
第2のデコーダから第1のデコーダへの切り替えが行われるとき、および第2のデコーダがブロックの終わりまで実際に出力をフェードアウトさせる窓を含むとき、「m2」によって示される重み付けするものは必要でなく、または、重み付けパラメータは全てのクロスフェード領域にわたって1に設定されることができる。
切り替えの後の第1のブロックが窓掛け演算を用いて生成されるとき、および、このウィンドウが実際にフェードイン動作を実行するとき、対応する重み係数は1にセットされることもでき、実際には重み付けするものは必要とされない。したがって、最後のブロックがデコーダによってフェードアウトするために窓掛けされるとき、および、切り替えの後の第1のブロックがフェードインするためにデコーダを用いて窓掛けされるとき、重み付けするもの607a,607bは全く必要ではなく、加算器607cによる加算演算は充分である。
この場合、最後のフレームのフェードアウト部分および次のフレームのフェードイン部分は、ブロック609で示されるクロスフェード領域を定める。さらに、1つのデコーダの最後のブロックが他のデコーダの第1のブロックと特定の時間重なりを有することは、この種の状況において好ましい。
クロスフェード動作が必要でないか可能でないかまたは求められない場合、1つのデコーダから他のデコーダへの切り替えが困難である場合、オーディオ信号の静かな通路において、または、少なくとも、低エネルギーを有するオーディオ信号の通路において、すなわち、それは沈黙であるかほぼ沈黙であると認められるが、このような切り替えを実行することが好ましい。好ましくは、決定ステージ300は、この種の実施例において、例えば、スイッチ・イベントに続く対応する時間部分が、オーディオ信号の平均エネルギーより低くて、好ましくは、オーディオ信号の2つまたはそれ以上の時間部分/フレームに関連するオーディオ信号の平均エネルギーの50%より低いエネルギーを有するとき、スイッチ200が起動するだけであることを保証する。
好ましくは、第2の符号化規則/復号化規則は、LPCに基づく符号化アルゴリズムである。LPCに基づく音声符号化において、準周期的なインパルス状の励振信号セグメントまたは信号部分と、ノイズ状の励振信号セグメントまたは信号部分との間の差別化が行われる。
準周期的なインパルス状の励振信号セグメント、すなわち、特定のピッチを有する信号セグメントは、ノイズ状の励振信号とは異なるメカニズムで符号化される。準周期的なインパルス状の励振信号は有声音に接続されるが、ノイズ状の信号は無声音に関連する。
例えば、5a〜図5dについて説明する。ここで、準周期的なインパルス状の信号セグメントまたは信号部分およびノイズ状の信号セグメントまたは信号部分が例として述べられる。具体的には、図5aに時間領域が示され、図5bに周波数領域が示される有声音は、準周期的なインパルス状の信号部分の例として述べられ、ノイズ状の信号部分の例としての無声音部分は図5cおよび図5dに関連して述べられる。音声は、通常、有声、無声、または混合に分類されることができる。サンプリングされた有声および無声の部分のための時間および周波数領域プロットが、図5a〜図5dに示される。有声音は時間領域において周期的で、周波数領域において調和的に構造化されているが、無声音は不揃いで広帯域である。さらに、有声セグメントのエネルギーは、通常、無声セグメントのエネルギーより高い。有声音の短時間スペクトルは、その繊細なおよびホルマント構造によって特徴づけられる。繊細な調和構造は、有声音の準周期性の結果であって、振動する声帯に起因している。ホルマント構造(スペクトル包絡)は、音源および声道の相互作用に起因する。声道は、咽頭および口腔からなる。有声音の短い時間スペクトルに「適した」スペクトル包絡の形状は、声門のパルスにより声道およびスペクトル傾斜(6dB/オクターブ)の伝達特性と関係している。スペクトル包絡は、ホルマントと呼ばれている一連のピークによって特徴づけられる。ホルマントは、声道の共振モードである。平均的な声道に関して、3〜5のホルマントが、5kHz以下にある。最初の3つのホルマントの振幅および位置は、通常3kHz以下で発生するのであるが、音声合成および知覚の両方に大変重要である。より高いホルマントも、広帯域および無声音表現にとって重要である。音声の特性は、以下のように、物理的な音声発生システムに関連がある。有声音は、声道を励振することによって振動している声帯によって発生する準周期的な声門の空気パルスで生じる。周期的なパルスの周波数は基音周波数またはピッチと呼ばれる。無声音は、空気を声道の狭窄部に強制的に通過させることによって生じる。鼻音は声道への鼻道の音響カップリングに起因し、そして、破裂音は声道の閉鎖の後で高まった大気圧を不意に開放することによって生成される。
このように、オーディオ信号のノイズ状の部分は、図5cおよび図5dに示したように、インパルス状の時間領域構造も調和周波数領域構造も示さず、図5aおよび図5bに示されているような準周期的なインパルス状の部分と異なる。しかしながら、後ほど概説されるように、ノイズ状の部分と準周期的なインパルス状の部分との間の区別は励振信号のためのLPCの後に観察されることができる。LPCは、声道をモデル化して、声道の励振を信号から抽出する方法である。
さらに、準周期的なインパルス状の部分およびノイズ状の部分はタイムリーに起こることができ、時間内の一部のオーディオ信号は雑音が多く、時間内のオーディオ信号の他の部分は準周期的、すなわち音調であることを意味する。あるいは、信号の特性は、異なる周波数帯域において異なることがありえる。このように、オーディオ信号がノイズが多いか音調であるかどうかの判定は周波数選択的に行われ、特定の周波数帯域またはいくつかの特定の周波数帯域は雑音が多く、他の周波数帯域は音調であると考えられる。この場合、オーディオ信号の特定の時間部分は、音調コンポーネントおよび雑音が多いコンポーネントを含むかもしれない。
図7aは、音声生成システムの線形モデルを示す。このシステムは、二段階の励振、すなわち、図7cに示すような有声音のためのインパルス列、および図7dに示すような無声音のためのランダムノイズであるとみなされる。声道は全極型フィルタ70としてモデル化され、声門のモデル72によって生成される図7cまたは図7dのパルスまたはノイズを処理する。全極伝達関数は、ホルマントを表す少数の二端子共振器のカスケードによって形成される。声門モデルは二極ローパスフィルタとして表され、リップ輻射モデル74はL(z)=1−z-1によって表される。最後に、スペクトル補正要素76は、より高い極の低周波効果を補償するために含まれる。個々の音声表現において、スペクトル補正は省略され、リップ輻射伝達関数の0は声門の極のうちの1つによって基本的にキャンセルされる。それ故、図7aのシステムは、ゲインステージ77、フォワード経路78、フィードバック経路79、および加算ステージ80を有する図7bの全極フィルタ・モデルに例えられることができる、フィードバック経路79において、予測フィルタ81があり、図7bにおいて示される全ての音源モデル合成システムは、以下の通りにz領域関数を用いて表されることができる。
S(z)=g/(1―A(z))・X(z)
ここで、gはゲインを表し、A(z)はLPC分析によって定まる予測フィルタであり、X(z)は励振信号であり、S(z)は合成音声出力である。
図7cおよび7dは、線形音源システムモデルを用いた有声音および無声音の合成の図式的な時間領域表現を示す。このシステムおよび上記の方程式の励振パラメータは知られておらず、音声サンプルの有限集合から決定されなければならない。A(z)の係数は、入力信号の線形予測分析およびフィルタ係数の量子化を用いて得られる。p次フォワード線形予測子において、音声シーケンスの現在のサンプルは、p個の過去のサンプルの線形結合から予測される。予測値係数は、レヴィンソン−ダービン・アルゴリズムのような周知のアルゴリズム、または一般的な自動相関方法または反射方法によって測定される。得られたフィルタ係数の量子化は、通常LSF領域、またはISP領域の多段ベクトル量子化によって実行される。
図7eは、例えば図1aのうちの510のようなLPC分析ブロックのより詳細な実施例を示す。オーディオ信号は、フィルタ情報A(z)を決定するフィルタ決定ブロックに入力される。この情報は、デコーダのために必要な短期予測情報として出力される。図4aにおいて、実施例、すなわち、短期予測情報は、インパルス符号器出力信号のために必要であるかもしれない。しかしながら、ライン84の予測エラー信号だけが必要なときに、短期予測情報が出力される必要はない。それにもかかわらず、短期予測情報は、実際の予測フィルタ85によって必要とされる。減算器86において、オーディオ信号の現在のサンプルが入力され、現在のサンプルのための予測値が減算されて、このサンプルに対して予測エラー信号がライン84に生成される。このような予測エラー信号サンプルのシーケンスは、図7cまたは7dにおいて図解されており、明確にするため、AC/DCコンポーネントに関するいかなる問題も示されていない。したがって、図7cは、一種の修正されたインパルス状の信号と考えることができる。
その後、図10〜13にて図示したように、合成による分析CELPエンコーダは、このアルゴリズムに適用される修正を例示するために、図6と関連して後述する。このCELPエンコーダは、「音声符化:個別考察(Speech coding:A Tutorial Review)」Andreas Spaniels、IEEE議事録、Vol.82、No.10、1994年10月、ページ1541―1582、において詳細に議論されている。図6にて図示したように、CELPエンコーダは、長期予測コンポーネント60および短期予測コンポーネント62を含む。さらに、64で示されるコードブックが用いられる。知覚的な重み付けフィルタW(z)は66で実行され、そして、エラー最小化コントローラは68で与えられている。s(n)は、時間領域入力信号である。知覚的に重み付けされた後に、重み付け信号は減算器69に入力され、それはブロック66の出力の重み付け合成信号およびオリジナルの重み付け信号sw(n)との間の誤差を計算する。通常、短期予測A(z)が計算され、その係数は図7eに示すようにLPC分析ステージで量子化される。長期予測ゲインgおよびベクトル量子化インデックス、すなわち、コードブック参照を含む長期予測情報AL(z)は、図7eの10aで示されるLPC分析ステージの出力における予測エラー信号において計算される。CELPアルゴリズムは、例えばガウス・シーケンスのコードブックを用いて、短期および長期の予測の後に得られる残留信号を符号化する。「A」が「代数」のために立っているACELPアルゴリズムは、特定の代数的にデザインされたコードブックを有する。
コードブックは、多かれ少なかれベクトルを含み、各ベクトルは長くいくつかのサンプルである。利得係数gはコードベクトルを拡大・縮小し、得られたコードは長期予測合成フィルタおよび短期予測合成フィルタによってフィルタリングされる。減算器69の出力の知覚的に重み付けされた平均自乗誤差が最小化されるように、「最適な」コードベクトルが選択される。CELPにおける探索プロセスは、図6に示したように、合成による分析の最適化によって実行される。
特定の場合に、フレームが無声音と有声音との混成であるとき、または、音楽を超えた音声が発生するとき、TCX符号化はLPC領域における励振を符号化するためにより適当でありえる。TCX符号化は、励振生成のいかなる仮定もすることなく、周波数領域において励振を直接処理する。TCXは、CELP符号化よりもっと一般的で、励振の有声のまたは無声の音源モデルに制限されない。TCXは、まだ、音声状信号のフォルマントをモデル化するための線形予測フィルタを用いたソース・フィルタ・モデル符号化である。
AMR−WB+のような符号化において、AMR−WB+の説明からわかるように、異なるTCXモードおよびACELP間の選択は起こる。ブロック的な高速フーリエ変換の長さが異なるモードによって異なり、ベストモードは合成による分析アプローチによって、または、ダイレクト「フィードフォワード」モードによって選択されることができるという点で、TCXモードは異なる。
図2aおよび2bと関連して述べられるように、共通の前処理ステージ100は、好ましくは、ジョイント・マルチチャネル(サラウンド/ジョイント・ステレオ・デバイス)101および、さらに、帯域幅拡大ステージ102を含む。それに対応して、デコーダは、帯域幅拡大ステージ701およびその後接続されたジョイント・マルチチャネル・ステージ702を含む。好ましくは、エンコーダに関して、ジョイント・マルチチャネル・ステージ101は、帯域幅拡大ステージ102の前に接続され、デコーダ側において、帯域幅拡大ステージ701は信号処理方向に関してジョイント・マルチチャネル・ステージ702の前に接続される。しかしながら、共通の前処理ステージは、後に接続される帯域幅積拡大ステージのないジョイント・マルチチャネル・ステージまたは接続されたジョイント・マルチチャネル・ステージのない帯域幅拡大ステージを含むことができる。
エンコーダ側101a,101bおよびデコーダ側702a,702bにおけるジョイント・マルチチャネル・ステージのための好ましい実施例が、図8との関連で示される。E個のオリジナルの入力チャネルがダウンミキサー101aに入力されて、ダウンミキサーがK個の送信されたチャネルを生成するが、ここで、数Kは1より大きいか同じであり、Eより小さいものである。
好ましくは、E個の入力チャネルは、パラメータ情報を生成するジョイント・マルチチャネル・パラメータ分析器101bに入力される。好ましくは、このパラメータ情報は、例えば、異なる符化および次のハフマン符号化、あるいは、次の算術符号化によってエントロピー符号化される。ブロック101bによって出力される符号化されたパラメータ情報は、図2bのアイテム702の一部であるパラメータ・デコーダ702bに送信される。パラメータ・デコーダ702bは、送信されたパラメータ情報を復号化し、復号化されたパラメータ情報をアップミキサー702aに送る。アップミキサー702aは、K個の送信チャネルを受信して、L個の出力チャネルを生成するが、ここで、Lの数は、Kより大きく、Eより小さいか等しい。
パラメータ情報は、公知のBCC技術からわかるように、そしてMPEGサラウンド規準に詳述されているように、チャネル間レベル差、チャネル間時間差、チャネル間位相差および/またはチャネル間コヒーレンス測定を含む。送信チャネルの数は、超低ビットレート・アプリケーションのための単一のモノラル・チャネルでもよいし、互換性を持つステレオ・アプリケーションを含んでいてもよいし、または、互換性を持つステレオ信号、すなわち2つのチャネルを含んでいてもよい。概して、E個の入力チャネルの数は、5であるか、それより高くてもよい。あるいは、E個の入力チャネルは、空間オーディオオブジェクト符号化(SAOC)の文脈において公知であるようにE個のオーディオ・オブジェクトであってもよい。
一実施例において、ダウンミキサーは最初のE個の入力チャネルの重み付けされたまたは重み付けされていない加算、または、E個の入力オーディオオブジェクトの加算を実行する。入力チャネルとしてのオーディオオブジェクトの場合、ジョイント・マルチチャネル・パラメータ分析器101bは、好ましくは時間部分ごとに、より好ましくは、周波数帯域ごとに、オーディオオブジェクトの間の相関行列のようなオーディオオブジェクトパラメータを計算する。この目的で、全周波数範囲は、少なくとも10、好ましくは32または64の周波数帯域に分けられる。
図9は、図2aの帯域幅拡大ステージ102および図2bの対応する帯域幅拡大ステージ701の実施のための好ましい実施例を示す。エンコーダ側において、帯域幅拡大ブロック102は、好ましくは、ローパスフィルタ・ブロック102bおよびハイバンド分析器102aを含む。帯域幅拡大ブロック102に入力されるオリジナルのオーディオ信号は、ローパスフィルタリングされてローバンド信号が生成され、それは符号化ブランチおよび/またはスイッチに入力される。ローパスフィルタは、概して3kHz〜10kHzの範囲にあるカットオフ周波数を有する。SBRを用いて、この範囲を超えることができる。さらに、帯域幅拡大ブロック102は、スペクトル包絡パラメータ情報、ノイズフロア・パラメータ情報、逆フィルタリング・パラメータ情報、ハイバンドの特定のハーモニック・ラインに関するパラメータ情報およびスペクトルバンド複製に関連した章のMPEG−4基準(ISO/IEC 14496―3:2005、Part3、Chapter4.6.18)で詳述する付加パラメータのような帯域幅拡大パラメータを計算するためのハイバンド分析器を含む。
デコーダ側において、帯域幅拡大ブロック701は、パッチャ701a、アジャスタ701bおよびコンバイナ701cを含む。コンバイナ701cは、復号化されたローバンド信号と、アジャスタ701bによって出力される再構成され調整されたハイバンド信号出力とを結合する。アジャスタ701bへの入力は、スペクトルバンド複製によって、または、通常、帯域幅拡大によって、ローバンド信号からハイバンド信号を引き出すために動作するパッチャによって与えられる。パッチャ701aによって実行されるパッチングは、調和的方法で、または、非調和的な方法で実行されるパッチングでもよい。パッチャ701aによって生成される信号は、その後、送信されたパラメータの帯域幅拡大情報を用いてアジャスタ701bによって調整される。
図8および図9に示すように、記載されているブロックは、好ましい実施例において、モード制御入力を有する。このモード制御入力は、決定ステージ300の出力信号に由来する。このような好ましい実施例において、対応するブロックの特性は決定ステージ出力、すなわち、音声に対する決定または音楽に対する決定がオーディオ信号の特定の時間部分のためになされるかどうかに適応している。好ましくは、モード制御が、ブロックの機能性の全てではなく、これらのブロックの機能性の1つまたはそれ以上に関連する。例えば、決定は、パッチャ701aだけに影響するが、図9の他のブロックに影響することはなく、また、例えば、図8のジョイント・マルチチャネル・パラメータ分析器101bだけに影響し、図8の他のブロックに影響することはない。共通の前処理ステージに柔軟性を与えることにより、高い柔軟性および高い品質および低いビットレートの出力信号が得られるような実現は好ましい。しかしながら、一方では、両方の種類の信号のための共通の前処理ステージにおけるアルゴリズムの使用は、効率的な符号化/復号化方式の実行を許容する。
図10aおよび図10bは、決定ステージ300の2つの異なる実施例を示す。図10aにおいて、開ループ決定が示される。ここで、決定ステージにおける信号分析器300aは特定の規則を有し、入力信号の特定の時間部分か特定の周波数部分が、この信号部分が第1の符号化ブランチ400によって、または、第2の符号化ブランチ500によって符号化されることが必要である特性を有するかどうかを決める。この目的で、信号分析器300aは、共通の前処理ステージへのオーディオ入力信号を分析するか、または共通の処理ステージによって出力されるオーディオ信号、すなわちオーディオ中間信号を分析するか、または、モノラル信号であるか、図8に示されるkチャネルを有する信号であるダウンミックス信号の出力のような共通の前処理ステージ内の中間信号を分析する。出力側において、信号分析器300aは、エンコーダ側のスイッチ200およびデコーダ側の対応するスイッチ600またはコンバイナ600を制御するためのスイッチング決定を生成する。
あるいは、決定ステージ300は、両方の符号化ブランチがオーディオ信号の同じ部分でそれらの作業を遂行し、そして、両方の符号化信号が対応する復号化ブランチ300c,300dによって復号化されることを意味する閉ループ決定を実行することができる。デバイス300cおよび300dの出力は、復号化デバイスの出力を例えばオーディオ中間信号の対応する部分と比較する比較器300bに入力される。そして、ブランチごとの信号対ノイズ比のようなコスト関数に依存して、スイッチング決定はなされる。この閉ループ決定は開ループ決定と比較して大きな複雑さを有するが、この複雑さはエンコーダ側に存在しているだけであり、デコーダはこの符号化決定の出力を都合よく使用することができるため、デコーダはこのプロセスからいかなる不利な点も受けない。したがって、閉ループモードは、アプリケーションの複雑さおよび品質の考慮により好ましく、デコーダの複雑さは、例えば少数のエンコーダがあるだけで、さらにスマートで安価でなければならない多数のデコーダがある放送に適用されるような問題ではない。
比較器300bによって適用されるコスト関数は、品質面で駆動されるコスト関数でもよいし、ノイズ面で駆動されるコスト関数でもよいし、ビットレート面で駆動されるコスト関数でもよいし、(符号化アーチファクトによって、特に量子化によって導かれる)ビットレート、品質、ノイズなどのいかなる組合せによって駆動される複合コスト関数でもよい。
好ましくは、第1の符化ブランチおよび/または第2の符号化ブランチは、エンコーダ側において、および、対応してデコーダ側において、ワープ機能性を有する。実施例において、第1の符号化ブランチは、一部のオーディオ信号に依存する可変のワープ特性を算出するためのタイムワープ・モジュール、決定されたタイムワープ特性に従ってリサンプリングを行うためのリサンプラ、時間領域/周波数領域コンバータ、および時間領域/周波数領域変換の結果を符化表現に変換するためのエントロピー符号器を含む。可変のワープ特性は、符号化されたオーディオ信号に含まれる。この情報は、タイムワープ強化復号化ブランチによって読み込まれて、最後にワープしないタイム・スケールの出力信号を有するために処理される。例えば、復号化ブランチは、エントロピー復号化、非量子化、周波数領域から時間領域への変換を実行する。時間領域において、反ワープが適用され、最後にワープされないタイム・スケールを有する別々のオーディオ信号を得るために、対応するリサンプリング動作が続く。
発明の方法の特定の実現要求に応じて、発明の方法は、ハードウェアにおいて、またはソフトウェアにおいて実行することができる。特に、実現は、発明の方法が実行されるようにプログラム可能なコンピューターシステムと協働して、その上に格納される電子的に読み込み可能な制御信号を有するデジタル記録媒体、特に、ディスク、DVDまたはCDを用いて実行されることができる。したがって、通常、本発明は、機械で読み取ることができるキャリアに格納されるプログラムコードを有するコンピュータ・プログラム製品であり、コンピュータ・プログラム製品がコンピュータで動くときに、プログラムコードが発明の方法を実行するために作動する。換言すれば、発明の方法は、コンピュータ・プログラムがコンピュータで動くときに、発明の方法のうちの少なくとも1つを実行するためのプログラムコードを有するコンピュータ・プログラムである。
発明の符号化されたオーディオ信号は、デジタル記憶媒体に格納されることができ、例えば無線伝送路やインターネットなどの有線伝送路などの伝送路に送信されることができる。
上記した実施例は、本発明の原理のために単に示しただけである。本願明細書において記載されているアレンジおよび詳細の修正変更は他の当業者にとって明らかであるものと理解される。したがって、間近にある特許クレームの範囲だけによって制限され、本願明細書において実施例として記載され説明されている具体的な詳細によって制限されないことが意図するところである。

Claims (25)

  1. 符号化されたオーディオ信号を生成するためのオーディオエンコーダであって、
    第1の符号化アルゴリズムに従ってオーディオ中間信号(195)を符号化するための第1の符号化ブランチ(400)であって、前記第1の符号化アルゴリズムは、情報シンクモデルを有し、第1の符号化ブランチ出力信号において前記オーディオ中間信号を表す符化されたスペクトル情報を生成し、前記第1の符化ブランチは、前記オーディオ中間信号をスペクトル領域に変換するためのスペクトル変換ブロック(410)と、符化されたスペクトル情報を得るために前記スペクトル変換ブロック(410)の出力信号を符化するためのスペクトルオーディオエンコーダ(420)とを含む第1の符号化ブランチ、
    第2の符号化アルゴリズムに従ってオーディオ中間信号(195)を符号化するための第2の符号化ブランチ(500)であって、前記第2の符号化アルゴリズムは、情報源モデルを有し、第2の符号化ブランチ出力信号において前記オーディオ中間信号(195)を表す情報源モデルのための符号化されたパラメータを生成し、前記第2の符化ブランチは、前記オーディオ中間信号を分析し、LPC合成フィルタと励振信号とを制御することに使用可能なLPC情報信号を出力するためのLPC分析器(510)と、前記符化されたパラメータを得るために前記励振信号を符化するための励振エンコーダ(520)とを含む第2の符号化ブランチ、および
    前記オーディオ中間信号(195)を得るためにオーディオ入力信号(99)を前処理するための共通の前処理ステージ(100)であって、前記共通の前処理ステージ(100)は、前記オーディオ中間信号(195)が前記オーディオ入力信号(99)の圧縮バージョンであるように前記オーディオ入力信号(99)を処理するように動作する共通の前処理ステージを含む、オーディオエンコーダ。
  2. さらに、前記第1の符号化ブランチ(400)と前記第2の符号化ブランチ(500)の間において、両ブランチへの入力または両ブランチの出力に接続されるスイッチングステージ(200)を含み、前記スイッチングステージはスイッチング制御信号によって制御される、請求項1に記載のオーディオエンコーダ。
  3. さらに、前記第1の符号化ブランチ出力信号または前記第2の符号化ブランチ出力信号のどちらかとして、前記符号化されたオーディオ信号において送信される信号の時間または周波数部分を見つけるために、前記オーディオ入力信号(99)または前記オーディオ中間信号(195)または時間または周波数において前記共通の前処理ステージ(100)における中間信号を分析するための決定ステージ(300,300a,300b)を含む、請求項2に記載のオーディオエンコーダ。
  4. 前記共通の前処理ステージ(100)は、オーディオ中間信号(195)の第1のおよび異なる第2の部分に含まれないオーディオ入力信号の部分のための共通の前処理パラメータを計算し、前記前処理パラメータの符号化表現を前記符されたオーディオ信号に導入するように動作し、前記符号化されたオーディオ信号は、さらに、前記オーディオ中間信号の第1の部分を表すための第1の符化ブランチ出力信号および前記オーディオ中間信号の第2の部分を表すための第2の符号化ブランチ出力信号を含む、請求項1ないし請求項3のいずれかに記載のオーディオエンコーダ。
  5. 前記共通の前処理ステージ(100)は、ジョイント・マルチチャネル・モジュール(101)を含み、前記ジョイント・マルチチャネル・モジュールは、
    1より大きいか等しく、ダウン・ミキサー(101a)に入力されるチャネルの数より小さいダウンミックス・チャネルの数を生成するためのダウン・ミキサー(101a)、および
    マルチチャネル・パラメータを計算し、前記マルチチャネル・パラメータおよびダウンミックス・チャネルの数を用いて、オリジナルのチャネルの表現が可能であるようにするためのマルチチャネル・パラメータ計算器(101b)を含む、請求項1ないし請求項4のいずれかに記載のオーディオエンコーダ。
  6. 前記マルチチャネル・パラメータは、チャネル間レベル差パラメータ、チャネル間相関またはコヒーレンス・パラメータ、チャネル間位相差パラメータ、チャネル間時間差パラメータ、オーディオオブジェクトパラメータまたは方向または拡散パラメータである、請求項5に記載のオーディオエンコーダ。
  7. 前記共通の前処理ステージ(100)は、バンド幅拡大分析ステージ(102)を含み、
    入力信号におけるハイバンドを拒絶し、ローバンド信号を生成するための帯域制限デバイス(102b)、および
    前記帯域制限デバイスによって拒絶されるハイバンドのためのバンド幅拡大パラメータを計算するためのパラメータ計算機(102a)を含み、前記パラメータ計算器(102a)は、算出パラメータおよびローバンド信号を用いて、帯域幅拡大入力信号の再構成が実行可能であるようにされる、請求項1ないし請求項6のいずれかに記載のオーディオエンコーダ。
  8. 前記共通の前処理ステージ(100)は、ジョイント・マルチチャネル・モジュール(101)、帯域幅拡大ステージ(102)、および第1の符号化ブランチ(400)と第2の符号化ブランチ(500)との間の切り替えのためのスイッチ(200)を含み、
    前記ジョイント・マルチチャネル・ステージ(101)の出力は前記帯域幅拡大ステージ(102)の入力に接続され、前記帯域幅拡大ステージの出力は前記スイッチ(200)の入力に接続され、前記スイッチの第1の出力は前記第1の符号化ブランチの入力に接続され、前記スイッチの第2の出力は前記第2の符号化ブランチ(500)の入力に接続され、前記符号化ブランチの出力はビットストリーム作成器(800)に接続される、請求項1ないし請求項7のいずれかに記載のオーディオエンコーダ。
  9. 前記決定ステージ(300)は前記第2の符号化ブランチ(500)と比較して特定のビットレートでより良好な信号対ノイズ比を有する前記第1の符号化ブランチ(400)によって符号化される部分を探すための決定ステージ入力信号を分析するように動作し、前記決定ステージ(300)は符号化されたおよび再び復号化された信号のない開ループ・アルゴリズムに基づいて、または、符号化されたおよび再び復号化された信号を用いた閉ループ・アルゴリズムに基づいて分析するように動作する、請求項3に記載のオーディオエンコーダ。
  10. 前記共通の前処理ステージは、特定の数の機能性(101a、101b、102a、102b)を有し、少なくとも1つの機能性は決定ステージ(300)出力信号によって適応性があり、少なくとも1つの機能性は適応性がない、請求項3に記載のオーディオエンコーダ。
  11. 前記第1の符号化ブランチは、オーディオ信号の部分によって決まる可変ワープ特性を計算するための時間ワープモジュールを含み、
    前記第1の符号化ブランチは、決定されたワープ特性に応じてリサンプリングを行うためのリサンプラを含み、
    前記第1の符号化ブランチは、時間領域/周波数領域コンバータおよび時間領域/周波数領域変換の結果を符化された表現に変換するためのエントロピー符号器を含み、
    可変ワープ特性は、符号化されたオーディオ信号に含まれる、請求項1ないし請求項10のいずれかに記載のオーディオエンコーダ。
  12. 前記共通の前処理ステージは、少なくとも2つの中間信号を出力するように働き、それぞれのオーディオ中間信号に対して、前記第1および前記第2の符化ブランチおよび前記2つのブランチを切り替えるためのスイッチが与えられる、請求項1ないし請求項11のいずれかに記載のオーディオエンコーダ。
  13. 符号化されたオーディオ信号を生成するためのオーディオ符号化方法であって、
    第1の符号化アルゴリズムに従ってオーディオ中間信号(195)を符号化するステップ(400)であって、前記第1の符号化アルゴリズムは、情報シンクモデルを有し、第1の出力信号において、前記オーディオ信号を表す符化されたスペクトル情報を生成し、前記第1の符化アルゴリズムは、前記オーディオ中間信号をスペクトル領域に変換するスペクトル変換ステップ(410)と、符化されたスペクトル情報を得るために前記スペクトル変換ステップ(410)の出力信号を符化するスペクトルオーディオ符化ステップ(420)とを含むステップ、
    第2の符号化アルゴリズムに従ってオーディオ中間信号(195)を符号化するステップ(500)であって、前記第2の符号化アルゴリズムは、情報源モデルを有し、第2の出力信号において、前記中間信号(195)を表す前記情報源モデルのための符号化されたパラメータを生成し、前記第2の符号化ブランチは、前記オーディオ中間信号をLPC分析(510)してLPC合成フィルタを制御することに使用可能なLPC情報信号と、励振信号とを出力するステップと、符化されたパラメータを得るために前記励振信号を励振符号化(520)するステップとを含むステップ、および
    前記オーディオ中間信号(195)を得るためにオーディオ入力信号(99)を共通に前処理するステップ(100)であって、共通に前処理するステップにおいて、前記オーディオ中間信号(195)が前記オーディオ入力信号(99)の圧縮バージョンであるように、前記オーディオ入力信号(99)が処理されるステップを含み、
    前記符号化されたオーディオ信号は、前記オーディオ信号の特定の部分に対して、前記第1の出力信号または前記第2の出力信号のいずれかを含む、オーディオ符化方法。
  14. 符号化されたオーディオ信号を復号化するためのオーディオデコーダであって、
    情報シンクモデルを有する第1の符号化アルゴリズムに従って符号化された符号化信号を復号化するための第1の復号化ブランチ(430、440)であって、前記第1の復号化ブランチは、情報シンクモデルを有する第1の符化アルゴリズムに従って符化された符号化信号をスペクトルオーディオ復号化するためのスペクトルオーディオデコーダ(430)と、前記スペクトルオーディオデコーダ(430)の出力信号を時間領域に変換するための時間領域コンバータ(440)とを含む第1の復号化ブランチ、
    情報源モデルを有する第2の符号化アルゴリズムに従って符号化された符号化オーディオ信号を復号化するための第2の復号化ブランチ(530、540)であって、前記第2の復号化ブランチは、LPC領域信号を得るために第2の符化アルゴリズムにしたがって符化された符化オーディオ信号を復号化するための励振デコーダ(530)と、LPC分析ステージによって生成されたLPC情報信号を受信し前記LPC領域信号を時間領域に変換するためのLPC合成ステージ(540)とを含む第2の復号化ブランチ、
    前記第1の復号化ブランチ(430、440)の前記時間領域コンバータ(440)および前記第2の復号化ブランチ(530、540)の前記LPC合成ステージ(540)からの時間領域出力信号を結合して結合信号(699)を得るためのコンバイナ(600)、および
    前記結合信号(699)を処理するための共通の後処理ステージ(700)であって、前記共通の後処理ステージの復号化された出力信号(799)が前記結合信号(699)の拡大バージョンであるようにする共通の後処理ステージを含む、オーディオデコーダ。
  15. 前記コンバイナ(600)は、前記結合オーディオ信号(699)が連続的な別々の時間領域信号であるように、前記符化オーディオ信号に明確にまたは黙示的に含まれるモード標識に従って前記第1の復号化ブランチ(450)および前記第2の復号化ブランチ(550)からの復号化信号を切り替えるためのスイッチを含む、請求項14に記載のオーディオデコーダ。
  16. 前記コンバイナ(600)は、スイッチング・イベントの場合、時間領域クロスフェード範囲において復号化ブランチ(450,550)の出力とそれとは別の復号化ブランチ(450,550)の出力との間でクロスフェードするためのクロスフェーダ(607)を含む、請求項14または請求項15に記載のオーディオデコーダ。
  17. 前記クロスフェーダ(607)は、クロスフェード範囲において少なくとも1つの前記復号化ブランチ出力信号を重み付けし、別の復号化ブランチ(607c)からの重み付けされたまたは重み付けされていない信号に少なくとも1つの重み付けされた信号を加えるように働き、少なくとも1つの信号(607a,607b)の重み付けのために用いられる重みは、クロスフェード範囲において可変である、請求項16に記載のオーディオデコーダ。
  18. 前記共通の処理ステージは、ジョイント・マルチチャネル・デコーダ(702)または帯域幅拡大プロセッサ(701)のうちの少なくとも1つを含む、請求項14ないし請求項17のいずれかに記載のオーディオデコーダ。
  19. 前記ジョイント・マルチチャネル・デコーダ(702)は、パラメータ・デコーダ(702b)およびパラメータ・デコーダ(702b)出力によって制御されるアップミキサー(702a)を含む、請求項18に記載のオーディオデコーダ。
  20. 前記帯域幅拡大プロセッサ(702)は、ハイバンド信号をつくるためのパッチャ(701a)、ハイバンド信号を調整するためのアジャスタ(701b)、および帯域幅拡大信号を得るために調整されたハイバンド信号およびローバンド信号を結合するためのコンバイナ(701c)を含む、請求項18に記載のオーディオデコーダ。
  21. 前記第1の復号化ブランチ(450)は周波数領域オーディオデコーダを含み、前記第2の復号化ブランチ(550)は時間領域音声デコーダを含む、請求項14ないし請求項20のいずれかに記載のオーディオデコーダ。
  22. 前記第1の復号化ブランチ(450)は周波数領域オーディオデコーダを含み、前記第2の復号化ブランチ(550)はLPCに基づくデコーダを含む、請求項14ないし請求項20のいずれかに記載のオーディオデコーダ。
  23. 前記共通の後処理ステージは、特定の数の機能性(700、701、702)を有し、少なくとも1つの機能性は、モード検出機能(601)によって適応性があり、少なくとも一つの機能性は適応性がない、請求項14ないし請求項22のいずれかに記載のオーディオデコーダ。
  24. 符号化されたオーディオ信号のオーディオ復号化方法であって、
    情報シンクモデルを有する第1の符号化アルゴリズムに従って符号化された符号化信号を復号化するステップ(450)であって、情報シンクモデルを有する第1の符化アルゴリズムに従って符化された符化信号をスペクトルオーディオ復号化するステップ(430)と、前記スペクトルオーディオ復号化ステップ(430)の出力信号を時間領域に時間領域変換するステップ(440)とを含むステップ、
    情報源モデルを有する第2の符号化アルゴリズムに従って符号化された符号化オーディオ信号を復号化するステップ(550)であって、LPC領域信号を得るために第2の符化アルゴリズムに従って符化された符化オーディオ信号を励振復号化するステップ(530)と、LPC分析ステージによって生成されたLPC情報信号を受信してLPC領域信号を時間領域に変換するためにLPC合成するステップ(540)とを含むステップ、
    結合信号(699)を得るために、時間領域変換するステップ(440)およびLPC合成するステップ(540)からの時間領域出力信号を結合するステップ(600)、および
    共通の後処理ステージの復号化された出力信号(799)が結合信号(799)の拡大バージョンであるように結合信号(699)を共通に処理するステップ(700)を含む、オーディオ復号化方法。
  25. コンピュータ上で実行されるとき、請求項14または請求項24の方法を実行させるためのコンピュータ・プログラム。
JP2011517014A 2008-07-11 2009-07-06 共通の前処理を有する低ビットレート・オーディオ符号化/復号化方式 Active JP5325294B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US7986108P 2008-07-11 2008-07-11
US61/079,861 2008-07-11
EP08017662.1 2008-10-08
EP08017662 2008-10-08
EP09002272.4 2009-02-18
EP09002272A EP2144231A1 (en) 2008-07-11 2009-02-18 Low bitrate audio encoding/decoding scheme with common preprocessing
PCT/EP2009/004873 WO2010003617A1 (en) 2008-07-11 2009-07-06 Low bitrate audio encoding/decoding scheme with common preprocessing

Publications (2)

Publication Number Publication Date
JP2011527457A JP2011527457A (ja) 2011-10-27
JP5325294B2 true JP5325294B2 (ja) 2013-10-23

Family

ID=40750900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011517014A Active JP5325294B2 (ja) 2008-07-11 2009-07-06 共通の前処理を有する低ビットレート・オーディオ符号化/復号化方式

Country Status (19)

Country Link
US (1) US8804970B2 (ja)
EP (2) EP2144231A1 (ja)
JP (1) JP5325294B2 (ja)
KR (3) KR101346894B1 (ja)
CN (1) CN102124517B (ja)
AR (1) AR072423A1 (ja)
AT (1) ATE540401T1 (ja)
AU (1) AU2009267432B2 (ja)
BR (4) BR122021017287B1 (ja)
CA (1) CA2730237C (ja)
CO (1) CO6341673A2 (ja)
ES (1) ES2380307T3 (ja)
HK (1) HK1156723A1 (ja)
MX (1) MX2011000383A (ja)
PL (1) PL2311035T3 (ja)
RU (1) RU2483365C2 (ja)
TW (1) TWI463486B (ja)
WO (1) WO2010003617A1 (ja)
ZA (1) ZA201009209B (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
ES2396927T3 (es) * 2008-07-11 2013-03-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para decodificar una señal de audio codificada
EP2144231A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
WO2010003663A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding frames of sampled audio signals
MX2011000367A (es) * 2008-07-11 2011-03-02 Fraunhofer Ges Forschung Un aparato y un metodo para calcular una cantidad de envolventes espectrales.
KR101797033B1 (ko) 2008-12-05 2017-11-14 삼성전자주식회사 부호화 모드를 이용한 음성신호의 부호화/복호화 장치 및 방법
RU2559899C2 (ru) 2010-04-09 2015-08-20 Долби Интернешнл Аб Стереофоническое кодирование на основе mdct с комплексным предсказанием
KR101697550B1 (ko) 2010-09-16 2017-02-02 삼성전자주식회사 멀티채널 오디오 대역폭 확장 장치 및 방법
CN103282959B (zh) * 2010-10-25 2015-06-03 沃伊斯亚吉公司 低位速率和短延迟地编码普通音频信号
US9037456B2 (en) 2011-07-26 2015-05-19 Google Technology Holdings LLC Method and apparatus for audio coding and decoding
EP2600343A1 (en) 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for merging geometry - based spatial audio coding streams
US9043201B2 (en) 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
EP2849180B1 (en) * 2012-05-11 2020-01-01 Panasonic Corporation Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
EP2665208A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Method and apparatus for compressing and decompressing a Higher Order Ambisonics signal representation
RU2656681C1 (ru) * 2012-11-13 2018-06-06 Самсунг Электроникс Ко., Лтд. Способ и устройство для определения режима кодирования, способ и устройство для кодирования аудиосигналов и способ, и устройство для декодирования аудиосигналов
WO2014077254A1 (ja) * 2012-11-15 2014-05-22 株式会社Nttドコモ 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム
US9548056B2 (en) * 2012-12-19 2017-01-17 Dolby International Ab Signal adaptive FIR/IIR predictors for minimizing entropy
PL2943953T3 (pl) 2013-01-08 2017-07-31 Dolby International Ab Prognozowanie oparte na modelu w próbkowanym krytycznie banku filtrów
PL2951821T3 (pl) 2013-01-29 2017-08-31 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Koncepcja kompensacji przełączania trybu kodowania
JP6179122B2 (ja) * 2013-02-20 2017-08-16 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
MY181026A (en) * 2013-06-21 2020-12-16 Fraunhofer Ges Forschung Apparatus and method realizing improved concepts for tcx ltp
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830047A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for low delay object metadata coding
EP2830050A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
EP2830052A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
EP2830058A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Frequency-domain audio coding supporting transform length switching
EP2830053A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a residual-signal-based adjustment of a contribution of a decorrelated signal
US9666202B2 (en) * 2013-09-10 2017-05-30 Huawei Technologies Co., Ltd. Adaptive bandwidth extension and apparatus for the same
EP3058569B1 (en) 2013-10-18 2020-12-09 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. Concept for encoding an audio signal and decoding an audio signal using deterministic and noise like information
CN111370009B (zh) 2013-10-18 2023-12-22 弗朗霍夫应用科学研究促进协会 使用语音相关的频谱整形信息编码音频信号和解码音频信号的概念
PT3285255T (pt) 2013-10-31 2019-08-02 Fraunhofer Ges Forschung Descodificador de áudio e método para fornecer uma informação de áudio descodificada utilizando uma ocultação de erro baseada num sinal de excitação no domínio de tempo
PL3336840T3 (pl) * 2013-10-31 2020-04-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dekoder audio i sposób dostarczania zdekodowanej informacji audio z wykorzystaniem maskowania błędów modyfikującego sygnał pobudzenia w dziedzinie czasu
ES2716652T3 (es) * 2013-11-13 2019-06-13 Fraunhofer Ges Forschung Codificador para la codificación de una señal de audio, sistema de transmisión de audio y procedimiento para la determinación de valores de corrección
FR3013496A1 (fr) * 2013-11-15 2015-05-22 Orange Transition d'un codage/decodage par transformee vers un codage/decodage predictif
US9564136B2 (en) * 2014-03-06 2017-02-07 Dts, Inc. Post-encoding bitrate reduction of multiple object audio
BR122020015614B1 (pt) 2014-04-17 2022-06-07 Voiceage Evs Llc Método e dispositivo para interpolar parâmetros de filtro de predição linear em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior
EP2980794A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2980797A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition
CN104269173B (zh) * 2014-09-30 2018-03-13 武汉大学深圳研究院 切换模式的音频带宽扩展装置与方法
EP3067887A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
CN106205628B (zh) * 2015-05-06 2018-11-02 小米科技有限责任公司 声音信号优化方法及装置
EP3405950B1 (en) 2016-01-22 2022-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Stereo audio coding with ild-based normalisation prior to mid/side decision
EP3276620A1 (en) * 2016-07-29 2018-01-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time domain aliasing reduction for non-uniform filterbanks which use spectral analysis followed by partial synthesis
DE102016214693B4 (de) 2016-08-08 2018-05-09 Steinbeiss-Forschungszentrum, Material Engineering Center Saarland Elektrisch leitendes Kontaktelement für einen elektrischen Steckverbinder, elektrischer Steckverbinder, der ein solches Kontaktelement umfasst, und Verfahren zum Einschließen eines Hilfsstoffes unter der Kontaktoberfläche eines solchen Kontaktelements
US10825467B2 (en) * 2017-04-21 2020-11-03 Qualcomm Incorporated Non-harmonic speech detection and bandwidth extension in a multi-source environment
KR102623514B1 (ko) * 2017-10-23 2024-01-11 삼성전자주식회사 음성신호 처리장치 및 그 동작방법
EP3483884A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
AU2018368589B2 (en) * 2017-11-17 2021-10-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding directional audio coding parameters using quantization and entropy coding
CN109036457B (zh) 2018-09-10 2021-10-08 广州酷狗计算机科技有限公司 恢复音频信号的方法和装置
US20200402522A1 (en) * 2019-06-24 2020-12-24 Qualcomm Incorporated Quantizing spatial components based on bit allocations determined for psychoacoustic audio coding
CN112447165A (zh) * 2019-08-15 2021-03-05 阿里巴巴集团控股有限公司 信息处理、模型训练和模型构建方法、电子设备、智能音箱
CN113129913B (zh) * 2019-12-31 2024-05-03 华为技术有限公司 音频信号的编解码方法和编解码装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3317470B2 (ja) * 1995-03-28 2002-08-26 日本電信電話株式会社 音響信号符号化方法、音響信号復号化方法
JP4132109B2 (ja) * 1995-10-26 2008-08-13 ソニー株式会社 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
JPH10124092A (ja) 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
SE9700772D0 (sv) * 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
US6447490B1 (en) * 1997-08-07 2002-09-10 James Zhou Liu Vagina cleaning system for preventing pregnancy and sexually transmitted diseases
EP0907258B1 (en) * 1997-10-03 2007-01-03 Matsushita Electric Industrial Co., Ltd. Audio signal compression, speech signal compression and speech recognition
CN1192355C (zh) * 1999-11-16 2005-03-09 皇家菲利浦电子有限公司 宽带音频传输系统
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
ES2268112T3 (es) 2001-11-14 2007-03-16 Matsushita Electric Industrial Co., Ltd. Codificacion y descodificacion de audio.
US6785645B2 (en) * 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
TW564400B (en) 2001-12-25 2003-12-01 Univ Nat Cheng Kung Speech coding/decoding method and speech coder/decoder
AU2003234763A1 (en) 2002-04-26 2003-11-10 Matsushita Electric Industrial Co., Ltd. Coding device, decoding device, coding method, and decoding method
US7876966B2 (en) * 2003-03-11 2011-01-25 Spyder Navigations L.L.C. Switching between coding schemes
US7756709B2 (en) * 2004-02-02 2010-07-13 Applied Voice & Speech Technologies, Inc. Detection of voice inactivity within a sound stream
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
ES2291877T3 (es) * 2004-05-17 2008-03-01 Nokia Corporation Codificacion de audio con diferentes modelos de codificacion.
US7596486B2 (en) * 2004-05-19 2009-09-29 Nokia Corporation Encoding an audio signal using different audio coder modes
US8423372B2 (en) * 2004-08-26 2013-04-16 Sisvel International S.A. Processing of encoded signals
US8121836B2 (en) * 2005-07-11 2012-02-21 Lg Electronics Inc. Apparatus and method of processing an audio signal
US7653533B2 (en) * 2005-10-24 2010-01-26 Lg Electronics Inc. Removing time delays in signal paths
US7720677B2 (en) * 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
EP1984913A4 (en) * 2006-02-07 2011-01-12 Lg Electronics Inc DEVICE AND METHOD FOR CODING / DECODING A SIGNAL
MX2008016163A (es) * 2006-06-30 2009-02-04 Fraunhofer Ges Forschung Codificador de audio, decodificador de audio y procesador de audio con caracteristicas de warping variable de manera dinamica.
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
KR100964402B1 (ko) * 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
KR100883656B1 (ko) * 2006-12-28 2009-02-18 삼성전자주식회사 오디오 신호의 분류 방법 및 장치와 이를 이용한 오디오신호의 부호화/복호화 방법 및 장치
KR101379263B1 (ko) * 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
KR101452722B1 (ko) * 2008-02-19 2014-10-23 삼성전자주식회사 신호 부호화 및 복호화 방법 및 장치
EP2144231A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing

Also Published As

Publication number Publication date
KR20130092604A (ko) 2013-08-20
ATE540401T1 (de) 2012-01-15
CA2730237A1 (en) 2010-01-14
CN102124517A (zh) 2011-07-13
BR122020025711B1 (pt) 2021-10-13
CA2730237C (en) 2015-03-31
KR20130014642A (ko) 2013-02-07
US8804970B2 (en) 2014-08-12
BR122020025776B1 (pt) 2021-09-28
KR101645783B1 (ko) 2016-08-04
WO2010003617A1 (en) 2010-01-14
MX2011000383A (es) 2011-02-25
TWI463486B (zh) 2014-12-01
KR101346894B1 (ko) 2014-01-02
CO6341673A2 (es) 2011-11-21
JP2011527457A (ja) 2011-10-27
TW201007702A (en) 2010-02-16
PL2311035T3 (pl) 2012-06-29
KR20110040899A (ko) 2011-04-20
AU2009267432A1 (en) 2010-01-14
ZA201009209B (en) 2011-09-28
CN102124517B (zh) 2012-12-19
ES2380307T3 (es) 2012-05-10
US20110200198A1 (en) 2011-08-18
EP2144231A1 (en) 2010-01-13
RU2011100133A (ru) 2012-07-20
EP2311035A1 (en) 2011-04-20
EP2311035B1 (en) 2012-01-04
HK1156723A1 (en) 2012-06-15
RU2483365C2 (ru) 2013-05-27
BR122021017287B1 (pt) 2022-02-22
BR122021017391B1 (pt) 2022-02-22
AR072423A1 (es) 2010-08-25
AU2009267432B2 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
US11676611B2 (en) Audio decoding device and method with decoding branches for decoding audio signal encoded in a plurality of domains
JP5325294B2 (ja) 共通の前処理を有する低ビットレート・オーディオ符号化/復号化方式
JP5613157B2 (ja) 切り換え可能なバイパスを有するオーディオ符号化/復号化方式
RU2520402C2 (ru) Переключаемая аудио кодирующая/декодирующая схема с мультиразрешением

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130719

R150 Certificate of patent or registration of utility model

Ref document number: 5325294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250