JP4574626B2 - マルチチャネル出力信号を構築する装置および方法またはダウンミックス信号を生成する装置および方法 - Google Patents

マルチチャネル出力信号を構築する装置および方法またはダウンミックス信号を生成する装置および方法 Download PDF

Info

Publication number
JP4574626B2
JP4574626B2 JP2006550000A JP2006550000A JP4574626B2 JP 4574626 B2 JP4574626 B2 JP 4574626B2 JP 2006550000 A JP2006550000 A JP 2006550000A JP 2006550000 A JP2006550000 A JP 2006550000A JP 4574626 B2 JP4574626 B2 JP 4574626B2
Authority
JP
Japan
Prior art keywords
channel
channels
original
signal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006550000A
Other languages
English (en)
Other versions
JP2007519349A (ja
Inventor
ユールゲン ヘレ
クリストフ フォーラー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Agere Systems LLC
Original Assignee
Agere Systems LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34750329&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4574626(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Agere Systems LLC filed Critical Agere Systems LLC
Publication of JP2007519349A publication Critical patent/JP2007519349A/ja
Application granted granted Critical
Publication of JP4574626B2 publication Critical patent/JP4574626B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Radio Relay Systems (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Logic Circuits (AREA)

Description

本発明は、マルチチャネルオーディオ信号を処理する装置および方法に関し、特に、ステレオと互換性があるようにマルチチャネルオーディオ信号を処理する装置および方法に関する。
近年、マルチチャネルオーディオ再生技術がますます重要になっている。これは、周知のMP3技術等のオーディオ圧縮/符号化技術により、制限のある帯域幅を有するインターネットまたは他の伝送チャネルを介して、オーディオ記録を配信することが可能になったという事実によるものである。ステレオフォーマットの全記録を配信すること、すなわち、第1の、すなわち左ステレオチャネルおよび第2の、すなわち右ステレオチャネルを含むオーディオ記録のデジタル表現を配信することが可能であるという事実により、MP3符号化技術はよく知られるようになった。
しかしながら、従来の2チャネルサウンドシステムには基本的な欠点がある。従って、サラウンド技術が開発されている。推奨されるマルチチャネルサラウンド表現は、2つのステレオチャネルLおよびRに加えて、センターチャネルCおよび2つのサラウンドチャネルLs、Rsをさらに含んでいる。この基準サウンドフォーマットは、3ステレオ/2ステレオとも呼ばれるもので、3つのフロントチャネルおよび2つのサラウンドチャネルを意味する。一般に、5つの伝送チャネルを必要とする。再生環境では、それぞれ5つの異なる場所に配置した少なくとも5つのスピーカは、5つの適切に配置したスピーカから一定の距離で、最適なスイートスポットを得る必要がある。
マルチチャネルオーディオ信号伝送に必要なデータ量を低減する本技術で、いくつかの技術が周知である。かかる技術は、ジョイントステレオ技術と呼ばれている。このために、図10を参照すると、ジョイントステレオ装置60を示している。この装置を、例えば、インテンシティステレオ(IS)またはバイノーラルキュー符号化(BCC)を行う装置とすることができる。かかる装置は一般に、入力として少なくとも2つのチャネル(CH1、CH2、・・・CHn)を受け取り、1つのキャリアチャネルおよびパラメトリックデータを出力する。パラメトリックデータは、デコーダでは、オリジナルのチャネル(CH1、CH2、・・・CHn)の近似値を算出できるように、定義されている。
通常、キャリアチャネルは、サブバンドサンプル、スペクトル係数、時間領域サンプル等を含んでいる。これらにより、基礎の信号が比較的よい表現になるが、パラメトリックデータはスペクトル係数のこのようなサンプルを含まないが、乗算、時間シフティング、周波数シフティング等による重み付けといった、特定の再生アルゴリズムを制御する制御パラメータを含んでいる。従って、パラメトリックデータは、信号または対応付けられたチャネルの比較的粗い表現しか含んでいない。数字を提示すると、キャリアチャネルが必要とするデータ量は、60〜70キロビット/秒の範囲であるが、1つのチャネルに対しパラメトリック副情報が必要とするデータ量は、1.5〜2.5キロビット/秒の範囲である。パラメトリックデータの一例としては、以下に説明するように、周知のスケールファクタ、インテンシティステレオ情報またはバイノーラルキューパラメータが挙げられる。
インテンシティステレオ符号化については、(AES予稿集3799、“インテンシティステレオ符号化(Intensity Stereo Coding)”、J.ヘア(Herre)、K.H.ブランデンブルグ(Brandenburg)、D.レーデラー(Lederer)(1994年2月、アムステルダム)に記載されている。一般に、インテンシティステレオの概念は、2つの立体音響オーディオチャネルのデータに対して行う主軸変換に基づいている。大部分のデータポイントが第1の原理軸のまわりに集中している場合は、符号化を行う前に、一定の角度で2つの信号を回転することにより、符号化利得を得ることができる。しかしながら、このことが、このリアルな立体音響生成技術に常に当てはまるとは限らない。従って、ビットストリームでの伝送から第2の直交成分を除外することにより、この技術を変更する。従って、左および右チャネルに対して復元した信号は、同じ送信信号の別々に重み付けされたものまたはスケーリングしたバージョンからなる。しかしながら、復元した信号は、それらの振幅が異なっているものの、それらの位相情報については全く同じである。しかしながら、2つのオリジナルのオーディオチャネルのエネルギー時間包絡線は、選択的スケーリング演算により保存される。これは通常、周波数選択的に演算するものである。これは、高い周波数での人間のオーディオ認識に一致し、主要な空間キューは、エネルギー包絡線により求められる。
また、特に実施するにあたっては、2つの成分を回転させる代わりに、送信信号、すなわち、キャリアチャネルが、左チャネルおよび右チャネルの和信号から生成される。なお、この処理、すなわち、インテンシティステレオパラメータを生成してスケーリング動作を行うには、周波数選択的に行う。すなわち、各スケールファクタ帯域、すなわち、エンコーダの周波数区分に対し独立して行う。好ましくは、2つのチャネルが、合成チャネルまたは“キャリア”チャネルを生成するために、合成される。合成チャネルの他に、インテンシティステレオ情報が求められる。これは、第1のチャネルのエネルギー、第2のチャネルのエネルギーまたは合成またはチャネルのエネルギーに依存する。
BCC技術については、AES変換論文誌5574、“ステレオおよびマルチチャネルオーディオ圧縮に応用したバイノーラルキュー符号化(Binaural cue coding applied to stereo and multi−channel audio compression)”、C.フォーラ(Faller)、F.バウムガルテ(Baumgarte)(2002年5月、ミュンヘン)に記載されている。BCC符号化では、オーバーラップウィンドウを有するDFTベースの変換を用いて、オーディオ入力チャネルの多くは、スペクトル表現に変換されている。得られる均一なスペクトルは、それぞれ指標を有する重なりのない区分に分割される。各区分は、等価矩形帯域幅(ERB)に比例する帯域幅を有している。内部チャネルレベル差(ICLD)および内部チャネル時間差(ICTD)は、各フレームkに対し、この区分毎に推定される。ICLDおよびICTDは量子化されて符号化されると、BCCビットストリームが得られる。基準チャネルを基準にして、内部チャネルレベル差および内部チャネル時間差が各チャネルに与えられる。次に、パラメータが規定の公式に従って算出される。これらは、処理される信号の特定の区分に依存する。
デコーダ側では、デコーダは、モノラル信号およびBCCビットストリームを受信する。モノラル信号は周波数領域に変換されて、空間合成ブロックに入力される。このブロックは、復号化ICLDおよびICTD値も受信する。空間合成ブロックでは、マルチチャネル信号を合成するために、モノラル信号の重み付け演算を行うために、BCCパラメータ(ICLDおよびICTD)値が用いられる。マルチチャネル信号は、周波数/時間変換の後の、オリジナルのマルチチャネルオーディオ信号を復元したものを表す。
BCCの場合、ジョイントステレオモジュール60は、パラメトリックチャネルデータが量子化されて、ICLDまたはICTDパラメータを暗号化するように、チャネル副情報を出力するために動作される。オリジナルのチャネルのうちの1つは、基準チャネルとしてチャネル副情報を符号化するために、用いられる。
通常、キャリアチャネルは、関係するオリジナルのチャネルの総計として生成されるものである。
当然、上記の技術では、キャリアチャネルしか処理することができないデコーダに対するモノラル表現を生成するだけであり、パラメトリックデータを処理して、2つ以上の入力チャネルの1つ以上の近似値を生成することはできない。
バイノーラルキュー符号化(BCC)として周知のオーディオ符号化技術については、米国特許出願公開公報US2003、0219130A1、2003/0026441A1および2003/0035553A1にも詳細に記載されている。さらに引例として、“バイノーラルキュー符号化 パートII:方法および応用例(Binaural Cue Coding Part II:Schemes and Applications)”、C.フォーラおよびF.バウムガルテ、IEEE会報、オーディオおよびスピーチ学会紀要(Audio and Speech Proc.)、11巻、第6号、2993年11月に記載されている。フォーラおよびバウムガルテが著したBCC技術に関する引例の米国特許出願公開公報および2つの引例の技術刊行物は、ここに引例としてすべて組み込まれている。
以下に、マルチチャネルオーディオ符号化のための代表的な、一般的BCC法について、図11〜13を参照して、さらに詳細に説明する。図11は、マルチチャネルオーディオ信号の符号化/伝送を行う、かかる一般的バイノーラルキュー符号化法を示す。BCCエンコーダ112の入力110のマルチチャネルオーディオ入力信号は、ブロック114でダウンミキシングされる。本例では、入力110のオリジナルのマルチチャネル信号は、フロント左チャネル、フロント右チャネル、左サラウンドチャネル、右サラウンドチャネルおよびセンターチャネルを有する、5チャネルサラウンド信号である。本発明の好適な実施の形態では、ダウンミックスブロック114は、これらの5つのチャネルを単純に加算して、モノラル信号にすることにより、和信号を生成する。マルチチャネル入力信号を用いて、1つのチャネルを有するダウンミックス信号を得られるような、他のダウンミキシング方法が周知である。この1つのチャネルを、和信号線115に出力する。BCC分析ブロック116により取得した副情報が、副情報線117に出力される。BCC分析ブロックでは、上記で説明したように、内部チャネルレベル差(ICLD)および内部チャネル時間差(ICTD)が算出される。最近では、内部チャネル相関値(ICC値)を算出するために、BCC分析ブロック116を拡張することができる。好ましくは量子化して符号化した形態で、和信号および副情報がBCCデコーダ120に送信される。BCCデコーダは、出力マルチチャネルオーディオ信号のサブバンドを生成するために、送信された和信号を多数のサブバンドに分解して、スケーリングを行い、遅延して、他の処理を行う。出力121の復元したマルチチャネル信号のICLD、ICTDおよびICCパラメータ(キュー)が、BCCエンコーダ112に入力する入力110のオリジナルのマルチチャネル信号に対するそれぞれのキューと同様になるように、この処理が行われる。このために、BCCデコーダ120は、BCC合成ブロック122および副情報処理ブロック123を含む。
以下に、図12を参照して、BCC合成ブロック122の内部構成が説明される。線115上の和信号が、時間/周波数変換ユニットまたはフィルタバンクFB125に入力される。ブロック125の出力には、オーディオフィルタバンク125が1:1変換を行う場合は、すなわち、N個の時間領域サンプルからN個のスペクトル係数を生成する変換の場合は、N個のサブバンド信号あるいは、極端な場合では、スペクトル係数のブロックが存在する。
BCC合成ブロック122はさらに、遅延段126、レベル変更段127、相関処理段128および逆フィルタバンク段IFB129を備える。段129の出力では、5チャネルサラウンドシステムの場合では、図11に示すように、例えば5つのチャネルを有する復元したマルチチャネルオーディオ信号を、1セットのスピーカ124に出力する。
図12に示すように、装置125により、入力信号s(n)は周波数領域またはフィルタバンク領域に変換される。乗算ノード130で示すように、同じ信号のいくつかのバージョンを取得するように、装置125による信号出力は乗算される。オリジナルの信号のバージョン数は、出力信号における出力チャネルの数と等しい。一般に、復元した、ノード130でのオリジナルの信号の各バージョンをそれぞれ遅延d1、d2、・・・、di、・・・、dNで遅延する場合は、図11の副情報処理ブロック123により遅延パラメータが算出されて、BCC分析ブロック116で求めたように、内部チャネル時間差から導出する。
乗算パラメータa1、a2、・・・、ai、・・・、aNについて、同じことが当てはまる。これらについても、BCC分析ブロック116により算出したように、内部チャネルレベル差に基づいて、副情報処理ブロック123により算出する。
遅延してレベルを操作した信号間の特定の相関をブロック128の出力で取得するように、ブロック128の機能を制御するために、BCC分析ブロック116により算出されたICCパラメータが用いられる。段階126、127、128の順序は、図12に示す場合と異なっていてもよいことに、ここで留意されたい。
オーディオ信号をフレーム的に処理する際には、BCC分析をフレーム的に実行する、すなわち、時間可変的、そして周波数的にも実行することに、ここで留意されたい。これは、各スペクトル帯域に対してBCCパラメータを取得するという意味である。これは、オーディオフィルタバンク125が入力信号を例えば32個のバンドパス信号に分解する場合は、BCC分析ブロックは、32個の帯域それぞれに対するBCCパラメータのセットを取得するという意味である。当然、図12に詳細に示す、図11のBCC合成ブロック122が、本例の32個の帯域に基づいて、復元を行う。
以下に、図13を参照して、あるBCCパラメータを求めるセットアップを示す。通常、ICLD、ICTDおよびICCパラメータを、1対のチャネル間で定義することができる。しかしながら、基準チャネルと互いのチャネルとの間で、ICLDおよびICTDパラメータを求めることが好ましい。これについて、図13Aに示す。
ICCパラメータを、別の方法で求めることもできる。一般に大抵の場合、図13Bに示すように、考えられるすべてのチャネル対の間で、エンコーダ内のICCパラメータを推定することができる。この場合は、考えられるすべてのチャネル対の間のオリジナルのマルチチャネル信号とほぼ同じになるように、デコーダがICCを合成する。しかしながら、各時間で最も強力な2つのチャネル間のICCパラメータだけを推定することが提案されていた。この方法は、図13Cに示される。1つの時間インスタンスで、チャネル1とチャネル2との間でICCパラメータが推定され、別の時間インスタンスで、チャネル1とチャネル5との間でICCパラメータが算出される例が示されている。次に、デコーダが、デコーダ内の最も強力なチャネル間の内部チャネル相関を合成して、残りのチャネル対に対する内部チャネルコヒーレンスを算出して合成するための、ある発見的規則を適用する。
例えば、送信ICLDパラメータに基づいてパラメータa1、aNを算出するには、上記引例のAES変換論文誌5574を参照する。ICLDパラメータは、オリジナルのマルチチャネル信号内のエネルギー分布を表す。一般性を失うことなく、他の全チャネルとフロント左チャネルとの間のエネルギー差を示す4つのICLDパラメータを、図13Aに示す。副情報処理ブロック123では、復元したすべての出力チャネルの総エネルギーが送信和信号のエネルギーと同じになるように(または比例するように)、乗算パラメータa1、・・・、aNがICLDパラメータから導出される。これらのパラメータを求める簡単な方法は、2段処理である。これは、第1の段では、左フロントチャネルの乗算係数を1に設定して、図13Aの他のチャネルの乗算係数を送信ICLD値に設定する。次に、第2の段では、5つのチャネルすべてのエネルギーを算出して、送信和信号のエネルギーと比較する。次に、全チャネルに対して等しいダウンスケーリング係数を用いて、全チャネルにダウンスケーリングを行う。ダウンスケーリングを行った後の、復元したすべての出力チャネルの総エネルギーが送信和信号の総エネルギーと等しくなるように、ダウンスケーリング因数が選択される。
当然、乗算係数を算出する他の方法がある。これらは、2段処理を利用せず、1段処理だけを必要とするものである。
遅延パラメータに関して、左フロントチャネルの遅延パラメータd1をゼロに設定する場合は、BCCエンコーダから送信される遅延パラメータICTDを、直接用いることができることに留意されたい。遅延を行っても信号のエネルギーを変更しないので、ここでは再スケーリングを行う必要がない。
BCCエンコーダからBCCデコーダに送信された内部チャネルコヒーレンス測定値ICCに関して、20log10(−6)から20log10(6)の間の値の乱数を有する全サブバンドの重み付け係数を乗算するというように、乗算係数a1、・・・、anを変更することにより、コヒーレンス操作を行うことができることに、ここで留意されたい。好ましくは、すべての重要な帯域に対してバリアンスがほぼ一定になり、各々の重要な帯域内で平均がゼロとなるように、疑似乱数シーケンスを選択する。同じシーケンスが、各々の異なるフレームのスペクトル係数に対して行われる。従って、疑似乱数シーケンスのバリアンスを変更することにより、聴覚によるイメージの幅を制御する。より大きいバリアンスにより、より大きいイメージ幅を生成する。バリアンス変更を、重要な帯域にわたるそれぞれの帯域で行うことができる。これにより、聴覚による場面内で、それぞれ異なるイメージ幅を有する複数の対象を同時に存在させることが可能になる。疑似乱数シーケンスに対し適した振幅分布は、米国特許出願公開公報2003/0219130A1で概要を説明したように、対数目盛に対して均一な分布である。しかしながら、図11に示すBCCエンコーダからBCCデコーダへ送信される和信号のように、すべてのBCC合成処理は、1つの送信入力チャネルと関係づけられる。
互換性があるように5つのチャネルを送信するためには、すなわち、通常のステレオデコーダでも理解可能な、ビットストリームフォーマットで送信するためには、以下に記載されている、いわゆるマトリックス化技術を用いていた。“MUSICAMサラウンド:ISO11172−3により互換性のあるユニバーサルマルチチャネル符号化システム(MUSICAM surround:a universal multi−channel coding system compatible with ISO11172−3)”、G.セイラー(Theile)およびG.ストール(Stoll)、AES予稿集3403、1992年10月、サンフランシスコ。5つの入力チャネルL、R、C、Ls、およびRsを、マトリックス化装置に供給する。この装置は、マトリックス演算を行って、5つの入力チャネルから基本的なステレオチャネルまたは互換性のあるステレオチャネルLo、Roを算出する。特に、これらの基本的なステレオチャネルLo/Roを、次のように算出する。

Lo=L+xC+yLs
Ro=R+xC+yRs

xおよびyは定数である。他の3つのチャネルC、Ls、Rsは、基本的なステレオレイヤの他に、基本的なステレオ信号Lo/Roの符号化バージョンを含む、拡張レイヤに送信される。ビットストリームに対して、このLo/Ro基本的なステレオレイヤは、ヘッダ、スケールファクタ等の情報およびサブバンドサンプルを含む。マルチチャネル拡張レイヤ、すなわち、センターチャネルおよび2つのサラウンドチャネルは、補助データフィールドとも呼ばれる、マルチチャネル拡張フィールドに含まれる。
デコーダ側では、5チャネル表現における左チャネルおよび右チャネルを再生するために、基本的なステレオチャネルLo、Roおよび3つの補助チャネルを用いて、逆マトリックス演算が行われる。また、オリジナルのマルチチャネルオーディオ信号の復号化した5チャネルまたはサラウンド表現を得るために、3つの補助チャネルを補助情報から復号化する。
マルチチャネル符号化の別のアプローチについて、次の出版物に記載されている。“向上したMPEG−2オーディオマルチチャネル符号化(Improved MPEG−2 audio multi−channel encoding)”、B.グリル(Grill)、J.ヘア(Herre)、K.H.ブランデンブルク(Brandenburg)、E.エベルレイン(Eberlein)、J.コラー(Koller)、J.ミュラー(Mueller)、AES予稿集3865、1994年2月、アムステルダム。これは、後方互換性を得るために、後方互換性モードを考慮するものである。このために、オリジナルの5つの入力チャネルから2つのいわゆるダウンミックスチャネルLc、Rcを得るために、互換性マトリックスが用いられる。なお、補助データとして送信された3つの補助チャネルを動的に選択することが可能である。
ステレオ非相関性を利用するために、チャネル群、例えば、3つのフロントチャネル、すなわち、左チャネル、右チャネルおよびセンターチャネルにジョイントステレオ技術が適用される。このために、合成チャネルを得るために、これらの3つのチャネルが合成される。この合成チャネルが量子化されて、ビットストリームに詰め込まれる。次に、対応するジョイントステレオ情報とともに、この合成チャネルは、ジョイントステレオ復号化チャネル、すなわち、ジョイントステレオ復号化左チャネル、ジョイントステレオ復号化右チャネルおよびジョイントステレオ復号化センターチャネルを得るために、ジョイントステレオ復号化モジュールに入力される。これらのジョイントステレオ復号化チャネルは左サラウンドチャネルおよび右サラウンドチャネルとともに、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルLc、Rcを生成するために、互換性マトリックスブロックに入力される。次に、2つのダウンミックスチャネルの量子化したバージョンおよび合成チャネルの量子化したバージョンは、ジョイントステレオ符号化パラメータとともにビットストリームに詰め込まれる。
従って、インテンシティステレオ符号化を用いて、別々のオリジナルのチャネル信号群は、“キャリア”データの1つの部分内に送信される。次に、デコーダは、それらのオリジナルのエネルギー時間包絡線により、再スケーリングを行って、全く同じデータとして関係する信号を復元する。その結果、送信チャネルの1次結合は、オリジナルのダウンミックスと全く異なる結果を導く。これを、インテンシティステレオ概念に基づいて、任意の種類のジョイントステレオ符号化に用いる。互換ダウンミックスチャネルを生成する符号化システムでは、上記の出版物に記載されているように、逆マトリックス化による再生は、不完全な再生によるアーティファクトが直接の原因となって結果を生じるという欠点がある。いわゆるジョイントステレオプレディストーションスキームを用いて、エンコーダでマトリックス化を行う前に、左チャネル、右チャネルおよびセンターチャネルのジョイントステレオ符号化を行うことにより、この問題を軽減する。このように、逆マトリックス化法で復元を行うことにより、より少ない数のアーティファクトを導入するのは、エンコーダ側では、ダウンミックスチャネルを生成するために、ジョイントステレオ復号化信号を用いられる。従って、不完全な再生処理は、互換ダウンミックスチャネルLcおよびRcにシフトされる。これにより、オーディオ信号自体によって、さらにマスキングできることになる。
デコーダ側で逆マトリックス化を行うので、かかるシステムでは、アーティファクトの数がより少なくなるが、いくつか欠点がある。1つの欠点は、ステレオ互換ダウンミックスチャネルLcおよびRcが、オリジナルのチャネルではなく、オリジナルのチャネルのインテンシティステレオ符号化/復号化バージョンから導出されることである。従って、インテンシティステレオ符号化システムによるデータ損失が、互換ダウンミックスチャネルに含まれることになる。従って、拡張インテンシティステレオ符号化チャネルではなく、互換性チャネルだけを復号化する、ステレオのみのデコーダは、出力信号を生成する。これが、データ損失に含まれるインテンシティステレオの影響を受けてしまう。
また、2つのダウンミックスチャネルの他に、完全な補助チャネルを送信する必要がある。このチャネルは合成チャネルで、これは、左チャネル、右チャネルおよびセンターチャネルをジョイントステレオ符号化することにより、生成される。また、合成チャネルからオリジナルのチャネルL、R、Cを再現するインテンシティステレオ情報も、デコーダに送信する必要がある。デコーダでは、2つのダウンミックスチャネルからサラウンドチャネルを導出するために、逆マトリックス化、すなわち、逆マトリックス演算が行われる。また、送信合成チャネルおよび送信ジョイントステレオパラメータを用いて、オリジナルの左チャネル、右チャネルおよびセンターチャネルが、ジョイントステレオ復号化により近似される。合成チャネルをジョイントステレオ復号化することにより、オリジナルの左チャネル、右チャネルおよびセンターチャネルが導出されることに留意されたい。
インテンシティステレオ技術の場合では、マルチチャネル信号を合成して用いる場合に、同じベースチャネルに基づくコヒーレント出力信号だけを完全に生成することができることが判明している。
BCC技術では、復元したマルチチャネル出力信号内の内部チャネルコヒーレンスを低減することに非常にコストがかかるのは、重み付けセクタに影響を与える疑似乱数発生器を必要とするからである。また、乗算係数または時間遅延係数をランダムに操作することから発生するアーティファクトを導入してしまい、ある条件下ではアーティファクトが可聴化してしまうので、復元したマルチチャネル出力信号の品質が低下するという点で、この種の処理が問題になることがわかっている。
米国特許出願公開公報US2003/0219130A1 米国特許出願公開公報US2003/0026441A1 米国特許出願公開公報US2003/0035553A1
従って、本発明の目的は、マルチチャネルオーディオ信号に対して効率的にビットを用いて、アーティファクトを低減した処理または逆処理を行う概念を提供することである。
本発明の第1の態様によれば、この目的は、入力信号およびパラメトリック副情報を用いて、マルチチャネル出力信号を構築する装置であって、入力信号はオリジナルのマルチチャネル信号から導出した第1の入力チャネルおよび第2の入力チャネルを含み、オリジナルのマルチチャネル信号は複数のチャネルを有し、該複数のチャネルは、想定した聴取者位置の一方の側にあると定義される、少なくとも2つのオリジナルのチャネルを含み、第1のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第1のチャネルで、第2のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第2のチャネルで、パラメトリック副情報がマルチチャネルのオリジナルの信号のオリジナルのチャネル間の相関を記述する装置であって、オリジナルのマルチチャネル信号と、第1および第2の入力チャネルの一方または第1および第2の入力チャネルの合成から選択することにより、第1のベースチャネルを求め、第2のベースチャネルが第1のベースチャネルと異なるように、第1および第2の入力チャネルのもう一方または第1および第2の入力チャネルの異なる合成を選択することにより、第2のベースチャネルを求める手段と、パラメトリック副情報および第1のベースチャネルを用いて、第1のオリジナルのチャネルの復元バージョンで、想定した聴取者位置の一方の側のある、第1の合成出力チャネルを得ることにより、第1の出力チャネルを合成し、パラメトリック副情報および第2のベースチャネルを用いて、第2のオリジナルのチャネルの復元バージョンで、想定した聴取者位置と同じ側にある、第2の出力チャネルを合成する手段とを備える装置により達成される。
本発明の第2の態様によれば、この目的は、入力信号およびパラメトリック副情報を用いてマルチチャネル出力信号を構築する方法であって、入力信号はオリジナルのマルチチャネル信号から導出した第1の入力チャネルおよび第2の入力チャネルを含み、オリジナルのマルチチャネル信号は複数のチャネルを有し、該複数のチャネルは、想定した聴取者位置の一方の側にあると定義される、少なくとも2つのオリジナルのチャネルを含み、第1のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第1のチャネルで、第2のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第2のチャネルで、パラメトリック副情報がマルチチャネルのオリジナルの信号のオリジナルのチャネル間の相関を記述する方法であって、第1および第2の入力チャネルの一方または第1および第2の入力チャネルの合成から選択することにより、第1のベースチャネルを求め、第2のベースチャネルが第1のベースチャネルと異なるように、第1および第2の入力チャネルのもう一方または第1および第2の入力チャネルの異なる合成を選択することにより、第2のベースチャネルを求め、パラメトリック副情報および第1のベースチャネルを用いて、第1のオリジナルのチャネルの復元バージョンで、想定した聴取者位置の一方の側のある、第1の合成出力チャネルを得ることにより、第1の出力チャネルを合成し、パラメトリック副情報および第2のベースチャネルを用いて、第2のオリジナルのチャネルの復元バージョンで、想定した聴取者位置と同じ側にある、第2の出力チャネルを合成することを含む方法により達成される。
本発明の第3の態様によれば、この目的は、ダウンミックス信号が多数のオリジナルのチャネルより小さい多数のチャネルを有し、マルチチャネルのオリジナルの信号からダウンミックス信号を生成する装置であって、ダウンミックス規則を用いて、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを算出する手段と、マルチチャネルのオリジナルの信号内のチャネルの間のエネルギー分布を表すパラメトリックレベル情報を算出する手段と、2つのオリジナルのチャネルが想定した聴取者位置の一方の側にある、2つのオリジナルのチャネルの間のコヒーレンス測定値を求める手段と、第1のダウンミックスチャネルおよび第2のダウンミックスチャネル、パラメトリックレベル情報および一方の側にある2つのオリジナルのチャネルの間の少なくとも1つのコヒーレンス測定値だけ、または少なくとも1つのコヒーレンス測定値から送出した値を用いるが、想定した聴取者位置の異なる側にあるチャネルの間のコヒーレンス測定値を用いずに、出力信号を生成する手段とを備える装置により達成される。
本発明の第4の態様によれば、この目的は、ダウンミックス信号が多数のオリジナルのチャネルより小さい多数のチャネルを有し、マルチチャネルのオリジナルの信号からダウンミックス信号を生成する方法であって、ダウンミックス規則を用いて、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを算出し、マルチチャネルのオリジナルの信号内のチャネルの間のエネルギー分布を表すパラメトリックレベル情報を算出し、2つのオリジナルのチャネルが想定した聴取者位置の一方の側にある、2つのオリジナルのチャネルの間のコヒーレンス測定値を求め、第1のダウンミックスチャネルおよび第2のダウンミックスチャネル、パラメトリックレベル情報および一方の側にある2つのオリジナルのチャネルの間の少なくとも1つのコヒーレンス測定値だけ、または少なくとも1つのコヒーレンス測定値から送出した値を用いるが、想定した聴取者位置の異なる側にあるチャネルの間のコヒーレンス測定値を用いずに、出力信号を生成することを含む方法により達成される。
本発明の第5の態様および第6の態様によれば、この目的は、マルチチャネルを構築する方法、またはダウンミックス信号を生成する方法を実行するプログラムコードを有するコンピュータプログラムにより達成される。
本発明は、エンコーダからデコーダに送信することができる2つ以上のチャネルがある場合、効率的にアーティファクトを低減して、マルチチャネル出力信号の再生を行えるという知見に基づいている。好ましくは左ステレオチャネルおよび右ステレオチャネルであるチャネルは、特定の度合いのインコヒーレンスを示す。これが通常の場合であるのは、マルチチャネル信号をダウンミキシングすることにより得られるような、左ステレオチャネルおよび右ステレオチャネルまたは左互換ステレオチャネルおよび右互換ステレオチャネルは通常、特定の度合いのインコヒーレンスを示すからである。すなわち、完全にコヒーレントでないから、または完全に相関していないからである。
本発明によれば、マルチチャネル出力信号の復元した出力チャネルは、異なる出力チャネルに対して異なるベースチャネルを求めることにより、互いに非相関になる。度合いが違う非相関送信チャネルを用いることにより、異なるベースチャネルを得る。
換言すれば、復元した出力チャネルは、例えば、ベースチャネルである左側送信入力チャネルが、BCCサブバンド領域で、別の復元した出力チャネルと完全に相関する。“相関合成”をさらに行わないと仮定すると、これは、例えば、同じ左チャネルをベースチャネルとして有している。この文脈では、決定性遅延およびレベル設定では、チャネルの間のコヒーレンスを低減しないことに留意されたい。本発明によれば、第1のベースチャネルを用いて第1の出力チャネルを構築し、第2のベースチャネルを用いて第2の出力チャネルを構築することにより、100%上記の例に当てはまるこれらのチャネルの間のコヒーレンスを、特定のコヒーレンス度またはコヒーレンス測定値に低減する。第1および第2のベースチャネルは、2つの送信(非相関)チャネルに異なる“部分”を有している。このことは、第1のベースチャネルが、第1のチャネルからあまり影響を受けない第2のベースチャネルと比較して、第1の送信チャネルからより強く影響を受けること、あるいは第1の送信チャネルと全く同じであることを意味している。すなわち、第2の送信チャネルからより影響を受けるということを意味している。
本発明によれば、送信チャネル間の固有の非相関性を用いて、マルチチャネル出力信号に非相関チャネルを生成する。
好適な実施の形態では、フロント左および左サラウンドまたはフロント右および右サラウンド等のそれぞれのチャネル対の間のコヒーレンス測定値が、時間依存および周波数依存的な方法でエンコーダで求められ、副情報として、進歩性のあるデコーダに送信する。ベースチャネルを動的に求めるので、復元した出力チャネル間でコヒーレンスを動的に操作することができる。
2つの最も強力なチャネルのICCキューだけを送信する、上述の従来技術の場合と比較すると、進歩性のあるシステムでは、制御が容易で、より良好な品質再生が行えるのは、エンコーダまたはデコーダで最も強力なチャネルを求める必要がなく、このチャネル対が、最も強力なチャネルを含んでいるかどうかという事実にかかわらず、進歩性のあるコヒーレンス測定値は常に同じチャネル対と相関するからである。左側/右側コヒーレンスに関する余計な情報を必要とせずに、左側/右側コヒーレンス関係が自動的に送信されるように、2つのダウンミキシングチャネルがエンコーダからデコーダヘ送信されるという点で、従来技術のシステムと比較して、より高い品質が得られる。
さらに本発明の利点は、通常の非相関処理負荷を低減することができ、あるいは、完全に除去することができるので、デコーダ側の計算作業負荷を低減することができるという事実からわかる。
好ましくは、従来技術のように、付加的“合成”ジョイントステレオチャネルではなく、ダウンミックスチャネルの1つに相関するように、1以上のオリジナルのチャネルのパラメトリックチャネル副情報を導出する。このことは、デコーダ側で、チャネル復元装置が、チャネル副情報を割り当てて、オリジナルのオーディオチャネルの近似値を復元するために、チャネル副情報と、ダウンミックスチャネルの1つまたはダウンミックスチャネルの合成とを用いて、パラメトリックチャネル副情報が算出されることを意味する。
マルチチャネルオーディオ信号をデコーダで再生することができるように、ビット効率的にマルチチャネル拡張を行うという点で、この概念は利点がある。
また、概念が後方互換性であるのは、2チャネル処理しか行えない低機能のデコーダは、拡張情報、すなわち、チャネル副情報をそのまま無視することができるからである。低機能のデコーダは、オリジナルのマルチチャネルオーディオ信号のステレオ表現を得るために、2つのダウンミックスチャネルだけを再生する。しかしながら、マルチチャネル動作が可能な、より高機能のデコーダは、オリジナルのチャネルの近似値を復元するために、送信チャネル副情報を用いる。
従来技術とは異なり、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルLc、Rc以上のキャリアチャネルをさらに必要とないので、ビット効率的であるという点で、本実施の形態は利点がある。その代わり、チャネル副情報は、1つまたは2つのダウンミックスチャネルに相関する。このことは、ダウンミックスチャネル自体がキャリアチャネルとして働き、これに対し、チャネル副情報を合成してオリジナルのオーディオチャネルを復元することを意味する。このことは、チャネル副情報が好ましくは、パラメトリック副情報であること、すなわち、サブバンドサンプルまたはスペクトル係数を全く含まない情報であるという意味である。その代わり、パラメトリック副情報は、(時間および/または周波数で)それぞれのダウンミックスチャネルまたはそれぞれのダウンミックスチャネルの合成を重み付けして、選択したオリジナルのチャネルの復元したバージョンを得るために用いる情報である。
本発明の好適な実施の形態では、互換ステレオ信号に基づくマルチチャネル信号に、後方互換性符号化を行う。好ましくは、マルチチャネルオーディオ信号のオリジナルのチャネルに対しマトリックス化を用いることにより、互換ステレオ信号(ダウンミックス信号)が生成される。
好ましくは、インテンシティステレオ符号化またはバイノーラルキュー符号化等のジョイントステレオ技術に基づいて、選択したオリジナルのチャネルのチャネル副情報が得られる。従って、デコーダ側では、逆マトリックス演算を行う必要がない。逆マトリックス化に対応付けられた問題、すなわち、逆マトリックス演算での量子化ノイズの不要の分布に相関する特定のアーティファクトが回避される。これは、デコーダが、ダウンミックスチャネルのうちの1つまたはダウンミックスチャネルの合成と、送信チャネル副情報とを用いることにより、オリジナルの信号を復元するチャネル復元装置を用いるという事実によるものである。
好ましくは、進歩性のある概念は、5つのチャネルを有するマルチチャネルオーディオ信号に適用される。これらの5つのチャネルは、左チャネルL、右チャネルR、センターチャネルC、左サラウンドチャネルLs、および右サラウンドチャネルRsである。好ましくは、ダウンミックスチャネルは、ステレオ互換ダウンミックスチャネルLsおよびRsである。これらは、オリジナルのマルチチャネルオーディオ信号のステレオ表現を生成する。
本発明の好適な実施の形態によれば、オリジナルのチャネルそれぞれに対し、チャネル副情報はエンコーダ側で算出され、出力データに詰め込む。左ダウンミックスチャネルを用いて、オリジナルの左チャネルのチャネル副情報は導出される。左ダウンミックスチャネルを用いて、オリジナルの左サラウンドチャネルのチャネル副情報は導出される。オリジナルの右チャネルのチャネル副情報は、右ダウンミックスチャネルから導出される。オリジナルの右サラウンドチャネルのチャネル副情報は、右ダウンミックスチャネルから導出される。
本発明の好適な実施の形態によれば、第1のダウンミックスチャネルとともに第2のダウンミックスチャネルを用いて、すなわち、2つのダウンミックスチャネルの合成を用いて、オリジナルのセンターチャネルのチャネル情報は導出される。好ましくは、この合成は、加算値である。
従って、グループ分け、すなわち、チャネル副情報およびキャリア信号の関係、すなわち、選択したオリジナルのチャネルのチャネル副情報を生成するのに用いたダウンミックスチャネルは、最適条件の品質として、特定のダウンミックスチャネルが選択される。特定のダウンミックスチャネルは、チャネル副情報により表される、オリジナルのマルチチャネル信号それぞれの、最も高い、可能な相対量を含んでいる。かかるジョイントステレオキャリア信号として、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルが用いられる。好ましくは、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合計値も、用いることができる。当然、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合計値を用いて、オリジナルのチャネルそれぞれのチャネル副情報を算出することができる。しかしながら、好ましくは、5チャネルサラウンド、7チャネルサラウンド、5.1サラウンドまたは7.1サラウンド等のサラウンド環境では、ダウンミックスチャネルの合計値を用いて、オリジナルのセンターチャネルのチャネル副情報を算出する。第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合計値を用いることが特に利点があるのは、伝送オーバーヘッドをさらに行う必要がないからである。これは、伝送ビットをさらに必要とすることなく、これらのダウンミックスチャネルを合計することを、デコーダで簡単に行うことができるように、2つのダウンミックスチャネルがデコーダに存在するという事実によるものである。
好ましくは、低機能のデコーダが単純にマルチチャネル拡張データを無視して、マルチチャネルオーディオ信号のステレオ表現だけを生成するように、マルチチャネル拡張を生成するチャネル副情報は、互換性があるように出力データビットストリームに入力される。しかしながら、より高機能のエンコーダは、2つのダウンミックスチャネルばかりでなく、さらに、オリジナルのオーディオ信号の完全なマルチチャネル表現を再現するために、チャネル副情報も用いる。
続いて、添付の図面を参照して、本発明の好適な実施の形態について説明する。
図1Aは、進歩性のあるエンコーダの好適な実施の形態のブロック図である。
図1Bは、それぞれの入力チャネル対に対してコヒーレンス測定値を生成するための進歩性のあるエンコーダのブロック図である。
図2Aは、進歩性のあるデコーダの好適な実施の形態のブロック図である。
図2Bは、異なる出力チャネルに対し、異なるベースチャネルを有する進歩性のあるデコーダのブロック図である。
図2Cは、図2Bの合成手段の好適な実施の形態を示すブロック図である。
図2Dは、図2Cに示す5チャネルサラウンドシステム用の装置の好適な実施の形態を示すブロック図である。
図2Eは、進歩性のあるエンコーダ内の、コヒーレンス測定値を求める手段の概略図である。
図2Fは、別のベースチャネルに対する特定のコヒーレンス測定値を有するベースチャネルを算出する重み付け係数を求める好適な一例を示す概略図である。
図2Gは、図2Fに示す方法で算出した特定の重み付け係数に基づいて、復元した出力チャネルを得る好適な方法を示す概略図である。
図3Aは、周波数選択的チャネル副情報を得る算出手段の好適な実施例を示すブロック図である。
図3Bは、強度符号化またはバイノーラルキュー符号化等の、ジョイントステレオ処理を実施する計算器の好適な実施の形態である。
図4は、チャネル副情報を利得係数とする、チャネル副情報算出手段の別の好適な実施の形態を示す。
図5は、図4に示すようにエンコーダを実施する場合の、デコーダの実施例の好適な実施の形態を示す。
図6は、ダウンミックスチャネルを生成する手段の好適な実施例を示す。
図7は、それぞれのオリジナルのチャネルに対しチャネル副情報を算出するオリジナルのおよびダウンミックスチャネルのグループ分けを示す。
図8は、進歩性のあるエンコーダの別の好適な実施の形態を示す。
図9は、進歩性のあるデコーダの別の実施例を示す。
図10は、従来技術のジョイントステレオエンコーダを示す。
図11は、従来技術のBCCエンコーダ/デコーダチェーン?を表すブロック図である。
図12は、図11のBCC合成ブロックの従来技術の実施例を示すブロック図である。
図13は、ICLD、ICTDおよびICCパラメータを求める周知の方法を表す。
図14Aは、異なるベースチャネルにより、異なる出力チャネルを再生する方法の概略図である。
図14Bは、ICCパラメータおよびICTDパラメータを求めるのに必要なチャネル対を示す。
図15Aは、5チャネル出力信号を構築するベースチャネルを選択する第1の選択を示す概略図である。
図15Bは、5チャネル出力信号を構築するベースチャネルを選択する第2の選択を示す概略図である。
図1Aは、R、LおよびC等の、少なくとも3つのオリジナルのチャネルを有するマルチチャネルオーディオ信号10を処理するための装置を示す。好ましくは、オリジナルのオーディオ信号は、図1Aに示す、サラウンド環境での5つのチャネルといった、4つ以上のチャネルを有する。5つのチャネルは、左チャネルL、右チャネルR、センターチャネルC、左サラウンドチャネルLsおよび右サラウンドチャネルRsである。進歩性のある装置は、オリジナルのチャネルから導出される、第1のダウンミックスチャネルLcおよび第2のダウンミックスチャネルRc、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを生成する手段12を含む。オリジナルのチャネルからダウンミックスチャネルを導出するには、いくつかの可能性がある。1つの可能性は、図6に示すように、マトリックス演算を用いて、オリジナルのチャネルに対してマトリックス化を行うことにより、ダウンミックスチャネルLcおよびRcを導出することである。このマトリックス演算は、時間領域で行われる。
1以下になるように、マトリックス化パラメータa、bおよびtが選択される。好ましくは、aおよびbは、0.7または0.5である。好ましくは、チャネルクリッピングを回避するように、全体的な重み付けパラメータtが選択される。
あるいは、図1Aに示すように、ダウンミックスチャネルLcおよびRcを、外部から供給することもできる。ダウンミックスチャネルLcおよびRcが“ハンドミキシング”動作による結果である場合は、これを行ってもよい。このシナリオでは、自動化マトリックス演算を用いずに、音響技師が、オリジナルのマルチチャネルオーディオ信号を最も良いステレオ表現にできる、最適化ダウンミックスチャネルLcおよびRcを得るために、自分でダウンミックスチャネルをミキシングする。音響技師が創造的にミキシングを行う。
ダウンミックスチャネルを外部から供給する場合は、生成手段はマトリックス演算を行わないが、外部から供給したダウンミックスチャネルを、そのまま次の算出手段14へ転送する。
算出手段14は、L、Ls、RまたはRsといった、オリジナルのチャネルそれぞれに選択したli、lsi、riまたはrsi等のチャネル副情報を算出するために動作する。特に、算出手段14は、チャネル副情報を用いて重み付けを行った場合は、ダウンミックスチャネルが選択したオリジナルのチャネルの近似値となるように、チャネル副情報を算出するために動作する。
あるいは、またはさらに、チャネル副情報算出手段はさらに、算出したチャネル副情報を用いて重み付けが選択したオリジナルのチャネルの近似値となった場合は、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合成を含む合成ダウンミックスチャネルが、選択したオリジナルのチャネルのチャネル副情報を算出するために動作する。この特徴を、加算器14aおよび合成チャネル副情報計算器14bとして図示している。
これらの装置は、別個の装置として実施する必要はないことは、当業者に明らかである。その代わりに、汎用プロセッサとすることもできる特定のプロセッサ、あるいは必要な機能を実行する任意の他の手段により、ブロック14、14a、および14bのすべての機能が実行される。
また、サブバンドサンプルまたは周波数領域値であるチャネル信号は、大文字で表されていることにここで留意されたい。チャネル自体とは異なり、チャネル副情報は、小文字で表されている。従って、チャネル副情報ciは、オリジナルのセンターチャネルCのチャネル副情報である。
チャネル副情報とともにダウンミックスチャネルLcおよびRcまたはオーディオエンコーダ16で生成したような符号化バージョンLc’およびRc’は、出力データフォーマッタ18に入力される。一般に、出力データフォーマッタ18は、出力データを生成する手段として動作する。出力データは、少なくとも1つのオリジナルのチャネルのチャネル副情報、第1のダウンミックスチャネル(その符号化バージョン等)から導出した第1のダウンミックスチャネルまたは信号および第2のダウンミックスチャネル(その符号化バージョン等)から導出した第2のダウンミックスチャネルまたは信号を含む。
次に、出力データまたは出力ビットストリーム20をビットストリームデコーダに送信したり、保存したり、配信したりすることができる。好ましくは、出力ビットストリーム20は互換性のあるビットストリームである。これは、マルチチャネル拡張機能を持たない低機能のデコーダでも読み取ることができる。既存の標準のものであるMP3デコーダ等の、かかる低機能のエンコーダは、マルチチャネル拡張データ、すなわち、チャネル副情報をそのまま無視してしまう。ステレオ出力を生成するために、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを復号化するだけである。マルチチャネルが可能なデコーダといった、より高機能のデコーダは、チャネル副情報を読み取って、次に、マルチチャネルオーディオ印象を得られるように、オリジナルのオーディオチャネルの近似値を生成する。
図8は、5つのチャネルサラウンド/MP3環境における本発明の好適な実施の形態を示す。ここでは、“MP3サラウンド”ビットストリームを得られるように、サラウンド拡張データを標準化MP3ビットストリームシンタックス内の補助データフィールドに書き込みを行うのに好適なものである。
図1Bは、図1Aの装置14をさらに詳細に示している。本発明の好適な実施の形態では、計算器14は、図1Aの10で示すマルチチャネルのオリジナルの信号内にあるチャネルのエネルギー分布を表すパラメトリックレベル情報を算出する手段141を含む。従って、装置141は、すべてのオリジナルのチャネルの出力レベル情報を生成することができる。好適な実施の形態では、このレベル情報は、図10〜13で説明した、通常のBCC合成により得られるICLDパラメータを含む。
装置14はさらに、想定した聴取者位置の一方の側にある2つのオリジナルのチャネル間のコヒーレンス測定値を求める手段142を含んでいる。図1Aに示す5チャネルサラウンドの例の場合は、かかるチャネル対は、右チャネルRおよび右サラウンドチャネルRsを含んでおり、あるいはまたはさらに、左チャネルLおよび左サラウンドチャネルLsを含む。あるいは、装置14はさらに、かかるチャネル対の時間差を算出する手段143を備える。すなわち、チャネル対は、想定した聴取者位置の一方の側にあるチャネルを有する。
図1Aの出力データフォーマッタ18は、20のデータストリームに、マルチチャネルオリジナルの信号内のチャネルのエネルギー分布と、左チャネルおよび左サラウンドチャネル対および/または右チャネルおよび右サラウンドチャネル対だけに対するコヒーレンス測定値とを表すレベル情報を入力するために動作する。しかしながら、出力データフォーマッタは、考えられるすべてのチャネル対に対するICCキューが送信される従来技術の方法と比較して、副情報の量が低減されるように、任意の他のコヒーレンス測定値を含まないように動作したり、またはオプションの時間差を出力信号に入力しないように動作したりする。
図14Aおよび図14Bを参照すると、図1Bに示す進歩性のあるエンコーダがより詳細に示されている。図14Aでは、一例の5チャネルシステム用のチャネルスピーカの配列は、それぞれのスピーカを配置した円の中央点に位置する、想定した聴取者位置に対して与えられている。上記で概略で説明したように、5チャネルシステムは、左サラウンドチャネル、左チャネル、センターチャネル、右チャネルおよび右サラウンドチャネルを含む。当然、かかるシステムは、図14に図示していないサブウーファーチャネルを含むこともできる。
左サラウンドチャネルは、“後方左チャネル”とも呼ばれることにここで留意されたい。右サラウンドチャネルに同じことが当てはまる。このチャネルは、後方右チャネルとしても周知である。
同じベースチャネル、すなわち、図11に示す送信モノラル信号を用いてN個の出力チャネルをそれぞれ生成する、1つの伝送チャネルを有する最高レベルのBCCとは異なり、進歩性のあるシステムでは、ベースチャネルとして、N個の送信チャネルのうちの1つまたはその1次結合を、N個の出力チャネルそれぞれのベースチャネルとして用いる。
従って、図14は、N対M法、すなわち、N個のオリジナルのチャネルをダウンミキシングして2つのダウンミックスチャネルにする方法を示している。図14の例では、Nは5に等しいが、Mは2に等しい。特に、フロント左チャネル再生では、送信左チャネルLcが用いられる。同様に、フロント右チャネル再生では、第2の送信チャネルRcがベースチャネルとして用いられる。また、LcおよびRcを同じように合成したものをベースチャネルとして用いて、センターチャネルを再現する。本発明の一実施の形態によれば、相関測定値がさらに、エンコーダからデコーダに送信される。従って、左サラウンドチャネルに対しては、左サラウンドチャネルを復元するベースチャネルがフロント左チャネルを復元するベースチャネルと完全にコヒーレントしないように、送信左チャネルLcばかりでなく、送信チャネルLc+α1Rcも用いる。同様に、右サラウンドチャネルを復元するベースチャネルがフロント右チャネルを復元するベースチャネルと異なるという点で、同じ手順が(想定した聴取者位置に対して)右側に実行される。差は、エンコーダからデコーダへ副情報として送信ことが好ましいコヒーレンス測定値α2に依存される。
従って、ベースチャネルが送信チャネルまたはその1次結合に等しい、異なるベースチャネルを用いて、好ましい出力チャネルをそれぞれ再生するという点で、進歩性のある処理は独特である。この1次結合は、度合いを変更するにあたって、送信ベースチャネルに依存することになる。これらの度合いは、オリジナルのマルチチャネル信号に依存するコヒーレンス測定値に依存する。
N個のベースチャネルをM個の送信チャネルから得る処理を、“アップミキシング”と呼ぶ。N個のベースチャネルを生成するために、1つのベクトルにN×M行列の送信チャネルを乗算することによって、このアップミキシングを実行することができる。これを行うことにより、出力チャネル信号のベース信号を作成するために、送信信号チャネルの1次結合が生成される。アップミキシングを行う特定の例について、図14Aに示す。これは、2チャネルステレオ伝送を行う5チャネルサラウンド出力信号を生成するために、5対2法が行われる。好ましくは、さらにサブウーファー出力チャネルを得るためのベースチャネルは、センターチャネルL+Rと同じである。本発明の好適な実施の形態では、オプションで周波数選択的でもある時間適応アップミキシングマトリックスを得るように、時間可変およびオプションの周波数可変コヒーレンス測定値が生成される。
以下に、図1Bに示す進歩性のあるエンコーダ実施例のバックグラウンドを示す図14Bを参照する。この文脈では、左、右、左サラウンドおよび右サラウンド間のICCキューおよびICTDキューは、送信ステレオ信号と同じであることに留意されたい。従って、本発明によれば、左、右、左サラウンドおよび右サラウンド間でICCキューおよびICTDキューを用いて、出力信号を合成したり復元したりする必要がない。左、右、左サラウンドおよび右サラウンド間でICCキューおよびICTDキューを合成しない別の理由は、全体の目的が、最大信号品質を維持するため、ベースチャネルをほとんど変更する必要ない。いくらかの信号変更をおこなうことにより、場合によってはアーティファクトまたは不自然さを与えてしまう。
従って、ICLDキューを生成することにより得られるオリジナルのマルチチャネル信号のレベル表現だけを生成するが、本発明によれば、想定した聴取者位置の一方の側のチャネル対に対してだけ、ICCパラメータおよびICTDパラメータを算出して送信する。これを、図14Bの左側点線144および右側点線145に示す。ICCおよびICTDとは異なり、ICLD合成がアーティファクトおよび不自然さに関して問題とならないのは、サブバンド信号のスケーリングだけを必要とするからである。従って、ICLDは、通常のBCCと同様に一般的に、すなわち、基準チャネルと他の全チャネルとの間で合成される。さらに一般に、N2M法では、通常のBCCと同じチャネル対の間でICLDを合成する。しかしながら、本発明によれば、想定した聴取者位置に対して、すなわち、フロント左チャネルおよび左サラウンドチャネルを含むチャネル対、またはフロント右チャネルおよび右サラウンドチャネルを含むチャネル対に対して、同じ側のチャネル対の間で、ICCキューおよびICTDキューを合成する。
左側に3つのチャネルがあり右側に3つのチャネルがある、7チャネルまたはより高次のサラウンドシステムの場合は、同じ方法を行うことができる。左側または右側の可能なチャネル対に対し、異なるベースチャネルを生成して、想定した聴取者位置の一方の側の異なる出力チャネルを再生するために、コヒーレンスパラメータが送信される。従って、図1Aおよび図1Bに示すような進歩性のあるN対Mエンコーダは、入力信号にダウンミキシングを行って、1つのチャネルではなくM個のチャネルにする点と、これが必要なチャネル対の間だけで、ICTDキューおよびICCキューを推定して送信するという点とにおいて、独特である。
5チャネルサラウンドシステムでは、図14Bに示す状況から、左および左サラウンドの間での少なくとも1つのコヒーレンス測定値を送信することが必要であることがわかる。このコヒーレンス測定値を用いて、右および右サラウンドを非相関にすることもできる。これは、下位の副情報実施例である。チャネル容量をさらに利用できる場合は、進歩性のあるデコーダでは、左側および右側で非相関を異なる度合いでも得られるように、右および右サラウンドチャネル間で別のコヒーレンス測定値を生成して送信することもできる。
図2Aは、入力データポート22で受信する入力データを逆処理するための装置として動作する、進歩性のあるデコーダを示す。入力データポート22で受信するデータは、図1Aの出力データポート20で出力するデータと同じである。あるいは、有線チャネルを介してデータを送信せずに、無線チャネルを介して送信する場合は、データ入力ポート22で受信するデータは、エンコーダが生成したオリジナルのデータから導出したデータである。
デコーダ入力データは、最終的にチャネル副情報26、左ダウンミックスチャネル28および右ダウンミックスチャネル30を得るために、入力データを読み込んで、データストリームリーダ24に入力される。図1Aのオーディオエンコーダ16が存在する場合に対応する、入力データがダウンミックスチャネルの符号化バージョンを含む場合は、データストリームリーダ24は、オーディオデコーダも含む。これは、符号化ダウンミックスチャネルに用いられるオーディオエンコーダに適用する。この場合は、データストリームリーダ24の一部であるオーディオデコーダは、第1のダウンミックスチャネルLcおよび第2のダウンミックスチャネルRcを生成するために動作する。つまり、より正確にいえば、これらのチャネルの復号化バージョンを生成するように動作する。説明を簡単にするために、信号およびその復号化バージョンは、明確に述べることで区別する。
データストリームリーダ24が出力したチャネル副情報26、左ダウンミックスチャネル28および右ダウンミックスチャネル30は、オリジナルのオーディオ信号の復元したバージョン34を生成するために、マルチチャネル復元装置32に供給される。これは、マルチチャネルプレーヤ36により、再生することができる。マルチチャネル復元装置が周波数領域で動作する場合は、マルチチャネルプレーヤ36は、周波数領域入力データを受信することになる。このデータは、再生前に時間領域に変換するというように、特定の方法で復号化する必要がある。このために、マルチチャネルプレーヤ36は、復号化機能についても含んでいても良い。
低機能のデコーダは、データストリームリーダ24だけを有していることにここで留意されたい。これは、左ダウンミックスチャネル28および右ダウンミックスチャネル30をステレオ出力38に出力するだけである。しかしながら、向上した進歩性のあるデコーダは、オリジナルのチャネルの復元したバージョン34を復元するために、チャネル副情報26を抽出して、これらの副情報およびダウンミックスチャネル28および30を用いて、マルチチャネル復元装置32を利用する。
図2Bは、図2Aのマルチチャネル復元装置32の進歩性のある実施例を示す。従って、図2Bは、入力信号およびパラメトリック副情報を用いて、マルチチャネル出力信号を構築する装置を示す。入力信号は、オリジナルのマルチチャネル信号から抽出した、第1の入力チャネルおよび第2の入力チャネルを含む。パラメトリック副情報は、マルチチャネルのオリジナルの信号のチャネル間の相関を記述する。図2Bに示す進歩性のある装置は、第1のオリジナルのチャネルおよび第2のオリジナルのチャネルに依存するコヒーレンス測定値を生成する手段320を含む。第1のオリジナルのチャネルおよび第2のオリジナルのチャネルは、オリジナルのマルチチャネル信号に含まれる。コヒーレンス測定値がパラメトリック副情報に含まれる場合は、図2Bに示すように、パラメトリック副情報は手段320に入力される。手段320により生成されたコヒーレンス測定値は、ベースチャネルを求める手段322に入力される。特に、手段322は、第1および第2の入力チャネルのいずれか一方または第1および第2の入力チャネルの所定の合成を選択することにより、第1のベースチャネルを求めるように動作する。手段322はさらに、第2のベースチャネルが、コヒーレンス測定値により第1のベースチャネルとは異なるように、コヒーレンス測定値を用いて第2のベースチャネルを求めるために動作する。5チャネルサラウンドシステムに関する、図2Bに示す例では、第1の入力チャネルが左互換ステレオチャネルLcで、第2の入力チャネルが右互換ステレオチャネルRcである。手段322は、図14Aですでに説明した、ベースチャネルを求めるために動作する。従って、手段322の出力で、復元した出力チャネルそれぞれの個別のベースチャネルを得る。好ましくは、手段322で出力するベースチャネルは、お互いすべて異なっている。すなわち、ベースチャネル自体の間で、対毎に異なるコヒーレンス測定値を有している。
手段322が出力するベースチャネルと、ICLD、ICTDまたはインテンシティステレオ情報等のパラメトリック副情報とを、パラメトリック副情報および第1のベースチャネルを用いて、第1の合成出力チャネルLを得るために、L等の第1の出力チャネルを合成する手段324に入力する。これは、対応する第1のオリジナルのチャネルの復元バージョンであって、パラメトリック副情報および第2のベースチャネルを用いて、Ls等の第2の出力チャネルを合成する。第2の出力チャネルは、第2のオリジナルのチャネルの復元バージョンである。また、合成手段324は、別の対のベースチャネルを用いて、右チャネルRおよび右サラウンドチャネルRsを再生するために動作する。この別の対のベースチャネルは、コヒーレンス測定値または右/右サラウンドチャネル対用に導出した付加的コヒーレンス測定値により、お互い対のそれぞれと異なっている。
図2Cに、進歩性のあるデコーダのさらに詳細な実施例を示す。図2Cに示す好適な実施の形態では、概略構造は、トップレベルの従来技術のBCCデコーダに関して図12ですでに説明した構造と同じであることがわかる。図12とは逆に、図2Cに示す進歩性のある方法は、2つのオーディオフィルタバンクを含んでいる。すなわち、一方のフィルタバンクは各入力信号用である。当然、1つのフィルタバンクでも十分である。この場合は、1つのフィルタバンクに入力信号を順次入力するという制御が必要である。フィルタバンクは、ブロック319aおよび319bで示されている。図2Bに示す装置320および322の機能は、図2Cのアップミキシングブロック323に含まれている。
アップミキシングブロック323の出力では、お互い異なるベースチャネルが得られる。図12とは異なり、ノード130上のベースチャネルは、お互い全く同じである。好ましくは、図2Bに示す合成手段324は、遅延段324a、レベル変更段324bを含む。そして、場合により、さらに処理タスクを行う処理段324cとともにそれぞれの数の逆オーディオフィルタバンク324dを含む。一実施の形態では、装置324a、324b、324cおよび324dの機能を、図12で説明した従来技術の装置と同じとすることができる。
図2Dは、5チャネルサラウンドセットアップの図2Cをさらに詳細に示している。2つの入力チャネルy1およびy2を入力して、図2Dに示すように、5つの構築出力チャネルを得る。図2Cとは異なり、アップミキシングブロック323の設計がより詳細に示されている。特に、センター出力チャネルを復元してベースチャネルを生成する加算装置330が示されている。また、“W”と記されている2つのブロック331、332が図2Dに示されている。これらのブロックは、コヒーレンス測定値入力334に入力するコヒーレンス測定値Kに基づいて、2つの入力チャネルを重み付けして合成する。好ましくは、重み付けブロック331または332は、以下で概略を説明する、時間および周波数を平滑にするというような、ベースチャネルにそれぞれ後処理動作も行う。従って、図2Cは図2D概略の場合である。図2Cは、デコーダのM個の入力チャネルからどのようにN個の出力チャネルを生成するかについて示している。送信信号が、サブバンド領域に変換される。
各出力チャネルに対してベースチャネルを算出する処理について、アップミキシングと記しているのは、各ベースチャネルは好ましくは、送信チャネルの1次結合であるからである。アップミキシングは、時間領域またはサブバンドまたは周波数で行うことができる。
各ベースチャネルを算出するには、送信チャネルが位相から外れていたり、位相内にあったりする場合は、特定の処理を行って、相殺/増幅作用を低減することができる。サブバンド信号に遅延を加えることにより、ICTDが合成され、サブバンド信号をスケーリングすることにより、ICLDが合成される。重み付け係数を操作したり、または乱数シーケンスにより時間遅延を行ったりする等の、異なる技術を用いてICCを合成することができる。しかしながら、好ましくは、各出力チャネルに対して異なるベースチャネルを進歩性のある方法で算出する場合を除いて、出力チャネル間でコヒーレンス/相関処理を行わないことにここで留意されたい。従って、好適な進歩性のある装置は、エンコーダから受信したICCキューを処理して、エンコーダから受信したベースチャネル、ICTDキューおよびICLDキューを構築して、すでに構築したベースチャネルを操作する。従って、ICCキュー、さらに一般的には、コヒーレンス測定値を用いずにベースチャネルを操作するが、これらを用いてベースチャネルを構築して、これを後から操作する。
図2Dに示す特定の例では、5チャネルサラウンド信号は、2チャネルステレオ伝送から復号化される。送信された2チャネルステレオ信号は、サブバンド領域に変換される。次に、5つの好ましい異なるベースチャネルを生成するために、アップミキシングが行われる。図14Bで説明したように、遅延di(k)を加えることにより、左および左サラウンドの間と、右および右サラウンドの間とだけで、ICTDキューが合成される。また、ブロック324cでは後処理を何も行わずに、図2Dのベースチャネル(ブロック331および332)を構築するために、コヒーレンス測定値を用いられる。
進歩性のある方法で、送信したステレオ信号で操作したように、左、右、左サラウンドおよび右サラウンド間のICCキューおよびICTDキューを維持する。従って、1つのICCキューおよび1つのICTDキューパラメータで十分であるので、これらをエンコーダからデコーダに送信する。
別の実施の形態では、両側用のICCキューおよびICTDキューを、エンコーダで算出することができる。これらの2つの値を、エンコーダからデコーダで送信することができる。あるいは、両側用のキューを平均関数等の数学的関数に入力して2つのコヒーレンス測定値から得られる値を導出することにより、エンコーダが、得られるICCまたはICTDキューを算出することができる。
以下に、図15Aおよび図15Bを参照して、進歩性のある概念の複雑度が低い実施例を示す。複雑度が高い実施例では、エンコーダ側で少なくとも想定した聴取者位置の一方の側のチャネル対の間でコヒーレンス測定値を算出する必要がなく、好ましくは量子化してエントロピー符号化を行った形態で、このコヒーレンス測定値を送信する必要があるが、複雑度が低いバージョンでは、エンコーダ側でコヒーレンス測定値を算出する必要がなく、符号化からデコーダへかかる情報を送信する必要がない。しかしながら、復元したマルチチャネル出力信号の良好な主観的品質を得るためには、所定のコヒーレンス測定値、つまり換言すれば、かかる所定の重み付け係数を用いて、送信した入力チャネルの重み付けした合成を求める所定の重み付け係数が、図2Dの手段324により生成される。ベースチャネルのコヒーレンスを低減して出力チャネルを復元する、いくつかの可能性がある。進歩性のある手段を用いないと、それぞれの出力チャネルは、ICCおよびICTDを符号化せず送信しない、完全にコヒーレントな基本の実施例になってしまう。従って、再現した出力信号が対応するオリジナルのチャネルの近似値よりも良好になるように、いずれかの任意の所定のコヒーレンス測定値を用いることにより、復元した出力信号内のコヒーレンスを低減することになる。
従って、ベースチャネルが完全にコヒーレントとなることを防ぐために、例えば一例として図15Aに示すように、または別の一例として図15Bに示すように、アップミキシングが行われる。送信ステレオ信号が完全にコヒーレントでない場合は、そのうちの1つが完全にコヒーレントとなるように、5つのベースチャネルが算出される。これは、左チャネルおよび右チャネル間の内部チャネルコヒーレンスを低減する場合は、左チャネルおよび左サラウンドチャネルの間、または右チャネルおよび右サラウンドチャネルの間の内部チャネルコヒーレンスを自動的に低減する結果となる。例えば、アプローズ信号等の全チャネルで独立したオーディオ信号には、かかるアップミキシングは、合成内部チャネルコヒーレンスを明確に合成(および符号化)する必要なく、左、左サラウンド、右および右サラウンド間で特定の独立性が生成されるという利点がある。もちろん、やはりICCおよびICTDを合成する方法を用いて、アップミキシングのこの第2のバージョンを合成することができる。
図15Aは、フロント左およびフロント右を最適化するアップミキシングを示す。フロント左およびフロント右の間で最も大きい独立性が維持されている。
図15Bは、別の例を示す。フロントチャネルおよび後方チャネルの独立性の度合いの程度が同じとなっている点で、一方ではフロント左およびフロント右を、他方では左サラウンドおよび右サラウンドを、同じように処理している。フロント左/右の間の角度が、左サラウンド/右の間の角度と同じであるという事実により、このことが図15Bでわかる。
本発明の好適な実施の形態によれば、静的に選択を行う代わりに、動的アップミキシングが用いられる。このために、本発明は、動的パフォーマンスを最適化するために、動的にアップミキシングマトリックスを適用可能にする、向上したアルゴリズムに関する。以下に示す例では、フロント後方コヒーレンスを最適条件で再現することが可能となるように、アップミキシング行列を、バックチャネルに対して選択することができる。進歩性のあるアルゴリズムは、次の工程を含む。
フロントチャネルに対し、図14Aまたは15Aで説明したように、単純に割り当てたベースチャネルが用いられる。この単純な選択により、左側/右側軸に沿ったチャネルのコヒーレンスが保存される。
エンコーダでは、左/左サラウンド間および好ましくは右/右サラウンド対間の、ICCキュー等のフロントバックコヒーレンス値が測定される。
デコーダでは、送信チャネル信号の1次結合、すなわち、送信左チャネルおよび送信右チャネルを生成することにより、左後方チャネルおよび右後方チャネルに対するベースチャネルが求められる。特に、左、左サラウンド、右および右サラウンド間の実際のコヒーレンスがエンコーダで測定した値になるように、アップミキシング係数が求められる。実用的な目的のために、一般的な5チャネルシナリオで通常のケースである、送信チャネル信号が十分非相関であることを示す場合は、これを実現することができる。
動的アップミキシングを行う好適な実施の形態では、本発明を実施する最良の形態として考えられる、一例としての実施例をエンコーダ実施例として図2Eに、そして、デコーダ実施例として図2Fおよび図2Gに示す。図2Eは、左および左サラウンドチャネル間または右および右サラウンドチャネル間で、すなわち、想定した聴取者位置の一方の側にあるチャネル対の間で、フロント/バックコヒーレンス値(ICC値)を測定する一例を示す。
図2Eのボックスに示す式は、第1のチャネルxおよび第2のチャネルy間のコヒーレンス測定値ccを与える。ある例では、第1のチャネルxが左チャネルで、第2のチャネルyが左サラウンドチャネルである。別の例では、第1のチャネルxが右チャネルで、第2のチャネルyが右サラウンドチャネルである。xiは、時間インスタンスiでのそれぞれのチャネルxのサンプルを表し、yiは、他のオリジナルのチャネルyの時間インスタンスでのサンプルを表す。コヒーレンス測定値を、時間領域で完全に算出できることにここで留意されたい。この場合は、加算添字iは、下部境界から上部境界まで実行される。他の境界は通常、フレーム的処理の場合の1フレーム内のサンプルの数と同じである。
あるいは、バンドパス信号間で、すなわち、オリジナルのオーディオ信号に対して低減した帯域幅を有する信号の間で、コヒーレンス測定値を算出することもできる。後者の場合では、コヒーレンス測定値は、時間に依存するばかりでなく、周波数にも依存する。得られるフロント/バックICCキュー、すなわち、左フロント/バックコヒーレンスのCClと右フロント/バックコヒーレンスのCCrとは、好ましくは量子化して符号化した形態で、パラメトリック副情報としてデコーダに送信される。
以下に、図2Fを参照して、好適なデコーダアップミキシング法を示す。図示の場合では、送信左チャネルを、左側出力チャネルのベースチャネルとして維持する。左後方出力チャネルのベースチャネルを導出するために、左側(l)および右側(r)送信チャネル間の1次結合、すなわち、l+αrを求める。lおよびl+rの間の相互相関が、送信した所望の値の左側CClおよび右側CCrまたは一般にコヒーレンス測定値kと等しくなるように、重み付け係数αが求められる。
適切な値の算出は、図2Fに説明される。特に、2つの信号lおよびrの正規化相互相関について、図2Eのブロックの式のように定義される。
2つの送信信号lおよびrの場合は、信号lおよびl+αrの正規化相互相関が、所望の値k、すなわち、コヒーレンス測定値と等しくなるように、重み付け係数を求める必要がある。この測定値は、−1から+1の間で定義される。
2つのチャネルの相互相関の定義を用いると、値kに対して、図2Fの式が得られる。図2Fの下部に示すいくつかの略記を用いることにより、kの条件を、2次方程式として書き換えることができる。この解により、重み付け係数αが与えられる。
式は常に実数値の解であること、すなわち、判別式が正になるように保証されていることがわかる。
信号lおよびrの基本的な相互相関、所望の相互相関kにより、2つの導出した解の一方が、実際に負の所望の相互相関値となることもあるので、さらにすべてを算出するために、これを放棄する。
l信号およびr信号の1次結合としてベースチャネル信号を算出した後、得られる信号は、送信したlまたはrチャネル信号のオリジナルの信号エネルギーに対して正規化(再スケーリング)される。
同様に、左および右チャネルの役割を交換することにより、すなわち、rおよびr+αlの間の相互相関を考慮することにより、右出力チャネルのベースチャネル信号を導出することができる。
実際には、最大の信号品質を得るために、α値を算出処理した結果を、時間および周波数に対して平滑化することは好ましい。信号品質をさらに最大にするために、左/左後方および右/右後方相関測定値の他に、フロント/バック相関測定値が用いられる。
続いて、図2Gを参照して、図2Aのマルチチャネル復元装置32が行う機能について、順に説明する。
好ましくは、エンコーダからデコーダへ生成した動的コヒーレンス測定値に基づいて、図15Aおよび図15Bで説明したように、静的に生成したコヒーレンス測定値に基づいて、重み付け係数αが算出される(200)。次に、重み付け係数は、平滑化重み付け係数αsを得るために、時間および/または周波数に対して平滑化される。(ステップ202)次に、ベースチャネルbは例えばl+αsrとして(ステップ204)算出される。次にベースチャネルbは、未処理の出力信号を算出するために、他のベースチャネルとともに用いられる。
ボックス206から明らかになるように、未処理の出力信号を算出するために、レベル表現ICLDとともに遅延表現ICTDが必要である。次に、未処理の出力信号は、左および右入力チャネルのそれぞれのエネルギーの合計と同じエネルギーを持つために、スケーリングされる。換言すれば、スケーリングした未処理の出力信号のそれぞれのエネルギーの合計が、左および右送信入力チャネルのそれぞれのエネルギーの合計と同じになるように、スケーリング係数の手段により、未処理の出力信号がスケーリングされる。
あるいは、左および右送信チャネルの合計を算出することもでき、得られる信号のエネルギーを用いて、算出することもできる。また、未処理の出力信号をサンプル毎に合計することにより和信号を算出することもでき、スケーリング用に得られる信号エネルギーを用いて算出することもできる。
次に、ボックス208の出力では、復元した出力チャネルが得られる。これは、再現した出力信号の最大品質が得られるように、復元した出力チャネルのいずれも、復元した出力チャネルもう一方に対して完全にコヒーレントでないという点で独特である。
要約すると、進歩性のある概念は、送信チャネルの任意の数(M)および出力チャネル(N)の任意の数を用いることができるという点で利点がある。
また、出力チャネルの送信チャネルと出力チャネルのベースチャネルとの間の変換が、好ましくは動的アップミキシングを介して行われる。
重要な一実施の形態では、アップミキシングは、アップミキシングマトリックスによる乗算、すなわち、送信チャネルの1次結合を生成することからなる。好ましくは、対応する送信ベースチャネルをベースチャネルとして用いることにより、フロントチャネルが合成される。一方、後方チャネルは、送信チャネルの1次結合からなる。1次結合の度合いは、コヒーレンス測定値に依存する。
また、好ましくは、このアップミキシング処理は、時間可変の方法で信号を適応可能に行われる。特に、好ましくは、アップミキシング処理は、フロント/後方コヒーレンス用の内部チャネルコヒーレンスキュー等として、BCCエンコーダから送信した副情報に依存する。
各出力チャネルのベースチャネルを仮定すると、空間キューを合成するために、通常のバイノーラルキュー符号化と同様の処理が行われる。すなわち、サブバンドにおいて、スケーリングおよび遅延を行って、チャネル間のコヒーレンスを低減する技術を用いる。ICCキューはさらに、または代替として、それぞれのベースチャネルを構築するために、フロント/後方コヒーレンスを最適に再現するために、用いられる。
図3Aは、チャネル副情報を算出する、進歩性のある計算器14の実施の形態を示す。これは、一方ではオーディオエンコーダと、他方ではチャネル副情報計算器とが、マルチチャネル信号の同じスペクトル表現に対して動作する。しかしながら、図1は、一方ではオーディオエンコーダと、他方ではチャネル副情報計算器とがマルチチャネル信号の異なるスペクトル表現に対して動作する、他の別の形態を示す。算出リソースがオーディオ品質ほど重要でない場合は、図1Aの別の形態が好適であるのは、オーディオ符号化および副情報算出のためにそれぞれ最適化したフィルタバンクを用いることができるからである。しかしながら、算出リソースが問題事項である場合は、図3Aの別の形態が好適であるのは、この別の形態では、要素を共用して利用しているので計算能力をあまり必要としないからである。
図3Aに示す装置は、2つのチャネルA、Bを受信するために動作する。図3Aに示す装置は、選択したオリジナルのチャネルBに対してこのチャネル副情報を用いるように、チャネルBの副情報を算出するために動作する。チャネルBの復元したバージョンは、チャネル信号Aから算出できる。また、図3Aに示す装置は、スペクトル値またはサブバンドサンプルを(例えば、BCC符号化として乗算したり、時間処理を行ったりすることにより)重み付けするパラメータ等の、周波数領域チャネル側副情報を形成するために動作する。このために、進歩性のある計算器は、出力140bのチャネルAの周波数表現または出力140cのチャネルBの周波数領域表現を得る、ウインドウ生成および時間/周波数変換手段140aを含む。
好適な実施の形態では、量子化したスペクトル値を用いて、(副情報算出手段140fにより)副情報の算出を行う。次に、量子化器140dが存在する。好ましくは、これは、心理音響モデル制御入力140eを有する心理音響モデルを用いて制御される。しかしながら、副情報算出手段140cがチャネルBのチャネル副情報を求めるチャネルAの非量子化表現を用いる場合は、量子化器を必要としない。
チャネルAの周波数領域表現およびチャネルBの周波数領域表現により、チャネルBのチャネル副情報を算出する場合は、ウインドウ生成および時間/周波数変換手段140aを、フィルタバンクベースのオーディオエンコーダで用いられるのと同じように用いることができる。この場合、AAC(ISO/IEC13818−3)を考慮する場合は、手段140aは、50%オーバラップ加算機能を有するMDCTフィルタバンク(MDCT=変形離散コサイン変換)として実施される。
このような場合は、量子化器140dは、MP3またはAAC符号化オーディオ信号を生成する際に用いられるような、反復量子化器である。好ましくはすでに量子化したチャネルAの周波数領域表現を、次に直接用いてエントロピー符号化に使用される。エントロピーエンコーダ140gは、ハフマンベースのエンコーダまたは算術符号化を行うエントロピーエンコーダとすることもできる。
図1と比較すると、図3Aの装置の出力は、オリジナルのチャネルの1つに対するli等の副情報である(装置140fの出力の、Bの副情報に対応する)。チャネルAのエントロピー符号化ビットストリームは、例えば、図1のブロック16の出力での符号化左ダウンミックスチャネルLc’に対応する。図3Aから、要素14(図1)、すなわち、チャネル副情報およびオーディオエンコーダ16を算出する計算器(図1)を、別の手段として、あるいは、2つの装置がMDCTフィルタバンク140a、量子化器140eおよびエントロピーエンコーダ140g等のいくつかの要素を共有するように、共有バージョンとして実施することができる。当然、チャネル副情報を求める異なる変換等が必要な場合は、次に、2つの要素がフィルタバンク等を共有しないように、エンコーダ16および計算器14(図1)は異なる装置で実施される。
一般に、副情報を算出する実際の行列式(あるいは一般にいうと計算器14)を、図3Bに示すジョイントステレオモジュールとして実施してもよい。これは、インテンシティステレオ符号化またはバイノーラルキュー符号化等の、任意のジョイントステレオ技術に従って動作する。
かかる従来技術のインテンシティステレオエンコーダとは異なり、進歩性のある算出手段140fは、合成チャネルを算出する必要はない。“合成チャネル”またはキャリアチャネルはすでに存在し、これは、左互換ダウンミックスチャネルLcまたは右側互換ダウンミックスチャネルRcまたはLc+Rc等のこれらのダウンミックスチャネルの合成バージョンであるということができる。従って、スケーリング情報、つまり、強度方向情報といえる情報を用いて、ダウンミックスチャネルが重み付けされる場合は、それぞれの選択したオリジナルのチャネルのエネルギー/時間包絡線を得るように、進歩性のある装置140fが行わなければならないことは、それぞれのダウンミックスチャネルをスケーリングするスケーリング情報を算出するだけである。
従って、図3Bのジョイントステレオモジュール140fは、入力として、第1のダウンミックスチャネルまたは第2のダウンミックスチャネルまたはダウンミックスチャネルの合成である“合成”チャネルAと、オリジナルの選択したチャネルとを受信するように示されている。当然、このモジュールは、合成チャネルAおよびジョイントステレオパラメータを用いて、オリジナルの選択したチャネルBの近似値を算出できるように、“合成”チャネルAおよびジョイントステレオパラメータをチャネル副情報として出力する。
あるいは、ジョイントステレオモジュール140fを、バイノーラルキュー符号化を行うように実施することもできる。
BCCの場合は、ジョイントステレオモジュール140fは、チャネル副情報がICLDまたはICTDパラメータを量子化され符号化されるように、チャネル副情報を出力するために動作される。選択したオリジナルのチャネルが、実際に処理するチャネルとして機能するが、第1、第2または第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合成が、BCC符号化/復号化技術という観点から、基準チャネルとして用いられるように、副情報を算出するために用いるそれぞれのダウンミックスチャネルが用いられる。
図4を参照すると、単純にエネルギーに向けた実施例である要素140fが示されている。この装置は、チャネルAから周波数帯域を選択し、また、チャネルBから周波数帯域を対応する周波数帯域セレクタ44を含む。次に、2つの周波数帯域では、各分岐に対するエネルギー計算器42により、エネルギーが算出される。エネルギー計算器42の詳細な実施例は、ブロック40からの出力信号がサブバンド信号であるのか、あるいは周波数係数であるのかということに、依存する。スケールファクタ帯域のスケールファクタが算出される他の実施例では、第1および第2のチャネルA、Bのスケールファクタをエネルギー値EAおよびEBとして、または少なくともエネルギーの推定値として用いることができる。利得係数算出装置44では、図4のブロック44に示す利得を求める規則等の、特定の規則に基づいて、選択した周波数帯域の利得係数gBが求められる。ここで、図5で以下に説明するように、時間領域サンプルまたは周波数係数の重み付けを行うために、利得係数gBが直接用いられる。このために、選択した周波数帯域に有効な利得係数gBは、選択したオリジナルのチャネルであるチャネルBのチャネル副情報として用いられる。この選択したオリジナルのチャネルBはデコーダに送信されないが、これは、図1の計算器14により算出したように、パラメトリックチャネル副情報により表される。
利得値をチャネル副情報として送信する必要はないことにここで留意されたい。選択したオリジナルのチャネルの絶対エネルギーに対する周波数依存値を送信することで十分である。次に、デコーダは、ダウンミックスチャネルエネルギーおよびチャネルBの送信エネルギーに基づいて、ダウンミックスチャネルの実際のエネルギーおよび利得係数を算出する必要がある。
図5は、変換ベースの知覚オーディオエンコーダに関するデコーダセットアップの可能な実施例を示す。図2と比較して、エントロピーデコーダおよび逆量子化器50(図5)の機能性は、図2のブロック24に含まれる。しかしながら、周波数/時間変換装置52a、52b(図5)の機能性は、図2の項目36内で行われる。図5の要素50は、第1または第2のダウンミックス信号Lc’またはRc‘の符号化バージョンを受信する。装置50の出力では、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの少なくとも部分的に復号化したバージョンが存在し、その後これはチャネルAと呼ばれる。チャネルAは、チャネルAから特定の周波数帯域を選択する周波数帯域セレクタ54に入力される。この選択した周波数帯域は、乗算器56を用いて重み付けされる。乗算器56は、乗算を行うために、特定の利得係数gBを受信する。これは、周波数帯域セレクタ54により選択された、選択周波数帯域に割り当てられている。このセレクタは、エンコーダ側の図4の周波数帯域セレクタ40に対応する。周波数時間変換器52aの入力では、他の帯域とともに、チャネルAの周波数領域表現が存在する。乗算器56の出力と、特に、周波数/時間変換手段52bの入力とには、チャネルBの復元した周波数領域表現がある。従って、装置52aの出力にはチャネルAの時間領域表現があるが、装置52bの出力には、復元したチャネルBの時間領域表現がある。
特定の実施例によるが、復号化ダウンミックスチャネルLcまたはRcを、マルチチャネルの向上したデコーダにおいて再生されないことにここで留意されたい。かかるマルチチャネルの向上したデコーダでは、オリジナルのチャネルを復元するために、復号化ダウンミックスチャネルだけが用いられる。復号化ダウンミックスチャネルだけは、低機能のステレオのみのデコーダで再生される。
このために、図9を参照すると、サラウンド/MP3環境での本発明の好適な実施例を示している。MP3の向上したサラウンドビットストリームは、標準MP3デコーダ24に入力される。これは、オリジナルのダウンミックスチャネルのこれらの復号化バージョンを出力する。次に、これらのダウンミックスチャネルを、低機能デコーダの手段により直接再生することができる。あるいは、これらの2つのチャネルは、高機能ジョイントステレオ復号化装置32に入力される。この装置は、マルチチャネル拡張データを受信して、好ましくは、MP3規格対応ビットストリーム内の補助データフィールドに入力される。
続いて、図7を参照すると、選択したオリジナルのチャネルおよびそれぞれのダウンミックスチャネルまたは合成ダウンミックスチャネルのグループ分けを示している。この点に関しては、図7の表の右側欄は、図3A、図3B、図4および図5のチャネルAに対応しているが、中央の欄は、これらの図のチャネルBに対応している。図7の左側欄には、それぞれのチャネル副情報について明確に記している。図7の表によれば、左ダウンミックスチャネルLcを用いて、オリジナルの左チャネルLのチャネル副情報liが算出される。左サラウンドチャネル副情報lsiは、オリジナルの選択した左サラウンドチャネルLsおよびキャリアである左ダウンミックスチャネルLcにより求められる。右ダウンミックスチャネルRcを用いて、オリジナルの右チャネルRの右チャネル副情報riが求められる。また、右ダウンミックスチャネルRcをキャリアとして用いて、右サラウンドチャネルRsのチャネル副情報が求められる。最後に、合成ダウンミックスチャネルを用いて、センターチャネルCのチャネル副情報ciが求められる。合成ダウンミックスチャネルは、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合成により得られ、エンコーダおよびデコーダの両方で簡単に算出することができ、伝送用のビットを余分に必要としない。
当然、例えば、合成ダウンミックスチャネルまたは単にダウンミックスチャネルに基づいて、左チャネルのチャネル副情報を算出することができる。重み付けパラメータが、デコーダ周知のものであるか、あるいはそれに応じて送信されるものである限りは、0.7Lcおよび0.3Rc等のように、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを重み付けして加算することにより得られる。しかしながら、大抵の応用例では、合成ダウンミックスチャネルから、すなわち、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルの合成から、センターチャネルのチャネル副情報だけを導出することが好ましい。
本発明による、ビットを節減する可能性を示すために、次の典型的な一例を示す。5チャネルオーディオ信号の場合は、通常のエンコーダでは、5チャネル信号に対して全体的なビットレートが320キロビット/秒に達するため、各チャネルに対して64キロビット/秒のビットレートが必要である。左および右ステレオ信号では、128キロビット/秒のビットレートが必要である。1つのチャネルのチャネル副情報は、1.5〜2キロビット/秒である。従って、5つのチャネルそれぞれのチャネル副情報を送信するような場合は、この付加データが、7.5〜10キロビット/秒にしかならない。従って、進歩性のある概念により、138キロビット/秒のビットレートを用いて、良好な品質の5チャネルオーディオ信号を伝送することができるのは(320(!)キロビット/秒と比較して)、デコーダが、問題のある逆マトリックス演算を用いないからである。おそらく、進歩性のある概念が完全に後方互換性であるという事実がより重要なのは、既存のMP3プレーヤそれぞれが、従来のステレオ出力を生成するために、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを再生するからである。
応用環境によるが、進歩性のある構築方法または生成方法を、ハードウェアまたはソフトウェアで実施することができる。実施例を、電子的に読取可能な制御信号を有するディスクまたはCD等の、デジタル記憶媒体とすることができる。この信号は、進歩性のある方法を実行するように、プログラム可能なコンピュータシステムと協働する。一般に、従って、本発明はまた、機械読み取り可能なキャリア上に保存したプログラムコードを有するコンピュータプログラム製品に関する。コンピュータプログラム製品をコンピュータ上で実行する場合は、プログラムコードを適用して、進歩性のある方法を実行する。換言すれば、従って、本発明はまた、コンピュータプログラムをコンピュータ上で実行する場合は、方法を実行するプログラムコードを有するコンピュータプログラムに関する。
進歩性のあるエンコーダの好適な実施の形態のブロック図である。 それぞれの入力チャネル対に対してコヒーレンス測定値を生成するための進歩性のあるエンコーダのブロック図である。 進歩性のあるデコーダの好適な実施の形態のブロック図である。 異なる出力チャネルに対し、異なるベースチャネルを有する進歩性のあるデコーダのブロック図である。 図2Bの合成手段の好適な実施の形態を示すブロック図である。 図2Cに示す5チャネルサラウンドシステム用の装置の好適な実施の形態を示すブロック図である。 進歩性のあるエンコーダ内の、コヒーレンス測定値を求める手段の概略図である。 別のベースチャネルに対する特定のコヒーレンス測定値を有するベースチャネルを算出する重み付け係数を求める好適な一例を示す概略図である。 図2Fに示す方法で算出した特定の重み付け係数に基づいて、復元した出力チャネルを得る好適な方法を示す概略図である。 周波数選択的チャネル副情報を得る算出手段の好適な実施例を示すブロック図である。 強度符号化またはバイノーラルキュー符号化等の、ジョイントステレオ処理を実施する計算器の好適な実施の形態である。 チャネル副情報を利得係数とする、チャネル副情報算出手段の別の好適な実施の形態を示す。 図4に示すようにエンコーダを実施する場合の、デコーダの実施例の好適な実施の形態を示す。 ダウンミックスチャネルを生成する手段の好適な実施例を示す。 それぞれのオリジナルのチャネルに対しチャネル副情報を算出するオリジナルのおよびダウンミックスチャネルのグループ分けを示す。 進歩性のあるエンコーダの別の好適な実施の形態を示す。 進歩性のあるデコーダの別の実施例を示す。 従来技術のジョイントステレオエンコーダを示す。 従来技術のBCCエンコーダ/デコーダチェーン?を表すブロック図である。 図11のBCC合成ブロックの従来技術の実施例を示すブロック図である。 ICLD、ICTDおよびICCパラメータを求める周知の方法を表す。 異なるベースチャネルにより、異なる出力チャネルを再生する方法の概略図である。 ICCパラメータおよびICTDパラメータを求めるのに必要なチャネル対を示す。 5チャネル出力信号を構築するベースチャネルを選択する第1の選択を示す概略図である。 5チャネル出力信号を構築するベースチャネルを選択する第2の選択を示す概略図である。

Claims (25)

  1. 入力信号およびパラメトリック副情報を用いて、マルチチャネル出力信号を構築する装置であって、入力信号はオリジナルのマルチチャネル信号から導出した第1の入力チャネル(Lc)および第2の入力チャネル(Rc)を含み、前記オリジナルのマルチチャネル信号は複数のチャネルを有し、前記複数のチャネルは、想定した聴取者位置の一方の側にあると定義される、少なくとも2つのオリジナルのチャネルを含み、第1のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第1のチャネルで、第2のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第2のチャネルで、パラメトリック副情報がマルチチャネルのオリジナルの信号のオリジナルのチャネル間の相関を記述する装置であって、
    前記第1および前記第2の入力チャネルの一方または前記第1および前記第2の入力チャネルの合成から選択することにより、第1のベースチャネルを求め、第2のベースチャネルが前記第1のベースチャネルと異なるように、前記第1および前記第2の入力チャネルのもう一方または前記第1および前記第2の入力チャネルの異なる合成を選択することにより、第2のベースチャネルを求める手段(322)と、
    前記パラメトリック副情報および前記第1のベースチャネルを用いて、前記第1のオリジナルのチャネルの復元バージョンで、前記想定した聴取者位置の一方の側のある、第1の合成出力チャネルを得るために、第1の出力チャネルを合成し、前記パラメトリック副情報および前記第2のベースチャネルを用いて、前記想定した聴取者位置と同じ側にある、前記第2のオリジナルのチャネルの復元バージョンである第2の出力チャンネルが、前記第2の出力チャネルを合成する手段(324)とを備える装置。
  2. コヒーレンス測定値を生成する手段(320)をさらに備え、前記コヒーレンス測定値は第1のオリジナルのチャネルおよび第2のオリジナルのチャネルの間のコヒーレンスに依存し、前記第1および前記第2のオリジナルのチャネルはオリジナルのマルチチャネル信号に含まれ、
    前記求める手段(322)が、コヒーレンス測定値に基づいて、互いに異なる前記第1および前記第2のベースチャネルを求めるために動作する、請求項1に記載の装置。
  3. 少なくとも2つのオリジナルのチャネルが、左側オリジナルのチャネルおよび左サラウンドオリジナルのチャネル、または右側オリジナルのチャネルおよび右サラウンドオリジナルのチャネルを含む、請求項1に記載の装置。
  4. 前記第2のベースチャネルとして求められる前記第1および前記第2の入力チャネルの合成は、前記2つの入力チャネルの一方が、もう一方の入力チャネルよりも前記第2のベースチャネルに寄与するようになっている、請求項1に記載の装置。
  5. 前記求める手段(320)が、前記第2のベースチャネルを前記第1の入力チャネルおよび前記第2の入力チャネルの合成として求めるために動作するように、前記コヒーレンス測定値が時間可変であって、前記合成が時間に対して可変である、請求項2に記載の装置。
  6. パラメトリック副情報が、前記コヒーレンス測定値を含み、前記第1のオリジナルのチャネルおよび前記第2のオリジナルのチャネルを用いて前記コヒーレンス測定値を求め、前記生成手段(320)が、前記コヒーレンス測定値を前記パラメトリック副情報から抽出するために動作する、請求項に記載の装置。
  7. 前記入力信号がフレームシーケンスを有し、前記パラメトリック副情報が前記コヒーレンス測定値を含むパラメータシーケンスを含み、前記パラメータが前記フレームに対応付けられている、請求項6に記載の装置。
  8. 前記オリジナルの信号がさらにセンターチャネル(C)を含み、前記求める手段(322)がさらに、同じ部分の前記第1の入力チャネルおよび前記第2の入力チャネルを用いて、第3のベースチャネルを算出するために動作する、請求項1に記載の装置。
  9. 前記パラメトリック副情報が周波数に依存し、および前記合成手段(324)が、周波数依存合成を行うように動作する、請求項1に記載の装置。
  10. 前記パラメトリック副情報が、内部チャネルレベル差パラメータおよび内部チャネル時間遅延パラメータを含むバイノーラルキュー符号化(BCC)パラメータを含み、前記合成手段が、出力チャネルを合成する際に、前記求める手段により求めたベースチャネルを用いてBCC合成を行うために動作する、請求項1に記載の装置。
  11. 前記求める手段(322)が、前記第1のベースチャネルを前記第1および前記第2の入力チャネルの一方として求め、前記第2のベースチャネルを前記第1および前記第2の入力チャネルの重み付けした合成として求め、重み付け係数が前記コヒーレンス測定値に依存する、請求項に記載の装置。
  12. 重み付け係数を次のように求め、
    Figure 0004574626
    aが重み付け係数であり、A、B、Cを次のように求め、
    A=C2−k2LR B=2LC(l−k2) C=L2(1−k2
    L、R、Cを次のように求め、
    Figure 0004574626
    kが前記コヒーレンス測定値が、前記第1の入力チャネルおよびrが前記第2の入力チャネルである、請求項11に記載の装置。
  13. 前記コヒーレンス測定値を周波数帯域に与え、前記求める手段が、前記第2のベースチャネルを周波数帯域に対して求めるように動作する、請求項11に記載の装置。
  14. 前記コヒーレンス測定値を次のように求め、
    Figure 0004574626
    cc(x、y)が2つのオリジナルのチャネルx、yの間の前記コヒーレンス測定値で、xiが前記第1のオリジナルのチャネルの時間インスタンスiでのサンプルで、yiが前記第2のオリジナルのチャネルの時間インスタンスiでのサンプルである、請求項11に記載の装置。
  15. 前記求める手段(322)が、オリジナルのチャネルから導出した電力測定値を用いて、出力チャネルをスケーリングし、前記電力測定値を前記パラメトリック副情報内で送信する、請求項1に記載の装置。
  16. 前記求める手段(322)が、時間および/または周波数に対して重み付け係数を平滑化するように動作する、請求項11に記載の装置。
  17. 前記パラメトリック副情報が、前記オリジナルの信号内の前記オリジナルのチャネルのエネルギー分布を表すレベル情報を含み、前記合成手段(324)は、前記出力チャネルの合計エネルギーが前記第1の入力チャネルおよび前記第2の入力チャネルの合計エネルギーと等しくなるように、出力チャネルをスケーリングするよう動作する、請求項1に記載の装置。
  18. 前記合成手段(324)は、スケーリングした未処理の出力チャネルの総エネルギーが前記第1および前記第2の入力チャネルの総エネルギーと等しくなるように、求めたベースチャネルおよび前記レベル情報に基づいて未処理の出力チャネルを算出するために、そして、前記スケール未処理の出力チャネルをスケーリングするために有効である、請求項17に記載の装置。
  19. 前記入力信号が左チャネルおよび右チャネルを含み、および前記オリジナルのチャネルがフロント左チャネル、左サラウンドチャネル、フロント右チャネルおよび右サラウンドチャネルを含み、前記求める手段(322)が、
    前記左チャネルを前記フロント左チャネル(L)の合成に対する前記ベースチャネルとして求め、
    前記右チャネルを前記フロント右チャネル(R)の合成に対する前記ベースチャネルとして求め、
    前記左チャネルおよび前記右チャネルの合成を前記左サラウンドチャネル(Ls)または前記右サラウンドチャネル(Rs)に対する前記ベースチャネルとして求めるために動作する、請求項1に記載の装置。
  20. 前記入力信号が、左チャネルおよび右チャネルを含み、および前記オリジナルのチャネルがフロント左チャネル、左サラウンドチャネル、フロント右チャネルおよび右サラウンドチャネルを含み、前記求める手段が、
    前記左チャネルを前記フロント左チャネルの合成に対する前記ベースチャネルとして求め、
    前記右チャネルを前記右サラウンドチャネルの合成に対する前記ベースチャネルとして求め、
    前記第1および前記第2の入力チャネルの合成を前記フロント右チャネルまたは前記左サラウンドチャネルの合成に対する前記ベースチャネルとして求めるために動作する、請求項1に記載の装置。
  21. 入力信号およびパラメトリック副情報を用いてマルチチャネル出力信号を構築する方法であって、前記入力信号はオリジナルのマルチチャネル信号から導出した第1の入力チャネルおよび第2の入力チャネルを含み、オリジナルのマルチチャネル信号は複数のチャネルを有し、前記複数のチャネルは、想定した聴取者位置の一方の側にあると定義される、少なくとも2つのオリジナルのチャネルを含み、第1のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第1のチャネルで、第2のオリジナルのチャネルが少なくとも2つのオリジナルのチャネルのうちの第2のチャネルで、前記パラメトリック副情報が前記マルチチャネルのオリジナルの信号のオリジナルのチャネル間の相関を記述する方法であって、
    前記第1および前記第2の入力チャネルの一方または前記第1および前記第2の入力チャネルの合成から選択することにより、第1のベースチャネルを求め、第2のベースチャネルが前記第1のベースチャネルと異なるように、前記第1および前記第2の入力チャネルのもう一方または前記第1および前記第2の入力チャネルの異なる合成を選択することにより、前記第2のベースチャネルを求め(322)、
    前記パラメトリック副情報および前記第1のベースチャネルを用いて、前記第1のオリジナルのチャネルの復元バージョンで、前記想定した聴取者位置の一方の側のある、第1の合成出力チャネルを得るために、第1の出力チャネルを合成し、前記パラメトリック副情報および前記第2のベースチャネルを用いて、前記想定した聴取者位置と同じ側にある、前記第2のオリジナルのチャネルの復元バージョンである第2の出力シャネルが、前記第2の出力チャネルを合成する(324)ことを含む方法。
  22. ダウンミックス信号が多数のオリジナルのチャネルより小さい多数のチャネルを有し、マルチチャネルのオリジナルの信号から前記ダウンミックス信号を生成する装置であって、
    ダウンミックス規則を用いて、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを算出する手段(12)と、
    前記マルチチャネルのオリジナルの信号内のチャネルの間のエネルギー分布を表すパラメトリックレベル情報を算出する手段(14)と、
    2つのオリジナルのチャネルが想定した聴取者位置の一方の側にある、前記2つのオリジナルのチャネルの間のコヒーレンス測定値を求める手段(142)と、
    前記第1のダウンミックスチャネルおよび前記第2のダウンミックスチャネル、前記パラメトリックレベル情報および一方の側にある2つのオリジナルのチャネルの間の少なくとも1つのコヒーレンス測定値だけ、または前記少なくとも1つのコヒーレンス測定値から送出した値を用いるが、前記想定した聴取者位置の異なる側にあるチャネルの間のコヒーレンス測定値を用いずに、出力信号を生成する手段(18)とを備える装置。
  23. 前記想定した聴取者位置の一方の側にある2つのオリジナルのチャネルの間の時間遅延情報を求める手段(143)をさらに備え、
    前記生成手段(18)が、前記想定した聴取者位置の一方の側にある2つのオリジナルのチャネルの間の時間レベル情報だけを含むが、想定した聴取者位置の異なる側にある2つのオリジナルのチャネルの間の時間レベル情報を含まないように動作する、請求項22に記載の装置。
  24. ダウンミックス信号が多数のオリジナルのチャネルより小さい多数のチャネルを有し、マルチチャネルのオリジナルの信号から前記ダウンミックス信号を生成する方法であって、
    ダウンミックス規則を用いて、第1のダウンミックスチャネルおよび第2のダウンミックスチャネルを算出し(12)、
    前記マルチチャネルのオリジナルの信号内のチャネルの間のエネルギー分布を表すパラメトリックレベル情報を算出し(124)、
    前記2つのオリジナルのチャネルが想定した聴取者位置の一方の側にある、2つのオリジナルのチャネルの間のコヒーレンス測定値を求め(142)、
    前記第1のダウンミックスチャネルおよび前記第2のダウンミックスチャネル、前記パラメトリックレベル情報および一方の側にある2つのオリジナルのチャネルの間の少なくとも1つのコヒーレンス測定値だけ、または前記少なくとも1つのコヒーレンス測定値から送出した値を用いるが、前記想定した聴取者位置の異なる側にあるチャネルの間のコヒーレンス測定値を用いずに、出力信号を生成する(18)ことを含む方法。
  25. コンピュータに、請求項21に記載のマルチチャネルを構築する方法、または請求項24に記載のダウンミックス信号を生成する方法を実行させためのプログラム。
JP2006550000A 2004-01-20 2005-01-17 マルチチャネル出力信号を構築する装置および方法またはダウンミックス信号を生成する装置および方法 Active JP4574626B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/762,100 US7394903B2 (en) 2004-01-20 2004-01-20 Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
PCT/EP2005/000408 WO2005069274A1 (en) 2004-01-20 2005-01-17 Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal

Publications (2)

Publication Number Publication Date
JP2007519349A JP2007519349A (ja) 2007-07-12
JP4574626B2 true JP4574626B2 (ja) 2010-11-04

Family

ID=34750329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006550000A Active JP4574626B2 (ja) 2004-01-20 2005-01-17 マルチチャネル出力信号を構築する装置および方法またはダウンミックス信号を生成する装置および方法

Country Status (17)

Country Link
US (1) US7394903B2 (ja)
EP (1) EP1706865B1 (ja)
JP (1) JP4574626B2 (ja)
KR (1) KR100803344B1 (ja)
CN (1) CN1910655B (ja)
AT (1) ATE393950T1 (ja)
AU (1) AU2005204715B2 (ja)
BR (1) BRPI0506533B1 (ja)
CA (1) CA2554002C (ja)
DE (1) DE602005006385T2 (ja)
ES (1) ES2306076T3 (ja)
IL (1) IL176776A (ja)
MX (1) MXPA06008030A (ja)
NO (1) NO337395B1 (ja)
PT (1) PT1706865E (ja)
RU (1) RU2329548C2 (ja)
WO (1) WO2005069274A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531916A (ja) * 2004-04-05 2007-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 方法、デバイス、エンコーダ装置、デコーダ装置、及びオーディオシステム

Families Citing this family (196)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7454257B2 (en) * 2001-02-08 2008-11-18 Warner Music Group Apparatus and method for down converting multichannel programs to dual channel programs using a smart coefficient generator
US7644003B2 (en) 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US7240001B2 (en) * 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7447317B2 (en) 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US7929708B2 (en) * 2004-01-12 2011-04-19 Dts, Inc. Audio spatial environment engine
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
WO2005086139A1 (en) * 2004-03-01 2005-09-15 Dolby Laboratories Licensing Corporation Multichannel audio coding
US20090299756A1 (en) * 2004-03-01 2009-12-03 Dolby Laboratories Licensing Corporation Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
CN1973320B (zh) * 2004-04-05 2010-12-15 皇家飞利浦电子股份有限公司 立体声编码和解码的方法及其设备
CN102122509B (zh) * 2004-04-05 2016-03-23 皇家飞利浦电子股份有限公司 多信道解码器和多信道解码方法
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
SE0400997D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Efficient coding of multi-channel audio
US20050273324A1 (en) * 2004-06-08 2005-12-08 Expamedia, Inc. System for providing audio data and providing method thereof
US8843378B2 (en) * 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
RU2391714C2 (ru) * 2004-07-14 2010-06-10 Конинклейке Филипс Электроникс Н.В. Преобразование аудиоканалов
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
TWI498882B (zh) * 2004-08-25 2015-09-01 Dolby Lab Licensing Corp 音訊解碼器
WO2006035705A1 (ja) * 2004-09-28 2006-04-06 Matsushita Electric Industrial Co., Ltd. スケーラブル符号化装置およびスケーラブル符号化方法
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
US20060093164A1 (en) * 2004-10-28 2006-05-04 Neural Audio, Inc. Audio spatial environment engine
US7853022B2 (en) * 2004-10-28 2010-12-14 Thompson Jeffrey K Audio spatial environment engine
US20060106620A1 (en) * 2004-10-28 2006-05-18 Thompson Jeffrey K Audio spatial environment down-mixer
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
EP1810279B1 (en) * 2004-11-04 2013-12-11 Koninklijke Philips N.V. Encoding and decoding of multi-channel audio signals
MX2007005261A (es) * 2004-11-04 2007-07-09 Koninkl Philips Electronics Nv Codificacion y descodificacion de un conjunto de senales.
JP5017121B2 (ja) * 2004-11-30 2012-09-05 アギア システムズ インコーポレーテッド 外部的に供給されるダウンミックスとの空間オーディオのパラメトリック・コーディングの同期化
WO2006060279A1 (en) * 2004-11-30 2006-06-08 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
KR100682904B1 (ko) 2004-12-01 2007-02-15 삼성전자주식회사 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
DE102005010057A1 (de) * 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
KR101271069B1 (ko) * 2005-03-30 2013-06-04 돌비 인터네셔널 에이비 다중채널 오디오 인코더 및 디코더와, 인코딩 및 디코딩 방법
CN101151660B (zh) * 2005-03-30 2011-10-19 皇家飞利浦电子股份有限公司 多通道音频编码器、解码器以及相应方法
US7983922B2 (en) * 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
JP4907522B2 (ja) * 2005-04-28 2012-03-28 パナソニック株式会社 音声符号化装置および音声符号化方法
EP1905002B1 (en) * 2005-05-26 2013-05-22 LG Electronics Inc. Method and apparatus for decoding audio signal
JP2008542816A (ja) * 2005-05-26 2008-11-27 エルジー エレクトロニクス インコーポレイティド オーディオ信号の符号化及び復号化方法
JP4988716B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
CA2610430C (en) * 2005-06-03 2016-02-23 Dolby Laboratories Licensing Corporation Channel reconfiguration with side information
JP2009500656A (ja) * 2005-06-30 2009-01-08 エルジー エレクトロニクス インコーポレイティド オーディオ信号をエンコーディング及びデコーディングするための装置とその方法
AU2006266655B2 (en) * 2005-06-30 2009-08-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
AU2006266579B2 (en) * 2005-06-30 2009-10-22 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
PL1905006T3 (pl) * 2005-07-19 2014-02-28 Koninl Philips Electronics Nv Generowanie wielokanałowych sygnałów audio
US20070055510A1 (en) 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
US7761303B2 (en) * 2005-08-30 2010-07-20 Lg Electronics Inc. Slot position coding of TTT syntax of spatial audio coding application
JP4859925B2 (ja) * 2005-08-30 2012-01-25 エルジー エレクトロニクス インコーポレイティド オーディオ信号デコーディング方法及びその装置
US7788107B2 (en) * 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
KR101169280B1 (ko) * 2005-08-30 2012-08-02 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 장치
CN101253556B (zh) * 2005-09-02 2011-06-22 松下电器产业株式会社 能量整形装置以及能量整形方法
EP1761110A1 (en) * 2005-09-02 2007-03-07 Ecole Polytechnique Fédérale de Lausanne Method to generate multi-channel audio signals from stereo signals
EP1946295B1 (en) 2005-09-14 2013-11-06 LG Electronics Inc. Method and apparatus for decoding an audio signal
TWI462086B (zh) * 2005-09-14 2014-11-21 Lg Electronics Inc 音頻訊號之解碼方法及其裝置
EP1943642A4 (en) * 2005-09-27 2009-07-01 Lg Electronics Inc METHOD AND DEVICE FOR CODING / DECODING A MULTI-CHANNEL AUDIO SIGNAL
TWI450603B (zh) * 2005-10-04 2014-08-21 Lg Electronics Inc 音頻訊號處理方法及其系統與電腦可讀取媒體
US7751485B2 (en) * 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7696907B2 (en) * 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) * 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
EP1946062A4 (en) * 2005-10-05 2009-09-09 Lg Electronics Inc METHOD AND DEVICE FOR SIGNAL PROCESSING AND CODING AND DECODING METHOD AND DEVICE THEREFOR
US7646319B2 (en) * 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
KR100857121B1 (ko) * 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US8068569B2 (en) * 2005-10-05 2011-11-29 Lg Electronics, Inc. Method and apparatus for signal processing and encoding and decoding
US8073703B2 (en) * 2005-10-07 2011-12-06 Panasonic Corporation Acoustic signal processing apparatus and acoustic signal processing method
EP1946307A4 (en) * 2005-10-13 2010-01-06 Lg Electronics Inc METHOD AND DEVICE FOR SIGNAL PROCESSING
WO2007043844A1 (en) * 2005-10-13 2007-04-19 Lg Electronics Inc. Method and apparatus for processing a signal
WO2007046659A1 (en) * 2005-10-20 2007-04-26 Lg Electronics Inc. Method for encoding and decoding multi-channel audio signal and apparatus thereof
US20070092086A1 (en) * 2005-10-24 2007-04-26 Pang Hee S Removing time delays in signal paths
CN101297353B (zh) * 2005-10-26 2013-03-13 Lg电子株式会社 编码和解码多声道音频信号的方法及其装置
US8027485B2 (en) * 2005-11-21 2011-09-27 Broadcom Corporation Multiple channel audio system supporting data channel replacement
US8111830B2 (en) * 2005-12-19 2012-02-07 Samsung Electronics Co., Ltd. Method and apparatus to provide active audio matrix decoding based on the positions of speakers and a listener
KR100644715B1 (ko) * 2005-12-19 2006-11-10 삼성전자주식회사 능동적 오디오 매트릭스 디코딩 방법 및 장치
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
KR101218776B1 (ko) * 2006-01-11 2013-01-18 삼성전자주식회사 다운믹스된 신호로부터 멀티채널 신호 생성방법 및 그 기록매체
KR100803212B1 (ko) * 2006-01-11 2008-02-14 삼성전자주식회사 스케일러블 채널 복호화 방법 및 장치
EP1974347B1 (en) * 2006-01-19 2014-08-06 LG Electronics Inc. Method and apparatus for processing a media signal
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
CN102693727B (zh) * 2006-02-03 2015-06-10 韩国电子通信研究院 用于控制音频信号的渲染的方法
WO2007091850A1 (en) * 2006-02-07 2007-08-16 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
CN101390443B (zh) 2006-02-21 2010-12-01 皇家飞利浦电子股份有限公司 音频编码和解码
BRPI0706488A2 (pt) * 2006-02-23 2011-03-29 Lg Electronics Inc método e aparelho para processar sinal de áudio
KR100773560B1 (ko) * 2006-03-06 2007-11-05 삼성전자주식회사 스테레오 신호 생성 방법 및 장치
KR100773562B1 (ko) * 2006-03-06 2007-11-07 삼성전자주식회사 스테레오 신호 생성 방법 및 장치
US8126152B2 (en) * 2006-03-28 2012-02-28 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for a decoder for multi-channel surround sound
US7965848B2 (en) * 2006-03-29 2011-06-21 Dolby International Ab Reduced number of channels decoding
EP1853092B1 (en) * 2006-05-04 2011-10-05 LG Electronics, Inc. Enhancing stereo audio with remix capability
US8027479B2 (en) 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
WO2008009175A1 (fr) * 2006-07-14 2008-01-24 Anyka (Guangzhou) Software Technologiy Co., Ltd. Rocédé et un système de codage et décodage audio canal à rétrocompatibilité d'après la règle d'entropie maximale
KR100763920B1 (ko) * 2006-08-09 2007-10-05 삼성전자주식회사 멀티채널 신호를 모노 또는 스테레오 신호로 압축한 입력신호를 2채널의 바이노럴 신호로 복호화하는 방법 및 장치
WO2008032255A2 (en) * 2006-09-14 2008-03-20 Koninklijke Philips Electronics N.V. Sweet spot manipulation for a multi-channel signal
KR100891666B1 (ko) 2006-09-29 2009-04-02 엘지전자 주식회사 믹스 신호의 처리 방법 및 장치
RU2551797C2 (ru) 2006-09-29 2015-05-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства кодирования и декодирования объектно-ориентированных аудиосигналов
US20100040135A1 (en) * 2006-09-29 2010-02-18 Lg Electronics Inc. Apparatus for processing mix signal and method thereof
CN101529898B (zh) 2006-10-12 2014-09-17 Lg电子株式会社 用于处理混合信号的装置及其方法
CN101692703B (zh) * 2006-10-30 2012-09-26 深圳创维数字技术股份有限公司 一种实现数字电视中图文电子节目指南信息的方法及装置
JP4838361B2 (ja) * 2006-11-15 2011-12-14 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及びその装置
WO2008069584A2 (en) * 2006-12-07 2008-06-12 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
CA2670864C (en) 2006-12-07 2015-09-29 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US20100121470A1 (en) * 2007-02-13 2010-05-13 Lg Electronics Inc. Method and an apparatus for processing an audio signal
EP2111618A4 (en) * 2007-02-13 2010-04-21 Lg Electronics Inc METHOD AND APPARATUS FOR PROCESSING AUDIO SIGNAL
WO2008108701A1 (en) * 2007-03-02 2008-09-12 Telefonaktiebolaget Lm Ericsson (Publ) Postfilter for layered codecs
US7933372B2 (en) * 2007-03-08 2011-04-26 Freescale Semiconductor, Inc. Successive interference cancellation based on the number of retransmissions
JP5213339B2 (ja) 2007-03-12 2013-06-19 アルパイン株式会社 オーディオ装置
GB0705328D0 (en) * 2007-03-20 2007-04-25 Skype Ltd Method of transmitting data in a communication system
JP5021809B2 (ja) * 2007-06-08 2012-09-12 ドルビー ラボラトリーズ ライセンシング コーポレイション アンビエンス信号成分とマトリックスデコードされた信号成分とを制御可能に結合することによるサラウンドサウンドオーディオチャンネルのハイブリッド導出
JP5291096B2 (ja) * 2007-06-08 2013-09-18 エルジー エレクトロニクス インコーポレイティド オーディオ信号処理方法及び装置
US8046214B2 (en) * 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
KR101464977B1 (ko) * 2007-10-01 2014-11-25 삼성전자주식회사 메모리 관리 방법, 및 멀티 채널 데이터의 복호화 방법 및장치
US8170218B2 (en) * 2007-10-04 2012-05-01 Hurtado-Huyssen Antoine-Victor Multi-channel audio treatment system and method
EP2046076B1 (en) * 2007-10-04 2010-03-03 Antoine-Victor Hurtado-Huyssen Multi-channel audio treatment system and method
US8249883B2 (en) * 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
KR101438389B1 (ko) * 2007-11-15 2014-09-05 삼성전자주식회사 오디오 매트릭스 디코딩 방법 및 장치
EP2212883B1 (en) * 2007-11-27 2012-06-06 Nokia Corporation An encoder
US8600532B2 (en) * 2007-12-09 2013-12-03 Lg Electronics Inc. Method and an apparatus for processing a signal
KR101439205B1 (ko) 2007-12-21 2014-09-11 삼성전자주식회사 오디오 매트릭스 인코딩 및 디코딩 방법 및 장치
KR101614160B1 (ko) 2008-07-16 2016-04-20 한국전자통신연구원 포스트 다운믹스 신호를 지원하는 다객체 오디오 부호화 장치 및 복호화 장치
US8867752B2 (en) * 2008-07-30 2014-10-21 Orange Reconstruction of multi-channel audio data
CA2732079C (en) * 2008-07-31 2016-09-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Signal generation for binaural signals
AU2015207815B2 (en) * 2008-07-31 2016-10-13 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Signal generation for binaural signals
EP2154911A1 (en) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
TWI496479B (zh) 2008-09-03 2015-08-11 Dolby Lab Licensing Corp 增進多聲道之再生
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
JP5522920B2 (ja) * 2008-10-23 2014-06-18 アルパイン株式会社 オーディオ装置及びオーディオ処理方法
EP2353161B1 (en) * 2008-10-29 2017-05-24 Dolby International AB Signal clipping protection using pre-existing audio gain metadata
EP2214162A1 (en) * 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Upmixer, method and computer program for upmixing a downmix audio signal
BRPI1004215B1 (pt) 2009-04-08 2021-08-17 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Aparelho e método para upmixagem de sinal de áudio downmix utilizando uma atenuação de valor de fase
US20120045065A1 (en) * 2009-04-17 2012-02-23 Pioneer Corporation Surround signal generating device, surround signal generating method and surround signal generating program
JP2011002574A (ja) * 2009-06-17 2011-01-06 Nippon Hoso Kyokai <Nhk> 3次元音響符号化装置、3次元音響復号装置、符号化プログラム及び復号プログラム
US20100324915A1 (en) * 2009-06-23 2010-12-23 Electronic And Telecommunications Research Institute Encoding and decoding apparatuses for high quality multi-channel audio codec
US9351070B2 (en) * 2009-06-30 2016-05-24 Nokia Technologies Oy Positional disambiguation in spatial audio
KR101615262B1 (ko) * 2009-08-12 2016-04-26 삼성전자주식회사 시멘틱 정보를 이용한 멀티 채널 오디오 인코딩 및 디코딩 방법 및 장치
KR101805212B1 (ko) * 2009-08-14 2017-12-05 디티에스 엘엘씨 객체-지향 오디오 스트리밍 시스템
JP2011048101A (ja) * 2009-08-26 2011-03-10 Renesas Electronics Corp 画素回路および表示装置
JP5345024B2 (ja) * 2009-08-28 2013-11-20 日本放送協会 3次元音響符号化装置、3次元音響復号装置、符号化プログラム及び復号プログラム
EP2309781A3 (en) * 2009-09-23 2013-12-18 Iosono GmbH Apparatus and method for calculating filter coefficients for a predefined loudspeaker arrangement
US8774417B1 (en) 2009-10-05 2014-07-08 Xfrm Incorporated Surround audio compatibility assessment
TWI413110B (zh) * 2009-10-06 2013-10-21 Dolby Int Ab 以選擇性通道解碼的有效多通道信號處理
EP2323130A1 (en) * 2009-11-12 2011-05-18 Koninklijke Philips Electronics N.V. Parametric encoding and decoding
WO2011071928A2 (en) * 2009-12-07 2011-06-16 Pixel Instruments Corporation Dialogue detector and correction
FR2954640B1 (fr) 2009-12-23 2012-01-20 Arkamys Procede d'optimisation de la reception stereo pour radio analogique et recepteur de radio analogique associe
US8908874B2 (en) 2010-09-08 2014-12-09 Dts, Inc. Spatial audio encoding and reproduction
US20120155650A1 (en) * 2010-12-15 2012-06-21 Harman International Industries, Incorporated Speaker array for virtual surround rendering
JP5857071B2 (ja) * 2011-01-05 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オーディオ・システムおよびその動作方法
US9165558B2 (en) 2011-03-09 2015-10-20 Dts Llc System for dynamically creating and rendering audio objects
EP2523472A1 (en) * 2011-05-13 2012-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method and computer program for generating a stereo output signal for providing additional output channels
RU2559038C1 (ru) 2011-07-04 2015-08-10 Хуавэй Текнолоджиз Ко., Лтд. Радиочастотный модуль, поддерживающий несколько несущих, базовая станция и способ распределения несущих
JP5737077B2 (ja) * 2011-08-30 2015-06-17 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
KR101842257B1 (ko) * 2011-09-14 2018-05-15 삼성전자주식회사 신호 처리 방법, 그에 따른 엔코딩 장치, 및 그에 따른 디코딩 장치
US9183842B2 (en) * 2011-11-08 2015-11-10 Vixs Systems Inc. Transcoder with dynamic audio channel changing
WO2013073810A1 (ko) * 2011-11-14 2013-05-23 한국전자통신연구원 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
US8711013B2 (en) * 2012-01-17 2014-04-29 Lsi Corporation Coding circuitry for difference-based data transformation
US9131313B1 (en) * 2012-02-07 2015-09-08 Star Co. System and method for audio reproduction
EP2862370B1 (en) * 2012-06-19 2017-08-30 Dolby Laboratories Licensing Corporation Rendering and playback of spatial audio using channel-based audio systems
US9363603B1 (en) 2013-02-26 2016-06-07 Xfrm Incorporated Surround audio dialog balance assessment
WO2014161996A2 (en) 2013-04-05 2014-10-09 Dolby International Ab Audio processing system
CN105264600B (zh) 2013-04-05 2019-06-07 Dts有限责任公司 分层音频编码和传输
US8804971B1 (en) 2013-04-30 2014-08-12 Dolby International Ab Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio
KR101751228B1 (ko) 2013-05-24 2017-06-27 돌비 인터네셔널 에이비 오디오 오브젝트들을 포함한 오디오 장면들의 효율적 코딩
CN109887516B (zh) 2013-05-24 2023-10-20 杜比国际公司 对音频场景进行解码的方法、音频解码器以及介质
WO2014187989A2 (en) * 2013-05-24 2014-11-27 Dolby International Ab Reconstruction of audio scenes from a downmix
JP6190947B2 (ja) 2013-05-24 2017-08-30 ドルビー・インターナショナル・アーベー オーディオ・オブジェクトを含むオーディオ・シーンの効率的な符号化
CN105393304B (zh) 2013-05-24 2019-05-28 杜比国际公司 音频编码和解码方法、介质以及音频编码器和解码器
EP2830053A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a residual-signal-based adjustment of a contribution of a decorrelated signal
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
EP2830332A3 (en) 2013-07-22 2015-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method, signal processing unit, and computer program for mapping a plurality of input channels of an input channel configuration to output channels of an output channel configuration
EP2854133A1 (en) * 2013-09-27 2015-04-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Generation of a downmix signal
WO2015049334A1 (de) * 2013-10-02 2015-04-09 Stormingswiss Gmbh Verfahren und vorrichtung zum downmixen eines multikanalsignals und zum upmixen eines downmixsignals
MX354832B (es) 2013-10-21 2018-03-21 Dolby Int Ab Estructura de decorrelador para la reconstruccion parametrica de señales de audio.
EP4089675A1 (en) 2014-01-08 2022-11-16 Dolby International AB Method and apparatus for improving the coding of side information required for coding a higher order ambisonics representation of a sound field
WO2015104447A1 (en) 2014-01-13 2015-07-16 Nokia Technologies Oy Multi-channel audio signal classifier
WO2015150384A1 (en) 2014-04-01 2015-10-08 Dolby International Ab Efficient coding of audio scenes comprising audio objects
EP2980789A1 (en) * 2014-07-30 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhancing an audio signal, sound enhancing system
JP6640849B2 (ja) * 2014-10-31 2020-02-05 ドルビー・インターナショナル・アーベー マルチチャネル・オーディオ信号のパラメトリック・エンコードおよびデコード
US9875756B2 (en) * 2014-12-16 2018-01-23 Psyx Research, Inc. System and method for artifact masking
EP3107097B1 (en) * 2015-06-17 2017-11-15 Nxp B.V. Improved speech intelligilibility
AU2015413301B2 (en) * 2015-10-27 2021-04-15 Ambidio, Inc. Apparatus and method for sound stage enhancement
PL3405949T3 (pl) * 2016-01-22 2020-07-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie i sposób szacowania międzykanałowej różnicy czasowej
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
GB201718341D0 (en) * 2017-11-06 2017-12-20 Nokia Technologies Oy Determination of targeted spatial audio parameters and associated spatial audio playback
GB2572650A (en) 2018-04-06 2019-10-09 Nokia Technologies Oy Spatial audio parameters and associated spatial audio playback
GB2574239A (en) 2018-05-31 2019-12-04 Nokia Technologies Oy Signalling of spatial audio parameters
DE102018127071B3 (de) * 2018-10-30 2020-01-09 Harman Becker Automotive Systems Gmbh Audiosignalverarbeitung mit akustischer Echounterdrückung
US11356791B2 (en) * 2018-12-27 2022-06-07 Gilberto Torres Ayala Vector audio panning and playback system
CN111615044B (zh) * 2019-02-25 2021-09-14 宏碁股份有限公司 声音信号的能量分布修正方法及其系统

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2165370T3 (es) * 1993-06-22 2002-03-16 Thomson Brandt Gmbh Metodo para obtener una matriz decodificadora multicanal.
DE4409368A1 (de) * 1994-03-18 1995-09-21 Fraunhofer Ges Forschung Verfahren zum Codieren mehrerer Audiosignale
US5912976A (en) * 1996-11-07 1999-06-15 Srs Labs, Inc. Multi-channel audio enhancement system for use in recording and playback and methods for providing same
JP4478220B2 (ja) * 1997-05-29 2010-06-09 ソニー株式会社 音場補正回路
JP3657120B2 (ja) * 1998-07-30 2005-06-08 株式会社アーニス・サウンド・テクノロジーズ 左,右両耳用のオーディオ信号を音像定位させるための処理方法
JP2000214887A (ja) * 1998-11-16 2000-08-04 Victor Co Of Japan Ltd 音声符号化装置、光記録媒体、音声復号装置、音声伝送方法及び伝送媒体
JP2002175097A (ja) * 2000-12-06 2002-06-21 Yamaha Corp 音声信号のエンコード/圧縮装置およびデコード/伸長装置
KR100904985B1 (ko) * 2001-02-07 2009-06-26 돌비 레버러토리즈 라이쎈싱 코오포레이션 오디오 채널 변환
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
KR100752482B1 (ko) * 2001-07-07 2007-08-28 엘지전자 주식회사 멀티채널 스트림 기록 재생장치 및 방법
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
TW569551B (en) * 2001-09-25 2004-01-01 Roger Wallace Dressler Method and apparatus for multichannel logic matrix decoding
US8498422B2 (en) * 2002-04-22 2013-07-30 Koninklijke Philips N.V. Parametric multi-channel audio representation
WO2003094369A2 (en) * 2002-05-03 2003-11-13 Harman International Industries, Incorporated Multi-channel downmixing device
JP2003333699A (ja) * 2002-05-10 2003-11-21 Pioneer Electronic Corp マトリックス・サラウンドデコード装置
KR20040043743A (ko) * 2002-11-19 2004-05-27 주식회사 디지털앤디지털 멀티채널 검색장치와 방법
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
KR100663729B1 (ko) * 2004-07-09 2007-01-02 한국전자통신연구원 가상 음원 위치 정보를 이용한 멀티채널 오디오 신호부호화 및 복호화 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007531916A (ja) * 2004-04-05 2007-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 方法、デバイス、エンコーダ装置、デコーダ装置、及びオーディオシステム

Also Published As

Publication number Publication date
CN1910655A (zh) 2007-02-07
CA2554002C (en) 2013-12-03
US7394903B2 (en) 2008-07-01
IL176776A (en) 2010-11-30
KR100803344B1 (ko) 2008-02-13
KR20060132867A (ko) 2006-12-22
WO2005069274A1 (en) 2005-07-28
CA2554002A1 (en) 2005-07-28
AU2005204715A1 (en) 2005-07-28
RU2329548C2 (ru) 2008-07-20
EP1706865B1 (en) 2008-04-30
BRPI0506533A (pt) 2007-02-27
BRPI0506533B1 (pt) 2018-11-06
ES2306076T3 (es) 2008-11-01
MXPA06008030A (es) 2007-03-07
IL176776A0 (en) 2008-03-20
RU2006129940A (ru) 2008-02-27
DE602005006385T2 (de) 2009-05-28
US20050157883A1 (en) 2005-07-21
NO20063722L (no) 2006-10-19
AU2005204715B2 (en) 2008-08-21
JP2007519349A (ja) 2007-07-12
DE602005006385D1 (de) 2008-06-12
PT1706865E (pt) 2008-08-12
CN1910655B (zh) 2010-11-10
EP1706865A1 (en) 2006-10-04
NO337395B1 (no) 2016-04-04
ATE393950T1 (de) 2008-05-15

Similar Documents

Publication Publication Date Title
JP4574626B2 (ja) マルチチャネル出力信号を構築する装置および方法またはダウンミックス信号を生成する装置および方法
US10433091B2 (en) Compatible multi-channel coding-decoding
JP4712799B2 (ja) マルチチャネル出力信号を発生するためのマルチチャネルシンセサイザおよび方法
JP5624967B2 (ja) マルチチャネルシンセサイザ制御信号を発生するための装置および方法並びにマルチチャネル合成のための装置および方法
US8553895B2 (en) Device and method for generating an encoded stereo signal of an audio piece or audio datastream

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100420

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100818

R150 Certificate of patent or registration of utility model

Ref document number: 4574626

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130827

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250