JP2010521866A - オーディオ信号の処理方法及び装置 - Google Patents

オーディオ信号の処理方法及び装置 Download PDF

Info

Publication number
JP2010521866A
JP2010521866A JP2009553525A JP2009553525A JP2010521866A JP 2010521866 A JP2010521866 A JP 2010521866A JP 2009553525 A JP2009553525 A JP 2009553525A JP 2009553525 A JP2009553525 A JP 2009553525A JP 2010521866 A JP2010521866 A JP 2010521866A
Authority
JP
Japan
Prior art keywords
information
enhanced
channel
downmix
enhanced object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009553525A
Other languages
English (en)
Inventor
オ オー,ヒェン
ウォン ジュン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2010521866A publication Critical patent/JP2010521866A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、前記ダウンミックス情報及び前記第1マルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成するオーディオ信号処理方法が開示される。

Description

本発明は、オーディオ信号の処理方法及び装置に関するものであり、より詳細には、デジタル媒体、放送信号などで受信されたオーディオ信号を処理することができるオーディオ信号の処理方法及び装置に関するものである。
一般的に、複数個のオブジェクトをモノ又はステレオ信号にダウンミックスする過程において、それぞれのオブジェクト信号から各パラメータが抽出される。このような各パラメータはデコーダで使用されるが、それぞれのオブジェクトのパニングや利得は、ユーザの選択によって制御される。
それぞれのオブジェクト信号を制御するためには、ダウンミックスに含まれている各ソースが適切にポジショニング又はパニングされなければならない。
また、チャネル基盤のデコーディング方式で下位互換性を有するためには、オブジェクトパラメータは、アップミキシングのためのマルチチャネルパラメータに柔軟に変換されなければならない。
本発明は、前記のような問題点を解決するためになされたもので、オブジェクトの利得及びパニングを制限なしに制御することができるオーディオ信号処理方法及び装置を提供することを目的とする。
本発明の他の目的は、ユーザの選択に基づいてオブジェクトの利得及びパニングを制御することができるオーディオ信号処理方法及び装置を提供することにある。
本発明の更に別の目的は、ボーカルや背景音楽の利得を大幅に調節する場合にも、音質の歪曲を発生させないオーディオ信号処理方法及び装置を提供することにある。
前記のような目的を達成するために、本発明に係るオーディオ信号処理方法は、二つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、第1のエンハンストオブジェクト情報を用いて前記ダウンミックスを第1の独立オブジェクトと臨時バックグラウンドオブジェクトに分離し、第2のエンハンストオブジェクト情報を用いて前記臨時バックグラウンドオブジェクトから第2の独立オブジェクトを抽出する。
本発明によれば、前記独立オブジェクトは、オブジェクト基盤信号であり、前記バックグラウンドオブジェクトは、一つ以上のチャネル基盤信号を含む信号か、一つ以上のチャネル基盤信号がダウンミックスされた信号である。
本発明によれば、前記バックグラウンドオブジェクトは、左チャネル信号及び右チャネル信号を含むことができる。
本発明によれば、前記第1のエンハンストオブジェクト情報及び前記第2のエンハンストオブジェクト情報はレジデュアル信号である。
本発明によれば、前記第1のエンハンストオブジェクト情報及び前記第2のエンハンストオブジェクト情報は、付加情報ビットストリームに含まれており、前記付加情報ビットストリームに含まれているエンハンストオブジェクト情報の数と、前記ダウンミックス情報に含まれている独立オブジェクトの数とは同一である。
本発明によれば、前記分離することは、N個の入力を用いてN+1個の出力を生成するモジュールによって行われる。
本発明によれば、オブジェクト情報及びミックス情報を受信し、前記オブジェクト情報及び前記ミックス情報を用いて、前記第1の独立オブジェクト及び前記第2の独立オブジェクトの利得を調整するためのマルチチャネル情報を生成することができる。
本発明によれば、前記ミックス情報は、オブジェクト位置情報、オブジェクト利得情報及び再生設定情報のうち一つ以上に基づいて生成してもよい。
本発明によれば、前記抽出することは、第2の臨時バックグラウンドオブジェクト及び第2の独立オブジェクトを抽出することであり、第2のエンハンストオブジェクト情報を用いて前記第2の臨時バックグラウンドオブジェクトから第3の独立オブジェクトを抽出する。
本発明の他の側面によれば、二つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、第1のエンハンストオブジェクト情報を用いて前記ダウンミックスを第1の独立オブジェクトと臨時バックグラウンドオブジェクトに分離し、第2のエンハンストオブジェクト情報を用いて前記臨時バックグラウンドオブジェクトから第2の独立オブジェクトを抽出することを実行するためのプログラムが保存されたコンピュータ読取可能記録媒体が提供される。
本発明の更に別の側面によれば、二つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信する情報受信部と、第1のエンハンストオブジェクト情報を用いて前記ダウンミックスを臨時バックグラウンドオブジェクトと第1の独立オブジェクトに分離する第1エンハンストオブジェクト情報デコーディング部と、第2のエンハンストオブジェクト情報を用いて前記臨時バックグラウンドオブジェクトから第2の独立オブジェクトを抽出する第2エンハンストオブジェクト情報デコーディング部とを含むオーディオ信号処理装置が提供される。
本発明の更に別の側面によれば、第1の独立オブジェクト及びバックグラウンドオブジェクトを用いて臨時バックグラウンドオブジェクト及び第1のエンハンストオブジェクト情報を生成し、第2の独立オブジェクト及び臨時バックグラウンドオブジェクトを用いて第2のエンハンストオブジェクト情報を生成し、前記第1のエンハンストオブジェクト情報及び第2のエンハンストオブジェクト情報を伝送するオーディオ信号処理方法が提供される。
本発明の更に別の側面によれば、第1の独立オブジェクト及びバックグラウンドオブジェクトを用いて臨時バックグラウンドオブジェクト及び第1のエンハンストオブジェクト情報を生成する第1エンハンストオブジェクト情報生成部と、第2の独立オブジェクト及び臨時バックグラウンドオブジェクトを用いて第2のエンハンストオブジェクト情報を生成する第2エンハンストオブジェクト情報生成部と、前記第1のエンハンストオブジェクト情報及び第2のエンハンストオブジェクト情報を伝送するためのマルチプレクサとを含むオーディオ信号処理装置が提供される。
本発明の更に別の側面によれば、独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、前記ダウンミックス情報及び前記第1のマルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成するオーディオ信号処理方法が提供される。
本発明によれば、前記第2のマルチチャネル情報を生成することは、第1のマルチチャネル情報が適用された信号を前記ダウンミックス情報から差し引くことを含むことができる。
本発明によれば、前記差し引くことは、時間ドメイン又は周波数ドメイン上で行われる。
本発明によれば、前記差し引くことは、前記ダウンミックス情報のチャネル数と、前記第1のマルチチャネル情報が適用された信号のチャネル数とが同一である場合、チャネル別に行われる。
本発明によれば、前記第1のマルチチャネル情報及び前記第2のマルチチャネル情報を用いて、前記ダウンミックス情報から出力チャネルを生成することができる。
本発明によれば、エンハンストオブジェクト情報を受信し、前記エンハンストオブジェクト情報を用いて、前記ダウンミックス情報から前記独立オブジェクトと前記バックグラウンドオブジェクトを分離することができる。
本発明によれば、ミックス情報を受信し、前記第1のマルチチャネル情報を生成し、前記第2のマルチチャネル情報を生成することは、前記ミックス情報に基づいて行われる。
本発明によれば、前記ミックス情報は、オブジェクト位置情報、オブジェクト利得情報及び再生設定情報のうち一つ以上に基づいて生成してもよい。
本発明によれば、前記ダウンミックス情報は、放送信号を介して受信されてもよい。
本発明によれば、前記ダウンミックス情報は、デジタル媒体を介して受信されてもよい。
本発明の更に別の側面によれば、独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、前記ダウンミックス情報及び前記第1のマルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成することを実行するためのプログラムが保存されたコンピュータ読取可能記録媒体が提供される。
本発明の更に別の側面によれば、独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信する情報受信部と、前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、前記ダウンミックス情報及び前記第1のマルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成するマルチチャネル生成部とを含むことを特徴とするオーディオ信号装置が提供される。
本発明の更に別の側面によれば、一つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、オブジェクト情報及びエンハンストオブジェクト情報を受信し、前記オブジェクト情報及び前記エンハンストオブジェクト情報を用いて、前記ダウンミックス情報から一つ以上の独立オブジェクトを抽出するオーディオ信号処理方法が提供される。
本発明によれば、前記オブジェクト情報は、前記独立オブジェクト及び前記バックグラウンドオブジェクトに関する情報に相当してもよい。
本発明によれば、前記オブジェクト情報は、前記独立オブジェクトと前記バックグラウンドオブジェクトとの間のレベル情報及び相関情報のうち一つ以上を含んでもよい。
本発明によれば、前記エンハンストオブジェクト情報は、レジデュアル信号を含んでもよい。
本発明によれば、前記レジデュアル信号は、一つ以上のオブジェクト基盤の信号をエンハンストオブジェクトにグルーピングする過程で抽出されたものである。
本発明によれば、前記独立オブジェクトは、オブジェクト基盤信号であり、前記バックグラウンドオブジェクトは、一つ以上のチャネル基盤信号を含む信号か、一つ以上のチャネル基盤信号がダウンミックスされた信号である。
本発明によれば、前記バックグラウンドオブジェクトは、左チャネル信号及び右チャネル信号を含んでもよい。
本発明によれば、前記ダウンミックス情報は、放送信号を介して受信されてもよい。
本発明によれば、前記ダウンミックス情報は、デジタル媒体を介して受信されてもよい。
本発明の更に別の側面によれば、一つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、オブジェクト情報及びエンハンストオブジェクト情報を受信し、前記オブジェクト情報及び前記エンハンストオブジェクト情報を用いて、前記ダウンミックス情報から一つ以上の独立オブジェクトを抽出することを実行するためのプログラムが保存されたコンピュータ読取可能記録媒体が提供される。
本発明の更に別の側面によれば、一つ以上の独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、オブジェクト情報及びエンハンストオブジェクト情報を受信する情報受信部と、前記オブジェクト情報及び前記エンハンストオブジェクト情報を用いて、前記ダウンミックスから一つ以上の独立オブジェクトを抽出する情報生成ユニットとを含むオーディオ信号処理装置が提供される。
本発明は、次のような効果及び利点を提供する。
第一に、オブジェクトの利得及びパニングを制限することができる。
第二に、ユーザの選択に基づいてオブジェクトの利得及びパニングを制御することができる。
第三に、ボーカルや背景音楽のうち一つを完全に抑圧する場合にも、利得調整による音質の歪曲を防止することができる。
第四に、ボーカルなどのような独立オブジェクトが二つ以上である場合(ステレオチャネル又は複数個のボーカル信号)、利得調整による音質の歪曲を防止することができる。
本発明の実施例に係るオーディオ信号処理装置の構成図である。 本発明の実施例に係るオーディオ信号処理装置のうちエンハンストオブジェクトエンコーダの細部構成図である。 エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第1の例を示した図である。 エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第2の例を示した図である。 エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第3の例を示した図である。 エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第4の例を示した図である。 エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第5の例を示した図である。 付加情報ビットストリームの多様な例を示した図である。 本発明の実施例に係るオーディオ信号処理装置のうち情報生成ユニットの細部構成図である。 エンハンストオブジェクト情報デコーディング部の細部構成の一例を示した図である。 オブジェクト情報デコーディング部の細部構成の一例を示した図である。
以下、添付された図面を参照して本発明の好適な実施例を詳細に説明する。本発明の実施例を説明する前に、本明細書及び特許請求の範囲で使用された用語や単語は、通常的又は辞典的な意味に限定して解釈してはならなく、発明者が自身の発明を最も最善の方法で説明するために用語の概念を適切に定義することができるとの原則に立脚して、本発明の技術的思想に符合する意味及び概念で解釈しなければならない。したがって、本明細書に記載された実施例及び図面に示した構成は、本発明の最も好適な一実施例に過ぎないもので、本発明の技術的思想を全て代弁するものではないので、本出願時点において、これらに取って代わる多様な均等物及び変形例が存在しうることを理解しなければならない。
特に、本明細書で、情報は、値、パラメータ、係数、成分などを総称する用語で、場合によって異なる意味に解釈されることもあるが、本発明がこれに限定されることはない。
特に、オブジェクトは、オブジェクト基盤信号及びチャネル基盤信号を含む概念であるが、場合によってオブジェクト基盤信号のみを称することができる。
図1は、本発明の実施例に係るオーディオ信号処理装置の構成を示す図である。図1を参照すると、まず、本発明の実施例に係るオーディオ信号処理装置は、エンコーダ100及びデコーダ200を含むが、前記エンコーダ100は、オブジェクトエンコーダ110、エンハンストオブジェクトエンコーダ120及びマルチプレクサ130を含み、前記デコーダ200は、デマルチプレクサ210、情報生成ユニット220、ダウンミックス処理ユニット230及びマルチチャネルデコーダ240を含む。ここで、各構成要素に対して概略に説明した後、エンコーダ100のエンハンストオブジェクトエンコーダ120及びデコーダ200の情報生成ユニット220については、図2〜図11を参照して具体的に説明することにする。
まず、オブジェクトエンコーダ110は、一つ以上のオブジェクト(objN)を用いてオブジェクト情報(OP:object parameter)を生成するが、ここで、オブジェクト情報(OP)は、オブジェクト基盤信号に関する情報で、オブジェクトレベル情報、オブジェクト相関情報などを含むことができる。一方、オブジェクトエンコーダ110は、一つ以上のオブジェクトをグルーピングしてダウンミックスを生成することができる。これは、図2を参照して説明されるエンハンストオブジェクト生成部122で一つ以上のオブジェクトをグルーピングしてエンハンストオブジェクトを生成する過程と同一であるが、本発明がこれに限定されることはない。
エンハンストオブジェクトエンコーダ120は、一つ以上のオブジェクト(objN)を用いてエンハンストオブジェクト情報(OP)及びダウンミックス(DMX)(LL、RL)を生成する。具体的には、一つ以上のオブジェクト基盤信号をグルーピングしてエンハンストオブジェクト(EO)を生成し、チャネル基盤信号及びエンハンストオブジェクト(EO)を用いてエンハンストオブジェクト情報(EOP:enhanced object parameter)を生成する。まず、エンハンストオブジェクト情報(EOP)は、エンハンストオブジェクトのエネルギー情報(レベル情報を含む)、レジデュアル信号などであるが、これに対しては図2を参照して説明することにする。一方、ここで、チャネル基盤信号は、オブジェクト別に制御不可能な背景信号であるので、バックグラウンドオブジェクトと称し、エンハンストオブジェクトは、デコーダ200で独立的にオブジェクト別に制御可能であるので、独立オブジェクトと称することができる。
マルチプレクサ130は、オブジェクトエンコーダ110で生成されたオブジェクト情報(OP)、及びエンハンストオブジェクトエンコーダ120で生成されたエンハンストオブジェクト情報(EOP)をマルチプレキシングし、付加情報ビットストリームを生成する。一方、付加情報ビットストリームは、前記チャネル基盤信号に対する空間情報(SP:spatial information)(図示せず)を含むことができる。空間情報は、チャネル基盤信号をデコーディングするために必要な情報で、チャネルレベル情報及びチャネル相関情報などを含むが、本発明がこれに限定されることはない。
デコーダ200のデマルチプレクサ210は、付加情報ビットストリームからオブジェクト情報(OP)及びエンハンストオブジェクト情報(EOP)を抽出する。付加情報ビットストリームに前記空間情報(SP)が含まれる場合、空間情報(SP)をさらに抽出する。
情報生成ユニット220は、オブジェクト情報(OP)及びエンハンストオブジェクト情報(EOP)を用いてマルチチャネル情報(MI:Multi―channel information)及びダウンミックス処理情報(DPI:downmix processing information)を生成する。マルチチャネル情報(MI)及びダウンミックス処理情報(DPI)を生成する際に、ダウンミックス情報(DMX)を用いることができるが、これに対しては図8を参照して説明することにする。
ダウンミックス処理ユニット230は、ダウンミックス処理情報(DPI)を用いてダウンミックス(DMX)を処理する。例えば、オブジェクトの利得又はパニングを調節するためにダウンミックス(DMX)を処理することができる。
マルチチャネルデコーダ240は、処理されたダウンミックスを受信し、マルチチャネル情報(MI)を用いて処理されたダウンミックス信号をアップミキシングし、マルチチャネル信号を生成する。
以下では、図2〜図6を参照しながら、エンコーダ100のエンハンストオブジェクトエンコーダ120の細部構成の多様な実施例について説明し、図8を参照しながら、付加情報ビットストリームに対する多様な実施例について説明し、図9〜図11を参照しながら、デコーダ200の情報生成ユニット220の細部構成について説明する。
図2は、本発明の実施例に係るオーディオ信号処理装置のうちエンハンストオブジェクトエンコーダの細部構成を示す図である。図2を参照すると、エンハンストオブジェクトエンコーダ120は、エンハンストオブジェクト生成部122、エンハンストオブジェクト情報生成部124及びマルチプレクサ126を含む。
エンハンストオブジェクト生成部122は、一つ以上のオブジェクト(objN)をグルーピングし、一つ以上のエンハンストオブジェクト(EOL)を生成する。ここで、エンハンストオブジェクト(EOL)は、高品質の制御のためにグルーピングされるものである。例えば、前記バックグラウンドオブジェクトに対してエンハンストオブジェクト(EOL)が独立的に完全に抑圧(または、反対の場合、すなわち、エンハンストオブジェクト(EOL)のみが再生され、バックグラウンドオブジェクトが完全に抑圧)されるようにするものである。ここで、グルーピング対象になるオブジェクト(objN)は、チャネル基盤信号でないオブジェクト基盤信号である。エンハンストオブジェクト(EO)は多様な方法で生成することができる。すなわち、1)一つのオブジェクトを一つのエンハンストオブジェクトとして活用することができ(EO1=obj1)、2)二つ以上のオブジェクトを加えてエンハンストオブジェクトを構成することができ(EO2=obj1+obj2)、3)ダウンミックスから特定のオブジェクトのみを除外した信号をエンハンストオブジェクトとして活用したり(EO3=D−obj2)、二つ以上のオブジェクトを除外した信号をエンハンストオブジェクトとして活用することができる(EO4=D−obj1−obj2)。前記3)及び4)で言及されたダウンミックス(D)は、上述したダウンミックス(DMX)(LL、RL)とは異なる概念であり、オブジェクト基盤信号のみがダウンミックスされた信号と称することができる。このように説明された四つの方法のうち一つ以上を適用し、エンハンストオブジェクト(EO)を生成することができる。
エンハンストオブジェクト情報生成部124は、エンハンストオブジェクト(EO)を用いてエンハンストオブジェクト情報(EOP)を生成する。ここで、エンハンストオブジェクト情報(EOP)は、エンハンストオブジェクト(EO)に関する情報であり、a)エンハンストオブジェクト(EO)のエネルギー情報(レベル情報を含む)、b)エンハンストオブジェクト(EO)とダウンミックス(D)との間の関係(例えば、ミキシング利得)、c)高い時間解像度又は高い周波数解像度によるエンハンストオブジェクトレベル情報又はエンハンストオブジェクト相関情報、d)エンハンストオブジェクト(EO)に関する時間領域での予測情報又は包絡線情報、e)レジデュアル信号のようにエンハンストオブジェクトに対する時間領域又はスペクトル領域の情報を符号化したビットストリームなどである。
一方、上述した例でエンハンストオブジェクト(EO)が第1の例及び第3の例で生成された場合(EO1=obj1、EO3=D−obj2)、エンハンストオブジェクト情報(EOP)は、第1の例及び第3の例のエンハンストオブジェクト(EO1及びEO3)に関するエンハンストオブジェクト情報(EOP1、EOP3)を生成することができる。このとき、第1の例によるエンハンストオブジェクト情報(EOP1)は、第1の例によるエンハンストオブジェクト(EO1)を制御するために必要な情報に相当し、第3の例によるエンハンストオブジェクト情報(EOP3)は、特定のオブジェクト(obj2)のみを抑圧する場合を表現するために用いられる。
エンハンストオブジェクト情報生成部124は、一つ以上のエンハンストオブジェクト情報生成部124―1,・・・,124―Lを含むことができる。具体的には、エンハンストオブジェクト情報生成部124は、一つのエンハンストオブジェクト(EO1)に関するエンハンストオブジェクト情報(EOP1)を生成する第1のエンハンストオブジェクト情報生成部124―1を含むことができ、二つ以上のエンハンストオブジェクト(EO1、EO2)に関するエンハンストオブジェクト情報(EOP2)を生成する第2のエンハンストオブジェクト情報生成部124―2を含むことができる。一方、エンハンストオブジェクト(EO1)のみならず第2のエンハンストオブジェクト情報生成部124―2の出力を用いてエンハンストオブジェクト情報(EOPL)を生成する第Lのエンハンストオブジェクト情報生成部124―Lを含んでもよい。前記エンハンストオブジェクト情報生成部124―1,・・・,124―Lは、それぞれN+1個の入力を用いてN個の出力を生成するモジュールによって動作し、例えば、3個の入力を用いて2個の出力を生成するモジュールによって動作することができる。以下、エンハンストオブジェクト情報生成部124―1,・・・,124―Lに関する多様な実施例を、図3〜図7を参照して説明する。一方、エンハンストオブジェクト情報生成部124は、ダブルエンハンストオブジェクト(EEOP)をさらに生成することができるが、これは、図7を参照して詳細に説明することにする。
マルチプレクサ126は、エンハンストオブジェクト情報生成部124で生成された一つ以上のエンハンストオブジェクト情報(EOP1,・・・,EOPL)(及びダブルエンハンストオブジェクト(EEOP))をマルチプレキシングする。
図3〜図7は、エンハンストオブジェクト生成部及びエンハンストオブジェクト情報生成部の第1乃至第5の例を示した図である。図3は、エンハンストオブジェクト情報生成部が一つの第1のエンハンストオブジェクト情報生成部を含む例を示し、図4〜図6は、二つ以上のエンハンスト情報生成部(第1乃至第Lのエンハンストオブジェクト情報生成部)が直列的に含まれている例を示す。一方、図7は、ダブルエンハンストオブジェクト情報(EEOP:enhanced enhanced object parameter)を生成する第1のダブルエンハンストオブジェクト情報生成部をさらに含む例を示す。
まず、図3を参照すると、エンハンストオブジェクト生成部122Aは、チャネル基盤信号として、左チャネル信号(L)及び右チャネル信号(R)をそれぞれ受信し、オブジェクト基盤信号として、各ステレオボーカル信号(Vocal1L、Vocal1R、Vocal2L、Vocal2R)をそれぞれ受信し、一つのエンハンストオブジェクト(Vocal)を生成する。まず、チャネル基盤信号(L、R)は、多チャネル信号(例えば、L、R、LS、RS、C、LFE)がダウンミックスされた信号であるが、この過程で抽出された空間情報は、上述したように付加情報ビットストリームに含まれる。
一方、オブジェクト基盤信号としての各ステレオボーカル信号(Vocal1L、Vocal1R、Vocal2L、Vocal2R)は、歌手1の音声(Vocal1)に相当する左チャネル信号(Vocal1L)及び右チャネル信号(Vocal1R)と、歌手2の音声(Vocal2)に該当する左チャネル信号(Vocal2L)及び右チャネル信号(Vocal2R)を含むことができる。一方、ここでは、ステレオオブジェクト信号について示したが、マルチチャネルオブジェクト信号(Vocal1L、Vocal1R、Vocal1Ls、Vocal1Rs、Vocal1C、Vocal1LFE)を受信し、一つのエンハンストオブジェクト(Vocal)にグルーピングすることも可能である。
このように一つのエンハンストオブジェクト(Vocal)が生成されたので、エンハンストオブジェクト情報生成部124Aは、これに対応する一つの第1のエンハンストオブジェクト情報生成部124―1のみを含む。第1のエンハンストオブジェクト情報生成部124A―1は、エンハンストオブジェクト(Vocal)及びチャネル基盤信号(L、R)を用いてエンハンストオブジェクト情報(EOP1)として第1のレジデュアル信号(res1)及び臨時バックグラウンドオブジェクト(L1、R1)を生成する。臨時バックグラウンドオブジェクト(L1、R1)は、チャネル基盤信号、すなわち、バックグラウンドオブジェクト(L、R)にエンハンストオブジェクト(Vocal)が加えられた信号であり、一つのエンハンストオブジェクト情報生成部のみが存在する第3の例では、この臨時バックグラウンドオブジェクト(L1、R1)が最終的なダウンミックス信号(LL、RL)になる。
図4を参照すると、図3に示した第1の例と同様に、各ステレオボーカル信号(Vocal1L、Vocal1R、Vocal2L、Vocal2R)が受信される。ただし、図4に示した第2の例では、一つのエンハンストオブジェクトにグルーピングされずに、二つのエンハンストオブジェクト(Vocal1、Vocal2)にグルーピングされるという点で差がある。このように二つのエンハンストオブジェクトが存在するので、エンハンストオブジェクト生成部124Bは、第1エンハンストオブジェクト生成部124B―1及び第2エンハンストオブジェクト生成部124B―2を含む。
第1エンハンストオブジェクト生成部124B―1は、バックグラウンド信号(チャネル基盤信号(L、R))及び第1のエンハンストオブジェクト信号(Vocal1)を用いて第1のエンハンストオブジェクト情報(res1)及び臨時バックグラウンドオブジェクト(L1、R1)を生成する。
第2エンハンストオブジェクト生成部124B―2は、第2のエンハンストオブジェクト信号(Vocal2)のみならず、第1の臨時バックグラウンドオブジェクト(L1、R1)も用いて、第2のエンハンストオブジェクト情報(res2)及び最終ダウンミックス(LL、RL)としてのバックグラウンドオブジェクト(L2、R2)を生成する。図4に示した第2の例の場合にも、エンハンストオブジェクト(EO)とエンハンストオブジェクト情報(EOP:res)の数がそれぞれ2個であることが分かる。
図5を参照すると、図4に示した第2の例と同様に、エンハンストオブジェクト情報生成部124Cは、第1エンハンストオブジェクト情報生成部124C―1及び第2エンハンストオブジェクト生成部124C―2を含む。ただし、エンハンストオブジェクト(Vocal1L、Vocal1R)は、二つのオブジェクト基盤信号がグルーピングされたものでなく、一つのオブジェクト基盤信号(Vocal1L、Vocal1R)で構成される点で差異点が存在する。第3の例の場合にも、エンハンストオブジェクト(EO)の個数(L)とエンハンストオブジェクト情報(EOP)の個数(L)とが同一であることが分かる。
図6を参照すると、図4に示した第2の例と類似しているが、エンハンストオブジェクト生成部122で合計L個のエンハンストオブジェクト(Vocal1,・・・,VocalL)が生成されるという点で差がある。また、エンハンストオブジェクト情報生成部124Dは、第1エンハンストオブジェクト情報生成部124D―1及び第2エンハンストオブジェクト情報124D―2のみならず、第Lエンハンストオブジェクト情報生成部124D―Lまで備えるという点で差異点が存在する。第Lエンハンストオブジェクト情報生成部124―Lは、第2エンハンストオブジェクト情報生成部124―2で生成された第2の臨時バックグラウンドオブジェクト(L2、R2)及び第Lのエンハンストオブジェクト(VocalL)を用いて第Lのエンハンストオブジェクト情報(EOPL、resL)及びダウンミックス情報(LL、RL)(DMX)を生成する。
図7を参照すると、図6に示した第4の例で、第1ダブルエンハンストオブジェクト情報生成部124EE―1をさらに備える。ダウンミックス(DMX:LL、RL)からエンハンストオブジェクト(EOL)を差し引いた信号(DDMX)は、次のように定義することができる。
[式1]
DDMX=DMX−EOL
ダブルエンハンスト情報(EEOP)は、ダウンミックス(DMX:LL、RL)とエンハンストオブジェクト(EOL)との間の情報でなく、前記式1によって定義された信号(DDMX)及びエンハンストオブジェクト(EOL)に関する情報である。ダウンミックス(DMX)からエンハンストオブジェクト(EOL)を差し引く場合、エンハンストオブジェクトと関連して量子化雑音が発生しうる。このような量子化雑音をオブジェクト情報(OP)を用いて相殺することによって、音質を改善することができる(これについては、図9〜図11を参照して説明することにする。)。この場合、エンハンストオブジェクト(EO)が含まれたダウンミックス(DMX)に対して量子化雑音を制御するが、実際的には、エンハンストオブジェクト(EO)が除去されたダウンミックスに存在する量子化雑音を制御する。したがって、より精密に量子化雑音を除去するためには、エンハンストオブジェクト(EO)が除去されたダウンミックスに対して量子化雑音を除去するための情報が必要である。上記のように定義されたダブルエンハンスト情報(EEOP)を用いることができる。このとき、ダブルエンハンスト情報(EEOP)は、オブジェクト情報(OP)の生成方式と同一の方式によって生成される。
本発明の実施例に係るオーディオ信号処理装置のうちエンコーダ100は、上述したような構成要素を備えることによって、ダウンミックス(DMX)及び付加情報ビットストリームを生成する。
図8は、付加情報ビットストリームの多様な例を示した図である。まず、図8の(a)〜(b)を参照すると、付加情報ビットストリームは、図8の(a)のように、オブジェクトエンコーダ110などによって生成されたオブジェクト情報(OP)のみを含むことができ、図8の(b)のように、前記オブジェクト情報(OP)のみならず、エンハンストオブジェクトエンコーダ120によって生成されたエンハンストオブジェクト情報(EOP)まで含むことができる。一方、付加情報ビットストリームは、図8の(c)を参照すると、オブジェクト情報(OP)及びエンハンストオブジェクト情報(EOP)のみならず、ダブルエンハンストオブジェクト情報(EEOP)をさらに含んでいる。一般的なオブジェクトデコーダでは、オブジェクト情報(OP)のみを用いてオーディオ信号をデコーディングすることができるので、このようなデコーダで図8の(b)又は(c)に示したビットストリームを受信する場合、エンハンストオブジェクト情報(EOP)及び/又はダブルエンハンストオブジェクト情報(EEOP)を除去し、オブジェクト情報(OP)のみを抽出してデコーディングに用いることができる。
図8の(d)を参照すると、エンハンストオブジェクト情報(EOP1,・・・,EOPL)がビットストリームに含まれている。上述したように、エンハンストオブジェクト情報(EOP)は多様な方式で生成される。第1のエンハンストオブジェクト情報(EOP1)及び第2のエンハンストオブジェクト(EOP2)が第1の方式で生成され、第3のエンハンストオブジェクト情報(EOP3)乃至第5のエンハンストオブジェクト情報(EOP5)が第2の方式で生成された場合、各生成方法を表す識別子(F1、F2)をビットストリームに含ませることができる。図8の(d)に示すように、生成方法を表す識別子(F1、F2)を、同一の方式で生成されたエンハンストオブジェクト情報の前のみに1回挿入することもできるが、各エンハンストオブジェクト情報の前に全て挿入することもできる。
本発明の実施例に係るオーディオ信号処理装置のうちデコーダ200は、上記のように生成された付加情報ビットストリーム及びダウンミックスを受信してデコーディングすることができる。
図9は、本発明の実施例に係るオーディオ信号処理装置のうちの情報生成ユニットの細部構成を示す図である。情報生成ユニット220は、オブジェクト情報デコーディング部222、エンハンストオブジェクト情報デコーディング部224及びマルチチャネル情報生成部226を含む。一方、デマルチプレクサ210からバックグラウンドオブジェクトを制御するための空間情報(SP)が受信された場合、この空間情報(SP)は、エンハンストオブジェクト情報デコーディング部224及びオブジェクト情報デコーディング部222で使用されずに、直接マルチチャネル情報生成部226に伝達される。
まず、エンハンストオブジェクト情報デコーディング部224は、デマルチプレクサ210から受信したオブジェクト情報(OP)及びエンハンストオブジェクト情報(EOP)を用いてエンハンストオブジェクト(EO)を抽出し、バックグラウンドオブジェクト(L、R)を出力する。エンハンストオブジェクト情報デコーディング部224の細部構成の一例は、図10に示されている。
図10を参照すると、エンハンストオブジェクト情報デコーディング部224は、第1のエンハンストオブジェクト情報デコーディング部224―1乃至第Lのエンハンストオブジェクト情報デコーディング部224―Lを含む。第1のエンハンストオブジェクトデコーディング部224―1は、第1のエンハンストオブジェクト情報(EOPL)を用いて、ダウンミックス(MXI)を第1のエンハンストオブジェクト(EOL)(第1の独立オブジェクト)と第1の臨時バックグラウンドオブジェクト(LL―1、RL―1)に分離するためのバックグラウンドパラメータ(BP:Backgound Parameter)を生成する。ここで、第1のエンハンストオブジェクトは、センターチャネルに相当し、第1の臨時バックグラウンドオブジェクトは、左チャネル及び右チャネルに相当する。
これと同様に、第Lエンハンストオブジェクト情報デコーディング部224―Lは、第Lのエンハンストオブジェクト情報(EOP1)を用いて、第L―1の臨時バックグラウンドオブジェクト(L1、R1)を第Lのエンハンストオブジェクト(EO1)とバックグラウンドオブジェクト(L、R)に分離するためのバックグラウンドパラメータ(BP)を生成する。
一方、第1のエンハンストオブジェクト情報デコーディング部224―1乃至第Lのエンハンストオブジェクト情報デコーディング部224―Lは、N入力を用いてN+1出力を生成(例えば、2入力を用いて3出力を生成)するモジュールによって具現される。
一方、前記のようなバックグラウンドパラメータ(BP)を生成するためには、エンハンストオブジェクト情報デコーディング部224は、エンハンストオブジェクト情報(EOP)のみならず、オブジェクト情報(OP)も用いることができる。以下では、オブジェクト情報(OP)を用いる目的及び利点について説明する。
本発明では、エンハンストオブジェクト(EO)をダウンミックス(DMX)から除去することが目的であるが、ダウンミックス(DMX)の符号化方法及びエンハンストオブジェクト情報(EOP)の符号化方法によって量子化雑音が出力に含まれる。この場合、量子化雑音は元の信号と関連しているので、エンハンストオブジェクトにグルーピングされる前のオブジェクトに関する情報であるオブジェクト情報(OP)を用いてさらに音質を改善することが可能である。例えば、1番目のオブジェクトがボーカルオブジェクトである場合、第1のオブジェクト情報(OP1)はボーカルの時間、周波数、及び空間に関する情報を含む。ダウンミックス(DMX)からボーカルを差し引いた出力は、次の式に示す通りであるが、ボーカルを差し引いた出力に対して第1のオブジェクト情報(OP1)を用いてボーカルを抑圧する場合、この出力は、ボーカルが存在していた区間に残余する量子化雑音をさらに抑圧する。
[式2]
Output=DMX−EO1
(ここで、DMXは、入力ダウンミックス信号を表し、EO1’は、コーデックでエンコーディング/デコーディングされた第1のエンハンストオブジェクトを表す。)
したがって、特定のオブジェクトに対してエンハンストオブジェクト情報(EOP)及びオブジェクト情報(OP)を適用することによって、さらに性能を改善することができ、このようなエンハンストオブジェクト情報(EOP)及びオブジェクト情報(OP)の適用は順次的又は同時的なものである。一方、オブジェクト情報(OP)は、エンハンストオブジェクト(独立オブジェクト)及び前記バックグラウンドオブジェクトに関する情報に相当する。
再び図9を参照すると、オブジェクト情報デコーディング部222は、デマルチプレクサ210から受信したオブジェクト情報(OP)及びエンハンストオブジェクト情報デコーディング部224から受信したエンハンストオブジェクト(EO)に関するオブジェクト情報(OP)をデコーディングする。オブジェクト情報デコーディング部222の細部構成の一例は、図11に示されている。
図11を参照すると、オブジェクト情報デコーディング部222は、第1のオブジェクト情報デコーディング部222―1乃至第Lのオブジェクト情報デコーディング部222―Lを含む。第1のオブジェクト情報デコーディング部222―1は、一つ以上のオブジェクト情報(OPN)を用いて第1のエンハンストオブジェクト(EO1)を一つ以上のオブジェクト(例えば、Vocal1、Vocal2)に分離するための独立パラメータ(IP:Independent Parameter)を生成する。これと同様に、第Lのオブジェクト情報デコーディング部222―Lは、一つ以上のオブジェクト情報(OPN)を用いて第Lのエンハンストオブジェクト(EOL)を一つ以上のオブジェクト(例えば、Vocal4)に分離するための独立パラメータ(IP)を生成する。このように、オブジェクト情報(OP)を用いてエンハンストオブジェクト(EO)にグルーピングされていたそれぞれのオブジェクトを個別に制御することができる。
再び図9を参照すると、マルチチャネル情報生成部226は、ユーザインターフェースなどを介してミックス情報(MXI:mix information)を受信し、デジタル媒体、放送媒体などを介してダウンミックス(DMX)を受信する。そして、受信されたミックス情報(MXI)及びダウンミックス(DMX)を用いてバックグラウンドオブジェクト(L、R)及び/又はエンハンストオブジェクト(EO)をレンダリングするためのマルチチャネル情報(MI)を生成する。
ここで、ミックス情報(MXI)は、オブジェクト位置情報、オブジェクト利得情報及び再生設定情報などに基づいて生成された情報であり、オブジェクト位置情報は、ユーザが各オブジェクトの位置又はパニングを制御するために入力した情報であり、オブジェクト利得情報は、ユーザが各オブジェクトの利得を制御するために入力した情報である。再生設定情報は、スピーカーの個数、スピーカーの位置、アンビエント情報(スピーカーの仮想位置)などを含む情報であり、ユーザから入力を受けることもでき、予め保存することも可能であり、他の装置から受信することもできる。
マルチチャネル情報(MI)を生成するために、マルチチャネル情報生成部226は、オブジェクト情報デコーディング部222から受信した独立パラメータ(IP)及び/又はエンハンストオブジェクト情報デコーディング部224から受信したバックグラウンドパラメータ(BP)を用いることができる。まず、ミックス情報(MXI)によってエンハンストオブジェクト(独立オブジェクト)を制御するための第1のマルチチャネル情報(MI1)を生成する。例えば、ユーザがボーカル信号のようなエンハンストオブジェクトを完全に抑圧するための制御情報を入力した場合、この制御情報が適用されたミックス情報(MXI)によって、ダウンミックス(DMX)からエンハンストオブジェクトを除去するための第1のマルチチャネル情報を生成する。
上記のように独立オブジェクトを制御するための第1のマルチチャネル情報(MI1)を生成した後、この第1のマルチチャネル情報(MI1)及びデマルチプレクサ210から伝達された空間情報(SP)を用いて、バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報(MI2)を生成する。具体的には、次の式で表現されるように、第1のマルチチャネル情報が適用された信号(すなわち、エンハンストオブジェクト(EO))をダウンミックス(DMX)から差し引く方式で第2のマルチチャネル情報(MI2)を生成することができる。
[式3]
BO=DMX−EOL
(BOは、バックグラウンドオブジェクト信号を表し、DMXは、ダウンミックス信号を表し、EOLは、第Lのエンハンストオブジェクトを表す。)
ここで、ダウンミックスからエンハンストオブジェクトを差し引く過程は、時間ドメイン又は周波数ドメイン上で行われる。また、ダウンミックス(DMX)のチャネル数と、第1のマルチチャネル情報が適用された信号のチャネル数(すなわち、エンハンストオブジェクトのチャネル数)とが同一である場合には、チャネル別に差し引かれる。
第1のマルチチャネル情報(MI1)及び第2のマルチチャネル情報(MI2)を含むマルチチャネル情報(MI)を生成し、これをマルチチャネルデコーダ240に伝達する。
マルチチャネルデコーダ240は、処理されたダウンミックスを受信し、マルチチャネル情報(MI)を用いて処理されたダウンミックス信号をアップミキシングし、マルチチャネル信号を生成する。
以上のように、本発明は、限定された実施例及び図面に基づいて説明されたが、これによって限定されるものでなく、本発明の属する技術分野で通常の知識を有する者によって本発明の技術思想及び下記の特許請求の範囲の均等範囲内で多様な修正及び変形が可能であることは当然である。
本発明は、オーディオ信号をエンコーディング及びデコーディングするのに適用される。

Claims (12)

  1. 独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信し、
    前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、
    前記ダウンミックス情報及び前記第1のマルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成することを特徴とするオーディオ信号処理方法。
  2. 前記第2のマルチチャネル情報を生成することは、
    第1のマルチチャネル情報が適用された信号を前記ダウンミックス情報から差し引くことを含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  3. 前記差し引くことは、時間ドメイン又は周波数ドメイン上で行われることを特徴とする、請求項2に記載のオーディオ信号処理方法。
  4. 前記差し引くことは、前記ダウンミックス情報のチャネル数と、前記第1のマルチチャネル情報が適用された信号のチャネル数とが同一である場合、チャネル別に行われることを特徴とする、請求項2に記載のオーディオ信号処理方法。
  5. 前記第1のマルチチャネル情報及び前記第2のマルチチャネル情報を用いて、前記ダウンミックス情報から出力チャネルを生成することを特徴とする、請求項1に記載のオーディオ信号処理方法。
  6. エンハンストオブジェクト情報を受信し、
    前記エンハンストオブジェクト情報を用いて、前記ダウンミックス情報から前記独立オブジェクトと前記バックグラウンドオブジェクトを分離することを特徴とする、請求項1に記載のオーディオ信号処理方法。
  7. ミックス情報を受信し、
    前記第1のマルチチャネル情報を生成し、前記第2のマルチチャネル情報を生成することは、前記ミックス情報に基づいて行われることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  8. 前記ミックス情報は、オブジェクト位置情報、オブジェクト利得情報及び再生設定情報のうち一つ以上に基づいて生成されることを特徴とする、請求項7に記載のオーディオ信号処理方法。
  9. 前記ダウンミックス情報は、放送信号を介して受信されることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  10. 前記ダウンミックス情報は、デジタル媒体を介して受信されることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  11. 請求項1に記載の方法を実行するためのプログラムが保存されたコンピュータ読取可能記録媒体。
  12. 独立オブジェクト及びバックグラウンドオブジェクトがダウンミックスされたダウンミックス情報を受信する情報受信部と、
    前記独立オブジェクトを制御するための第1のマルチチャネル情報を生成し、前記ダウンミックス情報及び前記第1のマルチチャネル情報を用いて、前記バックグラウンドオブジェクトを制御するための第2のマルチチャネル情報を生成するマルチチャネル生成部と、を含むことを特徴とするオーディオ信号装置。
JP2009553525A 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置 Pending JP2010521866A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US89531407P 2007-03-16 2007-03-16
KR1020080024248A KR101100214B1 (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치
PCT/KR2008/001493 WO2008114982A1 (en) 2007-03-16 2008-03-17 A method and an apparatus for processing an audio signal
KR1020080024245A KR101100213B1 (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치
KR1020080024247A KR20080084757A (ko) 2007-03-16 2008-03-17 오디오 신호 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2010521866A true JP2010521866A (ja) 2010-06-24

Family

ID=40024880

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2009553527A Active JP5161893B2 (ja) 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置
JP2009553525A Pending JP2010521866A (ja) 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置
JP2009553526A Expired - Fee Related JP4851598B2 (ja) 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009553527A Active JP5161893B2 (ja) 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009553526A Expired - Fee Related JP4851598B2 (ja) 2007-03-16 2008-03-17 オーディオ信号の処理方法及び装置

Country Status (6)

Country Link
US (4) US8725279B2 (ja)
EP (3) EP2130304A4 (ja)
JP (3) JP5161893B2 (ja)
KR (3) KR101100213B1 (ja)
CN (3) CN101636919B (ja)
WO (3) WO2008114985A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535958A (ja) * 2012-10-05 2015-12-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 後方互換性のある多重分解能空間オーディオオブジェクト符号化のためのエンコーダ、デコーダおよび方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2212882A4 (en) * 2007-10-22 2011-12-28 Korea Electronics Telecomm SOUND CODING AND DECODING METHOD WITH SEVERAL OBJECTS AND DEVICE THEREFOR
EP2194526A1 (en) 2008-12-05 2010-06-09 Lg Electronics Inc. A method and apparatus for processing an audio signal
KR101187075B1 (ko) * 2009-01-20 2012-09-27 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
EP2209328B1 (en) 2009-01-20 2013-10-23 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
KR101387808B1 (ko) * 2009-04-15 2014-04-21 한국전자통신연구원 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
US9042559B2 (en) 2010-01-06 2015-05-26 Lg Electronics Inc. Apparatus for processing an audio signal and method thereof
KR20140027954A (ko) * 2011-03-16 2014-03-07 디티에스, 인코포레이티드 3차원 오디오 사운드트랙의 인코딩 및 재현
EP2717262A1 (en) 2012-10-05 2014-04-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and methods for signal-dependent zoom-transform in spatial audio object coding
JP6196437B2 (ja) * 2012-11-07 2017-09-13 日本放送協会 受信機、及びプログラム
CN109166588B (zh) 2013-01-15 2022-11-15 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
JP6231762B2 (ja) * 2013-04-10 2017-11-15 日本放送協会 受信装置及びプログラム
EP2830048A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for realizing a SAOC downmix of 3D audio content
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830049A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient object metadata coding
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
US9779739B2 (en) 2014-03-20 2017-10-03 Dts, Inc. Residual encoding in an object-based audio system
KR101814403B1 (ko) * 2014-05-21 2018-01-04 엘지전자 주식회사 방송 신호 송/수신 처리 방법 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03236691A (ja) * 1990-02-14 1991-10-22 Hitachi Ltd テレビジョン受信機用音声回路
JPH0654400A (ja) * 1992-07-29 1994-02-25 Mitsubishi Electric Corp 音場再生装置
JP2001100792A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 符号化方法、符号化装置およびそれを備える通信システム
JP2002044793A (ja) * 2000-07-25 2002-02-08 Yamaha Corp 音響信号処理方法及び装置
WO2006005390A1 (en) * 2004-07-09 2006-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a multi-channel output signal
JP2006100869A (ja) * 2004-09-28 2006-04-13 Sony Corp 音声信号処理装置および音声信号処理方法
WO2006084916A2 (en) * 2005-02-14 2006-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Parametric joint-coding of audio sources

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5155971A (en) * 1992-03-03 1992-10-20 Autoprod, Inc. Packaging apparatus
JP2001268697A (ja) 2000-03-22 2001-09-28 Sony Corp データ伝送システム、データ伝送装置、データ伝送方法
US20040096065A1 (en) 2000-05-26 2004-05-20 Vaudrey Michael A. Voice-to-remaining audio (VRA) interactive center channel downmix
AU2003219426A1 (en) 2002-04-22 2003-11-03 Koninklijke Philips Electronics N.V. pARAMETRIC REPRESENTATION OF SPATIAL AUDIO
CN1946798A (zh) * 2004-03-03 2007-04-11 克拉通聚合物研究有限公司 包含具有高流动性和高弹性的嵌段共聚物的聚合物组合物
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US8046217B2 (en) * 2004-08-27 2011-10-25 Panasonic Corporation Geometric calculation of absolute phases for parametric stereo decoding
WO2006060279A1 (en) 2004-11-30 2006-06-08 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
CN2807615Y (zh) 2005-05-27 2006-08-16 熊猫电子集团有限公司 外差式am同步解调广播接收机
WO2007004830A1 (en) 2005-06-30 2007-01-11 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8494667B2 (en) * 2005-06-30 2013-07-23 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8147979B2 (en) * 2005-07-01 2012-04-03 Akzo Nobel Coatings International B.V. Adhesive system and method
PL2088580T3 (pl) 2005-07-14 2012-07-31 Koninl Philips Electronics Nv Kodowanie sygnałów audio
CN101223821B (zh) 2005-07-15 2011-12-07 松下电器产业株式会社 音频解码器
KR100733965B1 (ko) 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
PT2372701E (pt) 2006-10-16 2014-03-20 Dolby Int Ab Codificação aprimorada e representação de parâmetros de codificação de objeto de downmix multicanal
KR101244515B1 (ko) * 2007-10-17 2013-03-18 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 업믹스를 이용한 오디오 코딩

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03236691A (ja) * 1990-02-14 1991-10-22 Hitachi Ltd テレビジョン受信機用音声回路
JPH0654400A (ja) * 1992-07-29 1994-02-25 Mitsubishi Electric Corp 音場再生装置
JP2001100792A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 符号化方法、符号化装置およびそれを備える通信システム
JP2002044793A (ja) * 2000-07-25 2002-02-08 Yamaha Corp 音響信号処理方法及び装置
WO2006005390A1 (en) * 2004-07-09 2006-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a multi-channel output signal
JP2008505368A (ja) * 2004-07-09 2008-02-21 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャネル出力信号を生成するための装置及び方法
JP2006100869A (ja) * 2004-09-28 2006-04-13 Sony Corp 音声信号処理装置および音声信号処理方法
WO2006084916A2 (en) * 2005-02-14 2006-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Parametric joint-coding of audio sources
JP2008530603A (ja) * 2005-02-14 2008-08-07 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオソースのパラメトリックジョイント符号化

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015535958A (ja) * 2012-10-05 2015-12-17 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 後方互換性のある多重分解能空間オーディオオブジェクト符号化のためのエンコーダ、デコーダおよび方法
US11074920B2 (en) 2012-10-05 2021-07-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoder, decoder and methods for backward compatible multi-resolution spatial-audio-object-coding

Also Published As

Publication number Publication date
JP5161893B2 (ja) 2013-03-13
JP2010521867A (ja) 2010-06-24
EP2137824A4 (en) 2012-04-04
EP2137824A1 (en) 2009-12-30
EP2137825A4 (en) 2012-04-04
JP4851598B2 (ja) 2012-01-11
US20100087938A1 (en) 2010-04-08
KR101100214B1 (ko) 2011-12-28
KR20080084756A (ko) 2008-09-19
CN101636919B (zh) 2013-10-30
EP2130304A1 (en) 2009-12-09
JP2010521703A (ja) 2010-06-24
US8712060B2 (en) 2014-04-29
US20140222440A1 (en) 2014-08-07
KR101100213B1 (ko) 2011-12-28
US8725279B2 (en) 2014-05-13
US20100106271A1 (en) 2010-04-29
WO2008114982A1 (en) 2008-09-25
KR20080084757A (ko) 2008-09-19
EP2130304A4 (en) 2012-04-04
CN101636919A (zh) 2010-01-27
EP2137825A1 (en) 2009-12-30
WO2008114984A1 (en) 2008-09-25
US9373333B2 (en) 2016-06-21
CN101636918A (zh) 2010-01-27
WO2008114985A1 (en) 2008-09-25
US20100111319A1 (en) 2010-05-06
CN101636917B (zh) 2013-07-24
KR20080084758A (ko) 2008-09-19
CN101636917A (zh) 2010-01-27

Similar Documents

Publication Publication Date Title
JP4851598B2 (ja) オーディオ信号の処理方法及び装置
JP5243556B2 (ja) オーディオ信号の処理方法及び装置
JP5243554B2 (ja) オーディオ信号の処理方法及び装置
JP5232795B2 (ja) オブジェクトベースのオーディオ信号の符号化及び復号化方法並びにその装置
AU2007300812B2 (en) Methods and apparatuses for encoding and decoding object-based audio signals
JP5883561B2 (ja) アップミックスを使用した音声符号器
TW201514972A (zh) 使用聯合編碼殘餘信號之音訊編碼器、音訊解碼器、方法及電腦程式

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213