JP5243556B2 - オーディオ信号の処理方法及び装置 - Google Patents

オーディオ信号の処理方法及び装置 Download PDF

Info

Publication number
JP5243556B2
JP5243556B2 JP2010541398A JP2010541398A JP5243556B2 JP 5243556 B2 JP5243556 B2 JP 5243556B2 JP 2010541398 A JP2010541398 A JP 2010541398A JP 2010541398 A JP2010541398 A JP 2010541398A JP 5243556 B2 JP5243556 B2 JP 5243556B2
Authority
JP
Japan
Prior art keywords
signal
information
mode
downmix
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010541398A
Other languages
English (en)
Other versions
JP2011509591A (ja
Inventor
オー,ヒェン−オ
ウォン ジュン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2011509591A publication Critical patent/JP2011509591A/ja
Application granted granted Critical
Publication of JP5243556B2 publication Critical patent/JP5243556B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00992Circuits for stereophonic or quadraphonic recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording
    • G11B2020/10546Audio or video recording specifically adapted for audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)

Description

本発明は、オーディオ信号の処理方法及び装置に関するものである。本発明は、広範囲のアプリケーションに適するが、特に、デジタル媒体及び放送信号などを介して受信されたオーディオ信号を処理することに適する。
一般に、複数のオブジェクトをモノ又はステレオ信号にダウンミックスする過程において、それぞれのオブジェクト信号から各パラメータが抽出される。これらの各パラメータはデコーダで使用されるが、それぞれのオブジェクトのパニング(panning)とゲインはユーザの選択により制御可能である。
しかしながら、それぞれのオブジェクト信号を制御するためには、ダウンミックスに含まれているそれぞれのソースが適切にポジショニング又はパニングされなければならない。
また、チャネル向け(oriented)デコーディング方式に従い下位互換性を提供するためには、オブジェクトパラメータはアップミキシングのためのマルチチャネルパラメータに変換されなければならない。
従って、本発明は、オーディオ信号処理装置及びその方法に向けられ、関連技術の制限や不利点による1つ以上の問題を実質的に取り除く。
本発明は、前記のような問題を解決するためになされたもので、その目的は、オブジェクトのゲインとパニングをコントロールし、モノ信号、ステレオ信号及びマルチチャネル信号を出力することができるオーディオ信号処理方法及び装置を提供することにある。
本発明の更に他の目的は、マルチチャネルデコーダの複雑な方法を実行することなく、ダウンミックス信号からモノ信号及びステレオ信号を出力することができるオーディオ信号処理方法及び装置を提供することにある。
本発明の更に他の目的は、ボーカルや背景音楽のゲインを大幅に調節する場合も、音質のひずみを発生させないオーディオ信号処理方法及び装置を提供することにある。
本発明の更なる特性と利点は、以下の記載で説明され、当該記載から一部が明らかとなり、又は本発明の実施により知ることができる。本発明の目的とその他の利点は、明細書、特許請求の範囲、図面で特に示される構成により、実現され、及び達成される。
前記のような目的を達成するために、本発明に係るオーディオ信号処理方法は、一つ以上のオブジェクト信号を含むダウンミックス信号と前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信し、前記オブジェクト信号をコントロールするためのミックス情報を受信し、出力モードに応じて、前記オブジェクト情報及び前記ミックス情報を用いてダウンミックス処理情報(processing information)及びマルチチャネル情報のうち一つを生成し、前記ダウンミックス処理情報が生成された場合、前記ダウンミックス処理情報を前記ダウンミックス信号に適用して出力信号を生成することを含み、前記ダウンミックス信号及び前記出力信号はモノ信号に該当し、前記マルチチャネル情報は、前記ダウンミックス信号を複数のチャネル信号にアップミキシングするための情報に該当する。
本発明によれば、前記ダウンミックス信号及び前記出力信号は、時間ドメインの信号に該当する。
本発明によれば、前記出力信号を生成することは、前記ダウンミックス信号を分解(decomposing)することによりサブバンド信号を生成し、前記ダウンミックス処理情報を用いて前記サブバンド信号を処理し、前記サブバンド信号を合成することによって前記出力信号を生成することを有する。
本発明によれば、前記出力信号は、前記ダウンミックス信号がデコリレート(decorrelating)された信号を含むことができる。
本発明によれば、前記マルチチャネル情報が生成された場合、前記マルチチャネル情報を用いて前記ダウンミックス信号をアップミキシングし、複数のチャネル信号を生成することをさらに含むことができる。
本発明によれば、前記出力モードは、スピーカーチャネルの数によって決定されたもので、前記スピーカーチャネルの数は、装置情報及び前記ミックス情報のうち一つに基づいている。
本発明によれば、前記ミックス情報は、オブジェクト位置情報、オブジェクトゲイン情報及び再生環境(playback configuration)情報のうち一つ以上に基づいて生成されたものである。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含む時間ドメインのダウンミックス信号及び前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信するデマルチプレクサ(demultiplexer)と、出力モードに応じて、前記オブジェクト信号をコントロールするためのミックス情報及び前記オブジェクト情報を用いてダウンミックス処理情報及びマルチチャネル情報のうち一つを生成する情報生成ユニットと、前記ダウンミックス処理情報が生成された場合、前記ダウンミックス処理情報を前記ダウンミックス信号に適用して出力信号を生成するダウンミックス処理ユニットと、を含み、前記ダウンミックス信号及び前記出力信号はモノ信号に該当し、前記マルチチャネル情報は、前記ダウンミックス信号を複数のチャネル信号にアップミキシングするための情報に該当するオーディオ信号処理装置が提供される。
本発明によれば、前記ダウンミックス処理ユニットは、前記ダウンミックス信号を分解してサブバンド信号を生成するサブバンド分解ユニットと、前記ダウンミックス処理情報を用いて前記サブバンド信号を処理するM2M処理ユニットと、前記サブバンド信号を合成することによって前記出力信号を生成するサブバンド合成ユニットと、を含むことができる。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号と前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信し、前記オブジェクト信号をコントロールするためのミックス情報を受信し、出力モードに応じて、前記オブジェクト情報及び前記ミックス情報を用いてダウンミックス処理情報及びマルチチャネル情報のうち一つを生成し、前記ダウンミックス処理情報が生成された場合、前記ダウンミックス処理情報を前記ダウンミックス信号に適用して出力信号を生成することを含み、前記ダウンミックス信号はモノ信号に該当し、前記出力信号は、前記ダウンミックス信号にデコリレータを適用して生成されたステレオ信号に該当し、前記マルチチャネル情報は、前記ダウンミックス信号をマルチチャネル信号にアップミキシングするための情報に該当するオーディオ信号処理方法が提供される。
本発明によれば、前記ダウンミックス信号及び前記出力信号は、時間ドメインの信号に該当する。
本発明によれば、前記出力信号を生成するのは、前記ダウンミックス信号を分解してサブバンド信号を生成し、前記ダウンミックス処理情報を用いて前記サブバンド信号を処理することによって二つのサブバンド信号を生成し、前記二つのサブバンド信号をそれぞれ合成することによって前記出力信号を生成することを含むことができる。
本発明によれば、前記二つのサブバンド信号を生成することは、前記サブバンド信号をデコリレートすることによって、デコリレートされた信号を生成し、前記ダウンミックス処理情報を用いて前記デコリレートされた信号及び前記サブバンド信号を処理することによって、前記二つのサブバンド信号を生成することを有する。
本発明によれば、前記ダウンミックス処理情報は、バイノーラル(binaural)パラメータを含み、前記出力信号は、バイノーラル信号に該当する。
本発明によれば、前記マルチチャネル情報が生成された場合、前記マルチチャネル情報を用いて前記ダウンミックス信号をアップミキシングし、複数のチャネル信号を生成することをさらに含むことができる。
本発明によれば、前記出力モードは、スピーカーチャネルの数によって決定されたもので、前記スピーカーチャネルの数は、装置情報及び前記ミックス情報のうち一つに基づいている。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号及び前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信するデマルチプレクサと、出力モードに応じて、前記オブジェクト信号をコントロールするためのミックス情報及び前記オブジェクト情報を用いて、ダウンミックス処理情報及びマルチチャネル情報のうち一つを生成する情報生成ユニットと、前記ダウンミックス処理情報が生成された場合、前記ダウンミックス処理情報を前記ダウンミックス信号に適用して出力信号を生成するダウンミックス処理ユニットと、を含み、前記ダウンミックス信号はモノ信号に該当し、前記出力信号は、前記ダウンミックス信号にデコリレータを適用して生成されたステレオ信号に該当し、前記マルチチャネル情報は、前記ダウンミックス信号をマルチチャネル信号にアップミキシングするための情報に該当するオーディオ信号処理装置が提供される。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号と前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信し、モード選択情報を含み、前記オブジェクト信号をコントロールするためのミックス情報を受信し、前記モード選択情報に基づいて、前記ダウンミックス信号をバイパスしたり、前記ダウンミックス信号からバックグラウンドオブジェクト及び一つ以上の独立オブジェクトを抽出し、前記ダウンミックス信号がバイパスされた場合、前記オブジェクト情報及び前記ミックス情報を用いてマルチチャネル情報を生成することを含み、前記ダウンミックス信号はモノ信号に該当し、前記モード選択情報は、一般モード、前記バックグラウンドオブジェクトを制御するためのモード及び前記一つ以上の独立オブジェクトを制御するためのモードを含む各モードのうちいずれのモードに該当するかに関する情報を含むオーディオ信号処理方法が提供される。
本発明によれば、改良(enhanced)オブジェクト情報を受信することをさらに含み、前記一つ以上の独立オブジェクトは、前記改良オブジェクト情報を用いて前記ダウンミックス信号から抽出されるものである。
本発明によれば、前記改良オブジェクト情報は残余信号に該当する。
本発明によれば、前記一つ以上の独立オブジェクトはオブジェクトベースの信号に該当し、前記バックグラウンドオブジェクトはモノ信号に該当する。
本発明によれば、前記ステレオ出力信号は、前記モード選択モードが前記一般モードに該当する場合に生成され、前記バックグラウンドオブジェクト及び前記一つ以上の独立オブジェクトは、前記モード選択モードが前記バックグラウンドオブジェクトを制御するためのモード又は前記一つ以上の独立オブジェクトを制御するためのモードである場合に抽出される。
本発明によれば、前記バックグラウンドオブジェクト及び前記一つ以上の独立オブジェクトが前記ダウンミックス信号から抽出される場合、前記バックグラウンドオブジェクトをコントロールするための第1のマルチチャネル情報及び前記一つ以上の独立オブジェクトをコントロールするための第2のマルチチャネル情報のうち一つ以上を生成することをさらに含むことができる。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号及び前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信するデマルチプレクサと、前記オブジェクト信号をコントロールするためのミックス情報に含まれるモード選択情報に基づいて、前記ダウンミックス信号をバイパスしたり、前記ダウンミックス信号からバックグラウンドオブジェクト及び一つ以上の独立オブジェクトを抽出するオブジェクトトランスコーダ(transcoder)と、前記ダウンミックス信号がバイパスされた場合、前記オブジェクト情報及び前記ミックス情報を用いてマルチチャネル情報を生成するマルチチャネルデコーダと、を含み、前記ダウンミックス信号はモノ信号に該当し、前記出力信号は、前記ダウンミックス信号にデコリレータを適用して生成されたステレオ信号に該当し、前記モード選択情報は、一般モード、前記バックグラウンドオブジェクトを制御するためのモード及び前記一つ以上の独立オブジェクトを制御するためのモードを含む各モードのうちいずれのモードに該当するかに関する情報を含むことができる。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号と前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信し、モード選択情報を含み、前記オブジェクト信号をコントロールするためのミックス情報を受信し、前記モード選択情報に基づいて、前記ダウンミックス信号を用いてステレオ出力信号を生成したり、前記ダウンミックス信号からバックグラウンドオブジェクト及び一つ以上の独立オブジェクトを抽出することを含み、前記ダウンミックス信号はモノ信号に該当し、前記ステレオ出力信号は、前記ダウンミックス信号がデコリレートされた信号を含む時間ドメインの信号に該当し、前記モード選択情報は、一般モード、前記バックグラウンドオブジェクトを制御するためのモード及び前記一つ以上の独立オブジェクトを制御するためのモードを含む各モードのうちいずれのモードに該当するかに関する情報を含むオーディオ信号処理方法が提供される。
本発明によれば、改良オブジェクト情報を受信することをさらに含み、前記一つ以上の独立オブジェクトは、前記改良オブジェクト情報を用いて前記ダウンミックス信号から抽出されるものである。
本発明によれば、前記改良オブジェクト情報は残余信号に該当する。
本発明によれば、前記一つ以上の独立オブジェクトはオブジェクトベースの信号に該当し、前記バックグラウンドオブジェクトはモノ信号に該当する。
本発明によれば、前記ステレオ出力信号は、前記モード選択モードが前記一般モードに該当する場合に生成され、前記バックグラウンドオブジェクト及び前記一つ以上の独立オブジェクトは、前記モード選択モードが前記バックグラウンドオブジェクトを制御するためのモード又は前記一つ以上の独立オブジェクトを制御するためのモードである場合に抽出される。
本発明によれば、前記バックグラウンドオブジェクト及び前記一つ以上の独立オブジェクトが前記ダウンミックス信号から抽出される場合、前記バックグラウンドオブジェクトをコントロールするための第1のマルチチャネル情報及び前記一つ以上の独立オブジェクトをコントロールするための第2のマルチチャネル情報のうち一つ以上を生成することをさらに含むことができる。
本発明の更に他の側面によれば、一つ以上のオブジェクト信号を含むダウンミックス信号及び前記ダウンミックス信号を生成する過程で抽出されたオブジェクト情報を受信するデマルチプレクサと、前記オブジェクト信号をコントロールするためのミックス情報に含まれたモード選択情報に基づいて、前記ダウンミックス信号を用いてステレオ出力信号を生成したり、前記ダウンミックス信号からバックグラウンドオブジェクト及び一つ以上の独立オブジェクトを抽出するオブジェクトトランスコーダと、を含み、前記ダウンミックス信号はモノ信号に該当し、前記ステレオ出力信号は、前記ダウンミックス信号がデコリレートされた信号を含む時間ドメインの信号に該当し、前記モード選択情報は、一般モード、前記バックグラウンドオブジェクトを制御するためのモード及び前記一つ以上の独立オブジェクトを制御するためのモードを含む各モードのうちいずれのモードに該当するかに関する情報を含むオーディオ信号処理装置が提供される。
当然のことであるが、前記の一般的な記載、及び以下の詳細な記載の両方は、典型的なもの、説明的なものであり、請求項に記載される本発明の更なる説明を提供することを目的とする。
本発明は、次のような効果と利点を提供する。
まず、オブジェクトのゲインとパニングを制限なしにコントロールすることができる。
第二に、ユーザの選択に基づいてオブジェクトのゲインとパニングをコントロールすることができる。
第三に、出力モードがモノ又はステレオである場合、マルチチャネルデコーダの複雑な方法を実行せずに出力信号を生成できるので、具現が容易であり、複雑度を低下させることができる。
第四に、モバイルデバイスのように1〜2個のスピーカのみが備えられた場合、マルチチャネルデコーダに対応するコーデックなしで、ダウンミックス信号のオブジェクトのゲインとパニングをコントロールすることができる。
第五に、ボーカルや背景音楽のうち一つを完全に抑圧する場合も、ゲイン調整による音質のひずみを防止することができる。
第六に、ボーカルなどのような独立オブジェクトが二つ以上である場合(ステレオチャネル又は幾つかのボーカル信号)、ゲイン調整による音質のひずみを防止することができる。
本発明の更なる理解を提供するために添付され、組み込まれ、及び本明細書の一部を構成する図面は、本発明の実施例を説明し、明細書と共に、本発明の原理を説明する。
モノ信号/ステレオ信号を生成するための本発明の実施例に係るオーディオ信号処理装置の構成図である。 図1に示したダウンミックス処理ユニットの細部構成図の第1の例である。 図1に示したダウンミックス処理ユニットの細部構成図の第2の例である。 バイノーラル信号を生成するための本発明の一実施例に係るオーディオ信号処理装置の構成図である。 図4のダウンミックス処理ユニットの細部構成図である。 バイノーラル信号を生成するための本発明の他の実施例に係るオーディオ信号処理装置の構成図である。 独立オブジェクトを制御するための本発明の一実施例に係るオーディオ信号処理装置の構成図である。 独立オブジェクトを制御するための本発明の他の実施例に係るオーディオ信号処理装置の構成図である。 改良オブジェクト処理のための本発明の第1の実施例に係るオーディオ信号処理装置の構成図である。 改良オブジェクト処理のための本発明の第2の実施例に係るオーディオ信号処理装置の構成図である。 改良オブジェクト処理のための本発明の第3の実施例に係るオーディオ信号処理装置の構成図である。 改良オブジェクト処理のための本発明の第3の実施例に係るオーディオ信号処理装置の構成図である。
以下、添付の図面を参照して本発明の好適な実施例を詳細に説明する。本明細書及び特許請求の範囲に使用された用語や単語は、通常的又は辞典的な意味に限定して解釈してはならず、発明者が自身の発明を最も最善の方法で説明するために用語の概念を適切に定義することができるとの原則に立脚し、本発明の技術的思想に符合する意味と概念に解釈しなければならない。したがって、本明細書に記載された実施例と図面に示した構成は、本発明の最も好適な一実施例に過ぎないもので、本発明の技術的思想を全て代弁するものではないので、本出願時点において、これらに取って代わる多様な均等物と変形例があり得ることを理解しなければならない。
特に、本明細書において、情報とは、値、パラメータ、係数、成分などを総称する用語であって、場合によっては異なった意味に解釈されるが、本発明がこれに限定されることはない。
特に、オブジェクトは、オブジェクトベース信号及びチャネルベース信号を含む概念であるが、場合によっては、オブジェクトベース信号のみを称することができる。
本発明は、モノダウンミックス信号が受信された場合、モノダウンミックス信号を処理するための多様なプロセスについて説明する。まず、モノダウンミックス信号から、場合によってモノ信号/ステレオ信号又はマルチチャネル信号を生成する方式について図1〜図3を参照しながら説明する。その後、モノダウンミックス信号(又はステレオダウンミックス信号)からバイノーラル信号を生成する方式について図4〜図6を参照しながら説明する。モノダウンミックスに含まれている独立オブジェクト信号(又はモノバックグラウンド信号)を制御するための方式の多様な実施例について図7〜図12を参照しながら説明する。
1.モノ信号/ステレオ信号の生成
図1は、モノ信号/ステレオ信号を生成するための本発明の実施例に係るオーディオ信号処理装置の構成を示す図である。
図1を参照すれば、まず、本発明の実施例に係るオーディオ信号処理装置100は、デマルチプレクサ110、情報生成ユニット120及びダウンミックス処理ユニット130を含み、マルチチャネルデコーダ140をさらに含むことができる。
デマルチプレクサ110は、ビットストリームを介してオブジェクト情報(OI)を受信する。オブジェクト情報(OI)は、ダウンミックス信号内に含まれている各オブジェクトに関する情報であって、オブジェクトレベル情報、オブジェクト相関情報などを含むことができる。前記オブジェクト情報(OI)は、オブジェクト特性を示すパラメータであるオブジェクトパラメータ(OP)を含むことができる。
前記ビットストリームはダウンミックス信号(DMX)をさらに含み、デマルチプレクサ110は、このビットストリームからダウンミックス信号(DMX)をさらに抽出することもできる。ダウンミックス信号(DMX)は、一つ以上のオブジェクト信号がダウンミックスされた信号であって、時間ドメインの信号に該当する。ダウンミックス信号(DMX)はモノ信号又はステレオ信号であるが、本実施例ではモノ信号である場合について説明する。
情報生成ユニット120は、デマルチプレクサ110からオブジェクト情報(OI)を受信し、ユーザインターフェースからミックス情報(MXI)を受信し、ユーザインターフェース又は装置から出力モード情報(OM)を受信する。さらに、頭部伝達関数(head-related transfer function: HRTF)DBからHRTFパラメータを受信することもできる。
ミックス情報(MXI)は、オブジェクト位置情報、オブジェクトゲイン情報及び再生環境情報などに基づいて生成された情報であって、オブジェクト位置情報は、ユーザが各オブジェクトの位置又はパニングを制御するために入力した情報であって、オブジェクトゲイン情報は、ユーザが各オブジェクトのゲインを制御するために入力した情報である。特に、オブジェクト位置情報及びオブジェクトゲイン情報は、各プリセットモードから選択された一つであるが、プリセットモードは、時間の処理において、オブジェクトの特定ゲイン及び特定位置をプリセットするための値である。プリセットモード情報は、他の装置から受信された値であるか、装置に格納されている値である。一方、一つ以上のプリセットモード(例えば、プリセットモードを使用しない、プリセットモード1、プリセットモード2など)のうち一つを選択するのは、ユーザ入力によって決定される。
再生環境情報は、スピーカーの数、スピーカーの位置、周囲(ambient)情報(スピーカーの仮想位置)などを含む情報であって、ユーザから入力されたり、予め格納されていたり、他の装置から受信される。
出力モード情報(OM)は、出力モードに関する情報であって、例えば、何個の信号で出力するかに関する情報を含むことができる。何個の信号で出力するかに関する情報は、モノ出力モード、ステレオ出力モード、マルチチャネル出力モードなどのうち一つに該当する情報である。一方、出力モード情報(OM)は、前記ミックス情報(MXI)のスピーカーの数と同一であるが、予め格納されている場合、装置情報に基づいたもので、ユーザから入力された場合、ユーザインプット情報に基づいたものである。このとき、ユーザインプット情報は、前記ミックス情報(MXI)に含まれる。
情報生成ユニット120は、出力モードに応じて、オブジェクト情報(OI)及びミックス情報(MXI)を用いてダウンミックス処理情報(DPI)及びマルチチャネル情報(MI)のうち一つを生成する。ここで、出力モードは、上述した出力モード情報(OM)に基づいたものである。出力モードがモノ出力又はステレオ信号である場合、ダウンミックス処理情報(DPI)を生成し、出力モードがマルチチャネル出力である場合、マルチチャネル情報(MI)を生成する。ここで、ダウンミックス処理情報(DPI)は、ダウンミックス信号(DMX)を処理するための情報であって、これについては後ほどで具体的に説明する。ここで、マルチチャネル情報(MI)は、ダウンミックス信号(DMX)をアップミキシングするための情報であって、チャネルレベル情報、チャネル相関情報などを含むことができる。
出力モードがモノ出力又はステレオ出力である場合、ダウンミックス処理情報(DPI)のみを生成する理由は、ダウンミックス処理ユニット130で時間ドメインのモノ信号又はステレオ信号を生成できるためである。一方、出力モードがマルチチャネル出力である場合、マルチチャネル情報(MI)を生成する理由は、入力信号がモノ信号である場合、マルチチャネルデコーダ140でマルチチャネル信号を生成できるためである。
ダウンミックス処理ユニット130は、ダウンミックス処理情報(DPI)及びモノダウンミックス(DMX)を用いてモノ出力信号又はステレオ出力信号を生成する。ここで、ダウンミックス処理情報(DPI)は、ダウンミックス信号(DMX)を処理するための情報であって、ダウンミックス信号に含まれている各オブジェクトのゲイン及び/又はパニングを制御するための情報である。
一方、モノ出力信号又はステレオ出力信号は、時間ドメインの信号に該当するもので、PCM信号である。モノ出力信号の場合、ダウンミックス処理ユニット130の細部構成を後ほどで図2を参照しながら説明し、ステレオ出力信号の場合、ダウンミックス処理ユニット130の細部構成を図3を参照しながら説明する。
さらに、ダウンミックス処理情報(DPI)は、バイノーラルパラメータを含むことができるが、バイノーラルパラメータは、3D効果のためのパラメータであって、情報生成ユニット120でオブジェクト情報(OI)、ミックス情報(MXI)及びHRTFパラメータを用いて生成された情報である。ダウンミックス処理情報(DPI)がバイノーラルパラメータを含む場合、ダウンミックス処理ユニット130はバイノーラル信号を出力することができる。バイノーラル信号の生成のための実施例は、後ほどで図4〜図6を参照しながら具体的に説明する。
モノダウンミックス信号でなく、ステレオダウンミックス信号が受信された場合(図示せず)、時間ドメインの出力信号を生成するより、ダウンミックス信号のクロストークのみを変形するための処理を行い、処理されたダウンミックス信号は再びマルチチャネルデコーダ140で処理されることも可能であるが、本発明がこれに限定されることはない。
マルチチャネルデコーダ140は、出力モードがマルチチャネル出力モードであるとき、マルチチャネル情報(MI)を用いてダウンミックス(DMX)をアップミキシングし、マルチチャネル信号を生成する。マルチチャネルデコーダ140は、MPEGサラウンド(ISO/IEC 23003―1)の標準によって具現されるが、本発明がこれに限定されることはない。
図2は、図1に示したダウンミックス処理ユニットの細部構成図の第1の例として、モノ出力信号を生成するための実施例であって、図3は、図1に示したダウンミックス処理ユニットの細部構成図の第2の例として、ステレオ出力信号を生成するための実施例である。
まず、図2を参照すれば、ダウンミックス処理ユニット130Aは、サブバンド分解ユニット132A、M2M処理ユニット134A、サブバンド合成ユニット136Aを含み、モノダウンミックス信号からモノ出力信号を生成する。
サブバンド分解ユニット132Aは、モノダウンミックス信号(DMX)を分解してサブバンド信号を生成する。サブバンド分解ユニット132Aは、ハイブリッドフィルタバンクで具現され、サブバンド信号は、ハイブリッドQMFドメインの信号に該当する。M2M処理ユニット134Aは、ダウンミックス処理情報(DPI)を用いてサブバンド信号を処理する。M2Mはmono―to―monoの略字である。ここで、M2M処理ユニット134Aは、サブバンド信号を処理するためにデコリレータを用いることができる。サブバンド合成ユニット136Aは、処理されたサブバンド信号を合成し、時間ドメインのモノ出力信号を生成する。サブバンド合成ユニット136Aは、ハイブリッドフィルタバンクで具現される。
図3を参照すれば、ダウンミックス処理ユニット130Bは、サブバンド分解ユニット132B、M2S処理ユニット134B、第1のサブバンド合成ユニット136B、第2のサブバンド合成ユニット138Bを含み、モノダウンミックス信号を受信し、ステレオ出力を生成する。
サブバンド分解ユニット132Bは、図2のサブバンド分解ユニット132Aと同様に、モノダウンミックス信号(DMX)を分解し、サブバンド信号を生成する。サブバンド分解ユニット132Bも、ハイブリッドフィルタバンクで具現される。
M2S処理ユニット134Bは、ダウンミックス処理情報(DPI)及びデコリレータ135Bを用いてサブバンド信号を処理し、二つのサブバンド信号(第1のサブバンド信号及び第2のサブバンド信号)を生成する。M2Sはmono―to―stereoの略字である。デコリレータ135Bが用いられれば、左右のチャネルの相関性を低下させることによって、ステレオ効果を高めることができる。
一方、デコリレータ135Bは、サブバンド分解ユニット132Bから入力されたサブバンド信号を第1のサブバンド信号とし、この第1のサブバンド信号をデコリレートした信号を第2のサブバンド信号として出力できるが、本発明がこれに限定されることはない。
第1のサブバンド合成ユニット136Bが第1のサブバンド信号を合成し、第2のサブバンド合成ユニット138Bが第2のサブバンド信号を合成することによって、時間ドメインのステレオ出力信号を生成する。
以上、モノダウンミックスが入力される場合、ダウンミックス処理ユニットを介してモノ出力/ステレオ出力が行われる実施例について説明した。以下、バイノーラル信号を生成することについて説明する。
2.バイノーラル信号の生成
図4は、バイノーラル信号を生成するための本発明の一実施例に係るオーディオ信号処理装置の構成を示す図で、図5は、図4のダウンミックス処理ユニットの細部構成図である。図6は、バイノーラル信号を生成するための本発明の他の実施例に係るオーディオ信号処理装置の構成を示す図である。
すなわち、図4及び図5を参照しながらバイノーラル信号の生成のための一実施例について説明し、図6を参照しながらバイノーラル信号の生成のための他の実施例について説明する。
まず、図4を参照すれば、オーディオ信号処理装置200は、デマルチプレクサ210、情報生成ユニット220、ダウンミックス処理ユニット230を含む。ここで、デマルチプレクサ210は、図1を参照して説明したデマルチプレクサ110と同様に、ビットストリームからオブジェクト情報(OI)を抽出し、ダウンミックス(DMX)も抽出することができる。ここで、ダウンミックス信号は、モノ信号又はステレオ信号である。
情報生成ユニット220は、オブジェクト情報(OI)、ミックス情報(MXI)、HRTF情報を用いてバイノーラルパラメータを含むダウンミックス処理情報を生成する。ここで、HRTF情報は、HRTF DBから抽出された情報である。バイノーラルパラメータは、仮想3D効果を出すためのパラメータである。
そして、ダウンミックス処理ユニット230は、バイノーラルパラメータを含むダウンミックス処理情報(DPI)を用いてバイノーラル信号を出力する。ダウンミックス処理ユニット230の具体的な細部構成は、図5を参照しながら説明する。
図5を参照すれば、ダウンミックス処理ユニット230Aは、サブバンド分解ユニット232A、バイノーラル処理ユニット234A、サブバンド合成ユニット236Aを含む。サブバンド分解ユニット232Aは、ダウンミックス信号を分解し、一つ又は二つのサブバンド信号を生成する。バイノーラル処理ユニット234Aは、バイノーラルパラメータを含むダウンミックス処理情報(DPI)を用いて一つ又は二つのサブバンド信号を処理する。サブバンド合成ユニット236Aは、一つ又は二つのサブバンド信号を合成し、時間ドメインのバイノーラル出力信号を生成する。
図6を参照すれば、オーディオ信号処理装置300は、デマルチプレクサ310、情報生成ユニット320を含み、マルチチャネルデコーダ330をさらに含むことができる。
デマルチプレクサ310は、ビットストリームからオブジェクト情報(OI)を抽出し、ダウンミックス信号(DMX)をさらに抽出することができる。情報生成ユニット320は、オブジェクト情報(OI)及びミックス情報(MXI)を用いてマルチチャネル情報(MI)を生成する。ここで、マルチチャネル情報(MI)は、ダウンミックス信号(DMX)をアップミキシングするための情報であって、チャネルレベル情報、チャネル相関情報のような空間パラメータを含む。また、情報生成ユニット320は、HRTF DBから抽出されたHRTFパラメータを用いてバイノーラルパラメータを生成する。バイノーラルパラメータは、3D効果を与えるためのパラメータであって、HRTFパラメータ自体でもある。また、バイノーラルパラメータは、時変する値であって、ダイナミックな特性を有することができる。
ダウンミックス信号がモノ信号である場合、マルチチャネル情報(MI)はゲイン情報(ADG)をさらに含むことができる。ゲイン情報(ADG)は、ダウンミックスゲインを調整するためのパラメータであって、特定オブジェクトに対するゲインを制御するための用途で使用することができる。バイノーラル出力の場合、オブジェクトに対するパニングだけでなく、アップサンプリング又はダウンサンプリングが必要であるので、ゲイン情報(ADG)を使用することが望ましい。マルチチャネルデコーダ330がMPSサラウンド標準に従い、マルチチャネル情報(MI)をMPEGサラウンドシンタックスによって構成しなければならない場合、‘bsArbitraryDownmix=1’にセッティングしてゲイン情報(ADG)を使用することができる。
ダウンミックス信号がステレオチャネル信号である場合、オーディオ信号装置300は、ステレオダウンミックス信号の左右のチャネルのリパニング(re―panning)のためのダウンミックス処理ユニット(図示せず)をさらに含むことができる。しかし、バイノーラルレンダリングにおいては、HRTFパラメータの選択によって左右のチャネルのクロスターム(cross―term)を生成できるので、ダウンミックス処理ユニット(図示せず)での動作が必ず必要ではない。ダウンミックス信号がステレオで、マルチチャネル情報(MI)がMPSサラウンド規格に従う場合、5―2―5コンフィギュレーションモードにセッティングされ、左側フロントチャネル及び右側フロントチャネルのみをバイパスして出力する形態であることが望ましい。また、伝送されるバイノーラルパラメータは、残りの値がいずれも0である状態で左側フロントチャネル及び右側フロントチャネルから左側出力及び右側出力への経路(合計4個のパラメータセット)のみが有効な値を有するように伝送される。
マルチチャネルデコーダ330は、マルチチャネル情報(MI)及びバイノーラルパラメータを用いてダウンミックス信号からバイノーラル出力を生成する。具体的に、マルチチャネル情報に含まれた空間パラメータ及びバイノーラルパラメータの組み合わせをダウンミックス信号に適用し、バイノーラル出力を生成することができる。
このように、バイノーラル出力を生成するための各実施例によれば、第1の実施例のようにダウンミックス処理ユニットを介して直接バイノーラル出力を生成する場合、マルチチャネルデコーダの複雑な方法を実行する必要がないので、複雑度を低下させることができる。また、第2の実施例のようにマルチチャネルデコーダを使用する場合、マルチチャネルデコーダの機能を用いることができる。
3.独立オブジェクトの制御(カラオケモード/アカペラモード)
以下、モノダウンミックスを受信し、独立オブジェクト又はバックグラウンドオブジェクトを制御する技術について説明する。
図7は、独立オブジェクトを制御するための本発明の一実施例に係るオーディオ信号処理装置の構成図で、図8は、独立オブジェクトを制御するための本発明の他の実施例に係るオーディオ信号処理装置の構成図である。
まず、図7を参照すれば、オーディオ信号エンコーディング装置400のマルチチャネルデコーダ410が複数のチャネル信号を受信し、モノダウンミックス(DMXm)及びマルチチャネルビットストリームを生成する。ここで、複数のチャネル信号は、マルチチャネルバックグラウンドオブジェクト(Multi―channel Background Objects: MBO)である。
マルチチャネルバックグラウンドオブジェクト(MBO)は、例えば、背景音楽を構成する複数の楽器信号を含むことができるが、何個のソース信号(例えば、楽器信号)が含まれているかを知ることができなく、ソース信号別にコントロールすることもできない。ここで、バックグラウンドオブジェクトは、ステレオチャネルにダウンミックスされることも可能であるが、本発明では、モノ信号にダウンミックスされたバックグラウンドオブジェクトのみについて説明する。
オブジェクトエンコーダ410は、モノバックグラウンドオブジェクト(DMXm)及び一つ以上のオブジェクト信号(objN)をダウンミックスしてモノダウンミックス(DMX)を生成し、オブジェクト情報ビットストリームを生成する。ここで、一つ以上のオブジェクト信号(又はオブジェクトベース信号)は、独立オブジェクトであって、フォアグラウンドオブジェクト(FGO)(ForeGround Object)とも称する。例えば、バックグラウンドオブジェクトが伴奏音楽であれば、独立オブジェクト(FGO)はリードボーカル信号に該当する。もちろん、独立オブジェクトが二つである場合、歌手1のボーカル信号、歌手2のボーカル信号にそれぞれ対応することができる。オブジェクトエンコーダ410は、残余(residual)情報をさらに生成することができる。
オブジェクトエンコーダ410は、モノバックグラウンドオブジェクト(DMXm)及びオブジェクト信号(objN)(すなわち、独立オブジェクト)をダウンミックスする過程で残余を生成することができる。この残余は、デコーダでダウンミックス信号から独立オブジェクト(又はバックグラウンドオブジェクト)を抽出するのに用いられる。
オーディオ信号デコーディング装置500のオブジェクトトランスコーダ510は、ミックス情報(MXI)に含まれたモード選択情報(MSI)にしたがって、改良オブジェクト情報(例えば、残余)を用いてダウンミックス(DMX)から一つ以上の独立オブジェクト又はバックグラウンドオブジェクトを抽出する。
モード選択情報(MSI)は、バックグラウンドオブジェクト及び一つ以上の独立オブジェクトを制御するためのモードが選択されたかどうかに対する情報を含む。さらに、モード選択情報(MSI)は、一般モード、バックグラウンドオブジェクトを制御するためのモード、一つ以上の独立オブジェクトを制御するためのモードを含む各モードのうちいずれのモードに該当するかに関する情報を含むことができる。例えば、バックグラウンドオブジェクトを制御するためのモードは、バックグラウンドオブジェクトが背景音楽である場合、アカペラモード(又はソロモード)に該当する。例えば、一つ以上の独立オブジェクトを制御するためのモードは、独立オブジェクトがボーカルである場合、カラオケモードに該当する。言い換えれば、モード選択情報は、一般モード、アカペラモード、カラオケモードのうち一つを選択するかに関する情報であって、アカペラモード又はカラオケモードである場合、ゲイン調整に対する情報をさらに含むことができる。すなわち、モード選択情報(MSI)がアカペラモード又はカラオケモードである場合、ダウンミックス(DMX)から一つ以上の独立オブジェクト又はバックグラウンドオブジェクトを抽出し、一般モードである場合、ダウンミックス信号をバイパスすることができる。
独立オブジェクトが抽出された場合、オブジェクトトランスコーダ510は、オブジェクト情報(OI)及びミックス情報(MXI)などを用いて一つ以上の独立オブジェクト及びバックグラウンドオブジェクトをミキシングし、ミキシングされたモノダウンミックスを生成する。ここで、オブジェクト情報(OI)は、オブジェクト情報ビットストリームから抽出された情報であって、上述した情報と同一である。ここで、ミックス情報(MXI)は、オブジェクトゲイン及び/又はパニングを調整するための情報である。
一方、オブジェクトトランスコーダ510は、マルチチャネルビットストリーム及び/又はオブジェクト情報ビットストリームを用いてマルチチャネル情報(MI)を生成する。マルチチャネル情報(MI)は、バックグラウンドオブジェクト又は一つ以上の独立オブジェクトを制御するためのものであるが、このとき、バックグラウンドオブジェクトをコントロールするための第1のマルチチャネル情報及び一つ以上の独立オブジェクトをコントロールするための第2のマルチチャネル情報のうち一つ以上を含むことができる。
マルチチャネルデコーダ520は、マルチチャネル情報(MI)を用いてミキシングされたモノダウンミックス又はバイパスされたモノダウンミックスから出力信号を生成する。
図8は、独立オブジェクト生成のための他の実施例である。
図8を参照すれば、オーディオ信号処理装置600は、モノダウンミックス(DMX)を受信し、ダウンミックス処理ユニット610、マルチチャネルデコーダ620、OTNモジュール630及びレンダリングユニット640を含む。
オーディオ信号処理装置600は、モード選択情報(MSI)にしたがって、ダウンミックス信号をOTNモジュール630に入力するかどうかを決定する。ここで、モード選択情報は、既に図7を参照して説明したモード選択情報と同一である。
モード選択情報によって、現在のモードがバックグラウンドオブジェクト(MBO)又は一つ以上の独立オブジェクト(FGO)を制御するためのモードである場合、ダウンミックス信号がOTNモジュール630に入力されるようにする。その一方、モード選択情報にしたがって、現在のモードが一般モードである場合、ダウンミックス信号をバイパスし、出力モードに応じてダウンミックス処理ユニット610又はマルチチャネルデコーダ620にダウンミックス信号が入力されるようにする。ここでの出力モードは、既に図1を参照して説明した出力モード情報(OM)と同一であって、出力スピーカーの数である。
モノ/ステレオ/バイノーラル出力モードである場合、ダウンミックス処理ユニット610によってダウンミックスが処理されるが、このとき、ダウンミックス処理ユニット610は、図1〜図3を参照して説明したダウンミックス処理ユニット130、130A、130Bと同一の役割を果たす構成要素である。
一方、出力モードがマルチチャネルモードである場合、マルチチャネルデコーダ620は、モノダウンミックス(DMX)からマルチチャネル出力を生成する。このとき、マルチチャネルデコーダも、既に図1を参照して説明したマルチチャネルデコーダ140と同一の役割を果たす構成要素である。
一方、モード選択情報(MSI)にしたがって、モノダウンミックス信号がOTNモジュール630に入力された場合、OTNモジュール630は、ダウンミックス信号からモノバックグラウンドオブジェクト(MBO)及び一つ以上の独立オブジェクト信号(FGO)を抽出する。OTNはone―to―nの略字である。独立オブジェクト信号が1個である場合、OTT(One―To―Two)構造になり、独立オブジェクト信号が2個である場合、OTT(One―To―Three)構造になり、独立オブジェクトの信号がN−1である場合、OTN構造になる。
一方、OTNモジュール630は、オブジェクト情報(OI)及び改良オブジェクト情報(EOI)を用いることができる。ここで、改良オブジェクト情報(EOI)は、バックグラウンドオブジェクト及び独立オブジェクトをダウンミックスする過程で生成された残余信号である。
一方、レンダリングユニット640は、ミックス情報(MXI)を用いて、バックグラウンドオブジェクト(MBO)及び独立オブジェクト(FGO)をレンダリングすることによって出力チャネル信号を生成する。ここで、ミックス情報(MXI)は、バックグラウンドオブジェクトを制御するための情報又は/及び独立オブジェクトを制御するための情報を含む。一方、オブジェクト情報(OI)及びミックス情報(MXI)に基づいたマルチチャネル情報(MI)が生成されるが、この場合、前記出力チャネル信号は、マルチチャネルデコーダ(図示せず)に入力され、前記マルチチャネル情報に基づいてアップミキシングされることもある。
図9は、改良オブジェクト処理のための本発明の第1の実施例に係るオーディオ信号処理装置の構成を示す図で、図10は、改良オブジェクト処理のための本発明の第2の実施例に係るオーディオ信号処理装置の構成を示す図で、図11及び図12は、改良オブジェクト処理のための本発明の第3の実施例に係るオーディオ信号処理装置の構成を示す図である。
第1の実施例は、モノダウンミックス及びモノオブジェクトに関するもので、第2の実施例は、モノダウンミックス及びステレオオブジェクトに関するもので、第3の実施例は、第1の実施例の場合及び第2実施例の場合をいずれもカバーする実施例である。
まず、図9を参照すれば、オーディオ信号エンコーディング装置700Aの改良オブジェクト情報エンコーダ710は、モノ信号であるミックスされたオーディオ信号及びオブジェクト信号(obj_x1)から改良オブジェクト情報(EOP_x1)を生成する。このとき、二つの信号を用いて一つの信号を生成するので、改良オブジェクト情報エンコーダ710は、OTT(One―To―Two)エンコーディングモジュールで具現される。ここで、改良オブジェクト情報(EOP_x1)は残余信号である。また、改良オブジェクト情報エンコーダ710は、OTTモジュールに対応するオブジェクト情報(OP_x1)を生成する。
オーディオ信号デコーディング装置800Aの改良オブジェクト情報デコーダ810は、改良オブジェクト情報(EOP_x1)及びミックスされたオーディオ信号を用いて付加的なリミックスデータに対応する出力信号(obj_x1’)を生成する。
図10を参照すれば、オーディオ信号エンコーディング装置700Bは、第1の改良オブジェクト情報エンコーダ710B及び第2の改良オブジェクト情報エンコーダ720Bを含み、オーディオ信号デコーディング装置800Bは、第1の改良オブジェクト情報デコーダ810B及び第2の改良オブジェクト情報デコーダ820Bを含む。
第1の改良オブジェクト情報エンコーダ710Bは、二つのオブジェクト信号(obj_x1、obj_x2)を結合し、結合オブジェクト及び第1の改良オブジェクト情報(EOP_L1)を生成する。二つのオブジェクト信号は、ステレオオブジェクト信号、すなわち、オブジェクトの左側チャネル信号及びオブジェクトの右側チャネル信号である。結合オブジェクトを生成する過程で、第1のオブジェクト情報(OP_L1)が生成される。
第2の改良オブジェクト情報エンコーダ720Bは、モノ信号であるミックスされたオーディオ信号及び結合オブジェクトを用いて第2の改良オブジェクト情報(EOP_L0)及び第2のオブジェクト情報(OP_L0)を生成する。
このように二つの段階の過程を通して最終的な信号を生成するが、第1の改良オブジェクト情報エンコーダ710B及び第2の改良オブジェクト情報エンコーダ720Bは、二つの信号から一つの信号を生成するので、それぞれOTT(One―To―Two)モジュールとして具現される。
オーディオ信号デコーディング装置800Bは、オーディオ信号エンコーディング装置700Bで行われた過程と反対の過程を行う。
すなわち、第2の改良オブジェクト情報デコーダ810Bは、第2の改良オブジェクト情報(EOP_L0)及びミックスされたオーディオ信号を用いて結合オブジェクトを生成する。このとき、オーディオ信号がさらに抽出される。
そして、第1の改良オブジェクト情報デコーダ820Bは、第1の改良オブジェクト情報(EOP_L1)を用いて結合オブジェクトから付加的なリミックスデータである二つのオブジェクト(obj_x1’、obj_x2’)を生成する。
図11及び図12は、第1の実施例及び第2の実施例が結合された形態である。図11を参照すれば、マルチチャネルエンコーダ705Cの5―1―5ツリー構造又は5―2―5ツリー構造の動作有無によって改良オブジェクトがモノ又はステレオに変化する場合、ダウンミックス信号がモノ信号/ステレオ信号に変化する場合がいずれも表現されたものである。
図11及び図12に示すように、改良オブジェクトがモノ信号である場合、第1の改良オブジェクト情報エンコーダ710C及び第1の改良情報デコーダ820Cが動作しない。各構成要素の機能は、図10を参照して説明した同一名称の構成要素と同一である。
一方、ダウンミックス信号がモノである場合、第2の改良オブジェクト情報エンコーダ720C及び第2の改良オブジェクト情報デコーダ810CがそれぞれOTTエンコーダ/デコーダとして動作することが望ましく、ダウンミックス信号がステレオである場合、それぞれTTTエンコーダ/デコーダとして動作することができる。
本発明に係るオーディオ信号処理方法は、コンピュータ読み取り可能なコードとして記録媒体に格納されるプログラムに搭載することができる。また、本発明に係るデータ構造を有するマルチメディアデータもコンピュータ読み取り可能な記録媒体に格納される。前記コンピュータ読み取り可能な記録媒体は、コンピュータシステムによって読まれるデータが格納されるあらゆる種類の格納装置を含む。コンピュータ読み取り可能な記録媒体の例としては、ROM、RAM、CD―ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、キャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現されることも含む。また、前記エンコーディング方法によって生成されたビットストリームは、コンピュータ読み取り可能な記録媒体に格納されたり、有無線通信網を用いて伝送される。
以上のように、本発明は、限定された実施例と図面によって説明されたが、本発明がこれによって限定されることはなく、本発明の属する技術分野で通常の知識を有する者によって本発明の技術思想と下記に記載される特許請求の範囲の均等範囲内で多様な修正及び変形が可能であることは当然である。
本発明は、オーディオ信号をエンコーディング及びデコーディングすることに適用できる。

Claims (9)

  1. 少なくとも1つのオブジェクト信号を含むダウンミックス信号、及び該ダウンミックス信号が生成される時に抽出されたオブジェクト情報を受信するステップと、
    前記オブジェクト信号を制御するためのミックス情報を受信するステップであって、該ミックス情報は、一般モード、カラオケモード、及びソロモードを含むモードの1つを示すモード選択情報を含むステップと、
    を有するオーディオ信号処理方法であって、
    前記モード選択情報が前記一般モードを示すとき、
    マルチチャネルオーディオ信号のチャネル数に従い、前記オブジェクト情報及び前記ミックス情報を用いてマルチチャネル情報を生成し、及び、
    前記マルチチャネル情報を前記ダウンミックス信号に適用することにより、前記マルチチャネルオーディオ信号を生成し、
    前記モード選択情報が前記カラオケモード又はソロモードを示すとき、
    前記ダウンミックス信号からバックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトを抽出し、
    前記ミックス情報を用いて、前記バックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトをレンダリングすることにより出力チャネル信号を生成し、及び、
    前記マルチチャネル情報に基づき、前記出力チャネル信号をマルチチャネルオーディオ信号にアップミキシングし、
    前記ダウンミックス信号はモノ信号に該当する、オーディオ信号処理方法。
  2. 改良オブジェクト情報を受信するステップをさらに有し、前記少なくとも1つの独立オブジェクトは、該改良オブジェクト情報を用いて前記ダウンミックス信号から抽出される、請求項1に記載のオーディオ信号処理方法。
  3. 前記改良オブジェクト情報は残余信号に該当する、請求項2に記載のオーディオ信号処理方法。
  4. 前記少なくとも1つの独立オブジェクトはオブジェクトベース信号に該当し、前記バックグラウンドオブジェクトはモノ信号に該当する、請求項1に記載のオーディオ信号処理方法。
  5. 少なくとも1つのオブジェクト信号を含むダウンミックス信号、該ダウンミックス信号が生成される時に抽出されたオブジェクト情報、並びに一般モード、カラオケモード、及びソロモードを含むモードの1つを示すモード選択情報を含むミックス情報を受信するデマルチプレクサと、
    前記モード選択情報が前記一般モードを示すとき、マルチチャネルオーディオ信号のチャネル数に従い、前記オブジェクト情報及び前記ミックス情報を用いてマルチチャネル情報を生成し、及び、
    前記モード選択情報が前記カラオケモード又はソロモードを示すとき、前記ダウンミックス信号からバックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトを抽出し、前記ミックス情報を用いて、前記バックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトをレンダリングすることにより出力チャネル信号を生成するオブジェクトトランスコーダと、
    前記マルチチャネル情報を前記ダウンミックス信号又は前記出力信号の1つに適用することにより、前記マルチチャネルオーディオ信号を生成するマルチチャネルデコーダと、
    を有し、
    前記ダウンミックス信号はモノ信号に該当する、オーディオ信号処理装置。
  6. 前記デマルチプレクサは、改良オブジェクト情報をさらに受信し、前記少なくとも1つの独立オブジェクトは、該改良オブジェクト情報を用いて前記ダウンミックス信号から抽出される、請求項に記載のオーディオ信号処理装置。
  7. 前記改良オブジェクト情報は残余信号に該当する、請求項に記載のオーディオ信号処理装置。
  8. 前記少なくとも1つの独立オブジェクトはオブジェクトベース信号に該当し、前記バックグラウンドオブジェクトはモノ信号に該当する、請求項に記載のオーディオ信号処理装置。
  9. オーディオ信号を処理する方法を実行するために提供されるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、該方法は、
    少なくとも1つのオブジェクト信号を含むダウンミックス信号、及び該ダウンミックス信号が生成される時に抽出されたオブジェクト情報を受信するステップと、
    前記オブジェクト信号を制御するためのミックス情報を受信するステップであって、該ミックス情報は、一般モード、カラオケモード、及びソロモードを含むモードの1つを示すモード選択情報を含むステップと、
    を有し、
    前記モード選択情報が前記一般モードを示すとき、
    マルチチャネルオーディオ信号のチャネル数に従い、前記オブジェクト情報及び前記ミックス情報を用いてマルチチャネル情報を生成し、及び、
    前記マルチチャネル情報を前記ダウンミックス信号に適用することにより、前記マルチチャネルオーディオ信号を生成し、
    前記モード選択情報が前記カラオケモード又はソロモードを示すとき、
    前記ダウンミックス信号からバックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトを抽出し、
    前記ミックス情報を用いて、前記バックグラウンドオブジェクト及び少なくとも1つの独立オブジェクトをレンダリングすることにより出力チャネル信号を生成し、及び、
    前記マルチチャネル情報に基づき、前記出力チャネル信号をマルチチャネルオーディオ信号にアップミキシングし、
    前記ダウンミックス信号はモノ信号に該当する、コンピュータ読み取り可能な記録媒体。
JP2010541398A 2008-01-01 2008-12-31 オーディオ信号の処理方法及び装置 Active JP5243556B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US1848908P 2008-01-01 2008-01-01
US1848808P 2008-01-01 2008-01-01
US61/018,488 2008-01-01
US61/018,489 2008-01-01
US8104208P 2008-07-16 2008-07-16
US61/081,042 2008-07-16
PCT/KR2008/007869 WO2009084919A1 (en) 2008-01-01 2008-12-31 A method and an apparatus for processing an audio signal

Publications (2)

Publication Number Publication Date
JP2011509591A JP2011509591A (ja) 2011-03-24
JP5243556B2 true JP5243556B2 (ja) 2013-07-24

Family

ID=40824519

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010541396A Active JP5243555B2 (ja) 2008-01-01 2008-12-31 オーディオ信号の処理方法及び装置
JP2010541398A Active JP5243556B2 (ja) 2008-01-01 2008-12-31 オーディオ信号の処理方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010541396A Active JP5243555B2 (ja) 2008-01-01 2008-12-31 オーディオ信号の処理方法及び装置

Country Status (8)

Country Link
US (3) US8654994B2 (ja)
EP (2) EP2232487B1 (ja)
JP (2) JP5243555B2 (ja)
KR (2) KR101221917B1 (ja)
CN (2) CN101911182A (ja)
AU (1) AU2008344073B2 (ja)
CA (1) CA2710560C (ja)
WO (2) WO2009084917A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5531486B2 (ja) * 2009-07-29 2014-06-25 ヤマハ株式会社 オーディオ機器
TWI459828B (zh) * 2010-03-08 2014-11-01 Dolby Lab Licensing Corp 在多頻道音訊中決定語音相關頻道的音量降低比例的方法及系統
US10326978B2 (en) 2010-06-30 2019-06-18 Warner Bros. Entertainment Inc. Method and apparatus for generating virtual or augmented reality presentations with 3D audio positioning
EP3379533A3 (en) * 2010-09-13 2019-03-06 Warner Bros. Entertainment Inc. Method and apparatus for generating 3d audio positioning using dynamically optimized audio 3d space perception cues
US9456289B2 (en) 2010-11-19 2016-09-27 Nokia Technologies Oy Converting multi-microphone captured signals to shifted signals useful for binaural signal processing and use thereof
US9055371B2 (en) * 2010-11-19 2015-06-09 Nokia Technologies Oy Controllable playback system offering hierarchical playback options
US9313599B2 (en) 2010-11-19 2016-04-12 Nokia Technologies Oy Apparatus and method for multi-channel signal playback
KR20120071072A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법
US8855319B2 (en) * 2011-05-25 2014-10-07 Mediatek Inc. Audio signal processing apparatus and audio signal processing method
EP2834995B1 (en) 2012-04-05 2019-08-28 Nokia Technologies Oy Flexible spatial audio capture apparatus
MX342150B (es) * 2012-07-09 2016-09-15 Koninklijke Philips Nv Codificacion y decodificacion de señales de audio.
JP6186435B2 (ja) * 2012-08-07 2017-08-23 ドルビー ラボラトリーズ ライセンシング コーポレイション ゲームオーディオコンテンツを示すオブジェクトベースオーディオの符号化及びレンダリング
US9489954B2 (en) 2012-08-07 2016-11-08 Dolby Laboratories Licensing Corporation Encoding and rendering of object based audio indicative of game audio content
CA2893729C (en) 2012-12-04 2019-03-12 Samsung Electronics Co., Ltd. Audio providing apparatus and audio providing method
CN108806706B (zh) 2013-01-15 2022-11-15 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
US10635383B2 (en) 2013-04-04 2020-04-28 Nokia Technologies Oy Visual audio processing apparatus
EP2997573A4 (en) 2013-05-17 2017-01-18 Nokia Technologies OY Spatial object oriented audio apparatus
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
CN105637582B (zh) * 2013-10-17 2019-12-31 株式会社索思未来 音频编码装置及音频解码装置
KR102537541B1 (ko) 2015-06-17 2023-05-26 삼성전자주식회사 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치
WO2020016685A1 (en) * 2018-07-18 2020-01-23 Sphereo Sound Ltd. Detection of audio panning and synthesis of 3d audio from limited-channel surround sound
WO2020107201A1 (zh) * 2018-11-27 2020-06-04 深圳市欢太科技有限公司 立体声播放方法、装置、存储介质及电子设备
WO2024036113A1 (en) * 2022-08-09 2024-02-15 Dolby Laboratories Licensing Corporation Spatial enhancement for user-generated content

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3040896C2 (de) 1979-11-01 1986-08-28 Victor Company Of Japan, Ltd., Yokohama, Kanagawa Schaltungsanordnung zur Erzeugung und Aufbereitung stereophoner Signale aus einem monophonen Signal
JPH02112098A (ja) 1988-10-21 1990-04-24 Hitachi Ltd 情報選択提供装置
JP2506570Y2 (ja) * 1989-02-23 1996-08-14 ヤマハ株式会社 ディジタルオ―ディオ信号処理装置
DE4236989C2 (de) 1992-11-02 1994-11-17 Fraunhofer Ges Forschung Verfahren zur Übertragung und/oder Speicherung digitaler Signale mehrerer Kanäle
US6175631B1 (en) * 1999-07-09 2001-01-16 Stephen A. Davis Method and apparatus for decorrelating audio signals
US7003467B1 (en) 2000-10-06 2006-02-21 Digital Theater Systems, Inc. Method of decoding two-channel matrix encoded audio to reconstruct multichannel audio
US7668317B2 (en) * 2001-05-30 2010-02-23 Sony Corporation Audio post processing in DVD, DTV and other audio visual products
EP1523863A1 (en) * 2002-07-16 2005-04-20 Koninklijke Philips Electronics N.V. Audio coding
US7283634B2 (en) * 2004-08-31 2007-10-16 Dts, Inc. Method of mixing audio channels using correlated outputs
SE0402649D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
SE0402650D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
EP1817767B1 (en) 2004-11-30 2015-11-11 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
WO2006108543A1 (en) * 2005-04-15 2006-10-19 Coding Technologies Ab Temporal envelope shaping of decorrelated signal
US7751572B2 (en) * 2005-04-15 2010-07-06 Dolby International Ab Adaptive residual audio coding
WO2007080211A1 (en) * 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
WO2007080225A1 (en) 2006-01-09 2007-07-19 Nokia Corporation Decoding of binaural audio signals
WO2007083958A1 (en) 2006-01-19 2007-07-26 Lg Electronics Inc. Method and apparatus for decoding a signal
EP1974344A4 (en) * 2006-01-19 2011-06-08 Lg Electronics Inc METHOD AND APPARATUS FOR DECODING A SIGNAL
US8411869B2 (en) 2006-01-19 2013-04-02 Lg Electronics Inc. Method and apparatus for processing a media signal
AU2007212873B2 (en) * 2006-02-09 2010-02-25 Lg Electronics Inc. Method for encoding and decoding object-based audio signal and apparatus thereof
KR100773560B1 (ko) * 2006-03-06 2007-11-05 삼성전자주식회사 스테레오 신호 생성 방법 및 장치
ATE527833T1 (de) * 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
JP5394931B2 (ja) 2006-11-24 2014-01-22 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号の復号化方法及びその装置

Also Published As

Publication number Publication date
CA2710560C (en) 2015-10-27
JP2011509591A (ja) 2011-03-24
US9514758B2 (en) 2016-12-06
EP2232487B1 (en) 2015-08-05
US20140161261A1 (en) 2014-06-12
JP2011509590A (ja) 2011-03-24
US8670576B2 (en) 2014-03-11
CA2710560A1 (en) 2009-07-09
EP2232487A4 (en) 2011-02-16
KR20100086003A (ko) 2010-07-29
CN101911182A (zh) 2010-12-08
EP2232486B1 (en) 2013-07-17
US20100296656A1 (en) 2010-11-25
KR101221916B1 (ko) 2013-01-15
CN101911181A (zh) 2010-12-08
US8654994B2 (en) 2014-02-18
US20100284551A1 (en) 2010-11-11
WO2009084917A1 (en) 2009-07-09
AU2008344073B2 (en) 2011-08-11
KR101221917B1 (ko) 2013-01-15
WO2009084919A1 (en) 2009-07-09
EP2232486A1 (en) 2010-09-29
KR20100095542A (ko) 2010-08-31
JP5243555B2 (ja) 2013-07-24
AU2008344073A1 (en) 2009-07-09
EP2232487A1 (en) 2010-09-29
EP2232486A4 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
JP5243556B2 (ja) オーディオ信号の処理方法及び装置
JP5243554B2 (ja) オーディオ信号の処理方法及び装置
RU2437247C1 (ru) Способ и устройство для обработки звукового сигнала

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5243556

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250