JP2010511912A - オーディオ処理方法及び装置 - Google Patents

オーディオ処理方法及び装置 Download PDF

Info

Publication number
JP2010511912A
JP2010511912A JP2009540167A JP2009540167A JP2010511912A JP 2010511912 A JP2010511912 A JP 2010511912A JP 2009540167 A JP2009540167 A JP 2009540167A JP 2009540167 A JP2009540167 A JP 2009540167A JP 2010511912 A JP2010511912 A JP 2010511912A
Authority
JP
Japan
Prior art keywords
signal
downmix
information
channel
downmix signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009540167A
Other languages
English (en)
Other versions
JP5302207B2 (ja
Inventor
オ オー,ヒェン
ウォン ジュン,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2010511912A publication Critical patent/JP2010511912A/ja
Application granted granted Critical
Publication of JP5302207B2 publication Critical patent/JP5302207B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

ダウンミックス信号及びダウンミックスプロセシング情報を受信する段階と、ダウンミックスプロセシング情報を用いてダウンミックス信号を処理する段階と、を含み、該処理する段階は、ダウンミックス信号を無相関化する段階と、処理されたダウンミックス信号を出力するためにダウンミックス信号及び無相関化された信号をミキシングする段階と、を含み、ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものである、オーディオ信号処理方法が開示される。

Description

本発明は、オーディオ信号処理方法及び装置に関するもので、より具体的には、デジタル媒体または放送信号を通じて受信したオーディオ信号のデコーディング方法及び装置に関する。
数個のオーディオオブジェクトを一つまたは二つの信号にダウンミックスする過程で、個別オブジェクト信号からパラメータを抽出することができる。これらのパラメータは、オーディオ信号デコーダーで用いられることができ、個別ソースのリポジショニング(repositioning)及びパニング(panning)は、ユーザの選択により制御することができる。
個別オブジェクト信号の制御において、ダウンミックス信号に含まれた個別ソースのリポジショニング及びパニングは自由に行なわれなければならない。
しかしながら、チャネル基盤デコーディング方法(例:MPEG surround)に関する下位互換性(backward compatibility)のためには、オブジェクトパラメータが、アップミキシングプロセスに要求されるマルチチャネルパラメータに自由に変換されなければならない。
したがって、本発明は、上記のように関連技術の制限及び欠点から発生する問題点を実質的に回避するオーディオ信号処理方法及び装置を指向する。
本発明は、オブジェクトゲイン及びパニングを自由に制御するためのオーディオ信号処理方法及び装置を提供する。
本発明は、ユーザ選択を基盤にオブジェクトゲイン及びパニングを制御するためのオーディオ信号処理方法及び装置を提供する。
上記目的を達成するための本発明によるオーディオ信号処理方法は、ダウンミックス信号及びダウンミックスプロセシング情報を受信する段階と、前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理する段階と、を含み、前記処理する段階は、前記ダウンミックス信号を無相関化する段階と、前記処理されたダウンミックス信号を出力するために前記ダウンミックス信号及び前記無相関化された信号をミキシングする段階と、を含み、前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものである。
本発明によれば、前記ダウンミックス信号のチャネル数が2以上に該当する場合、前記ダウンミックス信号を処理する段階が行なわれる。
本発明によれば、前記処理されたダウンミックス信号の一つのチャネル信号は、前記ダウンミックス信号の他のチャネル信号を含む。
本発明によれば、前記処理されたダウンミックス信号のうち一つのチャネル信号は、ゲインファクタと乗算された前記ダウンミックス信号の他のチャネルを含み、前記ゲインファクタは、前記ミックス情報から推定されたものである。
本発明によれば、前記ダウンミックス信号がステレオ信号に該当する場合、前記ダウンミックス信号を処理する段階は、前記ダウンミックス信号のための2×2マトリクスオペレーションにより行なわれる。
本発明によれば、前記2×2マトリクスオペレーションは、前記ダウンミックスプロセシング情報に含まれた0でないクロスターム(non−zero cross term)を含む。
本発明によれば、前記ダウンミックス信号を無相関化する段階は、2つ以上の無相関化器により行なわれる。
本発明によれば、前記ダウンミックス信号の無相関化は、2個の無相関化器を用いて前記ダウンミックス信号の第1チャネル及び前記ダウンミックス信号の第2チャネルを無相関化する段階を含む。
本発明によれば、前記ダウンミックス信号は、ステレオ信号に該当し、前記無相関化された信号は、同じ無相関化器を用いて無相関化された前記第1チャネル及び前記2チャネルを含む。
本発明によれば、前記ダウンミックス信号を無相関化する段階は、一つの無相関化器を用いて前記ダウンミックス信号の第1チャネルを無相関化する段階と、他の無相関化器を用いて前記ダウンミックス信号の第2チャネルを無相関化する段階と、を含む。
本発明によれば、前記ダウンミックス信号はステレオ信号に該当し、前記無相関化された信号は、無相関化された第1チャネル及び無相関化された第2チャネルを含む。
本発明によれば、前記ダウンミックス信号がステレオ信号に該当する場合、前記処理されたダウンミックス信号は、ステレオ信号に該当する。
本発明によれば、前記オブジェクト情報は、オブジェクトレベル情報及びオブジェクト相関情報のうち一つ以上を含む。
本発明によれば、前記ミックス情報は、オブジェクト位置情報及び再生設定情報のうち一つ以上を用いて生成される。
本発明によれば、前記ダウンミックス信号は、放送信号として受信される。
本発明によれば、前記ダウンミックス信号は、デジタル媒体を介して受信される。
本発明のさらに他の側面によれば、ダウンミックス信号及びダウンミックスプロセシング情報を受信する段階と、前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理する段階と、を含み、前記処理する段階は、前記ダウンミックス信号を無相関化する段階と、前記処理されたダウンミックス信号を出力するために前記ダウンミックス信号及び前記無相関化された信号をミキシングする段階と、を含み、前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものであり、プロセッサが実行される時、前記プロセッサにより前記動作が行なわれる命令が記憶されている、コンピュータ読み取り可能媒体が提供される。
本発明のさらに他の側面によれば、ダウンミックス信号及びダウンミックスプロセシング情報を受信し、前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理するダウンミックス処理ユニットを含み、前記ダウンミックス処理ユニットは、前記ダウンミックス信号を無相関化する無相関化パートと、前記処理されたダウンミックス信号を出力するために前記ダウンミックス信号及び前記無相関化された信号をミキシングするミキシングパートと、を含み、前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものである、オーディオ信号処理装置が提供される。
本発明のさらに他の側面によれば、複数のオブジェクト信号を用いてダウンミックス信号を獲得する段階と、前記複数のオブジェクト信号及び前記ダウンミックス信号を用いて、前記複数のオブジェクト信号間の関係を表すオブジェクト情報を生成する段階と、前記時間領域のダウンミックス信号及び前記オブジェクト情報を伝送する段階と、を含み、前記ダウンミックス信号のチャネル数が2以上に該当する場合、前記ダウンミックス信号は、処理されたダウンミックス信号になることが可能であり、前記オブジェクト情報は、オブジェクトレベル情報及びオブジェクト相関情報のうち一つ以上を含む、オーディオ信号処理方法が提供される。
本発明は、下記のような効果と利点を奏する。
第一に、本発明は、オブジェクトゲイン及びパニングを制限なく制御できるオーディオ信号処理方法及び装置を提供することができる。
第二に、本発明は、ユーザ選択を基盤にオブジェクトゲイン及びパニングを制御できるオーディオ信号処理方法及び装置を提供することができる。
再生設定及びユーザコントロールを基盤にダウンミックス信号をレンダリングする基本概念を説明するための図である。 第1方式の本発明の一実施例によるオーディオ信号処理装置を例示する構成図である。 第1方式の本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。 第2方式の本発明の一実施例によるオーディオ信号処理装置を例示する構成図である。 第2方式の本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。 第2方式の本発明のさらに他の実施例によるオーディオ信号処理装置を例示する構成図である。 第3方式の本発明の一実施例によるオーディオ信号処理装置を例示する構成図である。 第3方式の本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。 レンダリングユニットの基本概念を説明するための図である。 図7に示すダウンミックス処理ユニットの第1実施例を示す構成図である。 図7に示すダウンミックス処理ユニットの第1実施例を示す構成図である。 図7に示すダウンミックス処理ユニットの第1実施例を示す構成図である。 図7に示すダウンミックス処理ユニットの第2実施例を示す構成図である。 図7に示すダウンミックス処理ユニットの第3実施例を示す構成図である。 図7に示すダウンミックス処理ユニットの第4実施例を示す構成図である。 本発明の第2実施例による圧縮されたオーディオ信号のビットストリーム構造を例示する構成図である。 本発明の第2実施例によるオーディオ信号処理装置を例示する構成図である。 本発明の第3実施例による圧縮されたオーディオ信号のビットストリーム構造を例示する構成図である。 本発明の第4実施例によるオーディオ信号処理装置を例示する構成図である。 様々なタイプのオブジェクトの伝送方式を説明するための例示的な構成図である。 本発明の第5実施例によるオーディオ信号処理装置を例示する構成図である。
本願の‘パラメータ’は、値(values)、狭義のパラメータ(parameters)、係数(coefficients)、成分(elements)等を含む情報を意味する。以下、パラメータ(parameter)という用語は、オブジェクトパラメータ、ミックスパラメータ、ダウンミックスプロセシングパラメータなどのように、情報(information)を代用することができるが、本発明はこれに限定されない。
数個のチャネル信号または数個のオブジェクト信号をダウンミックスする際に、オブジェクトパラメータ及び空間パラメータを抽出することができる。デコーダは、ダウンミックス信号及びオブジェクトパラメータ(または空間パラメータ)を用いて出力信号を生成することができる。出力信号は、再生設定(playback configuration)及びユーザコントロールを基盤にレンダリングすることができる。レンダリングプロセスを、図1を参照しつつ以下に詳細に説明する。
図1は、再生設定及びユーザコントロールを基盤にダウンミックスをレンダリングする基本概念を説明するための図である。図1を参照すると、デコーダ100は、レンダリング情報生成ユニット110及びレンダリングユニット120を含むか、レンダリング情報生成ユニット110及びレンダリングユニット120を含む代わりに、レンダラ110a及び合成120aを含むことができる。
レンダリング情報生成ユニット110は、エンコーダからオブジェクトパラメータまたは空間パラメータを含む付加情報(side information)を受信し、また、装置設定またはユーザインタフェースから再生設定またはユーザコントロールを受信する。オブジェクトパラメータ(object parameter)は、一つ以上のオブジェクト信号をダウンミックスする過程で抽出されるパラメータに該当することができ、空間パラメータ(spatial parameter)は、一つ以上のチャネル信号をダウンミックスする過程で抽出されるパラメータに該当することができる。さらに、各オブジェクトのタイプ情報及び特性情報が上記付加情報に含まれることができる。タイプ情報及び特性情報は、楽器名、演奏者名などを記述することができる。再生設定は、スピーカ位置及びアンビエント情報(ambient information)(スピーカの仮想位置)を含むことができ、ユーザコントロールは、オブジェクト位置及びオブジェクトゲインを制御するためにユーザにより入力される情報に該当することができ、再生設定のための制御情報に該当することもできる。一方、再生設定及びユーザコントロールは、ミックス情報として表現されることもできるが、本発明はこれに限定されない。
レンダリング情報生成ユニット110は、ミックス情報(再生設定及びユーザコントロール)及び受信された付加情報を用いてレンダリング情報を生成することができる。レンダリングユニット120は、オーディオ信号のダウンミックス(“ダウンミックス信号”とも略す。)が伝送されない場合、レンダリング情報を用いてマルチチャネルパラメータを生成でき、オーディオ信号のダウンミックスが伝送される場合、レンダリング情報及びダウンミックスを用いてマルチチャネル信号を生成することができる。
レンダラ110aは、ミックス情報(再生設定及びユーザコントロール)及び受信した付加情報を用いてマルチチャネル信号を生成することができる。合成120aは、レンダラ110aで生成されたマルチチャネル信号を用いてマルチチャネル信号を合成することができる。
前述したように、デコーダは、再生設定及びユーザコントロールを基盤にダウンミックス信号をレンダリングする。一方、個別的なオブジェクト信号を制御するために、デコーダは付加情報としてオブジェクトパラメータを受信することができ、伝送されたオブジェクトパラメータに基づいてオブジェクトパニング及びオブジェクトゲインを制御することができる。
1.オブジェクト信号のゲイン及びパニング制御
個別オブジェクト信号を制御するための様々な方法を提供することができる。第一、デコーダがオブジェクトパラメータを受信し、オブジェクトパラメータを用いて個別オブジェクト信号を生成する場合、デコーダはミックス情報(再生設定、オブジェクトレベル等)を基盤に個別オブジェクト信号を制御することができる。
第二、デコーダが、マルチチャネルデコーダに入力されるマルチチャネルパラメータを生成する場合、マルチチャネルデコーダは、マルチチャネルパラメータを用いて、エンコーダから受信するダウンミックス信号をアップミキシングすることができる。この第二の方法は、次の3種類の方式に分類することができる。具体的に、1)従来のマルチチャネルデコーダを利用する方式、2)マルチチャネルデコーダを修正する方式、3)マルチチャネルデコーダに入力される前に、オーディオ信号のダウンミックスを処理する方式を提供することができる。従来のマルチチャネルデコーダは、チャネル基盤の空間オーディオコーディング(例:MPEG Surroundデコーダ)に該当することができるが、本発明はこれに限定されない。これら3種類の方式を具体的に説明すると、下記の通りである。
1.1 マルチチャネルデコーダを利用する方式
この第1方式は、従来のマルチチャネルデコーダを修正せずにそのまま利用することができる。まず、オブジェクトゲインを制御するためにADG(任意的ダウンミックスゲイン:arbitrary downmix gain)を利用する場合、オブジェクトパニングを制御するために5−2−5構成(configuration)を用いる場合が、図2を参照しながら説明される。次いで、シーンリミキシングユニット(scene remixing unit)と関連する場合は、図3を参照しながら説明される。
図2は、第1方式の本発明の第1実施例によるオーディオ信号処理装置の構成図である。図2を参照すると、オーディオ信号処理装置200(以下、デコーダ200)は、情報生成ユニット210及びマルチチャネルデコーダ230を含むことができる。情報生成ユニット210は、エンコーダからオブジェクトパラメータを含む付加情報を、ユーザインタフェースからミックス情報を受信することができ、任意的ダウンミックスゲインまたはゲイン変形ゲイン(以下では、“ADG”と略す。)を含むマルチチャネルパラメータを生成することができる。ADGは、ミックス情報及びオブジェクト情報に基づいて推定された第1ゲインと、オブジェクト情報に基づいて推定された第2ゲインとの比率(ratio)である。具体的に、ダウンミックス信号がモノラル信号である場合、情報生成ユニット210は、ADGのみを生成することができる。マルチチャネルデコーダ230は、エンコーダからオーディオ信号のダウンミックスを、情報生成ユニット210からマルチチャネルパラメータを受信し、ダウンミックス信号及びマルチチャネル信号を用いてマルチチャネル出力を生成する。
マルチチャネルパラメータは、チャネルレベル差(channel level difference)(以下、“CLD”と略す)、チャネル間の相関関係(inter channel correlation)(以下、“ICC”と略す)、チャネル予測係数(channel prediction coefficient)(以下、“CPC”と略す)を含むことができる。
CLD、ICC、及びCPCは、強度差(intensity difference)または2チャネル間の相関関係(correlation between two channels)を記述し、オブジェクトパニング及び相関関係を制御することができる。CLD、ICCなどを用いてオブジェクト位置やオブジェクトの鳴り響きの度合(diffusenessまたはsonority)を制御可能である。一方、CLDは、絶対レベルではなく相対的なレベル差を記述し、分離された2チャネルのエネルギーは維持される。したがって、CLDなどを調節することによってオブジェクトゲインを制御することは不可能である。言い換えると、CLDなどを用いて特定オブジェクトを無音(mute)化したりボリュームを上げたりすることができない。
さらに、ADGは、ユーザによる相関性ファクタを調整するための時間及び周波数従属ゲインを表す。相関性ファクタが適用されると、マルチチャネルをアップミキシングする前にダウンミックス信号の変形(modification)を操作することができる。したがって、ADGパラメータを情報生成ユニット210から受信する場合、マルチチャネルデコーダ230は、ADGパラメータを用いて特定時間及び周波数のオブジェクトゲインを制御することができる。
一方、受信したステレオダウンミックス信号がステレオチャネルとして出力される場合は、下記の式1で定義することができる。
Figure 2010511912
ここで、x[]は入力チャネル、y[]は出力チャネル、gxはゲイン、wxxは重み値を表す。
オブジェクトパニングのために、左側チャネル及び右側チャネル間のクロストーク(cross-talk)を制御する必要がある。具体的に、ダウンミックス信号の左側チャネルの一部を、出力チャネルの右側チャネルとして出力することができ、ダウンミックス信号の右側チャネルの一部を出力チャネルの左側チャネルとして出力することができる。上記の式1でw12及びw21は、クロストーク成分(すなわち、クロスターム)に該当することができる。
上述した場合は、2−2−2構成に該当できるが、2−2−2構成とは、2チャネル入力、2チャネル伝送、2チャネル出力を意味する。2−2−2構成が行なわれるためには、従来のチャネル基盤の空間オーディオコーディング(例:MPEG surround)の5−2−5構成(5チャネル入力、2チャネル伝送、5チャネル出力)を使用することができる。まず、2−2−2構成のための2チャネルを出力するために、5−2−5構成の5出力チャネルのうちの特定チャネルを、不能チャネル(フェークチャネル)に設定することができる。2伝送チャネル及び2出力チャネル間のクロストークを与えるために、上述のCLD及びCPCを調節することができる。要するに、上記の式1におけるゲインファクタgxをADGを用いて獲得し、上記の式1における重み値w11〜w22はCLD及びCPCを用いて獲得することができる。
5−2−5構成を用いて2−2−2構成を具現するにあたり、複雑度を下げるために、従来の空間オーディオコーディングのデフォルト(default)モードを適用することができる。デフォルトCLDの特性は、2チャネルを出力するようになっており、デフォルトCLDが適用される場合、演算量を減らすことができる。具体的に、フェークチャネルを合成する必要がないため、演算量を大きく減少させることができるわけである。したがって、デフォルトモードを適用することが適切である。具体的に、3つのCLD(MPEG Surroundで0、1、2番に対応)のデフォルトCLDのみがデコーディングに用いられる。一方、左側チャネル、右側チャネル及びセンターチャネルのうちの4つのCLD(MPEG surround標準で3、4、5及び6番に対応)、及び二つのADG(MPEG surround標準で7、8番に対応)は、オブジェクト制御のために生成される。この場合、3番及び5番に対応するCLDは、左側チャネル+右側チャネル、及びセンターチャネル間のチャネルレベル差((l+r)/c)を表すが、センターチャネルを無音化させるために150dB(ほぼ無限大)にセッティングされることが好ましい。また、クロストークを具現するために、エネルギー基盤アップミックス(energy based up−mix)またはプレディクション基盤アップミックス(prediction based up−mix)が行なわれることができるが、これは、TTTモード(MPEG surround標準における‘bsTttModeLow’)がエネルギー基盤モード(減算(with subtraction)、マトリクス互換性可能)(3番目のモード)またはプレディクションモード(1番目のモードまたは2番目のモード)に該当する場合に行なわれる。
図3は、第1方式の本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。図3を参照すると、本発明の他の実施例によるオーディオ信号処理装置300(以下、“デコーダ300”と略す)は、情報生成ユニット310、シーンレンダリングユニット(scene rendering unit)320、マルチチャネルデコーダ330、及びシーンリミキシングユニット(scene remixing unit)350を含むことができる。
情報生成ユニット310は、ダウンミックス信号がモノラルチャネル信号(すなわち、ダウンミックスチャネルの数が1である場合)に該当する場合、オブジェクトパラメータを含む付加情報をエンコーダから受信することができ、付加情報及びミックス情報を用いてマルチチャネルパラメータを生成できる。ダウンミックスチャネルの数は、付加情報に含まれているフラグ情報の他に、ダウンミックス信号及びユーザ選択に基づいて推定することができる。情報生成ユニット310は、上記の情報生成ユニット210と同じ構成を有することができる。マルチチャネルパラメータは、マルチチャネルデコーダ330に入力され、マルチチャネルデコーダ330は、マルチチャネルデコーダ230と同じ構成を有することができる。
シーンレンダリングユニット320は、ダウンミックス信号がモノラルチャネル信号でない場合(すなわち、ダウンミックスチャネルの数が2以上である場合)、エンコーダからオブジェクトパラメータを含む付加情報を受信し、ユーザインタフェースからミックス情報を受信し、これら付加情報及びミックス情報を用いてリミキシングパラメータを生成する。リミキシングパラメータは、ステレオチャネルをリミックスし、2チャネル以上の出力を生成するためのパラメータに該当する。シーンリミキシングユニット350は、ダウンミックス信号が2チャネル以上の信号である場合、ダウンミックス信号をリミックスすることができる。
要するに、2種類の経路は、デコーダ300で分離された応用のための分離された具現として考慮することができる。
1.2 マルチチャネルデコーダを修正する方式
この第2方式は、従来のマルチチャネルデコーダを修正することができる。まず、オブジェクトゲインを制御するための仮想出力を利用する場合、オブジェクトパニングを制御するための装置設定を修正する場合が、図4に基づいて説明される。次いで、マルチチャネルデコーダにおけるTBT(2×2)機能を行なう場合は、図5に基づいて説明される。
図4は、第2方式の本発明の一実施例によるオーディオ信号処理装置を例示する構成図である。図4を参照すると、第2方式の本発明の一実施例によるオーディオ信号処理装置400(以下、“デコーダ400”と略す。)は、情報生成ユニット410、内部マルチチャネル合成420、出力マッピングユニット430を含むことができる。内部マルチチャネル合成420及び出力マッピングユニット430は、合成ユニットに含まれることができる。
情報生成ユニット410は、エンコーダからオブジェクトパラメータを含む付加情報を受信し、ユーザインタフェースからミックスパラメータを受信することができる。情報生成ユニット410は、付加情報及びミックス情報を用いてマルチチャネルパラメータ及び装置設定情報を生成することができる。マルチチャネルパラメータは、前述したマルチチャネルパラメータと同一に構成することができる。したがって、マルチチャネルパラメータの具体的な説明は省略する。装置設定情報は、バイノーラル(binaural)プロセシングのためのパラメータ化されたHRTFに該当することができ、これについては‘1.2.2 装置設定情報を利用する方法’で後述する。
内部マルチチャネル合成420は、マルチチャネルパラメータ及び装置設定情報を、パラメータ生成ユニット410から受信し、エンコーダからダウンミックス信号を受信する。内部マルチチャネル合成420は、仮想出力を含む一時的マルチチャネル信号を生成できる。これについて、下記の‘1.2.1 仮想出力を利用する方法’で説明する。
1.2.1 仮想出力を利用する方法
マルチチャネルパラメータ(例:CLD)は、オブジェクトパニングを制御できるため、従来のマルチチャネルデコーダによりオブジェクトパニングの他にオブジェクトゲインを制御することは難しい。
一方、オブジェクトゲインのために、デコーダ400(特に、内部マルチチャネル合成420)は、オブジェクトの相対的エネルギーを仮想チャネル(例:センターチャネル)にマッピングさせることができる。オブジェクトの相対的エネルギーは、減少されるエネルギーに該当する。例えば、特定オブジェクトを無音化させるために、デコーダ400は、オブジェクトエネルギーの99.9%以上を仮想チャネルにマッピングさせることができる。すると、デコーダ400(特に、出力マッピングユニット430)は、オブジェクトの残りのエネルギーがマッピングされた仮想チャネルを出力させない。結論的に、オブジェクトの99.9%以上が出力されない仮想チャネルにマッピングされることで、所望のオブジェクトはほとんど無音化することができる。
1.2.2 装置設定情報を利用する方法
デコーダ400は、オブジェクトパニング及びオブジェクトゲインを制御する目的で装置設定情報を調節することができる。例えば、デコーダは、MPEG surround標準におけるバイノーラルプロセシングのためのパラメータ化されたHRTFを生成できる。パラメータ化されたHRTFは、装置設定によって様々なものが存在することができる。下記の式2によってオブジェクト信号が制御されると仮定することができる。
Figure 2010511912
ここで、objkはオブジェクト信号、Lnew及びRnewは所望のステレオチャネル、ak及びbkはオブジェクト制御のための係数を表す。
オブジェクト信号objkのオブジェクト情報は、伝送された付加情報に含まれたオブジェクトパラメータから推定することができる。オブジェクトゲイン及びオブジェクトパニングによって定義される係数ak及びbkは、ミックス情報から推定することができる。所望のオブジェクトゲイン及びオブジェクトパニングは係数ak、bkを用いて調節することができる。
係数ak、bkは、バイノーラルプロセシングのためのHRTFパラメータに該当するように設定することができ、その詳細は後述される。
MPEG surround標準(5−1−51構成)(from ISO/IEC FDIS 23003-1: 2006(E), Information Technology MPEG Audio Technologies Part 1: MPEG Surround)において、バイノーラルプロセシングは下記の通りである。
Figure 2010511912
ここで、yBは出力、マトリクスHはバイノーラルプロセシングのための変換マトリクスを表す。
Figure 2010511912
マトリクスHの成分は、下記のように定義される。
Figure 2010511912
Figure 2010511912
Figure 2010511912
Figure 2010511912
1.2.3 マルチチャネルデコーダにおけるTBT(2×2)機能を行う方法
図5は、第2方式による本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。図5は、マルチチャネルデコーダのTBT機能を例示する構成図である。図5を参照すると、TBTモジュール510は、入力信号及びTBT制御情報を受信し、出力チャネルを生成する。TBTモジュール510は、図2のデコーダ200(または、具体的にはマルチチャネルデコーダ230)に含まれることができる。マルチチャネルデコーダ230は、MPEG surround標準に従って具現することができるが、本発明はこれに限定されない。
Figure 2010511912
ここで、xは入力チャネル、yは出力チャネル、wは重み値を表す。
出力y1は、第1ゲインw11が乗じられたダウンミックスの入力x1と、第2ゲインw12が乗じられた入力x2との組合せに該当することができる。
TBTモジュール510に入力されるTBT制御情報は、重み値w(w11、w12、w21、w22)を合成できる構成要素を含む。
MPEG surround標準において、OTT(One-To-Two)モジュール及びTTT(Two-To-Three)モジュールは、入力信号をアップミックスすることはできるが、入力信号をリミックスするのには適合していない。
入力信号をリミックスするために、TBT(2×2)モジュール510(以下、“TBTモジュール510”と略す。)を提供することができる。TBTモジュール510は、ステレオ信号を受信し、リミックスされたステレオ信号を出力する。重み値wは、CLD及びICCを用いて合成することができる。
TBT制御情報として重み値タームw11〜w22を受信すると、デコーダは、受信した重み値タームを用いてオブジェクトパニングの他にオブジェクトゲインも制御することができる。重み値wの伝送においては様々な方式が用いられることができる。第一、TBT制御情報は、w12及びw21のようなクロスタームを含むことができる。第二、TBT制御情報は、w12及びw21のようなクロスタームを含まない。第三、TBT制御情報としてタームの数が適応的に変化できる。
第一、入力チャネルの左側信号が出力信号の右側信号に行くオブジェクトパニングを制御するために、w12及びw21のようなクロスタームを受信する必要がある。N入力チャネル及びM出力チャネルの場合、N×M個のタームをTBT制御情報として伝送することができる。このタームは、MPEG surround標準で提供されたCLDパラメータ量子化テーブルを基盤に量子化することができるが、本発明はこれに限定されない。
第二、左側オブジェクトが右側位置に移動しなければ(左側オブジェクトがより左側位置またはセンター位置に近い左側位置に移動したり、オブジェクトの位置のレベルのみが調整される場合)、クロスタームが使用される必要がない。この場合、クロスターム以外のタームが伝送されることが好ましい。N入力チャネル及びM出力チャネルの場合、N個のタームのみ伝送することができる。
第三、TBT制御情報のビットレートを下げるために、TBT制御情報の個数がクロスタームの必要に応じて適応的に変化できる。クロスタームが現在存在するか否かを指示するフラグ情報‘cross_flag’が、TBT制御情報として伝送されるように設定することができる。フラグ情報‘cross_flag’の意味は、下記の表に示す通りである。
Figure 2010511912
‘cross_flag’が0の場合、TBT制御情報は、クロスタームを含まず、w11及びw22のようなノンクロスタームのみが存在する。そうでない場合(すなわち、‘cross_flag’が1の場合)、TBT制御情報はクロスタームを含む。
なお、クロスタームまたはノンクロスタームが存在するか否かを指示する‘reverse_flag’がTBT制御情報として伝送されるように設定することができる。フラグ情報‘reverse_flag’の意味を、下記の表2に示す。
Figure 2010511912
‘reverse_flag’が0の場合、TBT制御情報は、クロスタームを含まず、w11及びw22のようなノンクロスタームのみを含む。そうでない場合(すなわち、‘reverse_flag’が1の場合)、TBT制御情報はクロスタームのみを含む。
さらに、クロスタームが存在するか、ノンクロスタームが存在するかを指示するフラグ情報‘side_flag’が、TBT制御情報として伝送されるように設定することができる。フラグ情報‘side_flag’の意味を、下記の表3に示す。
Figure 2010511912
表3は、表1及び表2の組合せに該当するから、具体的な説明は省略する。
1.2.4 バイノーラルデコーダを修正することによって、マルチチャネルデコーダにおけるTBT(2×2)機能を行なう方法
‘1.2.2 装置設定情報を利用する方法’の場合は、バイノーラルデコーダを修正せずに行なわれることができる。以下、図6を参照しながら、MPEG surroundデコーダに採用されたバイノーラルデコーダを変形(modifying)することによってTBT機能を行なう方法について説明する。
図6は、第2方式の本発明のさらに他の実施例によるオーディオ信号処理装置を例示する構成図である。具体的に、図6に示すオーディオ信号処理装置630は、図2のマルチチャネルデコーダ230に含まれたバイノーラルデコーダ、または図4の合成ユニットに該当することができるが、本発明はこれに限定されない。
オーディオ信号処理装置630(以下、“バイノーラルデコーダ630”)は、QMF分析632、パラメータ変換634、空間合成636、及びQMF合成638を含むことができる。バイノーラルデコーダ630の構成要素は、MPEG surround標準におけるMPEG surroundバイノーラルデコーダと同じ構成を有することができる。例えば、空間合成636は、下記の式10によって、2×2(フィルタ)マトリクスを構成することができる。
Figure 2010511912
ここで、y0はQMF領域入力チャネル、yBはバイノーラル出力チャネル、kはハイブリッドQMFチャネルインデックス、iはHRTFフィルタタップインデックス、nはQMFスロットインデックスを表す。
バイノーラルデコーダ630は、‘1.2.2 装置設定情報を利用する方法’の節で説明された上記の機能を行なうように構成することができる。構成要素hijは、マルチチャネルパラメータ及びHRTFパラメータの代わりに、マルチチャネルパラメータ及びミックス情報を用いて生成することができる。この場合、バイノーラルデコーダ630は、図5でのTBTモジュールの機能を果たすことができる。バイノーラルデコーダ630の構成要素についての具体的な説明は省略する。
バイノーラルデコーダ630は、フラグ情報‘binaural_flag’に基づいて動作することができる。具体的に、バイノーラルデコーダ630は、フラグ情報‘binaural_flag’が0の場合にはスキップすることができ、そうでない場合(‘binaural_flag’が1の場合)には下記のように動作することができる。
Figure 2010511912
1.3 マルチチャネルデコーダに入力される前にオーディオ信号のダウンミックスを処理する方式
従来のマルチチャネルデコーダを利用する第1方式は、上の‘1.1’節で説明されており、マルチチャネルデコーダを修正する第2方式は、上の‘1.2’節で説明された。マルチチャネルデコーダに入力される前にオーディオ信号のダウンミックスを処理する第3方式ついては、以下に説明する。
図7は、第3方式の本発明の一実施例によるオーディオ信号処理装置を例示する構成図である。図8は、第3方式による本発明の他の実施例によるオーディオ信号処理装置を例示する構成図である。まず、図7を参照すると、オーディオ信号処理装置700(以下、“デコーダ700”と略す。)は、情報生成ユニット710、ダウンミックス処理ユニット720、マルチチャネルデコーダ730を含むことができる。図8を参照すると、オーディオ信号処理装置800(以下、“デコーダ800”と略す。)は、情報生成ユニット810、及びマルチチャネルデコーダ830を有するマルチチャネル合成ユニット840を含むことができる。デコーダ800は、デコーダ700の他の側面になりうる。すなわち、情報生成ユニット810は情報生成ユニット710と同一に構成され、マルチチャネルデコーダ830はマルチチャネルデコーダ730と同一に構成され、マルチチャネル合成ユニット840は、ダウンミックス処理ユニット720及びマルチチャネルデコーダ730の構成と同一にすることができる。したがって、デコーダ700の構成要素については詳細に説明するが、デコーダ800の構成要素の詳細についての説明は省略する。
情報生成ユニット710は、オブジェクトパラメータを含む付加情報をエンコーダから、ミックス情報をユーザインタフェースから受信し、マルチチャネルデコーダ730に出力するマルチチャネルパラメータを生成することができる。このような点で、情報生成ユニット710は、図2の情報生成ユニット210と同じ構成を有する。ダウンミックスプロセシングパラメータは、オブジェクト位置及びオブジェクトゲインを制御するためのパラメータに該当することができる。例えば、オブジェクト信号が左側チャネル及び右側チャネルの両方に存在する場合、オブジェクト位置またはオブジェクトゲインを変化させることが可能である。オブジェクト信号が左側チャネル及び右側チャネルのいずれか一方に位置する場合、オブジェクト信号を反対位置に位置するようにレンダリングすることが可能である。これらの場合を行なうために、ダウンミックス処理ユニット720は、TBTモジュール(2×2マトリクスオペレーション)になりうる。オブジェクトゲインを制御するために、情報生成ユニット710が、図2で説明したようにADGを生成する場合に、ダウンミックスプロセシングパラメータは、オブジェクトゲインではなくオブジェクトパニングを制御するためのパラメータを含むことができる。
なお、情報生成ユニット710は、HRTFデータベースからHRTF情報を受信し、マルチチャネルデコーダ730に入力されるHRTFパラメータを含む追加マルチチャネルパラメータ(extra multi−channel parameter)を生成することができる。この場合、情報生成ユニット710は、同じサブバンド領域でマルチチャネルパラメータ及び追加マルチチャネルパラメータを生成し、互いに同期してマルチチャネルデコーダ730に伝達できる。HRTFパラメータを含む追加マルチチャネルパラメータは、‘3.バイノーラルモード処理’の節で詳細に後述される。
ダウンミックス処理ユニット720は、エンコーダからオーディオ信号のダウンミックスを、情報生成ユニット710からダウンミックスプロセシングパラメータを受信し、サブバンド分析フィルタバンクを用いてサブバンド(subband)領域信号を分析する。ダウンミックス処理ユニット720は、ダウンミックス信号及びダウンミックスプロセシングパラメータを用いて処理されたダウンミックス信号を生成することができる。このような処理で、オブジェクトパニング及びオブジェクトゲインを制御する目的にダウンミックス信号をあらかじめ処理(pre−process)することが可能である。処理されたダウンミックス信号は、マルチチャネルデコーダ730に入力されてアップミックスすることができる。
なお、処理されたダウンミックス信号は出力され、また、スピーカを通して再生することができる。処理された信号をスピーカから直接出力するために、ダウンミックス処理ユニット720は、処理されたサブバンド領域信号を用いて合成フィルタバンクを行い、時間領域のPCM信号を出力することができる。ユーザ選択により、PCM信号が直接出力されるか、マルチチャネルデコーダに入力されるかを選択することが可能である。
マルチチャネルデコーダ730は、処理されたダウンミックス及びマルチチャネルパラメータを用いてマルチチャネル出力信号を生成することができる。処理されたダウンミックス信号及びマルチチャネルパラメータがマルチチャネルデコーダ730に入力される時、マルチチャネルデコーダ730はディレィを生じることがある。処理されたダウンミックス信号は、周波数領域(例:QMF領域、ハイブリッドQMF領域等)で合成され、マルチチャネルパラメータは時間領域で合成することができる。MPEG surround標準で、HE−AACと連結されるためのディレィ及び同期が生じる。したがって、マルチチャネルデコーダ730は、MPEG surround標準にしたがってディレィを生じることがある。
次に、ダウンミックス処理ユニット720の構成を、図9〜図13を参照しながら詳細に説明する。
1.3.1 ダウンミックス処理ユニットの一般的な場合及び特別な場合
図9は、レンダリングユニットの基本コンセプトを説明するための図である。図9を参照すると、レンダリングモジュール900は、N入力信号、再生設定、及びユーザコントロールを用いてM出力信号を生成することができる。N入力信号は、オブジェクト信号またはチャネル信号に該当することができる。なお、N入力信号は、オブジェクトパラメータまたはマルチチャネルパラメータに該当することができる。レンダリングモジュール900の構成は、図7のダウンミックス処理ユニット720、図1のレンダリングユニット120、及び図1のレンダラ110aのうちの一つとすれば良いが、本発明はこれに限定されない。
レンダリングモジュール900が、特定チャネルに該当する個別オブジェクト信号を合計せずに、N個のオブジェクト信号を用いてM個のチャネル信号を直接生成できるように構成される場合、レンダリングモジュール900の構成は、下記の式11のように表現することができる。
Figure 2010511912
ここで、Ciはi番目のチャネル信号、Ojはj番目の入力信号、Rijはj番目の入力信号がi番目のチャネルにマッピングされるマトリクスを表す。
ここで、マトリクスRがエネルギー成分Eと無相関化成分とに分離される場合、下記の式11は、下記のように表現することができる。
Figure 2010511912
エネルギー成分Eを用いてオブジェクト位置を制御でき、無相関化成分Dを用いてオブジェクト拡散性(diffuseness)を制御できる。
i番目の入力信号のみが入力されて、j番目のチャネル及びk番目のチャネルを通じて出力されると仮定する場合、式12は下記のように表現することができる。
Figure 2010511912
αj_iは、j番目のチャネルにマッピングされるゲインポーション、βjk_iは、k番目のチャネルにマッピングされるゲインポーション、θは拡散性レベル(diffuseness)、及びD(Oi)は無相関化出力を表す。
無相関化が省略されると仮定すれば、上記の式13は、次のように簡略化することができる。
Figure 2010511912
特定チャネルにマッピングされる全ての入力に対する重み値が、上述の方法によって推定されると、下記の方式により各チャネルに対する重み値を獲得することができる。
1)特定チャネルにマッピングされる全ての入力に対する重み値を合計する。例えば、入力1(O1)及び入力2(O2)が入力され、左側チャネル(L)、センターチャネル(C)、右側チャネル(R)に対応するチャネルが出力される場合、総重み値αL(tot)、αC(tot)、αR(tot)は、次のように獲得することができる。
Figure 2010511912
ここで、αL1は、左側チャネル(L)にマッピングされる入力1に対する重み値で、αC1は、センターチャネル(C)にマッピングされる入力1に対する重み値で、αC2は、センターチャネル(C)にマッピングされる入力2に対する重み値で、αR2は、右側チャネル(R)にマッピングされる入力2に対する重み値である。
この場合、入力1のみが左側チャネルにマッピングされ、入力2のみが右側チャネルにマッピングされ、入力1及び入力2が共にセンターチャネルにマッピングされる。
2)特定チャネルにマッピングされる全ての入力に対する重み値を合計し、その和を最もドミナントなチャネル対(pair)に分け、無相関化された信号をサラウンド効果のために他のチャネルにマッピングする。この場合、特定入力が左側とセンターとの間に位置する場合、ドミナントチャネル対は左側チャネル及びセンターチャネルに該当することができる。
3)最もドミナントなチャネルの重み値を推定し、減殺されたコリレート信号を他のチャネルに付与するが、ここで、この値は、推定された重み値の相対的な値である。
4)各チャネル上の重み値を用いて、無相関化された信号を適切に組み合わせた後、各チャネルに対する付加情報を設定する。
1.3.2 ダウンミックス処理ユニットが2×4マトリクスに対応するミキシングパートを含む場合
図10A〜図10Cは、図7に示すダウンミックス処理ユニットの第1実施例を示す構成図である。前述のように、ダウンミックス処理ユニットの第1実施例720a(以下、“ダウンミックス処理ユニット720a”と略す。)は、レンダリングモジュール900の具現でありうる。
まず、D11=D21=aD及びD12=D22=bDとすれば、上記の式12は、次のように簡単になる。
Figure 2010511912
上記の式15によるダウンミックス処理ユニットは、図10Aに示されている。図10Aを参照すると、ダウンミックス処理ユニット720aは、モノラル入力信号(m)である場合には入力信号をバイパスし、ステレオ入力信号(L,R)である場合には入力信号を処理することができる。ダウンミックス処理ユニット720aは、無相関化パート722a及びミキシングパート724aを含むことができる。無相関化パート722aは、入力信号を無相関化できる無相関化器aDと無相関化器bDを含む。無相関化パート722aは、2×2マトリクスに該当することができる。ミキシングパート724aは、入力信号及び無相関化信号を各チャネルにマッピングさせることができる。ミキシングパート724aは、2×4マトリクスに該当することができる。
第二に、D11=aD1、D21=bD1、D12=cD2及びD22=dD2と仮定すれば、式12は、次のように簡単になる。
Figure 2010511912
式15−2によるダウンミックス処理ユニットは、図10Bに示されている。図10Bを参照すると、二つの無相関化器D1,D2を含む無相関化パート722’は、無相関化器信号D1(a*O1+b*O2)、D2(c*O1+d*O2)を生成することができる。
第三に、D11=D1、D21=0、D12=0及びD22=D2と仮定すれば、式12は、次のように簡単になる。
Figure 2010511912
式15−3によるダウンミックス処理ユニットが、図10Cに示されている。図10Cを参照すると、無相関化器D1,D2を含む無相関化パート722"は、無相関化された信号D1(O1)、D2(O2)を生成することができる。
1.3.2 ダウンミックス処理ユニットが2×3マトリクスに対応するミキシングパートを含む場合
上記の式15は、次のように表現することができる。
Figure 2010511912
マトリクスRは2×3マトリクス、マトリクスOは3×1マトリクス、Cは2×1マトリクスを表す。
図11は、図7に示すダウンミックス処理ユニットの第2実施例を示す構成図である。前述のように、ダウンミックス処理ユニットの第2実施例720b(以下、“ダウンミックス処理ユニット720b”と略す。)は、ダウンミックス処理ユニット720aと同様、レンダリングモジュール900の具現になりうる。図11を参照すると、ダウンミックス処理ユニット720bは、モノラル入力信号(m)である場合には入力信号をスキップし、ステレオ入力信号(L,R)の場合には入力信号を処理することができる。ダウンミックス処理ユニット720bは、無相関化パート722b及びミキシングパート724bを含むことができる。無相関化パート722bは、入力信号O1、O2を無相関化し、無相関化された信号D(O1+O2)として出力できる無相関化器Dを有する。無相関化パート722bは、1×2マトリクスに該当することができる。ミキシングパート724bは、入力信号及び無相関化された信号を各チャネルにマッピングすることができる。ミキシングパート724bは、式16に表現されたマトリクスRで表現された2×3マトリクスに該当することができる。
さらに、無相関化パート722bは、両入力信号(O1,O2)の共通信号として差分信号(O1−O2)を無相関化することができる。ミキシングパート724bは、入力信号及び無相関化された共通信号を各チャネルにマッピングすることができる。
1.3.3 ダウンミックス処理ユニットが、数個のマトリクスを有するミキシングパートを含む場合
特定オブジェクト信号は特定位置に位置せずに、とこでも類似な影響として聞こえることができ、これは‘空間音響信号(spatial sound signal)’と呼ばれる。例えば、コンサートホールの拍手または騒音が空間音響信号の一例である。空間音響信号は、全てのスピーカから再生される必要がある。もし、空間音響信号が全てのスピーカから同一信号として再生される場合、高い相互関連性(inter−correlation:IC)のために信号の空間感(spatialness)を感じにくい。したがって、無相関化された信号を各チャネル信号の信号に追加する必要がある。
図12は、図7に示すダウンミックス処理ユニットの第3実施例を示す構成図である。図12を参照すると、ダウンミックス処理ユニットの第3実施例720c(以下、“ダウンミックス処理ユニット720c”と略す。)は、入力信号Oiを用いて空間音響信号を生成できるが、ダウンミックス処理ユニットは、N個の無相関化器を有する無相関化パート722c及びミキシングパート724cを含むことができる。無相関化パート722cは、入力信号Oiを無相関化できるN個の無相関化器D1、D2、…、DNを含むことができる。ミキシングパート724cは、入力信号Oi及び無相関化された信号DX(Oi)を用いて出力信号Cj,Ck,…,Clを生成できるNマトリクスRj,Rk,…,Rlを含むことができる。マトリクスRjは、下記の式のように表現することができる。
Figure 2010511912
ここで、Oiはi番目の入力信号、Rjは、i番目の入力信号Oiがj番目のチャネルにマッピングされるマトリクス、Cj_iはj番目の出力信号を表す。θj_i値は、無相関化比率(rate)である。
θj_i値は、マルチチャネルパラメータに含まれたICCに基づいて推定することができる。なお、ミキシングパート724cは、情報生成ユニット710を介してユーザインタフェースから受信した無相関化比率θj_iを構成する空間感情報(spatialness)を基盤にして出力信号を生成できるが、本発明はこれに限定されない。
無相関化器の数(N)は、出力チャネルの数と同一にすることができる。一方、無相関化された信号は、ユーザにより選択された出力チャネルに追加することができる。例えば、空間音響信号を左側、右側、センターに位置させ、左側チャネルスピーカから空間音響信号として出力することができる。
1.3.4 ダウンミックス処理ユニットが追加ダウンミキシングパート(further downmixing part)を含む場合
図13は、図7に示すダウンミックス処理ユニットの第4実施例を示す構成図である。ダウンミックス処理ユニットの第4実施例720d(以下、“ダウンミックス処理ユニット720d”と略す。)は、入力信号がモノラル信号(m)に該当する場合にはバイパスすることができる。ダウンミックス処理ユニット720dは、入力信号がステレオ信号に該当する場合、ダウンミックス信号をモノラル信号にダウンミックスできる追加ダウンミキシングパート722dを含むことができる。追加にダウンミックスされたモノラルチャネル(m)は、マルチチャネルデコーダ730に入力されて使用することができる。マルチチャネルデコーダ730は、モノラル入力信号を用いてオブジェクトパニング(特に、クロストーク)を制御することができる。この場合、情報生成ユニット710は、MPEG surround標準の5−1−51構成を基盤にしてマルチチャネルパラメータを生成できる。
なお、上述した図2の任意的ダウンミックスゲイン(ADG)のようなモノラルダウンミックスに対するゲインが適用されると、オブジェクトパニング及びオブジェクトゲインをより容易に制御することが可能である。ADGは、ミックス情報を基盤にして情報生成ユニット710により生成することができる。
2.チャネル信号のアップミキシング及びオブジェクト信号の制御
図14は、本発明の第2実施例による圧縮されたオーディオ信号のビットストリーム構造を例示するブロック図である。図15は、本発明の第2実施例によるオーディオ信号処理装置を例示する構成図である。図14の(a)を参照すると、ダウンミックス信号(α)、マルチチャネルパラメータ(β)、オブジェクトパラメータ(γ)が、ビットストリーム構造に含まれている。マルチチャネルパラメータ(β)は、ダウンミックス信号をアップミキシングするためのパラメータである。一方、オブジェクトパラメータ(γ)は、オブジェクトパニング及びオブジェクトゲインを制御するためのパラメータである。図14の(b)を参照すると、ダウンミックス信号(α)、デフォルトパラメータ(β')、オブジェクトパラメータ(γ)がビットストリーム構造に含まれている。デフォルトパラメータ(β')は、オブジェクトゲイン及びオブジェクトパニングを制御するためのプリセット情報を含むことができる。プリセット情報は、エンコーダ側の製作者により提案された例に該当することができる。例えば、プリセット情報は、ギター(guitar)信号が左側及び右側間の地点に位置し、ギターのレベルが特定ボリュームに設定され、その時に出力チャネルの数が特定チャネルにセッティングされるということを記述することができる。各フレームまたは特定フレームに対するデフォルトパラメータがビットストリームに存在することができる。現フレームに対するデフォルトパラメータが以前フレームのデフォルトパラメータと異なるか否かを指示するフラグ情報が、ビットストリームに存在することができる。ビットストリームにデフォルトパラメータを含むことによって、オブジェクトパラメータを有する付加情報がビットストリームに含まれる場合よりも少ないビットレートで済むことができる。なお、ビットストリームのヘッダ情報は図14では省略する。ビットストリームの順序は再整列することができる。
図15を参照すると、本発明の第2実施例によるオーディオ信号処理装置1000(以下、“デコーダ1000”と略す。)は、ビットストリームデマルチプレクサ1005、情報生成ユニット1010、ダウンミックス処理ユニット1020、及びマルチチャネルデコーダ1030を含むことができる。デマルチプレクサ1005は、マルチプレクシングされたオーディオ信号を、ダウンミックス信号(α)、第1マルチチャネルパラメータ(β)、オブジェクトパラメータ(γ)に分離することができる。情報生成ユニット1010は、オブジェクトパラメータ(γ)及びミックスパラメータを用いて第2マルチチャネルパラメータを生成できる。ミックスパラメータは、第1マルチチャネル情報(β)が、処理されたダウンミックスに適用されるか否かを指示するモード情報を含む。モード情報は、ユーザによる選択のための情報に該当することができる。モード情報に応じて、情報生成情報1020は、第1マルチチャネルパラメータ(β)を伝送するか、或いは、第2マルチチャネルパラメータを伝送するかを決定する。
ダウンミックス処理ユニット1020は、ミックス情報に含まれたモード情報に基づいてプロセシング方式を決定することができる。さらに、ダウンミックス処理ユニット1020は、決定されたプロセシング方式によってダウンミックス(α)を処理することができる。そして、ダウンミックス処理ユニット1020は、処理されたダウンミックスをマルチチャネルデコーダ1030に伝達する。
マルチチャネルデコーダ1030は、第1マルチチャネルパラメータ(β)または第2マルチチャネルパラメータを受信することができる。デフォルトパラメータ(β')がビットストリームに含まれた場合には、マルチチャネルデコーダ1030は、マルチチャネルパラメータ(β)の代わりに、デフォルトパラメータ(β')を用いることができる。
マルチチャネルデコーダ1030は、処理されたダウンミックス信号及び受信したマルチチャネルパラメータを用いてマルチチャネル出力を生成する。マルチチャネルデコーダ1030は、上記したマルチチャネルデコーダ730と同じ構成を有することができるが、本発明はこれに限定されない。
3.バイノーラルプロセシング
マルチチャネルデコーダはバイノーラルモードで動作することができる。これは、頭部伝達関数(Head Related Transfer Function:HRTF)フィルタリングによってヘッドホンにおいてマルチチャネル効果を可能にする。バイノーラルデコーディング側において、ダウンミックス信号及びマルチチャネルパラメータは、デコーダに提供されるHRTFフィルタと組み合わせて使用される。
図16は、本発明の第3実施例によるオーディオ信号処理装置を例示する構成図である。図16を参照すると、オーディオ信号処理装置の第3実施例(以下、“デコーダ1100”と略す。)は、情報生成ユニット1110、ダウンミックス処理ユニット1120、及び同期マッチングパート1130aを有するマルチチャネルデコーダ1130を含むことができる。
情報生成ユニット1110は、動的HRTFを生成するもので、図7の情報生成ユニット710と同じ構成を有することができる。ダウンミックス処理ユニット1120は、図7のダウンミックス処理ユニット720と同じ構成を有することができる。上の構成要素のように、同期マッチングパート1130aを除いてマルチチャネルデコーダ1130は、上の構成要素と同一な場合である。したがって、情報生成ユニット1110、及びダウンミックス処理ユニット1120、及びマルチチャネルデコーダ1130の具体的な説明は省略する。
動的HRTFは、HRTF方位角(azimuth)及び仰角(elevation angles)に対応する、オブジェクト信号と仮想スピーカ信号との関係を記述するもので、実時間ユーザコントロールに対応する時間従属(time dependent)情報である。
マルチチャネルデコーダがHRTFフィルタセット全体を含む場合、動的HRTFは、HRTFフィルタ係数それ自体、パラメータ化された係数情報、及びインデックス情報のうちいずれか一つに該当することができる。
動的HRTFの種類によらず、動的HRTF情報はダウンミックスフレームとマッチングされる必要がある。HRTF情報とダウンミックス信号とのマッチングのために、次のような3種類の方式を提供することができる。
1)各HRTF情報及びビットストリームダウンミックス信号にタグ情報を挿入し、この挿入されたタグ情報に基づいてHRTFにビットストリームダウンミックス信号をマッチングさせる。この方式で、タグ情報は、MPEG surround標準における補助フィールド(ancillary filed)に挿入されることが好ましい。タグ情報は、時間情報、計数器(counter)情報、インデックス情報などで表現することができる。
2)HRTF情報をビットストリームのフレームに挿入する。この方式で、現在フレームがデフォルトモードに該当するかどうかを指示するモード情報を設定することが可能である。現在フレームのHRTF情報が以前フレームのHRTF情報と同一か否かを表すデフォルトモードが適用されると、HRTF情報のビットレートを低減させることができる。
2−1)さらに、現在フレームのHRTF情報が既に伝送されたか否かを表す伝送情報(transmission information)を定義することが可能である。もし、現在フレームのHRTF情報が、伝送されたHRTF情報と同じであるか否かを指示する伝送情報が適用される場合、HRTF情報のビットレートを低減させることができる。
2−2)まず、いくつかのHRTF情報を伝送した後、既に伝送されたHRTFのうちどのHRTFであるかを指示する識別情報をフレームごとに伝送する。
なお、HRTF係数が突然に変わる場合、歪が生じることがある。この歪を減らすために、係数またはレンダリングされた信号のスムージングを行なうことが好ましい。
4.レンダリング
図17は、本発明の第4実施例によるオーディオ処理装置を例示する構成図である。第4実施例によるオーディオ信号処理装置1200(以下、“プロセッサ1200”と略す。)は、エンコーダ側1200Aにおいてエンコーダ1210を含み、デコーダ側1200Bにおいてレンダリングユニット1220及び合成ユニット1230を含むことができる。エンコーダ1210は、マルチチャネルオブジェクト信号を受信し、オーディオ信号のダウンミックス信号及び付加情報を生成することができる。レンダリングユニット1220は、エンコーダ1210から付加情報を、装置設定またはユーザインタフェースから再生設定及びユーザコントロールを受信し、付加情報、再生設定、ユーザコントロールを用いてレンダリング情報を生成する。合成ユニット1230は、レンダリング情報及びエンコーダ1210から受信したダウンミックス信号を用いてマルチチャネル出力信号を合成する。
4.1 エフェクトモード(effect mode)適用
エフェクトモード(effect mode)は、リミックスされた信号または復元された信号についてのモードである。例えば、ライブモード(live mode)、クラブバンドモード(club band mode)、カラオケモード(karaoke mode)などが存在できる。エフェクトモード情報は、製作者または他のユーザにより生成されたミックスパラメータセットに該当できる。エフェクトモード情報が適用されると、ユーザが、あらかじめ定義されたエフェクトモード情報から一つを選択できるため、最終ユーザは全体的にオブジェクトパニング及びオブジェクトゲインを制御する必要がない。
エフェクトモード情報を生成する方法は、2種類に区別することができる。その一つは、エフェクトモード情報を、エンコーダ1200Aで生成されてデコーダ1200Bに伝送することができる。他の一つは、エフェクトモード情報を、デコーダ側で自動的に生成することができる。この2種類の方式を以下に詳細に説明する。
4.1.1 エフェクトモード情報をデコーダ側に伝送
エフェクトモード情報は、製作者によりエンコーダ1200Aで生成することができる。この方法によると、デコーダ1200Bは、エフェクトモード情報を含む付加情報を受信し、ユーザがエフェクトモード情報からいずれかを選択できるようにユーザインタフェースを出力する。デコーダ1200Bは、選択されたエフェクトモード情報を基盤にして出力チャネルを生成することができる。
一方、エンコーダ1200Aが、オブジェクト信号の品質を高めるために信号をダウンミックスする場合、聴取者がダウンミックス信号をそのまま聞くことは適切でない。しかし、エフェクトモード情報がデコーダ1200Bで適用されると、最高の品質でダウンミックス信号を再生することが可能である。
4.1.2 効果情報をデコーダ側で生成
エフェクトモード情報はデコーダ1200Bで生成することができる。デコーダ1200Bは、ダウンミックス信号に対して適切なエフェクトモード情報を検索することができる。そして、デコーダ1200Bは、検索されたエフェクトモードの中から一つを自分で選択したり(自動調節モード:automatic adjustment mode)、それらのモードから一つをユーザに選択させることができる(ユーザ選択モード:user selection mode)。デコーダ1200Bは、付加情報に含まれたオブジェクト情報(オブジェクトの数、楽器名など)を獲得し、選択されたエフェクトモード情報及びオブジェクト情報に基づいてオブジェクトを制御することができる。
一方、類似なオブジェクトを一括して制御することが可能である。例えば、リズムに関連する楽器は、リズム強調モード(rhythm impression mode)において互いに類似なオブジェクトになりうる。‘一括して制御する’ということは、同一パラメータを用いてオブジェクトを制御するというよりは、各オブジェクトを同時に制御するということを意味する。
一方、デコーダ設定または装置環境(ヘッドホンまたはスピーカを含む)を基盤にオブジェクトを制御できる。例えば、装置のボリューム設定が低い場合、メインメロディに該当するオブジェクトを強調することができ、装置のボリューム設定が高い場合、メインメロディに該当するオブジェクトは抑えられることができる。
4.2 エンコーダへの入力信号のオブジェクトタイプ
エンコーダ1200Aに入力される入力信号は、下記の3通りに分類することができる。
1)モノラルオブジェクト(モノラルチャネルオブジェクト)
モノラルオブジェクトは、オブジェクトの一般的なタイプである。オブジェクトを単純に結合することによって内部ダウンミックス信号を合成することが可能である。ユーザコントロール及び提供された情報のうちの一つになりうるオブジェクトゲイン及びオブジェクトパニングを用いて内部ダウンミックス信号を合成することも可能である。内部ダウンミックス信号を生成するにおいて、オブジェクト特性、ユーザ入力、オブジェクトと一緒に提供された情報のうち一つ以上を用いてレンダリング情報を生成することも可能である。
外部ダウンミックス信号が存在する場合、外部ダウンミックス及びオブジェクトとの関係を指示する情報を抽出して伝送することができる。
2)ステレオオブジェクト(ステレオチャネルオブジェクト)
上記モノラルオブジェクトの場合と同様に、オブジェクトを単純に結合することによって内部ダウンミックス信号を合成することが可能である。ユーザコントロール及び提供された情報のうちの一つになりうるオブジェクトゲイン及びオブジェクトパニングを用いて、内部ダウンミックス信号を合成することも可能である。ダウンミックス信号がモノラル信号に該当する場合、エンコーダ1200Aは、ダウンミックス信号を生成するためにモノラル信号に変換されたオブジェクトを用いることが可能である。この場合、モノラル信号への変換において、オブジェクトと関連した情報(例:各時間−周波数領域でのパニング情報)を抽出して伝達することができる。上のモノラルオブジェクトと同様に、内部ダウンミックス信号の生成において、オブジェクト特性、ユーザ入力、及びオブジェクトと共に提供された情報のうち一つ以上を用いてレンダリング情報を生成することも可能である。上記モノラルオブジェクトと同様に、外部ダウンミックスが存在する場合、外部ダウンミックス及びオブジェクト間の関係を指示する情報を抽出して伝達することも可能である。
3)マルチチャネルオブジェクト
マルチチャネルオブジェクトの場合、モノラルオブジェクト及びステレオオブジェクトと一緒に上に言及された方法を行なうことができる。なおさら、MPEG surroundの形態としてマルチチャネルオブジェクトを入力することが可能である。この場合、オブジェクトダウンミックスチャネルを用いてオブジェクト基盤のダウンミックス(例:SAOCダウンミックス)を生成することが可能であり、マルチチャネル情報及びレンダリング情報を生成するためにマルチチャネル情報(例:MPEG Surroundの空間情報)を利用することが可能である。したがって、MPEG surroundの形態として存在するマルチチャネルオブジェクトは、オブジェクト基盤のダウンミックス(例:SAOCダウンミックス)を用いてデコーディングされたりエンコーディングされる必要がなく、よって、演算量を減らすことができる。オブジェクトダウンミックスがステレオに該当し、オブジェクト基盤ダウンミックス(SAOCダウンミックス)がモノラルに該当する場合、ステレオオブジェクトと一緒に上述した方法を適用することが可能である。
4)様々なタイプのオブジェクトに対する伝送方式
前述したように、様々なタイプのオブジェクト(モノラルオブジェクト、ステレオオブジェクト、及びマルチチャネルオブジェクト)は、エンコーダ1200Aからデコーダ1200Bに伝送される。様々なタイプのオブジェクトを伝送する方式は、下記の通りである。
図18を参照すると、ダウンミックスが複数のオブジェクトを含む時、付加情報は各オブジェクトに関する情報を含む。例えば、複数のオブジェクトがN番目のモノラルオブジェクト(A)、N+1番目のオブジェクトの左側チャネル(B)、N+1番目のオブジェクトの右側チャネル(C)で構成される場合、付加情報は、3個のオブジェクト(A、B、C)に対する情報を含む。
上記付加情報は、オブジェクトがステレオまたはマルチチャネルのオブジェクトの一部分(例えば、モノラルオブジェクト、ステレオオブジェクトのいずれかのチャネル(LまたはR)、等)であるか否かを表す相関性フラグ情報(correlation flag information)を含むことができる。例えば、モノラルオブジェクトが存在する場合、相関性フラグ情報が‘0’であり、ステレオオブジェクトのいずれかのチャネルが存在する場合、相関性フラグ情報が‘1’である。ステレオオブジェクトの一部分とステレオオブジェクトの他の部分が連続して伝送される場合、ステレオオブジェクトの他の部分に対する相関性情報はいずれの値(例:0、1、またはその他)になっても良い。なお、ステレオオブジェクトの他の部分に対する相関性フラグ情報は伝送されなくて良い。
なお、マルチチャネルオブジェクトの場合、マルチチャネルオブジェクトの一部分に対する相関性フラグ情報は、マルチチャネルオブジェクトの個数を記述する値でありうる。例えば、5.1チャネルオブジェクトの場合、5.1チャネルの左側チャネルに対する相関性情報は‘5’になることができ、5.1チャネルの他のチャネル(R、Lr、Rr、C、LFE)に対する相関性情報は‘0’になるか、伝送されない。
4.3 オブジェクト属性
オブジェクトは、下記のような3種類の属性を有することができる。
a)シングルオブジェクト(single object)
シングルオブジェクトはソースとして構成することができる。ダウンミックス信号を生成したり再生したりするにあたり、オブジェクトパニング及びオブジェクトゲインを制御するために、一つのパラメータをシングルオブジェクトに適用することができる。この‘一つのパラメータ’は、あらゆる時間及び周波数領域に対して一つという意味だけでなく、各時間周波数スロットに対して一つのパラメータであるという意味を有する。
b)グルーピングされたオブジェクト(grouped object)
シングルオブジェクトは、2以上のソースで構成することができる。グルーピングされたオブジェクトが2以上のソースとして入力されても、オブジェクトパニング及びオブジェクトゲインを制御するためにグルーピングされたオブジェクトに対して一つのパラメータを適用することができる。グルーピングされたオブジェクトについて図19を参照して詳細に説明する。図19を参照すると、エンコーダ1300は、グルーピングユニット1310及びダウンミックスユニット1320を含む。グルーピングユニット1310は、グルーピング情報に基づき、入力されたマルチオブジェクト入力のうち2以上のオブジェクトをグルーピングする。グルーピング情報はエンコーダ側で製作者により生成することができる。ダウンミックスユニット1320は、グルーピングユニット1310により生成されたグルーピングされたオブジェクトを用いてダウンミックス信号を生成する。ダウンミックスユニット1320は、グルーピングされたオブジェクトに対する付加情報を生成することができる。
c)組合せオブジェクト(combination object)
組合せオブジェクトは、一つ以上のソースと組み合わせられたオブジェクトである。組み合わせられたオブジェクト間の関係は変化させずに、オブジェクトパニング及びオブジェクトゲインを一括して(in a lump)制御することが可能である。例えば、ドラムの場合、バスドラム(bass drum)、タムタム(tam-tam)、シンボル(symbol)間の関係を変化させずに、ドラムを制御することが可能である。例えば、バスドラムが中央に位置し、シンボルが左側地点に位置する時、ドラムが右側方向へ移動する場合、バスドラムは右側地点に位置させ、シンボルは中央と右側との中間地点に位置させることが可能である。
組み合わせられたオブジェクト間の関係情報は、デコーダに伝送することができ、デコーダは、組合せオブジェクトを用いて上記の関係情報を抽出することができる。
4.4 階層的にオブジェクトを制御
オブジェクトを階層的に制御することが可能である。例えば、ドラムを制御した後に、ドラムの各サブ−エレメント(sub‐element)を制御できる。階層的にオブジェクトを制御するために、下記の3通りの方式が提供される。
a)UI(ユーザインタフェース)
全てのオブジェクトをディスプレイするのではなく、代表的なエレメントのみをディスプレイすることができる。もし、ユーザにより代表エレメントが選択されると、全てのオブジェクトがディスプレイされる。
b)オブジェクトグルーピング
代表エレメントを表すためにオブジェクトをグルーピングした後に、代表エレメントとしてグルーピングされた全てのオブジェクトを制御する目的に代表エレメントを制御することが可能である。グルーピングする過程で抽出された情報は、デコーダに伝送することができる。また、グルーピング情報がデコーダで生成されても良い。一括した制御情報の適用は、各エレメントに対するあらかじめ決定された制御情報に基づいて行なわれることができる。
c)オブジェクト構成(object configuration)
上述した組合せオブジェクトを利用することが可能である。組合せオブジェクトのエレメントに関する情報は、エンコーダまたはデコーダで生成することができる。エンコーダにおけるエレメントに関する情報は、組合せオブジェクトに関する情報とは異なる方式で伝送することができる。
本発明は、オーディオ信号をエンコーディング及びデコーディングするのに適用することができる。

Claims (19)

  1. ダウンミックス信号及びダウンミックスプロセシング情報を受信する段階と、
    前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理する段階と、
    を含み、
    前記処理する段階は、
    前記ダウンミックス信号を無相関化する段階と、
    前記処理されたダウンミックス信号を出力するために前記ダウンミックス信号及び前記無相関化された信号をミキシングする段階と、を含み、
    前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されることを特徴とする、オーディオ信号処理方法。
  2. 前記ダウンミックス信号のチャネル数が2以上に該当する場合、前記ダウンミックス信号を処理する段階が行なわれることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  3. 前記処理されたダウンミックス信号の一つのチャネル信号は、前記ダウンミックス信号の他のチャネル信号を含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  4. 前記処理されたダウンミックス信号のうち一つのチャネル信号は、ゲインファクタと乗算された前記ダウンミックス信号の他のチャネルを含み、前記ゲインファクタは、前記ミックス情報から推定されたものであることを特徴とする、請求項3に記載のオーディオ信号処理方法。
  5. 前記ダウンミックス信号がステレオ信号に該当する場合、前記ダウンミックス信号を処理する段階は、前記ダウンミックス信号のための2×2マトリクスオペレーションにより行なわれることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  6. 前記2×2マトリクスオペレーションは、前記ダウンミックスプロセシング情報に含まれた0でないクロスターム(non−zero cross term)を含むことを特徴とする、請求項5に記載のオーディオ信号処理方法。
  7. 前記ダウンミックス信号を無相関化する段階は、2個以上の無相関化器により行なわれることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  8. 前記ダウンミックス信号の無相関化は、
    2個の無相関化器を用いて前記ダウンミックス信号の第1チャネル及び前記ダウンミックス信号の第2チャネルを無相関化する段階を含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  9. 前記ダウンミックス信号はステレオ信号に該当し、
    前記無相関化された信号は、同じ無相関化器を用いて無相関化された前記第1チャネル及び前記2チャネルを含むことを特徴とする、請求項8に記載のオーディオ信号処理方法。
  10. 前記ダウンミックス信号を無相関化する段階は、
    一つの無相関化器を用いて前記ダウンミックス信号の第1チャネルを無相関化する段階と、
    他の無相関化器を用いて前記ダウンミックス信号の第2チャネルを無相関化する段階と、
    を含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  11. 前記ダウンミックス信号はステレオ信号に該当し、
    前記無相関化された信号は、無相関化された第1チャネル及び無相関化された第2チャネルを含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  12. 前記ダウンミックス信号がステレオ信号に該当する場合、前記処理されたダウンミックス信号は、ステレオ信号に該当することを特徴とする、請求項1に記載のオーディオ信号処理方法。
  13. 前記オブジェクト情報は、オブジェクトレベル情報及びオブジェクト相関情報のうち一つ以上を含むことを特徴とする、請求項1に記載のオーディオ信号処理方法。
  14. 前記ミックス情報は、オブジェクト位置情報及び再生設定情報のうち一つ以上を用いて生成されたものであることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  15. 前記ダウンミックス信号は、放送信号として受信されたものであることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  16. 前記ダウンミックス信号は、デジタル媒体を介して受信されたものであることを特徴とする、請求項1に記載のオーディオ信号処理方法。
  17. ダウンミックス信号及びダウンミックスプロセシング情報を受信する段階と、
    前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理する段階と、
    を含み、
    前記処理する段階は、
    前記ダウンミックス信号を無相関化する段階と、
    前記処理されたダウンミックス信号を出力するために、前記ダウンミックス信号及び前記無相関化された信号をミキシングする段階と、を含み、
    前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものであり、
    プロセッサが実行される時、前記プロセッサにより前記動作が行なわれる命令が記憶されている、コンピュータ読み取り可能媒体。
  18. ダウンミックス信号及びダウンミックスプロセシング情報を受信し、前記ダウンミックスプロセシング情報を用いて前記ダウンミックス信号を処理するダウンミックス処理ユニットを含み、
    前記ダウンミックス処理ユニットは、
    前記ダウンミックス信号を無相関化する無相関化パートと、
    前記処理されたダウンミックス信号を出力するために、前記ダウンミックス信号及び前記無相関化された信号をミキシングするミキシングパートと、を含み、
    前記ダウンミックスプロセシング情報は、オブジェクト情報及びミックス情報に基づいて推定されたものであることを特徴とする、オーディオ信号処理装置。
  19. 複数のオブジェクト信号を用いてダウンミックス信号を獲得する段階と、
    前記複数のオブジェクト信号及び前記ダウンミックス信号を用いて、前記複数のオブジェクト信号間の関係を表すオブジェクト情報を生成する段階と、
    前記時間領域のダウンミックス信号及び前記オブジェクト情報を伝送する段階と、
    を含み、
    前記ダウンミックス信号のチャネル数が2以上に該当する場合、前記ダウンミックス信号は、処理されたダウンミックス信号になることが可能であり、
    前記オブジェクト情報は、オブジェクトレベル情報及びオブジェクト相関情報のうち一つ以上を含むことを特徴とする、オーディオ信号処理方法。
JP2009540167A 2006-12-07 2007-12-06 オーディオ処理方法及び装置 Active JP5302207B2 (ja)

Applications Claiming Priority (21)

Application Number Priority Date Filing Date Title
US86907706P 2006-12-07 2006-12-07
US60/869,077 2006-12-07
US87713406P 2006-12-27 2006-12-27
US60/877,134 2006-12-27
US88356907P 2007-01-05 2007-01-05
US60/883,569 2007-01-05
US88404307P 2007-01-09 2007-01-09
US60/884,043 2007-01-09
US88434707P 2007-01-10 2007-01-10
US60/884,347 2007-01-10
US88458507P 2007-01-11 2007-01-11
US60/884,585 2007-01-11
US88534707P 2007-01-17 2007-01-17
US88534307P 2007-01-17 2007-01-17
US60/885,343 2007-01-17
US60/885,347 2007-01-17
US88971507P 2007-02-13 2007-02-13
US60/889,715 2007-02-13
US95539507P 2007-08-13 2007-08-13
US60/955,395 2007-08-13
PCT/KR2007/006319 WO2008069597A1 (en) 2006-12-07 2007-12-06 A method and an apparatus for processing an audio signal

Publications (2)

Publication Number Publication Date
JP2010511912A true JP2010511912A (ja) 2010-04-15
JP5302207B2 JP5302207B2 (ja) 2013-10-02

Family

ID=39492395

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009540167A Active JP5302207B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540163A Active JP5209637B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540166A Active JP5290988B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540164A Active JP5450085B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540165A Active JP5270566B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2009540163A Active JP5209637B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540166A Active JP5290988B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540164A Active JP5450085B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置
JP2009540165A Active JP5270566B2 (ja) 2006-12-07 2007-12-06 オーディオ処理方法及び装置

Country Status (11)

Country Link
US (11) US8488797B2 (ja)
EP (6) EP2122613B1 (ja)
JP (5) JP5302207B2 (ja)
KR (5) KR101111520B1 (ja)
CN (5) CN101553865B (ja)
AU (1) AU2007328614B2 (ja)
BR (1) BRPI0719884B1 (ja)
CA (1) CA2670864C (ja)
MX (1) MX2009005969A (ja)
TW (1) TWI371743B (ja)
WO (5) WO2008069596A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511053A (ja) * 2009-10-20 2013-03-28 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ダウンミックス信号表現に基づいてアップミックス信号表現を生成するための装置、マルチチャネルオーディオ信号を表現するビットストリームを生成するための装置、歪制御信号化を用いる方法、コンピュータプログラム及びビットストリーム
JP2013511738A (ja) * 2009-11-20 2013-04-04 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ダウンミックス信号表現に基づくアップミックス信号を提供する装置、マルチチャネルオーディオ信号を表しているビットストリームを提供する装置、方法、コンピュータプログラム、および線形結合パラメータを使用してマルチチャネルオーディオ信号を表しているビットストリーム
JP2015531078A (ja) * 2012-07-31 2015-10-29 インテレクチュアル ディスカバリー シーオー エルティディIntellectual Discovery Co.,Ltd. オーディオ信号処理方法および装置
US10327092B2 (en) 2011-07-01 2019-06-18 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
KR20210027330A (ko) * 2019-07-25 2021-03-10 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법
JP2021514164A (ja) * 2018-02-19 2021-06-03 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オブジェクトベースの空間オーディオマスタリングのための装置および方法

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
WO2006126843A2 (en) * 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
JP4988716B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
WO2007004828A2 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8082157B2 (en) * 2005-06-30 2011-12-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
WO2007007500A1 (ja) * 2005-07-11 2007-01-18 Matsushita Electric Industrial Co., Ltd. 超音波探傷方法と超音波探傷装置
US20090028344A1 (en) * 2006-01-19 2009-01-29 Lg Electronics Inc. Method and Apparatus for Processing a Media Signal
KR100991795B1 (ko) 2006-02-07 2010-11-04 엘지전자 주식회사 부호화/복호화 장치 및 방법
ES2405311T3 (es) * 2006-07-04 2013-05-30 Electronics And Telecommunications Research Institute Aparato para restaurar una señal de audio multicanal usando un decodificador de MPEG surround
JP5302207B2 (ja) * 2006-12-07 2013-10-02 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置
WO2008084427A2 (en) * 2007-01-10 2008-07-17 Koninklijke Philips Electronics N.V. Audio decoder
RU2419168C1 (ru) 2007-03-09 2011-05-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ обработки аудиосигнала и устройство для его осуществления
KR20080082917A (ko) * 2007-03-09 2008-09-12 엘지전자 주식회사 오디오 신호 처리 방법 및 이의 장치
WO2008150141A1 (en) * 2007-06-08 2008-12-11 Lg Electronics Inc. A method and an apparatus for processing an audio signal
JP2010538571A (ja) 2007-09-06 2010-12-09 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
KR101461685B1 (ko) 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
KR101596504B1 (ko) 2008-04-23 2016-02-23 한국전자통신연구원 객체기반 오디오 컨텐츠의 생성/재생 방법 및 객체기반 오디오 서비스를 위한 파일 포맷 구조를 가진 데이터를 기록한 컴퓨터 판독 가능 기록 매체
US8639368B2 (en) 2008-07-15 2014-01-28 Lg Electronics Inc. Method and an apparatus for processing an audio signal
WO2010008200A2 (en) * 2008-07-15 2010-01-21 Lg Electronics Inc. A method and an apparatus for processing an audio signal
EP2146522A1 (en) * 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
EP2175670A1 (en) * 2008-10-07 2010-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Binaural rendering of a multi-channel audio signal
WO2010041877A2 (en) * 2008-10-08 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a signal
EP2356825A4 (en) * 2008-10-20 2014-08-06 Genaudio Inc AUDIO SPACE AND ENVIRONMENT SIMULATION
US8861739B2 (en) 2008-11-10 2014-10-14 Nokia Corporation Apparatus and method for generating a multichannel signal
KR20100065121A (ko) * 2008-12-05 2010-06-15 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
EP2194526A1 (en) * 2008-12-05 2010-06-09 Lg Electronics Inc. A method and apparatus for processing an audio signal
JP5309944B2 (ja) * 2008-12-11 2013-10-09 富士通株式会社 オーディオ復号装置、方法、及びプログラム
KR101187075B1 (ko) * 2009-01-20 2012-09-27 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
WO2010085083A2 (en) 2009-01-20 2010-07-29 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
WO2010087631A2 (en) * 2009-01-28 2010-08-05 Lg Electronics Inc. A method and an apparatus for decoding an audio signal
KR101137360B1 (ko) 2009-01-28 2012-04-19 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US8139773B2 (en) * 2009-01-28 2012-03-20 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
US20100324915A1 (en) * 2009-06-23 2010-12-23 Electronic And Telecommunications Research Institute Encoding and decoding apparatuses for high quality multi-channel audio codec
MX2012004261A (es) * 2009-10-16 2012-05-29 Fraunhofer Ges Forschung Aparato, metodo y programa de computadora para proveer uno o más parámetros ajustados para provisión de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendente y una informacion lateral paramétrica asociada con la representación de señal de mezcla descendente, usando un valor promedio.
KR101106465B1 (ko) * 2009-11-09 2012-01-20 네오피델리티 주식회사 멀티밴드 drc 시스템의 게인 설정 방법 및 이를 이용한 멀티밴드 drc 시스템
US20120277894A1 (en) * 2009-12-11 2012-11-01 Nsonix, Inc Audio authoring apparatus and audio playback apparatus for an object-based audio service, and audio authoring method and audio playback method using same
KR101341536B1 (ko) 2010-01-06 2013-12-16 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
WO2011122589A1 (ja) * 2010-03-29 2011-10-06 日立金属株式会社 初期超微結晶合金、ナノ結晶軟磁性合金及びその製造方法、並びにナノ結晶軟磁性合金からなる磁性部品
KR20120004909A (ko) * 2010-07-07 2012-01-13 삼성전자주식회사 입체 음향 재생 방법 및 장치
EP2586025A4 (en) * 2010-07-20 2015-03-11 Huawei Tech Co Ltd A tone signal
US8948403B2 (en) * 2010-08-06 2015-02-03 Samsung Electronics Co., Ltd. Method of processing signal, encoding apparatus thereof, decoding apparatus thereof, and signal processing system
JP5903758B2 (ja) * 2010-09-08 2016-04-13 ソニー株式会社 信号処理装置および方法、プログラム、並びにデータ記録媒体
EP2560161A1 (en) 2011-08-17 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optimal mixing matrices and usage of decorrelators in spatial audio processing
CN103050124B (zh) 2011-10-13 2016-03-30 华为终端有限公司 混音方法、装置及系统
BR112014010062B1 (pt) * 2011-11-01 2021-12-14 Koninklijke Philips N.V. Codificador de objeto de áudio, decodificador de objeto de áudio, método para a codificação de objeto de áudio, e método para a decodificação de objeto de áudio
US9584912B2 (en) 2012-01-19 2017-02-28 Koninklijke Philips N.V. Spatial audio rendering and encoding
US9761229B2 (en) 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
US9516446B2 (en) * 2012-07-20 2016-12-06 Qualcomm Incorporated Scalable downmix design for object-based surround codec with cluster analysis by synthesis
KR20140017338A (ko) * 2012-07-31 2014-02-11 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 장치 및 방법
AU2013298462B2 (en) * 2012-08-03 2016-10-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Decoder and method for multi-instance spatial-audio-object-coding employing a parametric concept for multichannel downmix/upmix cases
BR122021021500B1 (pt) * 2012-09-12 2022-10-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V Aparelho e método para fornecer capacidades melhoradas de downmix guiado para áudio 3d
US9385674B2 (en) * 2012-10-31 2016-07-05 Maxim Integrated Products, Inc. Dynamic speaker management for multichannel audio systems
WO2014088328A1 (ko) 2012-12-04 2014-06-12 삼성전자 주식회사 오디오 제공 장치 및 오디오 제공 방법
TR201808415T4 (tr) 2013-01-15 2018-07-23 Koninklijke Philips Nv Binoral ses işleme.
MX346825B (es) 2013-01-17 2017-04-03 Koninklijke Philips Nv Procesamiento de audio biaural.
EP2757559A1 (en) * 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
US9208775B2 (en) 2013-02-21 2015-12-08 Qualcomm Incorporated Systems and methods for determining pitch pulse period signal boundaries
WO2014141577A1 (ja) 2013-03-13 2014-09-18 パナソニック株式会社 オーディオ再生装置およびオーディオ再生方法
WO2014171791A1 (ko) 2013-04-19 2014-10-23 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
KR102150955B1 (ko) 2013-04-19 2020-09-02 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
WO2014174344A1 (en) * 2013-04-26 2014-10-30 Nokia Corporation Audio signal encoder
KR20140128564A (ko) * 2013-04-27 2014-11-06 인텔렉추얼디스커버리 주식회사 음상 정위를 위한 오디오 시스템 및 방법
CN105393304B (zh) 2013-05-24 2019-05-28 杜比国际公司 音频编码和解码方法、介质以及音频编码器和解码器
CN105229731B (zh) 2013-05-24 2017-03-15 杜比国际公司 根据下混的音频场景的重构
WO2014187986A1 (en) 2013-05-24 2014-11-27 Dolby International Ab Coding of audio scenes
US20140355769A1 (en) * 2013-05-29 2014-12-04 Qualcomm Incorporated Energy preservation for decomposed representations of a sound field
KR101454342B1 (ko) * 2013-05-31 2014-10-23 한국산업은행 서라운드 채널 오디오 신호를 이용한 추가 채널 오디오 신호 생성 장치 및 방법
EP3005344A4 (en) * 2013-05-31 2017-02-22 Nokia Technologies OY An audio scene apparatus
EP2830050A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
EP2830049A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient object metadata coding
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830333A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals
CA2919080C (en) 2013-07-22 2018-06-05 Sascha Disch Multi-channel audio decoder, multi-channel audio encoder, methods, computer program and encoded audio representation using a decorrelation of rendered audio signals
US9319819B2 (en) * 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
KR102243395B1 (ko) * 2013-09-05 2021-04-22 한국전자통신연구원 오디오 부호화 장치 및 방법, 오디오 복호화 장치 및 방법, 오디오 재생 장치
TWI671734B (zh) 2013-09-12 2019-09-11 瑞典商杜比國際公司 在包含三個音訊聲道的多聲道音訊系統中之解碼方法、編碼方法、解碼裝置及編碼裝置、包含用於執行解碼方法及編碼方法的指令之非暫態電腦可讀取的媒體之電腦程式產品、包含解碼裝置及編碼裝置的音訊系統
JP6121052B2 (ja) 2013-09-17 2017-04-26 ウィルス インスティテュート オブ スタンダーズ アンド テクノロジー インコーポレイティド マルチメディア信号処理方法および装置
EP3074970B1 (en) * 2013-10-21 2018-02-21 Dolby International AB Audio encoder and decoder
EP2866227A1 (en) * 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
CN108449704B (zh) 2013-10-22 2021-01-01 韩国电子通信研究院 生成用于音频信号的滤波器的方法及其参数化装置
CN117376809A (zh) * 2013-10-31 2024-01-09 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
EP2879131A1 (en) * 2013-11-27 2015-06-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder, encoder and method for informed loudness estimation in object-based audio coding systems
EP3934283B1 (en) 2013-12-23 2023-08-23 Wilus Institute of Standards and Technology Inc. Audio signal processing method and parameterization device for same
CN106104684A (zh) 2014-01-13 2016-11-09 诺基亚技术有限公司 多通道音频信号分类器
KR101782917B1 (ko) 2014-03-19 2017-09-28 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법 및 장치
EP3128766A4 (en) 2014-04-02 2018-01-03 Wilus Institute of Standards and Technology Inc. Audio signal processing method and device
CN110636415B (zh) * 2014-08-29 2021-07-23 杜比实验室特许公司 用于处理音频的方法、系统和存储介质
WO2016040623A1 (en) * 2014-09-12 2016-03-17 Dolby Laboratories Licensing Corporation Rendering audio objects in a reproduction environment that includes surround and/or height speakers
TWI587286B (zh) 2014-10-31 2017-06-11 杜比國際公司 音頻訊號之解碼和編碼的方法及系統、電腦程式產品、與電腦可讀取媒體
US9609383B1 (en) * 2015-03-23 2017-03-28 Amazon Technologies, Inc. Directional audio for virtual environments
WO2016204580A1 (ko) 2015-06-17 2016-12-22 삼성전자 주식회사 저연산 포맷 변환을 위한 인터널 채널 처리 방법 및 장치
ES2956344T3 (es) 2015-08-25 2023-12-19 Dolby Laboratories Licensing Corp Descodificador de audio y procedimiento de descodificación
CN109427337B (zh) 2017-08-23 2021-03-30 华为技术有限公司 立体声信号编码时重建信号的方法和装置
CN109688497B (zh) * 2017-10-18 2021-10-01 宏达国际电子股份有限公司 声音播放装置、方法及非暂态存储介质
JP2022544795A (ja) * 2019-08-19 2022-10-21 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオのバイノーラル化のステアリング
CN111654745B (zh) * 2020-06-08 2022-10-14 海信视像科技股份有限公司 多声道的信号处理方法及显示设备
CN117580779A (zh) 2023-04-25 2024-02-20 马渊马达株式会社 包装构造

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006008697A1 (en) * 2004-07-14 2006-01-26 Koninklijke Philips Electronics N.V. Audio channel conversion
WO2006084916A2 (en) * 2005-02-14 2006-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Parametric joint-coding of audio sources

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58500606A (ja) 1981-05-29 1983-04-21 インタ−ナシヨナル・ビジネス・マシ−ンズ・コ−ポレ−シヨン インクジエツト・プリンタ用アスピレ−タ−
FR2567984B1 (fr) * 1984-07-20 1986-08-14 Centre Techn Ind Mecanique Distributeur hydraulique proportionnel
WO1992012607A1 (en) 1991-01-08 1992-07-23 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
US6141446A (en) 1994-09-21 2000-10-31 Ricoh Company, Ltd. Compression and decompression system with reversible wavelets and lossy reconstruction
US5838664A (en) 1997-07-17 1998-11-17 Videoserver, Inc. Video teleconferencing system with digital transcoding
US5956674A (en) 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
EP0798866A2 (en) 1996-03-27 1997-10-01 Kabushiki Kaisha Toshiba Digital data processing system
US6128597A (en) 1996-05-03 2000-10-03 Lsi Logic Corporation Audio decoder with a reconfigurable downmixing/windowing pipeline and method therefor
US5912976A (en) 1996-11-07 1999-06-15 Srs Labs, Inc. Multi-channel audio enhancement system for use in recording and playback and methods for providing same
US6131084A (en) 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
US6625587B1 (en) 1997-06-18 2003-09-23 Clarity, Llc Blind signal separation
US6026168A (en) 1997-11-14 2000-02-15 Microtek Lab, Inc. Methods and apparatus for automatically synchronizing and regulating volume in audio component systems
EP1072036B1 (en) 1998-04-15 2004-09-22 STMicroelectronics Asia Pacific Pte Ltd. Fast frame optimisation in an audio encoder
US6122619A (en) 1998-06-17 2000-09-19 Lsi Logic Corporation Audio decoder with programmable downmixing of MPEG/AC-3 and method therefor
FI114833B (fi) * 1999-01-08 2004-12-31 Nokia Corp Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi
US7103187B1 (en) 1999-03-30 2006-09-05 Lsi Logic Corporation Audio calibration system
US6539357B1 (en) 1999-04-29 2003-03-25 Agere Systems Inc. Technique for parametric coding of a signal containing information
EP1263319A4 (en) 2000-03-03 2007-05-02 Cardiac M R I Inc APPARATUS FOR ANALYSIS OF MAGNETIC RESONANCE SAMPLES
KR100809310B1 (ko) 2000-07-19 2008-03-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 스테레오 서라운드 및/또는 오디오 센터 신호를 구동하기 위한 다중-채널 스테레오 컨버터
US7292901B2 (en) 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7583805B2 (en) 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
US7032116B2 (en) 2001-12-21 2006-04-18 Intel Corporation Thermal management for computer systems running legacy or thermal management operating systems
DE60326782D1 (de) 2002-04-22 2009-04-30 Koninkl Philips Electronics Nv Dekodiervorrichtung mit Dekorreliereinheit
EP1500083B1 (en) 2002-04-22 2006-06-28 Koninklijke Philips Electronics N.V. Parametric multi-channel audio representation
JP4013822B2 (ja) 2002-06-17 2007-11-28 ヤマハ株式会社 ミキサ装置およびミキサプログラム
AU2003281128A1 (en) 2002-07-16 2004-02-02 Koninklijke Philips Electronics N.V. Audio coding
KR100542129B1 (ko) 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
JP4084990B2 (ja) 2002-11-19 2008-04-30 株式会社ケンウッド エンコード装置、デコード装置、エンコード方法およびデコード方法
JP4496379B2 (ja) 2003-09-17 2010-07-07 財団法人北九州産業学術推進機構 分割スペクトル系列の振幅頻度分布の形状に基づく目的音声の復元方法
US6937737B2 (en) 2003-10-27 2005-08-30 Britannia Investment Corporation Multi-channel audio surround sound from front located loudspeakers
TWI233091B (en) 2003-11-18 2005-05-21 Ali Corp Audio mixing output device and method for dynamic range control
US7394903B2 (en) 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
AU2005219956B2 (en) * 2004-03-01 2009-05-28 Dolby Laboratories Licensing Corporation Multichannel audio coding
US7805313B2 (en) 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
SE0400997D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Efficient coding of multi-channel audio
US8843378B2 (en) 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
JP4934427B2 (ja) 2004-07-02 2012-05-16 パナソニック株式会社 音声信号復号化装置及び音声信号符号化装置
KR100745688B1 (ko) 2004-07-09 2007-08-03 한국전자통신연구원 다채널 오디오 신호 부호화/복호화 방법 및 장치
EP1779385B1 (en) 2004-07-09 2010-09-22 Electronics and Telecommunications Research Institute Method and apparatus for encoding and decoding multi-channel audio signal using virtual source location information
US7391870B2 (en) 2004-07-09 2008-06-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E V Apparatus and method for generating a multi-channel output signal
KR100663729B1 (ko) 2004-07-09 2007-01-02 한국전자통신연구원 가상 음원 위치 정보를 이용한 멀티채널 오디오 신호부호화 및 복호화 방법 및 장치
ES2373728T3 (es) 2004-07-14 2012-02-08 Koninklijke Philips Electronics N.V. Método, dispositivo, aparato codificador, aparato decodificador y sistema de audio.
JP4892184B2 (ja) * 2004-10-14 2012-03-07 パナソニック株式会社 音響信号符号化装置及び音響信号復号装置
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US8204261B2 (en) 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
SE0402650D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
US7787631B2 (en) 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
KR100682904B1 (ko) * 2004-12-01 2007-02-15 삼성전자주식회사 공간 정보를 이용한 다채널 오디오 신호 처리 장치 및 방법
US7903824B2 (en) 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
MX2007011915A (es) * 2005-03-30 2007-11-22 Koninkl Philips Electronics Nv Codificacion de audio multicanal.
US20060262936A1 (en) 2005-05-13 2006-11-23 Pioneer Corporation Virtual surround decoder apparatus
KR20060122693A (ko) * 2005-05-26 2006-11-30 엘지전자 주식회사 다운믹스된 오디오 신호에 공간 정보 비트스트림을삽입하는 프레임 크기 조절방법
US8214220B2 (en) 2005-05-26 2012-07-03 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
MX2007015118A (es) 2005-06-03 2008-02-14 Dolby Lab Licensing Corp Aparato y metodo para codificacion de senales de audio con instrucciones de decodificacion.
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
WO2007013783A1 (en) 2005-07-29 2007-02-01 Lg Electronics Inc. Method for processing audio signal
US20070083365A1 (en) 2005-10-06 2007-04-12 Dts, Inc. Neural network classifier for separating audio sources from a monophonic audio signal
EP1640972A1 (en) 2005-12-23 2006-03-29 Phonak AG System and method for separation of a users voice from ambient sound
JP4944902B2 (ja) 2006-01-09 2012-06-06 ノキア コーポレイション バイノーラルオーディオ信号の復号制御
BRPI0713236B1 (pt) 2006-07-07 2020-03-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Conceito para combinação de múltiplas fontes de áudio parametricamente codificadas
JP4399835B2 (ja) * 2006-07-07 2010-01-20 日本ビクター株式会社 音声符号化方法及び音声復号化方法
JP5281575B2 (ja) 2006-09-18 2013-09-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオオブジェクトのエンコード及びデコード
JP5238706B2 (ja) * 2006-09-29 2013-07-17 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号のエンコーディング/デコーディング方法及びその装置
PL2068307T3 (pl) * 2006-10-16 2012-07-31 Dolby Int Ab Udoskonalony sposób kodowania i odtwarzania parametrów w wielokanałowym kodowaniu obiektów poddanych procesowi downmiksu
BRPI0715312B1 (pt) 2006-10-16 2021-05-04 Koninklijke Philips Electrnics N. V. Aparelhagem e método para transformação de parâmetros multicanais
JP5302207B2 (ja) 2006-12-07 2013-10-02 エルジー エレクトロニクス インコーポレイティド オーディオ処理方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006008697A1 (en) * 2004-07-14 2006-01-26 Koninklijke Philips Electronics N.V. Audio channel conversion
WO2006084916A2 (en) * 2005-02-14 2006-08-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Parametric joint-coding of audio sources

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511053A (ja) * 2009-10-20 2013-03-28 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン ダウンミックス信号表現に基づいてアップミックス信号表現を生成するための装置、マルチチャネルオーディオ信号を表現するビットストリームを生成するための装置、歪制御信号化を用いる方法、コンピュータプログラム及びビットストリーム
JP2013511738A (ja) * 2009-11-20 2013-04-04 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ダウンミックス信号表現に基づくアップミックス信号を提供する装置、マルチチャネルオーディオ信号を表しているビットストリームを提供する装置、方法、コンピュータプログラム、および線形結合パラメータを使用してマルチチャネルオーディオ信号を表しているビットストリーム
US10477339B2 (en) 2011-07-01 2019-11-12 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US10327092B2 (en) 2011-07-01 2019-06-18 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
JP2019095813A (ja) * 2011-07-01 2019-06-20 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号処理システム及び方法
JP2019144583A (ja) * 2011-07-01 2019-08-29 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号処理システム及び方法
JP2020057014A (ja) * 2011-07-01 2020-04-09 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号処理システム及び方法
US10904692B2 (en) 2011-07-01 2021-01-26 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US11412342B2 (en) 2011-07-01 2022-08-09 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
US11962997B2 (en) 2011-07-01 2024-04-16 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
JP2015531078A (ja) * 2012-07-31 2015-10-29 インテレクチュアル ディスカバリー シーオー エルティディIntellectual Discovery Co.,Ltd. オーディオ信号処理方法および装置
JP2021514164A (ja) * 2018-02-19 2021-06-03 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オブジェクトベースの空間オーディオマスタリングのための装置および方法
JP7277475B2 (ja) 2018-02-19 2023-05-19 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オブジェクトベースの空間オーディオマスタリングのための装置および方法
KR20210027330A (ko) * 2019-07-25 2021-03-10 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법
KR102471718B1 (ko) * 2019-07-25 2022-11-28 한국전자통신연구원 객체 기반 오디오를 제공하는 방송 송신 장치 및 방법, 그리고 방송 재생 장치 및 방법

Also Published As

Publication number Publication date
US20100010821A1 (en) 2010-01-14
US20080199026A1 (en) 2008-08-21
BRPI0719884A2 (pt) 2014-02-11
JP5450085B2 (ja) 2014-03-26
EP2122613A1 (en) 2009-11-25
KR101128815B1 (ko) 2012-03-27
US8428267B2 (en) 2013-04-23
US20100010818A1 (en) 2010-01-14
WO2008069593A1 (en) 2008-06-12
CN101553868A (zh) 2009-10-07
US20080205670A1 (en) 2008-08-28
MX2009005969A (es) 2009-06-16
EP2102857A4 (en) 2010-01-20
EP2102857B1 (en) 2018-07-18
KR101100223B1 (ko) 2011-12-28
WO2008069595A1 (en) 2008-06-12
AU2007328614A1 (en) 2008-06-12
US20080205671A1 (en) 2008-08-28
EP2122613A4 (en) 2010-01-13
US7783049B2 (en) 2010-08-24
WO2008069597A1 (en) 2008-06-12
US7783051B2 (en) 2010-08-24
KR101100222B1 (ko) 2011-12-28
EP2122612A1 (en) 2009-11-25
CN101553867A (zh) 2009-10-07
JP5302207B2 (ja) 2013-10-02
CN101553865B (zh) 2012-01-25
CN101553866A (zh) 2009-10-07
US20080192941A1 (en) 2008-08-14
KR20090100386A (ko) 2009-09-23
EP2102856A1 (en) 2009-09-23
CN101553868B (zh) 2012-08-29
US20100010819A1 (en) 2010-01-14
EP2102858A1 (en) 2009-09-23
KR20090098865A (ko) 2009-09-17
EP2102856A4 (en) 2010-01-13
US7986788B2 (en) 2011-07-26
EP2187386A2 (en) 2010-05-19
EP2122612A4 (en) 2010-01-13
US7783050B2 (en) 2010-08-24
CA2670864C (en) 2015-09-29
US20100014680A1 (en) 2010-01-21
KR20090098864A (ko) 2009-09-17
CN101553865A (zh) 2009-10-07
US7715569B2 (en) 2010-05-11
US7783048B2 (en) 2010-08-24
TW200834544A (en) 2008-08-16
US20100010820A1 (en) 2010-01-14
EP2102857A1 (en) 2009-09-23
KR101111521B1 (ko) 2012-03-13
JP2010511908A (ja) 2010-04-15
EP2102858A4 (en) 2010-01-20
CN101568958A (zh) 2009-10-28
JP5290988B2 (ja) 2013-09-18
US8005229B2 (en) 2011-08-23
EP2187386B1 (en) 2020-02-05
CN101568958B (zh) 2012-07-18
CN101553867B (zh) 2013-04-17
JP5209637B2 (ja) 2013-06-12
KR20090098863A (ko) 2009-09-17
KR20090098866A (ko) 2009-09-17
JP2010511910A (ja) 2010-04-15
US8340325B2 (en) 2012-12-25
US8488797B2 (en) 2013-07-16
KR101111520B1 (ko) 2012-05-24
WO2008069596A1 (en) 2008-06-12
US20080205657A1 (en) 2008-08-28
CN101553866B (zh) 2012-05-30
WO2008069594A1 (en) 2008-06-12
EP2122613B1 (en) 2019-01-30
EP2187386A3 (en) 2010-07-28
CA2670864A1 (en) 2008-06-12
JP2010511909A (ja) 2010-04-15
US20090281814A1 (en) 2009-11-12
JP5270566B2 (ja) 2013-08-21
AU2007328614B2 (en) 2010-08-26
BRPI0719884B1 (pt) 2020-10-27
US8311227B2 (en) 2012-11-13
JP2010511911A (ja) 2010-04-15
EP2122612B1 (en) 2018-08-15
TWI371743B (en) 2012-09-01

Similar Documents

Publication Publication Date Title
JP5302207B2 (ja) オーディオ処理方法及び装置
RU2417549C2 (ru) Способ и устройство для обработки аудиосигнала

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130313

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130620

R150 Certificate of patent or registration of utility model

Ref document number: 5302207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250