JP5525527B2 - 変換された空間オーディオ信号を決定するための装置 - Google Patents

変換された空間オーディオ信号を決定するための装置 Download PDF

Info

Publication number
JP5525527B2
JP5525527B2 JP2011522435A JP2011522435A JP5525527B2 JP 5525527 B2 JP5525527 B2 JP 5525527B2 JP 2011522435 A JP2011522435 A JP 2011522435A JP 2011522435 A JP2011522435 A JP 2011522435A JP 5525527 B2 JP5525527 B2 JP 5525527B2
Authority
JP
Japan
Prior art keywords
component
omnidirectional
directional
input
wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011522435A
Other languages
English (en)
Other versions
JP2011530915A (ja
Inventor
ガルド ジョヴァンニ デル
ファビアン キュッヒ
マルクス カリンジャー
ビーレ プルッキ
ミッコ−ヴィレ ライティネン
リヒャルト シュルツ−アムリング
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2011530915A publication Critical patent/JP2011530915A/ja
Application granted granted Critical
Publication of JP5525527B2 publication Critical patent/JP5525527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本発明は、オーディオ処理、特に空間オーディオ処理および異なる空間オーディオフォーマットの変換の分野にある。
DirACオーディオコーディング(DirAC=方向オーディオコーディング(Directional Audio Coding))は、空間オーディオの再生および処理のための方法である。従来のシステムは、記録されたサウンドの2次元および3次元の高品質再生、テレビ会議アプリケーション、指向性マイクロホンおよびステレオからサラウンドへのアップミキシングにおいてDirACを適用する(参照:
V. PulkkiおよびC. Faller、方向オーディオコーディング:フィルタバンクおよびSTFTベースの設計(Directional audio coding:Filterbank and STFT−based design)、in 120th AES Convention、May 20−23、2006、Paris、France May 2006、
V. PulkkiおよびC. Faller、空間サウンド再生およびステレオアップミキシングにおける方向オーディオコーディング(Directional audio coding in spatial sound reproduction and stereo upmixing)、in AES 28th International Conference、Pitea、Sweden、June 2006、
V. Pulkki、方向オーディオコーディングを用いた空間サウンド再生(Spatial sound reproduction with directional audio coding)、Journal of the Audio Engineering Society、55(6):503−516、June 2007、
Jukka Ahonen、V. PulkkiおよびTapio Lokki、方向オーディオコーディングのためのテレビ会議アプリケーションおよびB−フォーマットマイクロホンアレイ(Teleconference application and B−format microphone array for directional audio coding)、in 30th AES International Conference)。
Figure 0005525527
DirACストリームは、方向メタデータを有するオーディオの1−4チャンネルからなる。テレビ会議においておよびの他の場合において、ストリームは、メタデータを有する単一のオーディオチャンネルだけからなり、モノラルDirACストリームと呼ばれる。これは、単一のオーディオチャンネルだけが例えば話す人の間に良好な空間分離を与えるサイド情報とともに送信される必要があるように、空間オーディオを表す非常にコンパクトな方法である。しかしながら、そのような場合、例えば反響されたまたはアンビエントなサウンドシナリオなどのいくつかのサウンドタイプが、制限された品質で再生されることがある。これらの場合により良好な品質を得るために、さらならオーディオチャンネルを送信する必要がある。
B−フォーマットからDirACへの変換は、V. Pulkki、マルチチャンネルリスニングにおける自然のまたは修正された空間印象を再生するための方法(A method for reproducing natural or modified spatial impression in multichannel listening)、国際公開第WO2004/077884A1号、2004年9月に記載されている。方向オーディオコーディングは、空間サウンドの分析および再生の効率的な方法である。DirACは、空間サウンドの知覚に関連する機能に基づく音場のパラメトリック表現、すなわち、周波数サブバンドにおいて音場のDOA(DOA=到来方向)および拡散を用いる。実際に、DirACは、音場のDOAが正しく再生されるときに両耳間時間差(ITD)および両耳間レベル差(ILD)が正しく知覚され、拡散が正確に再生される場合に両耳間コヒーレンス(IC)が正しく知覚されると仮定する。これらのパラメータ、すなわちDOAおよび拡散は、モノラルDirACストリームと呼ばれるモノラル信号をともなうサイド情報を表す。
Figure 0005525527
Figure 0005525527
DirACおよび例えばMPEG Surroundなどのパラメトリックマルチチャンネルオーディオコーディング間に相当の相違点がある(参照:Lars Villemocs、Juergen Herre、Jeroen Breebaart、Gerard Hotho、Sascha Disch、Heiko PurnhagenおよびKristofer Kjrling、MPEG surround:空間オーディオコーディングのための次回のISO規格(The forthcoming ISO standard for spatial audio coding)、in AES 28th International Conference、Pitea、Sweden、June 2006)が、それらは同様の処理構造を共有する。MPEG Surroundは異なるスピーカチャンネルの時間/周波数分析に基づくが、DirACは入力として一致するマイクロホンのチャンネルをとり、それは音場を1点で効果的に表す。このように、DirACも、空間オーディオのための効率的な記録技術を表す。
空間オーディオを取扱う他のシステムは、SAOC(SAOC=空間オーディオオブジェクトコーディング(Spatial Audio Object Coding))であり(参照:Jonas Engdegard、Barbara Resch、Cornelia Falch、Oliver Hellmuth、Johannes Hilpert、Andreas Hoelzer、Leonid Terentiev、Jeroen Breebaart、Jeroen Koppens、Erik Schuijers、およびWerner Oomen、空間オーディオオブジェクト(SAOC)パラメトリックオブジェクトベースのオーディオコーディングに関する次回のMPEG規格(Spatial audio object (SAOC) the upcoming MPEG standard on parametric object based audio coding)、in 12th AES Convention、May 17−20、2008、Amsterdam、The Netherlands、2008)、現在規格化ISO/MPEGに基づく。それは、MPEG Surroundのレンダリングエンジンを構築し、さらに、異なる音源をオブジェクトとして扱う。このオーディオコーディングは、ビットレートに関して非常に高い効率を提供し、さらに、再生側で相互作用の前例のない自由を与える。この方法は、いくつかの他の新しいアプリケーションと同様に、レガシーシステムにおいて新しい強力な機能および機能性を約束する。
国際公開第WO2004/077884A1号
V. PulkkiおよびC. Faller、方向オーディオコーディング:フィルタバンクおよびSTFTベースの設計(Directional audio coding:Filterbank and STFT−based design)、in 120th AES Convention、May 20−23、2006、Paris、France May 2006 V. PulkkiおよびC. Faller、空間サウンド再生およびステレオアップミキシングにおける方向オーディオコーディング(Directional audio coding in spatial sound reproduction and stereo upmixing)、in AES 28th International Conference、Pitea、Sweden、June 2006 V. Pulkki、方向オーディオコーディングを用いた空間サウンド再生(Spatial sound reproduction with directional audio coding)、Journal of the Audio Engineering Society、55(6):503−516、June 2007 Jukka Ahonen、V. PulkkiおよびTapio Lokki、方向オーディオコーディングのためのテレビ会議アプリケーションおよびB−フォーマットマイクロホンアレイ(Teleconference application and B−format microphone array for directional audio coding)、in 30th AES International Conference Michael Gerzon、サラウンドサウンド心理音響(Surround sound psychoacoustics)、in Wireless World、volume 80、pages 483−486、December 1974 Lars Villemocs、Juergen Herre、Jeroen Breebaart、Gerard Hotho、Sascha Disch、Heiko PurnhagenおよびKristofer Kjrling、MPEG surround:空間オーディオコーディングのための次回のISO規格(The forthcoming ISO standard for spatial audio coding)、in AES 28th International Conference、Pitea、Sweden、June 2006 Jonas Engdegard、Barbara Resch、Cornelia Falch、Oliver Hellmuth、Johannes Hilpert、Andreas Hoelzer、Leonid Terentiev、Jeroen Breebaart、Jeroen Koppens、Erik Schuijers、およびWerner Oomen、空間オーディオオブジェクト(SAOC)パラメトリックオブジェクトベースのオーディオコーディングに関する次回のMPEG規格(Spatial audio object (SAOC) the upcoming MPEG standard on parametric object based audio coding)、in 12th AES Convention、May 17−20、2008、Amsterdam、The Netherlands、2008
本発明の目的は、空間処理のための改良された概念を提供することである。
その目的は、請求項1による変換された空間オーディオ信号を決定するための装置および請求項15による対応する方法によって達成される。
本発明は、例えばモノラルDirACストリームとして符号化される空間オーディオ信号をB−フォーマット信号に変換するときに、改良された空間処理を達成することができるという知見に基づく。実施形態において、変換されたB−フォーマット信号は、いくつかの他のオーディオ信号に加算されさらにDirACストリームへ符号化される前に、処理されまたはレンダリングされてもよい。実施形態は、例えば、異なる種類のDirACおよびB−フォーマットストリーム、基礎になるDirACなどをミックスする、異なるアプリケーションを有することができる。実施形態は、逆演算を国際公開第WO2004/077884A1号に、すなわち、モノラルDirACストリームからB−フォーマットへの変換を導入することができる。
本発明は、オーディオ信号が方向成分に変換される場合、改良された処理を達成することができるという知見に基づく。言い換えれば、本発明の知見は、空間オーディオ信号のフォーマットが、例えばB−フォーマット指向性マイクロホンによって記録されるように方向成分に対応するときに、改良された空間処理を達成することができることである。さらに、本発明の知見は、異なる音源から方向または全方向成分を一緒におよび増加した効率で処理することができることである。言い換えれば、特に多数の音源から空間オーディオを処理するときに、多数の音源の信号がそれらの全方向および方向成分のフォーマットにおいて利用できる場合、これらを一緒に処理することができるように、処理をより効率的に行うことができる。したがって、実施形態において、オーディオエフェクトジェネレータまたはオーディオプロセッサは、多数の音源の結合された成分を処理することによって、より効率的に用いることができる。
実施形態において、空間オーディオ信号は、媒体データには送信において1つのオーディオチャンネルだけをともなうDirACストリーミング技術を意味するモノラルDirACストリームとして表されてもよい。このフォーマットは、例えば、多数の方向成分を有するB−フォーマットストリームに変換することができる。実施形態は、空間オーディオ信号を方向成分に変換することによって、改良された空間処理を可能にすることができる。
実施形態は、モノラルDirACデコーディングに勝る利点を提供することができ、そこにおいて、さらなる空間処理が、スピーカ信号を作り出す前に決定される方向オーディオ成分に基づいて可能であるという点で、1つのオーディオチャンネルだけがすべてのスピーカ信号を作り出すために用いられる。実施形態は、残響サウンドの作成における問題が低減されるという利点を提供することができる。
実施形態において、例えば、DirACストリームは、モノラルオーディオ信号の代わりにステレオオーディオ信号を用いることができ、そこにおいて、ステレオチャンネルは、L(L=左ステレオチャンネル)およびR(R=右ステレオチャンネル)であって、DirACデコーディングにおいて用いられるために送信される。実施形態は、残響サウンドのためのより良好な品質を達成することができ、例えば、ステレオスピーカシステムとの直接互換性を提供することができる。
実施形態は、仮想マイクロホンDirACデコーディングが可能であるという利点を提供することができる。仮想マイクロホンDirACデコーディングに関する詳細は、V. Pulkki、方向オーディオコーディングを用いた空間サウンド再生(Spatial sound reproduction with directional audio coding)、Journal of the Audio Engineering Society、55(6):503−516、June 2007に見られる。これらの実施形態は、仮想マイクロホンをスピーカの位置に向けて配置し、点状の音源を有する、位置がDirACパラメータによって決定されるスピーカのためのオーディオ信号を得る。実施形態は、変換によって、オーディオ信号の便利な線形結合が可能にされるという利点を提供することができる。
本発明の実施形態は、添付図面を用いて詳述される。
図1aは、変換された空間オーディオ信号を決定するための装置の実施形態を示す。 図1bは、平面波のためのガウス平面において圧力および粒子速度ベクトルの成分を示す。 図2は、モノラルDirACストリームをB−フォーマット信号に変換するための他の実施形態を示す。 図3は、多数の変換された空間オーディオ信号を結合するための実施形態を示す。 図4aは、異なるオーディオエフェクトを適用する多数のDirACベースの空間オーディオ信号を結合するための実施形態を示す。 図4bは、異なるオーディオエフェクトを適用する多数のDirACベースの空間オーディオ信号を結合するための実施形態を示す。 図4cは、異なるオーディオエフェクトを適用する多数のDirACベースの空間オーディオ信号を結合するための実施形態を示す。 図4dは、異なるオーディオエフェクトを適用する多数のDirACベースの空間オーディオ信号を結合するための実施形態を示す。 図5は、オーディオエフェクトジェネレータの実施形態を表現する。 図6は、方向成分に関する多数のオーディオエフェクトを適用するオーディオエフェクトジェネレータの実施形態を示す。 図7は、当該技術分野のDirACエンコーダの状態を示す。
図1aは、入力された空間オーディオ信号から、変換された空間オーディオ信号を決定するための装置100を示し、変換された空間オーディオ信号は、全方向成分および少なくとも1つの方向成分(X;Y;Z)を有し、入力された空間オーディオ信号は、入力されたオーディオ表現(W)および入力された到来方向(φ)を有する。
装置100は、入力されたオーディオ表現(W)および入力された到来方向(φ)に基づいて波場量および波到来方向量を含む波表現を推定するための推定器110を含む。さらに、装置100は、全方向成分および少なくとも1つの方向成分を得るために波場量および波到来方向量を処理するためのプロセッサ120を含む。推定器110は、平面波表現として波表現を推定するために構成されてもよい。
実施形態において、プロセッサは、全方向オーディオ成分(W´)として入力されたオーディオ表現(W)を提供するために構成されてもよい。言い換えれば、全方向オーディオ成分W´は、入力されたオーディオ表現Wに等しくてもよい。したがって、図1aにおける点線によれば、入力されたオーディオ表現は、推定器110、プロセッサ120または両方を迂回することができる。他の実施態様において、全方向オーディオ成分W´は、入力されたオーディオ表現Wとともに、プロセッサ120によって処理される波強度および波到来方向に基づくものであってもよい。実施形態において、多数の方向オーディオ成分(X;Y;Z)は、例えば、異なる空間方向に対応する第1(X)、第2(Y)および/または第3(Z)の方向オーディオ成分として、処理されてもよい。実施形態において、例えば、3つの異なる方向オーディオ成分(X;Y;Z)は、デカルト座標系の異なる方向に従って導き出されてもよい。
推定器110は、波場振幅および波場位相に関して波場量を推定するために構成することができる。言い換えれば、実施形態において、波場量は、複素数値量として推定されてもよい。いくつかの実施形態において、波場振幅は、音圧大きさに対応することができ、さらに、波場位相は、音圧位相に対応することができる。
実施形態において、波到来方向量は、例えばベクトル、1つ以上の角度などによって表されるいかなる方向量にも対応することができ、さらに、それは、例えば強度ベクトル、粒子速度ベクトルなどとしてオーディオ成分を表すいかなる方向量から導き出されてもよい。波場量は、実数値または複素数値でありうる、圧力信号、粒子速度振幅または大きさ、ラウドネスなどに対応する、オーディオ成分を表すいかなる物理量にも対応することができる。さらに、量(measure)は、時間および/または周波数領域において考慮されうる。
実施形態は、入力されたストリームのそれぞれのための平面波表現の推定に基づくものであってもよく、それは、図1aにおいて推定器110によって行うことができる。言い換えれば、波場量は、平面波表現を用いてモデル化されてもよい。一般に、平面波または一般の波のいくつかの等価な徹底的な(すなわち、完全な)記述が存在する。以下において、数学的記述が、異なる成分のための拡散パラメータおよび到来方向または方向量を計算するために導入される。ほんの少数の記述だけが例えば圧力、粒子速度などのように物理量に直接関するにもかかわらず、1つがその後に例として表される波表現を記載するために無限数の異なる方法が存在する可能性があり、本発明の実施形態に決して制限されない。いかなる結合も、波場量および波到来方向量に対応することができる。
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
本発明の実施形態は、モノラルDirACストリームをB−フォーマット信号に変換する方法を提供することができる。モノラルDirACストリームは、例えば、全指向性マイクロホンによって捕獲される圧力信号によっておよびサイド情報によって表すことができる。サイド情報は、サウンドの拡散および到来方向の時間周波数依存量を含んでもよい。
Figure 0005525527
入力された到来方向および波到来方向量は、入力された空間オーディオ信号の記録位置に対応する基準点を参照することができ、すなわち、言い換えれば、すべての方向は、同じ基準点を参照することができる。基準点は、音場を記録するために、マイクロホンが配置され、または、多数の指向性マイクロホンが配置される位置であってもよい。
実施形態において、変換された空間オーディオ信号は、第1(X)、第2(Y)および第3(Z)の方向成分を含んでもよい。プロセッサ120は、第1(X)および/または第2(Y)および/または第3(Z)の方向成分および/または全方向オーディオ成分を得るために、さらに波場量および波到来方向量を処理するために構成することができる。
以下において、表記法およびデータモデルが導入される。
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
B−フォーマットが本質的にスピーカセットアップ独立表現であるという事実のため、実施形態は、異なるオーディオデバイスによって話される共通言語としてB−フォーマットを用いることができ、1つのものから他の1つのものへの変換がB−フォーマットに中間変換を介して実施形態によって可能にすることができることを意味する。例えば、実施形態は、B−フォーマットにおいて異なる合成されたサウンド環境を有する異なる記録された音響環境から、DirACストリームを連結することができる。モノラルDirACストリームとB−フォーマットストリームの連結は、実施形態によって可能にされてもよい。
実施形態は、モノラルDirACストリームを有するいかなるサラウンドフォーマットにおいてマルチチャンネルオーディオ信号の連結を可能にすることができる。さらに、実施形態は、いかなるB−フォーマットストリームを有するモノラルDirACストリームの連結を可能にすることができる。さらに、実施形態は、モノラルDirACストリームとB−フォーマットストリームとの連結を可能にすることができる。
これらの実施形態は、その後に詳述されるように、例えば、残響の作成またはオーディオエフェクトの導入において利点を提供することができる。音楽制作において、反響器は、処理されたオーディオを仮想空間に知覚的に配置するエフェクトデバイスとして用いることができる。仮想現実において、残響の合成は、仮想音源が閉空間内で例えばルームまたはコンサートホールにおいて聴覚化されるときに、必要かもしれない。
残響のための信号が利用できるときに、そのような聴覚化は、ドライサウンドおよび反響されたサウンドを異なるDirACストリームに適用することによって実施形態によって実行することができる。実施形態は、DirACコンテクストにおいて反響された信号をどのように処理するかに関する異なる方法を用いることができ、そこにおいて、実施形態は、リスナーの回りに最大限に拡散される反響されたサウンドを生成することができる。
図3は、結合された変換空間オーディオ信号を決定するための装置300の実施形態を示し、結合された変換空間オーディオ信号は、少なくとも第1の結合された成分および第2の結合された成分を有し、そこにおいて、結合された変換空間オーディオ信号は、第1および第2の入力されたオーディオ表現および第1および第2の到来方向を有する第1および第2の入力された空間オーディオ信号から決定される。
装置300は、第1の装置101から第1の全方向成分および少なくとも1つの方向成分を有する第1の変換された信号を提供するために、上述の説明による変換された空間オーディオ信号を決定するための装置101の第1の実施形態を含む。さらに、装置300は、第2の装置102から第2の全方向成分および少なくとも1つの方向成分を有する第2の変換された信号を提供するために上述の説明による変換された空間オーディオ信号を決定するための装置102の他の実施形態を含む。
一般に、実施形態は、2つの装置100だけを含むことに制限されず、一般に、複数の上述の装置が、装置300に含まれてもよく、例えば、装置300は、複数のDirAC信号を結合するために構成されてもよい。
図3によれば、装置300は、第1のレンダリングされた成分を得るために、第1の装置101からの第1の全方向または第1の方向オーディオ成分をレンダリングするためのオーディオエフェクトジェネレータ301をさらに含む。
さらに、装置300は、第1の結合された成分を得るために、第1のレンダリングされた成分と第1および第2の全方向成分を結合するための、または、第1のレンダリングされた成分と第1の装置101および第2の装置102からの方向成分を結合するための第1の結合器311を含む。装置300は、第2の結合された成分を得るために、第1および第2の全方向成分または第1または第2の装置101および102からの方向成分を結合するための第2の結合器312をさらに含む。
言い換えれば、オーディオエフェクトジェネレータ301は、第1の全方向成分をレンダリングすることができ、そして、第1の結合器311は、第1の結合された成分を得るために、レンダリングされた第1の全方向成分、第1の全方向成分および第2の全方向成分を結合することができる。それから、第1の結合された成分は、例えば、結合された全方向成分に対応することができる。この実施形態において、第2の結合器312は、例えば、第1の結合された方向成分に対応する第2の結合された成分を得るために、第1の装置101からの方向成分および第2の装置からの方向成分を結合することができる。
他の実施態様において、オーディオエフェクトジェネレータ301は、方向成分をレンダリングすることができる。これらの実施形態において、結合器311は、この場合に結合された方向成分に対応する第1の結合された成分を得るために、第1の装置101からの方向成分、第2の装置102からの方向成分および第1のレンダリングされた成分を結合することができる。この実施形態において、第2の結合器312は、第2の結合された成分すなわち結合された全方向成分を得るために、第1の装置101および第2の装置102からの第1および第2の全方向成分を結合することができる。
言い換えれば、図3は、第1および第2の入力された空間オーディオ信号から、結合された変換空間オーディオ信号を決定するように構成される装置300の実施形態を示し、結合された変換空間オーディオ信号は、少なくとも第1の結合された成分および第2の結合された成分を有し、第1の入力された空間オーディオ信号は、第1の入力されたオーディオ表現および第1の到来方向を有し、第2の空間入力信号は、第2の入力されたオーディオ表現および第2の到来方向を有する。
装置300は、入力された空間オーディオ信号から、変換された空間オーディオ信号を決定するように構成される装置100を含む第1の装置101を含み、変換された空間オーディオ信号は、全方向オーディオ成分W´および少なくとも1つの方向オーディオ成分X;Y;Zを有し、入力された空間オーディオ信号は、入力されたオーディオ表現および入力された到来方向を有する。装置100は、入力されたオーディオ表現および入力された到来方向に基づいて、波表現を推定するように構成される推定器110を含み、波表現は、波場量および波到来方向量を含む。
さらに、装置100は、全方向成分(W´)および少なくとも1つの方向成分(X;Y;Z)を得るために、波場量および波到来方向量を処理するように構成されるプロセッサ120を含む。第1の装置101は、第1の入力された空間オーディオ信号に基づいて、第1の装置101から第1の全方向成分および少なくとも1つの方向成分を有する第1の変換された信号を提供するように構成される。
さらに、装置300は、第2の入力された空間オーディオ信号に基づいて、第2の装置102から第2の全方向成分および少なくとも1つの方向成分を有する第2の変換された信号を提供するように構成される他の装置100を含む第2の装置102を含む。さらに、装置300は、第1のレンダリングされた成分を得るために第1の全方向成分をレンダリングし、または、第1のレンダリングされた成分を得るために第1の装置101からの方向成分をレンダリングするように構成されるオーディオエフェクトジェネレータ301を含む。
さらに、装置300は、第1の結合された成分を得るために、第1のレンダリングされた成分、第1の全方向成分および第2の全方向成分を結合し、または、第1のレンダリングされた成分、第1の装置101からの方向成分および第2の装置102からの方向成分を結合するように構成される第1の結合器311を含む。装置300は、第2の結合された成分を得るために、第1の装置101からの方向成分および第2の装置102からの方向成分を結合し、または、第1の全方向成分および第2の全方向成分を結合するように構成される第2の結合器312を含む。
言い換えれば、図3は、第1および第2の入力された空間オーディオ信号から、結合された変換空間オーディオ信号を決定するように構成される装置300の実施形態を示し、結合された変換空間オーディオ信号は、少なくとも第1の結合された成分および第2の結合された成分を有し、第1の入力された空間オーディオ信号は、第1の入力されたオーディオ表現および第1の到来方向を有し、第2の空間入力信号は、第2の入力されたオーディオ表現および第2の到来方向を有する。装置300は、第1の入力された空間オーディオ信号から、第1の変換された信号を決定するように構成される第1の手段101を含み、第1の変換された信号は、第1の全方向成分および少なくとも1つの第1の方向成分(X;Y;Z)を有する。第1の手段101は、上述の装置100の実施形態を含んでもよい。
第1の手段101は、第1の入力されたオーディオ表現および第1の入力された到来方向に基づいて、第1の波表現を推定するように構成される推定器を含み、第1の波表現は、第1の波場量および第1の波到来方向量を含む。推定器は、上述の推定器110の実施形態に対応してもよい。
第1の手段101は、第1の全方向成分および少なくとも1つの第1の方向成分を得るために、第1の波場量および第1の波到来方向量を処理するように構成されるプロセッサをさらに含む。プロセッサは、上述のプロセッサ120の実施形態に対応してもよい。
第1の手段101は、第1の全方向成分および少なくとも1つの第1の方向成分を有する第1の変換された信号を提供するようにさらに構成されてもよい。
さらに、装置300は、第2の入力された空間オーディオ信号に基づいて、第2の全方向成分および少なくとも1つの第2の方向成分を有する第2の変換された信号を提供するように構成される第2の手段102を含む。第2の手段は、上述の装置100の実施形態を含んでもよい。
第2の手段102は、第2の入力されたオーディオ表現および第2の入力された到来方向に基づいて、第2の波表現を推定するように構成される他の推定器をさらに含み、第2の波表現は、第2の波場量および第2の波到来方向量を含む。他の推定器は、上述の推定器110の実施形態に対応してもよい。
第2の手段102は、第2の全方向成分および少なくとも1つの第2の方向成分を得るために、第2の波場量および第2の波到来方向量を処理するように構成される他のプロセッサをさらに含む。他のプロセッサは、上述のプロセッサ120の実施形態に対応してもよい。
さらに、第2の手段101は、第2の全方向成分および少なくとも1つの第2の方向成分を有する第2の変換された信号を提供するように構成される。
さらに、装置300は、第1のレンダリングされた成分を得るために第1の全方向成分をレンダリングし、または、第1のレンダリングされた成分を得るために第1の方向成分をレンダリングするように構成されるオーディオエフェクトジェネレータ301を含む。装置300は、第1の結合された成分を得るために、第1のレンダリングされた成分、第1の全方向成分および第2の全方向成分を結合し、または、第1のレンダリングされた成分、第1の方向成分および第2の方向成分を結合するように構成される第1の結合器311を含む。
さらに、装置300は、第2の結合された成分を得るために、第1の方向成分および第2の方向成分を結合し、または、第1の全方向成分および第2の全方向成分を結合するように構成される第2の結合器312を含む。
実施形態において、第1および第2の入力された空間オーディオ信号から、結合された変換空間オーディオ信号を決定するための方法が実行されうり、結合された変換空間オーディオ信号は、少なくとも第1の結合された成分および第2の結合された成分を有し、第1の入力された空間オーディオ信号は、第1の入力されたオーディオ表現および第1の到来方向を有し、第2の空間入力信号は、第2の入力されたオーディオ表現および第2の到来方向を有する。
その方法は、第1の入力されたオーディオ表現および第1の入力された到来方向に基づいて、第1の波表現を推定するサブステップを用いることによって、第1の入力された空間オーディオ信号から、第1の変換された空間オーディオ信号を決定するステップであって、第1の変換された空間オーディオ信号は、第1の全方向成分(W´)および少なくとも1つの第1の方向成分(X;Y;Z)を有し、第1の波表現は、第1の波場量および第1の波到来方向量を含む、決定するステップと、第1の全方向成分(W´)および少なくとも1つの第1の方向成分(X;Y;Z)を得るために、第1の波場量および第1の波到来方向量を処理するステップとを含んでもよい。
その方法は、第1の全方向成分および少なくとも1つの第1の方向成分を有する第1の変換された信号を提供するステップをさらに含んでもよい。
さらに、その方法は、第2の入力されたオーディオ表現および第2の入力された到来方向に基づいて、第2の波表現を推定するサブステップを用いることによって、第2の入力された空間オーディオ信号から、第2の変換された空間オーディオ信号を決定するステップであって、第2の変換された空間オーディオ信号は、第2の全方向成分(W´)および少なくとも1つの第2の方向成分(X;Y;Z)を有し、第2の波表現は、第2の波場量および第2の波到来方向量を含む、決定するステップと、第2の全方向成分(W´)および少なくとも1つの第2の方向成分(X;Y;Z)を得るために、第2の波場量および第2の波到来方向量を処理するステップとを含んでもよい。
さらに、その方法は、第2の全方向成分および少なくとも1つの第2の方向成分を有する第2の変換された信号を提供するステップを含んでもよい。
その方法は、第1のレンダリングされた成分を得るために第1の全方向成分をレンダリングしまたは第1のレンダリングされた成分を得るために第1の方向成分をレンダリングするステップと、第1の結合された成分を得るために、第1のレンダリングされた成分、第1の全方向成分および第2の全方向成分を結合しまたは第1のレンダリングされた成分、第1の方向成分および第2の方向成分を結合するステップとをさらに含んでもよい。
さらに、その方法は、第2の結合された成分を得るために、第1の方向成分および第2の方向成分を結合しまたは第1の全方向成分および第2の全方向成分を結合するステップを含んでもよい。
上述の実施形態によれば、装置のそれぞれは、多数の方向成分、例えばX、YおよびZ成分を生成することができる。実施形態において、多数のオーディオエフェクトジェネレータが用いられてもよく、それは、破線のボックス302、303および304によって図3に示される。これらの任意のオーディオエフェクトジェネレータは、全方向および/または方向の入力信号に基づいて、対応するレンダリングされた成分を生成することができる。1つの実施形態において、オーディオエフェクトジェネレータは、全方向成分に基づいて方向成分をレンダリングすることができる。さらに、装置300は、例えば、3つの空間次元のために、全方向の結合された成分および複数の結合された方向成分を結合するために、多数の結合器、すなわち結合器311、312、313および314を含んでもよい。
装置300の構造の利点のうちの1つは、最大4つのオーディオエフェクトジェネレータが一般に無制限の数の音源をレンダリングするために必要であるということである。
図3において破線の結合器331、332、333および334によって示されるように、オーディオエフェクトジェネレータは、装置101および102からの方向または全方向成分の結合をレンダリングするために構成することができる。1つの実施形態において、オーディオエフェクトジェネレータ301は、第1のレンダリングされた成分を得るために、第1の装置101および第2の装置102の全方向成分の結合をレンダリングし、または、第1の装置101および第2の装置102の方向成分の結合をレンダリングするために構成することができる。図3において破線のパスによって示されるように、多数の成分の結合が、異なるオーディオエフェクトジェネレータに提供されてもよい。
1つの実施形態において、すべての音源のすべての全方向成分は、第1の装置101および第2の装置102によって表される図3において、多数のレンダリングされた成分を生成するために、結合されてもよい。図3に示される4つのパスのそれぞれにおいて、それぞれのオーディオエフェクトジェネレータが、音源から対応する方向または全方向成分に加算されるレンダリングされた成分を生成することができる。
さらに、図3に示すように、多数の遅延およびスケーリングステージ321および322が用いられてもよい。言い換えれば、それぞれの装置101または102は、その出力成分の1つ以上を遅延するために、その出力パスにおいて1つの遅延およびスケーリングステージ321または322を有してもよい。いくつかの実施形態において、遅延およびスケーリングステージは、それぞれの全方向成分だけを遅延しおよびスケーリングすることができる。一般に、遅延およびスケーリングステージは、全方向および方向成分のために用いられてもよい。
実施形態において、装置300は、音源および対応して複数のオーディオエフェクトジェネレータを表す複数の装置100を含んでもよく、そこにおいて、オーディオエフェクトジェネレータの数は、音源に対応する装置の数より少ない。すでに上述したように、1つの実施形態において、基本的に無制限の数の音源をともなう、最大4つのオーディオエフェクトジェネレータがあってもよい。実施形態において、オーディオエフェクトジェネレータは、反響器に対応してもよい。
図4aは、装置300の他の実施形態をさらに詳細に示す。図4aは、それぞれ、全方向オーディオ成分Wおよび3つの方向成分X、Y、Zを出力する2つの装置101および102を示す。図4aに示される実施形態によれば、装置101および102のそれぞれの全方向成分は、2つの遅延およびスケーリングステージ321および322に提供され、それらは、3つの遅延されおよびスケーリングされた成分を出力し、そして、それらは、結合器331、332、333および334によって加算される。それから、結合された信号のそれぞれは、図4aにおいて反響器として実施される4つのオーディオエフェクトジェネレータ301、302、303および304のうちの1つによって別々にレンダリングされる。図4aに示すように、オーディオエフェクトジェネレータのそれぞれは、全体で1つの全方向成分および3つの方向成分に対応する1つの成分を出力する。そして、結合器311、312、313および314は、それぞれのレンダリングされた成分と装置101および102によって出力される元の成分を結合するために用いられ、そこにおいて、図4aにおいて一般に、多数の装置100が存在できる。
言い換えれば、結合器311において、すべての装置の結合された全方向出力信号のレンダリングされたバージョンが、元のまたはレンダリングされていない全方向出力成分と結合されうる。同様の結合が、方向成分に関して他の結合器によって行うことができる。図4aに示される実施形態において、レンダリングされた方向成分は、全方向成分の遅延されおよびスケーリングされたバージョンに基づいて作り出される。
一般に、実施形態は、オーディオエフェクトを例えば残響のように1つ以上のDirACストリームに効率的に適用することができる。例えば、図4aに示すように、少なくとも2つのDirACストリームが、装置300の実施形態に入力される。実施形態において、これらのストリームは、例えば、モノラル信号をとり、さらに、方向および拡散としてサイド情報を加算することによって、実際のDirACストリームまたは合成されたストリームであってもよい。上述の説明によると、装置101、102は、ストリームごとに、すなわちW、X、YおよびZごとに、最大4つの信号を生成することができる。一般に、装置101または102の実施形態は、3つよりも少ない方向成分、例えばXだけ、またはXおよびY、または他のいかなるそれらの結合を提供することができる。
Figure 0005525527
図3および図4aによれば、異なるストリームのブランチ、すなわち装置101および102の出力は、4つの結合された信号を得るために結合することができる。そして、結合された信号は、オーディオジェネレータ、例えば従来のモノラル反響器によって、独立してレンダリングされうる。結果として生じるレンダリングされた信号は、異なる装置101および102から最初に出力されるW、X、YおよびZ信号に合計されうる。
実施形態において、一般のB−フォーマット信号は、得られうり、そして、それは、例えば、アンビソニックス(Ambisonics)において行われるように、B−フォーマットデコーダによって再生することができる。他の実施形態において、B−フォーマット信号は、結果として生じるDirACストリームがその後に送信されさらに従来のモノラルDirACデコーダによって処理されまたは復号化されるように、例えば図7に示すようにDirACエンコーダで符号化されうる。復号化するステップは、再生のためのスピーカ信号の計算に対応してもよい。
図4bは、装置300の他の実施形態を示す。図4bは、対応する4つの出力成分とともに2つの装置101および102を示す。図4bに示される実施形態において、全方向W成分だけが、結合器331によって結合される前に、遅延およびスケーリングステージ321および322において最初に個々に遅延されおよびスケーリングされるために用いられる。そして、結合された信号は、図4bにおいて反響器として再び実施されるオーディオエフェクトジェネレータ301に提供される。それから、反響器301のレンダリングされた出力は、結合器311によって装置101および102からの元の全方向成分と結合される。他の結合器312、313および314は、対応する結合された方向成分を得るために、装置101および102からの方向成分X、YおよびZを結合するために用いられる。
図4aに表現される実施形態との関係において、図4bに表現される実施形態は、ブランチX、YおよびZのためのスケーリングファクタを0に設定することに対応する。この実施形態において、1つのオーディオエフェクトジェネレータまたは反響器301だけが用いられる。1つの実施形態において、オーディオエフェクトジェネレータ301は、第1のレンダリングされた成分を得るために、第1の全方向成分だけを反響するために構成することができ、すなわち、Wだけが反響されうる。
一般に、装置101、102および潜在的にN個の音源に対応するN個の装置として、任意である潜在的にN個の遅延およびスケーリングステージ321は、音源の距離をシミュレートすることができ、より短い遅延が、リスナーにより近い仮想音源の知覚に対応することができる。一般に、遅延およびスケーリングステージ321は、それぞれ、変換された信号、変換された空間オーディオ信号によって表される異なる音源の空間関係をレンダリングするために用いられうる。そして、サラウンディング環境の空間印象は、対応するオーディオエフェクトジェネレータ301または反響器によって作り出されうる。言い換えれば、いくつかの実施形態において、遅延およびスケーリングステージ321は、他の音源に関連して音源特有の遅延およびスケーリングを導入するために用いられうる。そして、適切に関連したすなわち遅延されおよびスケーリングされた変換信号の結合は、オーディオエフェクトジェネレータ301によって空間環境に適合することができる。
遅延およびスケーリングステージ321は、同様に一種の反響器とみなすことができる。実施形態において、遅延およびスケーリングステージ321によって導入される遅延は、オーディオエフェクトジェネレータ301によって導入される遅延より短くすることができる。いくつかの実施形態において、共通時間基準は、例えばクロックジェネレータによって提供されるように、遅延およびスケーリングステージ321とオーディオエフェクトジェネレータ301のために用いられうる。そして、遅延は、多くのサンプル期間に関して表されうり、さらに、遅延およびスケーリングステージ321によって導入される遅延は、オーディオエフェクトジェネレータ301によって導入される遅延より短いサンプル期間に対応することができる。
図3、図4aおよび図4bに表現されるように実施形態は、モノラルDirACデコーディングがその後に一緒に反響するN個の音源のために用いられるときの場合のために利用されうる。反響器の出力が完全な拡散である出力を有すると仮定することができるので、すなわち、それは同様に全方向信号Wとして解釈されうる。この信号は、例えば、N個の音源自体から向けられるB−フォーマット信号などのように他の合成されたB−フォーマット信号と結合されうり、そのためリスナーに直通パスを表す。結果として生じるB−フォーマット信号がさらにDirAC符号化されおよび復号化されるときに、反響されたサウンドは、実施形態によって利用できるようにすることができる。
図4cにおいて、装置300の他の実施形態が示される。図4cに示される実施形態において、装置101および102の出力全方向信号に基づいて、方向の反響されたレンダリング成分が作り出される。したがって、全方向出力に基づいて、遅延およびスケーリングステージ321および322は、個々に遅延およびスケーリングされた成分を作り出し、それらは、結合器331、332および333によって結合される。結合された信号のそれぞれに、異なる反響器301、302および303が適用され、それらは、一般に異なるオーディオエフェクトジェネレータに対応する。上述の説明によると、対応する全方向、方向およびレンダリングされた成分は、結合された全方向成分および結合された方向成分を提供するために、結合器311、312、313および314によって結合される。
言い換えれば、ストリームごとにW信号または全方向信号は、図に示すように、例えば反響器のように、3つのオーディオエフェクトジェネレータに送られる。一般に、2次元または3次元のサウンド信号が生成されるかどうかに依存する2つのブランチだけが存在することもできる。一旦、B−フォーマット信号が得られると、ストリームは、仮想マイクロホンDirACデコーダを介して復号化されうる。後者は、V. Pulkki、方向オーディオコーディングを用いた空間サウンド再生(Spatial Sound Reproduction With Directional Audio Coding)、Journal of the Audio Engineering Society、55(6):503−561に詳細に記載されている。
Figure 0005525527
言い換えれば、図4cに示される実施形態は、仮想マイクロホンをスピーカの位置に向けて配置することによって得ることができるオーディオ信号に対応し、点状の音源を有する、位置がDirACパラメータによって決定されるスピーカのためのオーディオ信号を提供することができる。仮想マイクロホンは、カージオイドとして、ダイポールとして、または、いかなる一次の方向パターンとしても形成されるピックアップパターンを有することができる。
反響されたサウンドは、例えばB−フォーマット合計においてXおよびYとして効率的に用いることができる。そのような実施形態は、より多くの反響器の必要性を生じることなしに、いかなる数のスピーカを有する水平スピーカレイアウトにも適用されうる。
上述のように、モノラルDirACデコーディングは、残響の品質において制限を有し、そこにおいて、実施形態において、品質は、仮想マイクロホンDirACデコーディングによって改善することができ、それは、B−フォーマットストリームにおいてダイポール信号をうまく利用する。
Figure 0005525527
実施形態は、信号の残響に制限されないが、例えばサウンドの完全に拡散された知覚を目的とする他のいかなるオーディオエフェクトを適用することができる。上述の実施形態と同様に、反響されたB−フォーマット信号は、例えばN個の音源自体から向けられるような実施形態において他の合成されたB−フォーマット信号に合計することができ、そのためリスナーに直通パスを表す。
さらに他の実施形態が図4dに示される。図4dは、図4aと同様の実施形態を示すが、遅延またはスケーリングステージ321または322が存在せず、すなわち、ブランチにおいて個々の信号だけが反響され、いくつかの実施形態において、全方向成分Wだけが反響される。図4dに表現される実施形態は、遅延およびスケーリングまたは反響器がそれぞれ0および1に設定される前のゲインをともなう図4aに表現される実施形態と同様であるとみなすこともできるが、この実施例において、反響器301、302、303および304は、任意で独立していると仮定されない。図4dに表現される実施形態において、4つのオーディオエフェクトジェネレータは、特定の構造を有して互いに依存していると仮定される。
オーディオエフェクトジェネレータまたは反響器のそれぞれは、図5を用いてその後に詳述されるように、タップ付遅延線として実施されうる。遅延およびゲインまたはスケーリングは、タップのそれぞれが、方向、遅延およびパワーを意のままに設定できる1つのはっきりと区別できる反響をモデル化するような方法で、適切に選択することができる。
Figure 0005525527
Figure 0005525527
いくつかの実施形態において、それぞれの残響の物理的パラメータは、ランダムプロセスから引き出されてもルーム空間インパルス応答からとられてもよい。後者は、例えば、レイトレーシングツールで測定しまたはシミュレートすることができる。
一般に、実施形態は、それとともに、オーディオエフェクトジェネレータの数が音源の数から独立しているという利点を提供することができる。
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
Figure 0005525527
実施形態は、入力された空間オーディオ信号から、変換された空間オーディオ信号を決定するための方法を含み、変換された空間オーディオ信号は、第1の方向オーディオ成分および第2の方向オーディオ成分を有し、入力された空間オーディオ信号は、入力されたオーディオ表現および入力された到来方向を有する。その方法は、入力されたオーディオ表現および入力された到来方向に基づいて波場量および波到来方向量を含む波表現を推定するステップを含む。さらに、その方法は、第1の方向成分および第2の方向成分を得るために、波場量および波到来方向量を処理するステップを含む。
Figure 0005525527
Figure 0005525527
Figure 0005525527
本発明の方法の特定の実現要求に応じて、本発明の方法は、ハードウェアにおいてまたはソフトウェアにおいて実施することができる。実施は、本発明の方法が実行されるように、プログラム可能なコンピュータシステムと協動する、電子的に可読の制御信号を格納したデジタル記憶媒体、特にフラッシュメモリ、ディスク、DVDまたはCDを用いて実行することができる。そのため、本発明は、一般に、機械可読のキャリアに格納されたプログラムコードを有するコンピュータプログラムコードであり、プログラムコードは、コンピュータプログラムがコンピュータまたはプロセッサ上で実行されるときに、本発明の方法を実行するために作動される。したがって、言い換えれば、本発明の方法は、コンピュータプログラムがコンピュータ上で実行されるときに、本発明の方法のうちの少なくとも1つを実行するためのプログラムコードを有するコンピュータプログラムである。

Claims (16)

  1. 第1および第2の入力された空間オーディオ信号から、結合された変換空間オーディオ信号を決定するように構成される装置(300)であって、前記結合された変換空間オーディオ信号は少なくとも第1の結合された成分および第2の結合された成分を有し、前記第1の入力された空間オーディオ信号は第1の入力されたオーディオ表現および第1の到来方向を有し、前記第2の空間入力信号は第2の入力されたオーディオ表現および第2の到来方向を有する、前記装置(300)は、
    前記第1の入力された空間オーディオ信号から、第1の変換された信号を決定するように構成される第1の手段(101)を含み、前記第1の変換された信号は第1の全方向成分および少なくとも1つの第1の方向成分(X;Y;Z)を有し、前記第1の手段(101)は、
    前記第1の入力されたオーディオ表現および前記第1の入力された到来方向に基づいて、第1の波表現を推定するように構成される推定器であって、前記第1の波表現は第1の波場量および第1の波到来方向量を含む、推定器、および
    前記第1の全方向成分および前記少なくとも1つの第1の方向成分を得るために前記第1の波場量および前記第1の波到来方向量を処理するように構成されるプロセッサを含み、
    前記第1の手段(101)は、前記第1の全方向成分および前記少なくとも1つの第1の方向成分を有する前記第1の変換された信号を提供するように構成され、前記装置(300)は、さらに、
    前記第2の入力された空間オーディオ信号に基づいて、第2の全方向成分および少なくとも1つの第2の方向成分を有する第2の変換された信号を提供するように構成される第2の手段(102)を含み、前記第2の手段(102)は、
    前記第2の入力されたオーディオ表現および前記第2の入力された到来方向に基づいて、第2の波表現を推定するように構成される他の推定器であって、前記第2の波表現は第2の波場量および第2の波到来方向量を含む、他の推定器、および
    前記第2の全方向成分および前記少なくとも1つの第2の方向成分を得るために前記第2の波場量および前記第2の波到来方向量を処理するように構成される他のプロセッサを含み、
    前記第2の手段(101)は、前記第2の全方向成分および少なくとも1つの第2の方向成分を有する前記第2の変換された信号を提供するように構成され、前記装置(300)は、さらに、
    第1のレンダリングされた成分を得るために前記第1の全方向成分をレンダリングし、または、前記第1のレンダリングされた成分を得るために前記第1の方向成分をレンダリングするように構成されるオーディオエフェクトジェネレータ(301)、
    前記第1の結合された成分を得るために、前記第1のレンダリングされた成分、前記第1の全方向成分および前記第2の全方向成分を結合し、または、前記第1のレンダリングされた成分、前記第1の方向成分および前記第2の方向成分を結合するように構成される第1の結合器(311)、および
    前記第2の結合された成分を得るために、前記第1の方向成分および前記第2の方向成分を結合し、または、前記第1の全方向成分および前記第2の全方向成分を結合するように構成される第2の結合器(312)を含む、装置(300)。
  2. 前記推定器または前記他の推定器は波場振幅および波場位相に関して前記第1または第2の波場量を推定するために構成される、 請求項1に記載の装置(300)。
  3. Figure 0005525527
  4. 前記第1または第2の入力された到来方向は基準点を参照し、さらに、前記推定器または前記他の推定器は前記基準点に関して前記第1または第2の波到来方向量を推定するために構成され、前記基準点は前記入力された空間オーディオ信号の記録位置に対応する、請求項1ないし請求項3の1つに記載の装置(300)。
  5. 前記第1または前記第2の変換された空間オーディオ信号は第1(X)、第2(Y)および第3(Z)の方向成分を含み、さらに、前記プロセッサまたは前記他のプロセッサは前記第1または第2の変換された信号のための前記第1(X)、第2(Y)および第3(Z)の方向成分を得るために前記第1または第2の波場量および前記第1または第2の波到来方向量をさらに処理するために構成される、請求項1ないし請求項4の1つに記載の装置(300)。
  6. Figure 0005525527
  7. Figure 0005525527
  8. Figure 0005525527
  9. Figure 0005525527
  10. 前記第1または前記第2の入力された空間オーディオ信号はDirAC符号化されたオーディオ信号に対応し、さらに、前記プロセッサまたは前記他のプロセッサはB−フォーマット信号に関して前記第1または第2の全方向成分(W´)および前記少なくとも1つの第1または第2の方向成分(X;Y;Z)を得るように構成される、請求項1ないし請求項9の1つに記載の装置(300)。
  11. 前記オーディオエフェクトジェネレータ(301)は、前記第1のレンダリングされた成分を得るために、前記第1の全方向成分および前記第2の全方向成分の結合をレンダリングし、または、前記第1の方向成分および前記第2の方向成分の結合をレンダリングするために構成される、請求項1ないし請求項10の1つに記載の装置(300)。
  12. 前記第1の全方向および/または前記第1の方向成分を遅延しおよび/またはスケーリングするための第1の遅延およびスケーリングステージ(321)、および/または、前記第2の全方向および/または前記第2の方向成分を遅延しおよび/またはスケーリングするための第2の遅延およびスケーリングステージ(322)をさらに含む、請求項1ないし請求項11の1つに記載の装置(300)。
  13. 複数の入力された空間オーディオ信号を変換するための複数の手段(100)を含み、前記装置(300)は複数のオーディオエフェクトジェネレータをさらに含み、オーディオエフェクトジェネレータの数は手段(100)の数より少ない、請求項1ないし請求項12の1つに記載の装置(300)。
  14. 前記オーディオエフェクトジェネレータ(301)は前記第1のレンダリングされた成分を得るために前記第1の全方向成分または前記第1の方向成分を反響するために構成される、請求項1ないし請求項13の1つに記載の装置(300)。
  15. 第1および第2の入力された空間オーディオ信号から、結合された変換空間オーディオ信号を決定するための方法であって、前記結合された変換空間オーディオ信号は少なくとも第1の結合された成分および第2の結合された成分を有し、前記第1の入力された空間オーディオ信号は第1の入力されたオーディオ表現および第1の到来方向を有し、前記第2の空間入力信号は第2の入力されたオーディオ表現および第2の到来方向を有する、前記方法は、
    前記第1の入力されたオーディオ表現および前記第1の入力された到来方向に基づいて、第1の波表現を推定するサブステップであって、前記第1の波表現は第1の波場量および第1の波到来方向量を含む、推定するサブステップ、および
    前記第1の全方向成分(W´)および前記少なくとも1つの第1の方向成分(X;Y;Z)を得るために前記第1の波場量および前記第1の波到来方向量を処理するサブステップ
    を用いることによって、前記第1の入力された空間オーディオ信号から、第1の変換された空間オーディオ信号を決定するステップであって、前記第1の変換された空間オーディオ信号は第1の全方向成分(W´)および少なくとも1つの第1の方向成分(X;Y;Z)を有する、決定するステップ、
    前記第1の全方向成分および前記少なくとも1つの第1の方向成分を有する前記第1の変換された信号を提供するステップ、
    前記第2の入力されたオーディオ表現および前記第2の入力された到来方向に基づいて、第2の波表現を推定するサブステップであって、前記第2の波表現は第2の波場量および第2の波到来方向量を含む、推定するサブステップ、および
    前記第2の全方向成分(W´)および前記少なくとも1つの第2の方向成分(X;Y;Z)を得るために前記第2の波場量および前記第2の波到来方向量を処理するサブステップ
    を用いることによって、前記第2の入力された空間オーディオ信号から、第2の変換された空間オーディオ信号を決定するステップであって、前記第2の変換された空間オーディオ信号は第2の全方向成分(W´)および少なくとも1つの第2の方向成分(X;Y;Z)を有する、決定するステップ、
    前記第2の全方向成分および前記少なくとも1つの第2の方向成分を有する前記第2の変換された信号を提供するステップ、
    第1のレンダリングされた成分を得るために前記第1の全方向成分をレンダリングし、または、前記第1のレンダリングされた成分を得るために前記第1の方向成分をレンダリングするステップ、
    前記第1の結合された成分を得るために、前記第1のレンダリングされた成分、前記第1の全方向成分および前記第2の全方向成分を結合し、または、前記第1のレンダリングされた成分、前記第1の方向成分および前記第2の方向成分を結合するステップ、および
    前記第2の結合された成分を得るために、前記第1の方向成分および前記第2の方向成分を結合し、または、前記第1の全方向成分および前記第2の全方向成分を結合するステップを含む、方法。
  16. プログラムコードがコンピュータプロセッサ上で実行されるときに、請求項15の方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2011522435A 2008-08-13 2009-08-12 変換された空間オーディオ信号を決定するための装置 Active JP5525527B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US8851308P 2008-08-13 2008-08-13
US61/088,513 2008-08-13
US9168208P 2008-08-25 2008-08-25
US61/091,682 2008-08-25
EP09001398.8A EP2154677B1 (en) 2008-08-13 2009-02-02 An apparatus for determining a converted spatial audio signal
EP09001398.8 2009-02-02
PCT/EP2009/005859 WO2010017978A1 (en) 2008-08-13 2009-08-12 An apparatus for determining a converted spatial audio signal

Publications (2)

Publication Number Publication Date
JP2011530915A JP2011530915A (ja) 2011-12-22
JP5525527B2 true JP5525527B2 (ja) 2014-06-18

Family

ID=40568458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011522435A Active JP5525527B2 (ja) 2008-08-13 2009-08-12 変換された空間オーディオ信号を決定するための装置

Country Status (14)

Country Link
US (1) US8611550B2 (ja)
EP (2) EP2154677B1 (ja)
JP (1) JP5525527B2 (ja)
KR (2) KR101476496B1 (ja)
CN (1) CN102124513B (ja)
AU (1) AU2009281367B2 (ja)
BR (1) BRPI0912451B1 (ja)
CA (1) CA2733904C (ja)
ES (2) ES2425814T3 (ja)
HK (2) HK1141621A1 (ja)
MX (1) MX2011001657A (ja)
PL (2) PL2154677T3 (ja)
RU (1) RU2499301C2 (ja)
WO (1) WO2010017978A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083739A1 (ja) * 2006-01-19 2007-07-26 Nippon Hoso Kyokai 3次元音響パンニング装置
ES2472456T3 (es) 2010-03-26 2014-07-01 Thomson Licensing Método y dispositivo para decodificar una representación de un campo ac�stico de audio para reproducción de audio
ES2643163T3 (es) 2010-12-03 2017-11-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para codificación de audio espacial basada en geometría
AR084090A1 (es) 2010-12-03 2013-04-17 Fraunhofer Ges Forschung Metodo y aparato para adquisicion espacialmente selectiva del sonido mediante triangulacion acustica
FR2982111B1 (fr) * 2011-10-27 2014-07-25 Cabasse Enceinte acoustique comprenant un haut-parleur coaxial a directivite controlee et variable.
EP2665208A1 (en) * 2012-05-14 2013-11-20 Thomson Licensing Method and apparatus for compressing and decompressing a Higher Order Ambisonics signal representation
TWI590234B (zh) 2012-07-19 2017-07-01 杜比國際公司 編碼聲訊資料之方法和裝置,以及解碼已編碼聲訊資料之方法和裝置
CA3036880C (en) 2013-03-29 2021-04-27 Samsung Electronics Co., Ltd. Audio apparatus and audio providing method thereof
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
EP2922057A1 (en) 2014-03-21 2015-09-23 Thomson Licensing Method for compressing a Higher Order Ambisonics (HOA) signal, method for decompressing a compressed HOA signal, apparatus for compressing a HOA signal, and apparatus for decompressing a compressed HOA signal
CN117253494A (zh) * 2014-03-21 2023-12-19 杜比国际公司 用于对压缩的hoa信号进行解码的方法、装置和存储介质
MX357405B (es) * 2014-03-24 2018-07-09 Samsung Electronics Co Ltd Metodo y aparato de reproduccion de señal acustica y medio de grabacion susceptible de ser leido en computadora.
WO2015172854A1 (en) 2014-05-13 2015-11-19 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for edge fading amplitude panning
CN105336332A (zh) 2014-07-17 2016-02-17 杜比实验室特许公司 分解音频信号
TWI584657B (zh) * 2014-08-20 2017-05-21 國立清華大學 一種立體聲場錄音以及重建的方法
TWI567407B (zh) * 2015-09-25 2017-01-21 國立清華大學 電子裝置及電子裝置之操作方法
GB2554446A (en) * 2016-09-28 2018-04-04 Nokia Technologies Oy Spatial audio signal format generation from a microphone array using adaptive capture
CN108346432B (zh) * 2017-01-25 2022-09-09 北京三星通信技术研究有限公司 虚拟现实vr音频的处理方法及相应设备
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
PT3692523T (pt) 2017-10-04 2022-03-02 Fraunhofer Ges Forschung Aparelho, método e programa de computador para codificação, descodificação, processamento de cena e outros procedimentos relacionados com codificação de áudio espacial com base em dirac
CN108845292B (zh) * 2018-06-15 2020-11-27 北京时代拓灵科技有限公司 一种声源定位的方法及装置
CA3091150A1 (en) * 2018-07-02 2020-01-09 Dolby Laboratories Licensing Corporation Methods and devices for encoding and/or decoding immersive audio signals
WO2020075225A1 (ja) * 2018-10-09 2020-04-16 ローランド株式会社 効果音発生方法、及び情報処理装置
CN111145793B (zh) * 2018-11-02 2022-04-26 北京微播视界科技有限公司 音频处理方法和装置
BR112021014135A2 (pt) * 2019-01-21 2021-09-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sinal de áudio codificado, aparelho e método para codificação de uma representação de áudio espacial ou aparelho e método para decodificação de um sinal de áudio codificado
US20200304933A1 (en) * 2019-03-19 2020-09-24 Htc Corporation Sound processing system of ambisonic format and sound processing method of ambisonic format

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2738099B1 (fr) * 1995-08-25 1997-10-24 France Telecom Procede de simulation de la qualite acoustique d'une salle et processeur audio-numerique associe
AUPO099696A0 (en) * 1996-07-12 1996-08-08 Lake Dsp Pty Limited Methods and apparatus for processing spatialised audio
EP1013140B1 (en) * 1997-09-05 2012-12-05 Harman International Industries, Incorporated 5-2-5 matrix decoder system
US7231054B1 (en) * 1999-09-24 2007-06-12 Creative Technology Ltd Method and apparatus for three-dimensional audio display
CN1452851A (zh) * 2000-04-19 2003-10-29 音响方案公司 保持三维中的空间谐波的多通道环绕声母版制作和再现技术
JP3810004B2 (ja) * 2002-03-15 2006-08-16 日本電信電話株式会社 ステレオ音響信号処理方法、ステレオ音響信号処理装置、ステレオ音響信号処理プログラム
FR2847376B1 (fr) * 2002-11-19 2005-02-04 France Telecom Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede
FI118247B (fi) 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
CN1771533A (zh) * 2003-05-27 2006-05-10 皇家飞利浦电子股份有限公司 音频编码
JP2005345979A (ja) * 2004-06-07 2005-12-15 Nippon Hoso Kyokai <Nhk> 残響信号付加装置
ATE378793T1 (de) * 2005-06-23 2007-11-15 Akg Acoustics Gmbh Methode zur modellierung eines mikrofons
JP2007124023A (ja) * 2005-10-25 2007-05-17 Sony Corp 音場再現方法、音声信号処理方法、音声信号処理装置
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
WO2008039339A2 (en) * 2006-09-25 2008-04-03 Dolby Laboratories Licensing Corporation Improved spatial resolution of the sound field for multi-channel audio playback systems by deriving signals with high order angular terms
US20080232601A1 (en) * 2007-03-21 2008-09-25 Ville Pulkki Method and apparatus for enhancement of audio reconstruction
US20090045275A1 (en) * 2007-08-14 2009-02-19 Beverly Ann Lambert Waste Chopper Kit

Also Published As

Publication number Publication date
RU2499301C2 (ru) 2013-11-20
AU2009281367A1 (en) 2010-02-18
KR20110052702A (ko) 2011-05-18
EP2154677B1 (en) 2013-07-03
PL2154677T3 (pl) 2013-12-31
RU2011106584A (ru) 2012-08-27
BRPI0912451A2 (pt) 2019-01-02
EP2154677A1 (en) 2010-02-17
ES2425814T3 (es) 2013-10-17
HK1141621A1 (en) 2010-11-12
PL2311026T3 (pl) 2015-01-30
US8611550B2 (en) 2013-12-17
EP2311026A1 (en) 2011-04-20
CN102124513B (zh) 2014-04-09
CN102124513A (zh) 2011-07-13
KR20130089277A (ko) 2013-08-09
CA2733904A1 (en) 2010-02-18
BRPI0912451B1 (pt) 2020-11-24
KR101476496B1 (ko) 2014-12-26
EP2311026B1 (en) 2014-07-30
US20110222694A1 (en) 2011-09-15
AU2009281367B2 (en) 2013-04-11
CA2733904C (en) 2014-09-02
JP2011530915A (ja) 2011-12-22
WO2010017978A1 (en) 2010-02-18
MX2011001657A (es) 2011-06-20
HK1155846A1 (en) 2012-05-25
ES2523793T3 (es) 2014-12-01

Similar Documents

Publication Publication Date Title
JP5525527B2 (ja) 変換された空間オーディオ信号を決定するための装置
RU2759160C2 (ru) УСТРОЙСТВО, СПОСОБ И КОМПЬЮТЕРНАЯ ПРОГРАММА ДЛЯ КОДИРОВАНИЯ, ДЕКОДИРОВАНИЯ, ОБРАБОТКИ СЦЕНЫ И ДРУГИХ ПРОЦЕДУР, ОТНОСЯЩИХСЯ К ОСНОВАННОМУ НА DirAC ПРОСТРАНСТВЕННОМУ АУДИОКОДИРОВАНИЮ
JP6510021B2 (ja) オーディオ装置及びそのオーディオ提供方法
JP7119060B2 (ja) マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト
JP5490118B2 (ja) 空間オーディオストリームをマージするための装置
EP2805326B1 (en) Spatial audio rendering and encoding
JP5520300B2 (ja) マイクロホン信号に基づいて一組の空間手がかりを供給する装置、方法およびコンピュータ・プログラムと2チャンネルのオーディオ信号および一組の空間手がかりを供給する装置
JP2011530913A (ja) 空間出力マルチチャネルオーディオ信号を決定する装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130613

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140411

R150 Certificate of patent or registration of utility model

Ref document number: 5525527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250