JP6239145B2 - 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 - Google Patents

幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 Download PDF

Info

Publication number
JP6239145B2
JP6239145B2 JP2016559271A JP2016559271A JP6239145B2 JP 6239145 B2 JP6239145 B2 JP 6239145B2 JP 2016559271 A JP2016559271 A JP 2016559271A JP 2016559271 A JP2016559271 A JP 2016559271A JP 6239145 B2 JP6239145 B2 JP 6239145B2
Authority
JP
Japan
Prior art keywords
speaker
distance
indicates
audio
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016559271A
Other languages
English (en)
Other versions
JP2017513387A (ja
Inventor
シモーネ フューク
シモーネ フューク
ヤン プログスティーズ
ヤン プログスティーズ
マクス ノイエンドルフ
マクス ノイエンドルフ
ユルゲン ヘッレ
ユルゲン ヘッレ
ベルンハルト グリル
ベルンハルト グリル
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2017513387A publication Critical patent/JP2017513387A/ja
Application granted granted Critical
Publication of JP6239145B2 publication Critical patent/JP6239145B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、オーディオ信号処理、特に、オーディオレンダリングする装置および方法に関し、より詳細には、幾何学的な距離定義を使用してオーディオレンダリングする装置および方法に関する。
日常生活におけるマルチメディアコンテンツの消費の増加に伴い、高度なマルチメディアソリューションに対する要求が着実に増加している。この局面において、オーディオオブジェクトの位置決めは重要な役割を演ずる。オーディオオブジェクトの実在するスピーカーセットアップに対する最適な位置決めが望ましい。
技術水準において、オーディオオブジェクトは知られている。オーディオオブジェクトは、例えば、関連するメタデータを有するサウンドトラックとみなすことができる。メタデータは、例えば、生のオーディオデータの特性、例えば所望の再生位置またはボリュームレベルを記述することができる。オブジェクトベースのオーディオの利点は、予め定義された動きが、再生側での特別なレンダリングプロセスによって、全ての再生スピーカーレイアウトに対して可能な最良の方法で再生できることである。
幾何学的メタデータは、どこでオーディオオブジェクトがレンダリングされるべきか、例えば、方位角または仰角または基準点、例えばリスナーに対する絶対位置を定義するために用いることができる。メタデータは、オブジェクトオーディオ信号とともに記憶されるまたは伝送される。
MPEG-Hの局面において、第105回MPEGミーティングにおいて、オーディオグループは、異なるアプリケーション規格の要求条件およびタイムラインをレビューした(MPEG=Moving Picture Experts Group)。そのレビューによれば、次世代放送システムに対して、時間における一定のポイントおよび特定の要求条件を満たすことが重要である。それによれば、システムは、エンコーダ入力においてオーディオオブジェクトを受け入れることが可能でなければならない。さらに、システムは、オーディオオブジェクトのシグナリング、配信およびレンダリングをサポートし、例えば、ダイアログ拡張、代替ランゲージトラックおよびオーディオ記述言語に対して、オブジェクトのユーザー制御を可能にしなければならない。
技術水準において、異なるコンセプトが知られている。第1のコンセプトは、オブジェクトベースのオーディオに対する反射音レンダリングである(特許文献2を参考)。スピーカーロケーション情報に対するスナップは、有用なレンダリング情報としてメタデータ定義に含まれる。しかしながら、特許文献2において、再生プロセスにおいてどのように情報が用いられるかの情報は提供されない。さらに、どのように2つの位置の間の距離が決定されるかの情報は提供されない。
拡張3Dオーディオオーサリングおよびレンダリングに対する技術水準の他のコンセプト、システムおよびツールが特許文献4に記述されている。特許文献4の図6bは、どのようにスピーカーへの「スナッピング」をアルゴリズム的に実現することができるかを示した図解図である。詳しくは、特許文献4によれば、オーディオオブジェクトの位置をスピーカーロケーション(特許文献4の図6bのブロック665を参照)にスナップすることが決定される場合、オーディオオブジェクト位置は、スピーカーロケーション(特許文献4の図6bのブロック670を参照)、一般にはオーディオオブジェクトに対して受信された意図された(x、y、z)位置に最も近いものにマップされる。特許文献4によれば、スナッピングは、再生スピーカーの小グループにおよび/または個々の再生スピーカーに適用されるかもしれない。しかしながら、特許文献4は、球面座標の代わりに直交(x,y,z)座標を用いる。さらに、レンダラーの挙動は、スピーカーロケーションに対するマップオーディオオブジェクト位置として記述され、スナップフラグが1である場合に詳細な記述は提供されない。さらにまた、どのように最も近いスピーカーが決定されるかの詳細は提供されない。
特許文献1に記載された適応オーディオ信号生成、符号化およびレンダリングのための他の従来技術、システムおよび方法によれば、メタデータ情報(メタデータエレメント)は、「1つ以上の音響コンポーネントが、位置のメタデータによって示されたような音響コンポーネントの意図された再生ロケーションに最も近いスピーカーによる再生のためのスピーカーフィードにレンダリングされる」ことを指定している。しかしながら、どのように最も近いスピーカーが決定されるかの情報は提供されない。
更なる従来技術において、非特許文献1に記載されたオーディオ定義モデル、「channelLock」と呼ばれるメタデータフラグが定義されている。1にセットされた場合、レンダラーは、通常のレンダリングよりむしろ、オブジェクトを最も近いチャンネルまたはスピーカーにロックすることができる。しかしながら、最も近いチャンネルの決定は記述されていない。
他の従来技術において、オブジェクトベースのオーディオのアップミックスが記述されている(特許文献3を参照)。特許文献3は、異なるアプリケーションの分野におけるスピーカーの距離尺度の使用を記述している。ここで、それはオブジェクトベースのオーディオマテリアルのアップミックスに対して用いられる。レンダリングシステムは、オブジェクトベースのオーディオプログラム(およびプログラムをプレイするために使用されるスピーカーの位置の知識)から、プログラムによって指示されたオーディオソースの各位置と各々のスピーカーの位置との間の距離を決定するように構成される。さらにまた、特許文献3のレンダリングシステムは、プログラムによって指示された各実際のソース位置(例えば、ソース軌道に沿った各ソース位置)に対して、実際のソース位置に最も近いフルセットのそれらのスピーカーから成るフルセットのスピーカーのサブセット(「プライマリー」サブセット)(または実際のソース位置に最も近いフルセットのそのスピーカー)を決定するように構成され、ここで、この局面において「最も近い」は、なんらかの合理的に定義されたという意味において定義されたものである。しかしながら、どのように距離を計算すべきかの情報は提供されない。
米国特許出願公開第2014/0133683号明細書「System and Method for Adaptive Audio Signal Generation, Coding and Rendering」(請求項48) 国際公開第2014/036085「Reflected sound rendering for object-based audio」(プレイバックアプリケーション章) 米国特許出願公開第2014/0133682号明細書「Upmixing object based audio」(実施形態の簡単な説明と請求項71b) 米国特許出願公開第2014/0119581号明細書「System and Tools for Enhanced 3D Audio Authoring and Rendering」
「Audio Definition Model」、EBU-TECH 3364、インターネット<URL: https://tech.ebu.ch/docs/tech/tech3364.pdf>
本発明の目的は、オーディオレンダリングに対して改良されたコンセプトを提供することである。本発明の目的は、請求項1に記載の装置によって、請求項13に記載のデコーダデバイスによって、請求項14に記載の方法によって、そして請求項15に記載のコンピュータプログラムによって解決される。
位置に関連するオーディオオブジェクトを再生する装置が提供される。装置は、位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み取る距離計算器を備える。距離計算器は、最小距離を有する解をとるように構成される。装置は、解に対応するスピーカーを用いてオーディオオブジェクトを再生するように構成される。
実施形態によれば、距離計算器は、例えば、装置によって受信される最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み取るように構成することができる。さらに、距離計算器は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、最小距離を有する解をとるように構成することができる。さらに、装置は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能である解のみに対応するスピーカーを用いてオーディオオブジェクトを再生するように構成することができる。
実施形態において、装置は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合に、オーディオオブジェクトにいかなるレンダリングも行わないように構成することができる。
実施形態によれば、距離計算器は、例えば、重み付けユークリッド距離または大円弧距離を返す距離関数によって距離を計算するように構成することができる。
実施形態において、距離計算器は、例えば、方位角および仰角における重み付け絶対差分を返す距離関数によって距離を計算するように構成することができる。
実施形態によれば、距離計算器は、例えば、累乗p(pは数である))に対する重み付け絶対差分を返す距離関数によって距離を計算するように構成することができる。実施形態において、pは、例えば、p=2にセットすることができる。
実施形態によれば、距離計算器は、例えば、重み付け角度差分を返す距離関数によって距離を計算するように構成することができる。
実施形態において、距離関数は、例えば、次式によって定義することができる。

diffAngle=acos(cos(azDiff)*cos(elDiff))

ここで、azDiffは2つの方位角の差分を示し、elDiffは2つの仰角の差分を示し、diffAngleは重み付け角度差分を示す。
実施形態によれば、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=|β1−β2|+|α1−α2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示す。
実施形態において、距離計算器は、例えば、位置の1つのスピーカーまでの各距離が次式によって計算されるように、位置のスピーカーまでの距離Δ(P1,P2)を計算するように構成することができる。

Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示す。
実施形態によれば、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、aは第1の数であり、bは第2の数である。
実施形態において、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。
実施形態によれば、デコーダデバイスが提供される。デコーダデバイスは、ビットストリームを復号化し、1つ以上のオーディオ入力チャンネルを取得し、1つ以上の入力オーディオオブジェクトを取得し、圧縮されたオブジェクトメタデータを取得し、1つ以上のSOACトランスポートチャンネルを取得する、USACデコーダを備える。さらに、デコーダデバイスは、1つ以上SAOCトランスポートチャンネルを復号化し、一群の1つ以上のレンダリングされたオーディオオブジェクトを取得する、SAOCデコーダを備える。さらにまた、デコーダデバイスは、圧縮されたオブジェクトメタデータを復号化し、未圧縮のメタデータを取得する、オブジェクトメタデータデコーダを備える。さらに、デコーダデバイスは、1つ以上のオーディオ入力チャンネルを変換し、1つ以上の変換チャンネルを取得する、フォーマットコンバータを備える。さらにまた、デコーダデバイスは、一群の1つ以上のレンダリングされたオーディオオブジェクトの1つ以上のレンダリングされたオーディオオブジェクトと、1つ以上の入力オーディオオブジェクトと、1つ以上の変換されたチャンネルとを混合し、1つ以上の復号化されたオーディオチャンネルを取得する、ミキサーを備える。オブジェクトメタデータデコーダとミキサーは、共に上述された実施形態の1つに係る装置を形成する。オブジェクトメタデータデコーダは、上述された実施形態の1つに係る装置の距離計算器を備え、距離計算器は、1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトに対して、前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を計算するまたは前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を読み込み、最小距離を有する解をとるように構成される。ミキサーは、前記入力オーディオオブジェクトに対して、1つ以上の復号化されたオーディオチャンネルの1つの中で、上述された実施形態の1つに係る装置の距離計算器によって決定された解に対応するスピーカーに対して、1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトを出力するように構成される。
位置に関連するオーディオオブジェクトを再生する方法は、以下を備える。

- 位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み込む。

- 最小距離を有する解をとる。

- 解に対応するスピーカーを用いてオーディオオブジェクトを再生する。
さらに、コンピュータプログラムがコンピュータ上または信号処理器上で実行されるとき、上述された方法を実施するコンピュータプログラムが提供される。
以下において、本発明の実施形態が図面を参照して更に詳細に記述される。
実施形態に係る装置である。 実施形態に係るオブジェクトレンダラーを示す。 実施形態に係るオブジェクトメタデータプロセッサを示す。 3Dオーディオエンコーダの概要を示す。 実施形態に係る3Dオーディオエンコーダの概要を示す。 フォーマットコンバータの構造を示す。
図1は、位置に関連するオーディオオブジェクトを再生する装置100が提供される。
装置100は、位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み込む、距離計算器110を備える。距離計算器110は、最小距離を有する解をとるように構成される。
装置100は、解に対応するスピーカーを用いてオーディオオブジェクトを再生するように構成される。
たとえば、各スピーカーに対して、位置(オーディオオブジェクトの位置)と前記スピーカー(前記スピーカーのロケーション)の間の距離が決定される。
実施形態によれば、距離計算器は、例えば、装置100によって受信されている最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能である場合にのみ、位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み取るように構成することができる。さらに、距離計算器は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、最小距離を有する解をとるように構成することができる。さらに、装置100は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能である解のみに対応するスピーカーを用いてオーディオオブジェクトを再生するように構成することができる。
実施形態において、装置100は、例えば、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合に、オーディオオブジェクト上にいかなるレンダリングも行わないように構成することができる。
実施形態によれば、距離計算器は、例えば、重み付けユークリッド距離または大円弧距離を返す距離関数に従って距離を計算するように構成することができる。
実施形態において、距離計算器は、例えば、方位角および仰角における重み付け絶対差分を返す距離関数によって距離を計算するように構成することができる。
実施形態によれば、距離計算器は、例えば、累乗p(pは数である)に対する重み付け絶対差分を返す距離関数によって距離を計算するように構成することができる。実施形態において、pは、例えばp=2にセットすることができる。
実施形態によれば、距離計算器は、例えば、重み付け角度差分を返す距離関数によって距離を計算するように構成することができる。
実施形態において、距離関数は、例えば、次式によって定義することができる。

diffAngle=acos(cos(azDiff)*cos(elDiff))

ここで、azDiffは2つの方位角の差分を示し、elDiffは2つの仰角の差分を示し、diffAngleは重み付け角度差分を示す。
実施形態によれば、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=|β1−β2|+|α1−α2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示す。
実施形態において、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示す。
実施形態によれば、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、aは第1の数であり、bは第2の数である。
実施形態において、距離計算器は、例えば、位置の1つのスピーカーまでの各距離Δ(P1,P2)が次式によって計算されるように、位置のスピーカーまでの距離を計算するように構成することができる。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2

α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。
以下において、本発明の実施形態が記述される。実施形態は、オーディオレンダリングに対して幾何学的な距離定義を用いるコンセプトを提供する。
オブジェクトメタデータは、次のいずれかを定義するために用いることができる。

1) 空間においてどこでオブジェクトがレンダリングされるべきか、または

2) オブジェクトを再生するためにどのスピーカーが用いられるべきか
メタデータにおいて示されるオブジェクトの位置が単一のスピーカーにかからない場合、オブジェクトレンダラーは、複数のスピーカーと定義されたパニング規則を用いることをベースとする出力信号を構築する。パニングは、局所音または音色に関して準最適である。
それ故に、特定の音は特定の方向から単一のスピーカーから来るべきであると定義することは、オブジェクトベースのコンテンツの製作者には望ましいと考えられる。
このスピーカーがユーザーのスピーカーセットアップにおいて存在しないことが起こる可能性がある。そのとき、レンダリングなしで最も近い利用可能なスピーカーによって再生されることを強いるフラグが、メタデータにおいてセットされる。
本発明は、所望のオブジェクト位置から許容可能な偏差からなるいくつかの重み付けを可能とする最も近いスピーカーをどのように発見することができるかを記述する。
図2は、実施形態に係るオブジェクトレンダラーを示す。
オブジェクトベースのオーディオフォーマットにおいて、メタデータはオブジェクト信号とともに記憶されるまたは伝送される。オーディオオブジェクトは、メタデータおよび再生環境に関する情報を用いて再生側でレンダリングされる。この種の情報は、例えばスピーカーの数またはスクリーンのサイズである。
表1.メタデータの例
Figure 0006239145
オブジェクトに対して、幾何学的メタデータは、どのようにそれらがレンダリングされるべきか、例えば方位または高さにおける角度または基準位置、例えばリスナーに対する絶対位置を定義するために用いることができる。レンダラーは、幾何学的データおよび利用可能なスピーカーとそれらの位置に基づいてスピーカー信号を計算する。
オーディオオブジェクト(3D空間、例えば与えられた方位、高さおよび距離に関連するオーディオ信号)が、その関連する位置にレンダリングされるべきでないが、その代わりにローカルのスピーカーセットアップに存在するスピーカーによって再生される場合、一つの方法は、オブジェクトがメタデータによって再生されるべきスピーカーを定義することである。
にもかかわらず、製作者が特定のスピーカーによって再生されるオブジェクトコンテンツを望まないが、むしろ次の利用可能なスピーカー、すなわち「幾何学的に最も近い」スピーカー)によって再生されることを望むケースがある。これは、どのスピーカーがどのオーディオ信号に対応するかを定義するかまたは複数のスピーカー間でレンダリングする必要なしに、離散的な再生を可能にする。
本発明に係る実施形態は、以下の方法で上記から明らかになる。
メタデータフィールド:
Figure 0006239145
表2.GroupDefinition()のシンタックス
Figure 0006239145
mdae_closestSpeakerPlayout このフラグは、メタデータエレメントグループのメンバーはレンダリングされるべきでないが、メンバーの幾何学的な位置に最も近いスピーカーによって直接再生されるべきであることを定義する。
ローカルのスピーカーセットアップを考慮に入れ、どのスピーカーによってまたはどの方向から音がレンダリングされるべきかの特定の情報によって、対応するレンダラーに対して信号のルーティングを実行するりマッピングが、オブジェクトメタデータプロセッサにおいてなされる。
図3は、実施形態に係るオブジェクトメタデータプロセッサを示す。
距離計算に対するストラテジーは、以下のように記述される。

− 最も近いスピーカーメタデータフラグがセットされている場合、音は最も近いスピーカーを通じて再生される

− このために、次のスピーカーまでの距離が計算される(または予め記憶されたテーブルから読み取る)

− 最小距離を有する解がとられる

− 距離関数は、例えば以下とすることができる(しかしながらそれに限定されない)

− 重み付けユークリッドまたは大円弧距離

− 方位角および仰角における重み付け絶対差分

− 累乗p(p=2 => 最小2乗法)に対する重み付け絶対差分

− 重み付け角度差分、例えば diffAngle=acos(cos(azDiff)*cos(elDiff)))
最も近いスピーカー計算に対する例は以下に提示される。
オーディオエレメントグループのmdae_closestSpeakerPlayoutフラグが使用可能な場合、オーディオエレメントグループのメンバーはオーディオエレメントの与えられた位置に最も近いスピーカーによって各々再生される。レンダリングは適用されない。
極座標系における2つの位置P1およびP2の距離は、それらの方位角αおよび仰角βの絶対差分として定義される。

Δ(P1,P2)= |β1−β2|+|α1−α2|+|r1−r2
この距離は、オーディオエレメントの求められている位置Pwantedに関して、N個の出力スピーカーの全ての既知の位置P1〜PNに対して計算されなければならない。
最も近い既知のスピーカー位置は、以下のようにオーディオエレメントの求められている位置までの距離が最小限になるものである。

next=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(Pwanted,PN))
この式によって、仰角、方位角および/または半径に対して重み付けを加えることが可能である。そのような方法で、以下のように高い数によって方位角偏差を重み付けすることによって、方位角偏差が仰角偏差より許容されないように決めることが可能である。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2
実施例は、バイノーラルレンダリングに対する最も近いスピーカーの計算に関する。
オーディオコンテンツがヘッドホンまたはステレオスピーカーセットアップ上でバイノーラルステレオ信号として再生される場合、伝統的にオーディオコンテンツの各チャンネルはバイノーラルルームインパルス応答または頭部関連インパルス応答と数学的に結合される。
このインパルス応答の測定位置は、関連するチャンネルのオーディオコンテンツが知覚されるべき方向に対応しなければならない。マルチチャネルのオーディオシステムまたはオブジェクトベースのオーディオにおいて、定義可能な位置(スピーカーまたはオブジェクト位置のいずれかによって)の数は、利用可能なインパルス応答の数より大きいというケースがある。そのケースにおいて、チャンネル位置またはオブジェクト位置に対して利用可能な専用のものがない場合、適当なインパルス応答が選択されなければならない。知覚における最小の位置的変化のみを課すため、選択されたインパルス応答は「幾何学的に最も近い」インパルス応答とすべきである。
両方のケースにおいて、既知の位置(すなわち再生スピーカーまたはBRIR)のリストのいずれが求められている位置に対して次であるかを決定することを必要とする(BRIR=Binaural Room Impulse Response)。それ故に、異なる位置の間の「距離」が定義されなければならない。
異なる位置の間の距離は、それらの方位角および仰角の絶対差分としてここで定義される。
以下の公式は、仰角αおよび方位角βによって定義される座標系において2つの位置P1、P2の距離を計算するために用いられる。

Δ(P1,P2)=|β1−β2|+|α1−α2
次のように、第3の変数として半径rを加えることが可能である。

Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2
最も近い既知の位置は、求められている位置までの距離は最小となるものである。

next=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(PwantedPN))
実施形態において、重みは、例えば、次のように立体角、方位角および/または半径に加えることができる。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2
いくつかの実施形態によれば、最も近いスピーカーは、例えば、以下のように決定することができる。
極座標系における2つの位置P1およびP2の距離は、例えば、次のようにそれらの方位角φおよび仰角θの絶対差分として定義することができる。

Δ(P1,P2)=|θ1−θ2|+|φ1−φ2
この距離は、オーディオエレメントの求められている位置Pwantedに関して、N個の出力スピーカーの全ての既知の位置P1〜PNに対して計算されなければならない。
最も近い既知のスピーカー位置は、次のようにオーディオエレメントの求められている位置までの距離が最小になるものである。

next=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(Pwanted,PN))
たとえば、いくつかの実施形態によれば、ClosestSpeakerPlayoutフラグが1に等しい場合、いくつかの実施形態による最も近いスピーカーのプレイアウト処理をオーディオオブジェクトのグループの各メンバーに対して最も近い存在するスピーカーの位置を決定することによって行うことができる。
最も近いスピーカーのプレイアウト処理は、例えば、動的な位置データによるエレメントのグループに対して特に意味があると考えられる。最も近い既知のスピーカー位置は、例えば、オーディオエレメントの所望の/求められている位置までの距離が最小となるものとすることができる。
以下において、3Dオーディオコーデックシステムのシステム概要が提供される。本発明の実施形態は、この種の3Dオーディオコーデックシステムおいて行使することができる。3Dオーディオコーデックシステムは、例えば、チャンネルおよびオブジェクト信号の符号化に対して、MPEG−D USACコーデックに基づくことができる。
実施形態によれば、大量のオブジェクトの符号化に対して効率を増大させるため、MPEG SAOC技術が適用されてきた(SAOC=Spatial Audio Object Coding)。たとえば、いくつかの実施形態によれば、3種類のレンダラーが、例えば、チャンネルにオブジェクトをレンダリングする、ヘッドホンにチャンネルをレンダリングする、または異なるスピーカーセットアップにチャンネルをレンダリングするタスクを実行することができる。
オブジェクト信号がSAOCを用いて明確に伝送されるまたはパラメトリック符号化されるとき、対応するオブジェクトメタデータ情報は圧縮され、3Dオーディオビットストリームに多重化される。
図4および図5は、3Dオーディオシステムの異なるアルゴリズム的ブロックを示す。特に、図4は、3Dオーディオエンコーダの概要を図示している。図5は、実施形態に係る3Dオーディオデコーダの概要を図示している。
ここで、図4および図5のモジュールの可能な実施形態が説明される。
図4において、プリレンダラー810(ミキサーとも称される)が図示されている。図4の構成において、プリレンダラー810(ミキサー)はオプションである。プリレンダラー810は、符合化の前にチャンネル+オブジェクト入力シーンをチャンネルシーンに変換するためにオプションとして用いることができる。エンコーダ側のプリレンダラー810は、機能的に、例えば、以下で記述されるデコーダ側のオブジェクトレンダラー/ミキサー920の機能に関係することができる。オブジェクトのプリレンダリングは、基本的に同時にアクティブなオブジェクト信号の数から独立しているエンコーダ入力における決定的な信号エントロピーを確実にする。オブジェクトのプリレンダリングによって、いかなるオブジェクトメタデータの伝送も必要とされない。離散オブジェクト信号は、エンコーダが用いるように構成されているチャンネルレイアウトにレンダリングされる。各チャンネルに対するオブジェクトの重みは、関連するオブジェクトメタデータ(OAM)から取得される。
スピーカーチャンネル信号、離散オブジェクト信号、オブジェクトダウンミックス信号およびプリレンダリングされた信号に対するコアコーデックは、MPEG−D USAC技術(USACコアコーデック)に基づいている。USACエンコーダ820(例えば、図4に図示された)は、構築するチャンネルによる多重信号‐および入力のチャンネルおよびオブジェクトアサインメントの幾何学的なおよびセマンティックな情報に基づくオブジェクトマッピング情報の符号化を処理する。このマッピング情報は、どのように入力チャンネルおよびオブジェクトがUSACチャンネルエレメント(CPE、SCE、LFE)にマッピングされるかを記述する。
SAOCデータまたはオブジェクトメタデータのような全ての付加的なペイロードは、拡張エレメントを通過し、例えば、USACエンコーダのレートコントロールにおいて考慮することができる。
オブジェクトの符号化は、レート/ディストーションの要求条件およびレンダラーに対する対話要求条件によって異なる方法で可能である。以下のオブジェクト符号化の変形が可能である。

− プリレンダリングされたオブジェクト: オブジェクト信号は、プリレンダリングされ、符合化の前に22.2チャンネル信号に混合される。引き続く符号化チェーンは22.2チャンネル信号を参照されたい。

− 離散オブジェクト波形: オブジェクトは、USACエンコーダ820にモノラル波形として供給される。USACエンコーダ820は、チャンネル信号に加えてオブジェクトを伝送するため、単一のチャンネルエレメントSCEを用いる。復号化されたオブジェクトは、レシーバー側でレンダリングされ、混合される。圧縮されたオブジェクトメタデータ情報は、レシーバー/レンダラーに並んで伝送される。

− パラメトリックオブジェクト波形: オブジェクトの属性およびそれらの互いに対する関係は、SAOCパラメータによって記述される。オブジェクト信号のダウンミックスは、USACエンコーダ820によって符号化される。パラメトリック情報は、並んで伝送される。ダウンミックスチャンネルの数は、オブジェクトの数および全体のデータレートによって選択される。圧縮されたオブジェクトメタデータ情報は、SAOCレンダラーに伝送される。
デコーダ側で、USACデコーダ910はUSAC復号化を行う。
さらに、実施形態によれば、デコーダが提供される(図5を参照)。デコーダは、ビットストリームを復号化し、1つ以上のオーディオ入力チャンネルを取得し、1つ以上のオーディオオブジェクトを取得し、圧縮されたオブジェクトメタデータを取得し、1つ以上のSAOCトランスポートチャンネルを取得する、USACデコーダ910を備える。
さらにまた、デコーダは、1つ以上のSAOCトランスポートチャンネルを復号化し、1つ以上のレンダリングされたオーディオオブジェクトの第1のグループを取得する、SAOCデコーダ915を備える。
さらにまた、デコーダは、1つ以上のオーディオ入力チャンネルを変換し、1つ以上の変換されたチャンネルを取得する、フォーマットコンバータ922を備える。
さらに、デコーダは、1つ以上のレンダリングされたオーディオオブジェクトの第1のグループのオーディオオブジェクトと、1つ以上のレンダリングされたオーディオオブジェクトの第2のグループのオーディオオブジェクトと、1つ以上の変換されたチャンネルとを混合し、1つ以上の復号化されたオーディオチャンネルを取得する、ミキサー930を備える。
図5において、デコーダの特定の実施形態が図示されている。SAOCエンコーダ815(SAOCエンコーダ815はオプションである。図4を参照)およびオブジェクト信号に対するSAOCデコーダ915(図5を参照)は、MPEG SAOC技術に基づいている。本システムは、より少ない数の送信チャンネルと付加的パラメトリックデータ(OLD、IOC、DMG)(OLD=オブジェクトレベル差、IOC=オブジェクト間相関、DMG=ダウンミックスゲイン)に基づいて多くのオーディオオブジェクトを再構築し、修正し、レンダリングすることができる。付加的なパラメトリックデータは、全てのオブジェクトを個別に送信するために必要なデータレートより有意に低いデータレートを呈し、符号化を非常に効率的にする。
SAOCエンコーダ815は、入力としてモノラル波形としてのオブジェクト/チャンネル信号をとり、パラメトリック情報(それは、3Dオーディオビットストリームにパックされている)とSAOCトランスポートチャンネル(それは、単一のチャンネルエレメントを用いて符号化され、送信される)を出力する。
SAOCデコーダ915は、復号化SAOCトランスポートチャンネルとパラメトリック情報からオブジェクト/チャンネル信号を復元し、再生レイアウトと、解凍されたオブジェクトメタデータ情報と、オプションとしてユーザー対話処理情報とに基づいて出力オーディオシーンを生成する。
オブジェクトメタデータコーデックに関して、各オブジェクトに対して、3D空間におけるオブジェクトの幾何学的な位置と広がりを特定する関連するメタデータは、時間および空間におけるオブジェクト属性の定量化によって、例えば、図4のメタデータエンコーダ818によって、効率的に符号化される。圧縮されたオブジェクトメタデータcOAM(cOAM=圧縮されたオーディオオブジェクトメタデータ)は、サイド情報としてレシーバーに送信される。レシーバーにおいて、cOAMは、メタデータデコーダ918によって復号化される。
たとえば、図5において、メタデータデコーダ918は、上述の実施形態のいずれかによって、例えば、図1の距離計算器110を実施することができる。
オブジェクトレンダラー、例えば、図5のオブジェクトレンダラー920は、圧縮されたオブジェクトメタデータを利用し、与えられた再生フォーマットによってオブジェクト波形を生成する。各オブジェクトは、そのメタデータによって特定の出力チャンネルにレンダリングされる。このブロックの出力は、部分的な結果の合計から結果として生じる。いくつかの実施形態において、最も近いスピーカーの決定が行われる場合、オブジェクトレンダラー920は、たとえば、ミキサー930に対してレンダリングすることなく、USAC−3Dデコーダ910から受信されたオーディオオブジェクトをパスすることができる。ミキサー930は、たとえば、距離計算器によって決定された(例えば、メタデータデコーダ918の中で実施された)スピーカーに、オーディオオブジェクトをパスすることができる。この実施形態によって、例えば、距離計算器と、ミキサー930と、オプションとしてオブジェクトレンダラー920とを備えることができるメタデータデコーダ918は、図1の装置100を一緒に実施することができる。
たとえば、メタデータデコーダ918は、距離計算器(図示せず)を備え、前記距離計算器またはメタデータデコーダ918は、例えば、ミキサー930に対する接続(図示せず)によって、USAC−3Dデコーダから受信された1つ以上のオーディオオブジェクトの各オーディオオブジェクトに対する最も近いスピーカーをシグナリングすることができる。ミキサー930は、ここでスピーカーチャンネルの中で、複数のスピーカーの最も近いスピーカー(距離計算器で決定される)に対してのみ、オーディオオブジェクトを出力することができる。
いくつかの他の実施形態において、最も近いスピーカーは、ミキサー930に対して、距離計算器またはメタデータデコーダ918によって、1つ以上のオーディオオブジェクトに対してシグナリングされるだけである。
チャンネルベースのコンテンツ並びに離散/パラメトリックオブジェクトの両方が復号化される場合、チャンネルベースの波形とレンダリングされたオブジェクト波形は、例えば、図5のミキサー930によって結果として生じる波形を出力する前に(またはバイノーラルレンダラーまたはスピーカーレンダラーモジュールのような後処理モジュールにそれらを供給する前に)混合される。
バイノーラルレンダラーモジュール940は、各入力チャンネルが仮想音源によって表されるように、例えば、マルチチャンネルオーディオマテリアルのバイノーラルダウンミックスを産出することができる。処理は、QMFドメインにおいてフレームワイズに行われる。バイノーラル化は、例えば、測定されたバイノーラルルームインパルス応答に基づくことができる。
スピーカーレンダラー922は、例えば、送信されたチャンネル配置と所望の再生フォーマットの間で変換することができる。これは、従って以下においてフォーマットコンバータ922と呼ばれる。フォーマットコンバータ922は、低い数の出力チャンネルへの変換を実行し、例えば、それはダウンミックスを構築する。本システムは、入出力フォーマットの与えられた組合せに対して最適化されたダウンミックスマトリクスを自動的に生成し、これらのマトリクスをダウンミックスプロセスにおいて適用する。フォーマットコンバータ922は、標準のスピーカー構成並びに非標準のスピーカー位置によるランダム構成を可能にする。
実施形態によれば、デコーダデバイスが提供される。デコーダデバイスは、ビットストリームを復号化し、1つ以上のオーディオ入力チャンネルを取得し、1つ以上の入力オーディオオブジェクトを取得し、圧縮されたオブジェクトメタデータを取得し、1つ以上のSAOCトランスポートチャンネルを取得する、USACデコーダ910を備える。
さらに、デコーダデバイスは、1つ以上SAOCトランスポートチャンネルを復号化し、一群の1つ以上のレンダリングされたオーディオオブジェクトを取得する、SAOCデコーダ915を備える。
さらにまた、デコーダデバイスは、圧縮されたオブジェクトメタデータを復号化し、未圧縮のメタデータを取得する、オブジェクトメタデータデコーダ918を備える。
さらに、デコーダデバイスは、1つ以上のオーディオ入力チャンネルを変換し、1つ以上の変換されたチャンネルを取得する、フォーマットコンバータ922を備える。
さらにまた、デコーダデバイスは、一群の1つ以上のレンダリングされたオーディオオブジェクトの1つ以上のレンダリングされたオーディオオブジェクトと、1つ以上の入力オーディオオブジェクトと、1つ以上の変換されたチャンネルとを混合し、1つ以上の復号化されたオーディオチャンネルを取得する、ミキサー930を備える。
オブジェクトメタデータデコーダ918とミキサー930は、共に上述の実施形態の1つ、例えば図1の実施形態に係る装置100を形成する。
オブジェクトメタデータデコーダ918は、上述の実施形態の1つに係る装置100の距離計算器110を備え、距離計算器110は、1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトに対して、前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を計算する、または前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を読み込み、最小距離を有する解をとるように構成される。
ミキサー930は、前記入力オーディオオブジェクトに対して、1つ以上の復号化されたオーディオチャンネルの1つの中で、上述の実施形態の1つに係る装置100の距離計算器110によって決定された解に対応するスピーカーに対して、1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトを出力するように構成される。
このような実施形態において、オブジェクトレンダラー920は、例えばオプションとすることができる。いくつかの実施形態において、オブジェクトレンダラー920は、存在することができるが、メタデータ情報が、最も近いスピーカープレイアウトがアクティブでないことを示している場合に、入力オーディオオブジェクトをレンダリングすることができるだけである。メタデータ情報が、最も近いスピーカープレイアウトがアクティブであることを示している場合に、オブジェクトレンダラー920は、例えば、入力オーディオオブジェクトをレンダリングすることなく、入力オーディオオブジェクトを直接ミキサーにパスすることができる。
図6は、フォーマットコンバータの構造を示す。図6は、QMFドメイン(QMFドメイン=直交ミラーフィルタドメイン)においてダウンミックスを処理するダウンミックスコンフィギュレータ1010とダウンミックスプロセッサを示す。
以下において、本発明の実施形態の更なる実施形態およびコンセプトが記述される。
実施形態において、オーディオオブジェクトは、例えばオブジェクトレンダラーによって、例えば、メタデータおよび再生環境に関する情報を用いて再生側でレンダリングすることができる。この種の情報は、例えば、スピーカーの数またはスクリーンのサイズとすることができる。オブジェクトレンダラーは、例えば、幾何学的データおよび利用可能なスピーカーおよびそれらの位置に基づいてスピーカー信号を計算することができる。
オブジェクトのユーザー制御は、例えば、記述的メタデータによって、例えばビットストリーム内のオブジェクトの存在およびオブジェクトのハイレベル属性に関する情報によって実現することができる、または、例えば、拘束性メタデータによって、例えばどれだけの対話処理が可能であるかまたはコンテンツクリエーターによって使用可能であるかの情報によって実現することができる。
実施形態によれば、シグナリング、配信、およびオーディオオブジェクトのレンダリングは、位置的メタデータによって、例えば構造的メタデータ、たとえば、オブジェクトのグループ化および階層化によって、例えば、特定のスピーカーにおよびオブジェクトとしての信号チャンネルにレンダリングする能力によって、および、例えば、オブジェクトシーンをスクリーンサイズに適応させる手段によって実現することができる。
それ故に、3D空間におけるオブジェクトの既に定義された幾何学的位置およびレベルに加えて、新しいメタデータフィールドが開発された。
一般に、オブジェクト位置は、メタデータにおいて示される3D空間における位置によって定義される。
この再生スピーカーは、ローカルのスピーカーセットアップに存在する特定のスピーカーである可能性がある。このケースにおいて、所望のスピーカーは、メタデータによって直接定義される可能性がある。
にもかかわらず、製作者が、オーディオオブジェクトが、特定のスピーカーによって再生されることを望まないが、むしろ次の利用可能なスピーカー、例えば「幾何学的に最も近い」スピーカーによって再生されることを望むケースがある。これは、どのスピーカーがどのオーディオ信号に対応するかを定義する必要なしに離散的な再生を可能とする。これは、製作者がどのスピーカーを選択することができるかを知ることができないように、再生スピーカーレイアウトを製作者に対して未知とすることができるので、有益である。
実施形態は、いかなる平方根演算またはcos/sin関数も必要としない距離関数の単純な定義を提供する。実施形態において、距離関数は、角度ドメイン(方位角、仰角、距離)において働くので、他のいかなる座標系(直交、経度/緯度)への変換も必要とされない。実施形態によれば、方位角偏差、仰角偏差および半径偏差の間でフォーカスをシフトする可能性を提供する関数において重み付けがある。本関数における重み付けは、例えば、人間の聴覚の能力に対して調整する(例えば、方位角および仰角方向における顕著な差異によって重みを調整する)ことができる。本関数は、最も近いスピーカーの決定に対してだけでなく、バイノーラルルームインパルス応答またはバイノーラルレンダリングに対する頭部関連インパルス応答の選択に対しても適用することができる。このケースにおいていかなるインパルス応答の補間も必要とされず、その代わりに「最も近い」インパルス応答を用いることができる。
実施形態によれば、mae_closestSpeakerPlayoutと呼ばれる「ClosestSpeakerPlayout」フラグは、例えば、音がレンダリングなしに最も近い利用可能なスピーカーによって再生されることを強制するオブジェクトベースのメタデータにおいて定義することができる。オブジェクトは、例えば、その「ClosestSpeakerPlayout」フラグが1にセットされている場合に、最も近いスピーカーによる再生に対してマークすることができる。「ClosestSpeakerPlayout」フラグは、例えば、オブジェクトの「グループ」のレベルについて定義することができる。オブジェクトのグループは、ユニオンとしてレンダリングされるまたは修正されるべき関連オブジェクトの集合のコンセプトである。このフラグが1にセットされる場合に、それはグループの全てのメンバーに対して適用可能である。
実施形態によれば、最も近いスピーカーの決定に対して、グループ、例えば一群のオーディオオブジェクトのmae_closestSpeakerPlayoutフラグがイネーブルである場合に、グループのメンバーはオブジェクトの所定の位置に最も近いスピーカーによって各々再生される。いかなるレンダリングも適用されない。「ClosestSpeakerPlayout」がグループに対してイネーブルである場合に、以下の処理が行われる。
グループメンバーの各々に対して、メンバーの幾何学的な位置が(動的オブジェクトメタデータ(OAM)から)決定され、予め記憶されたテーブルにおけるルックアップまたは距離尺度の助けによる計算によって、最も近いスピーカーが決定される。メンバー位置の存在するスピーカーのすべて(またはサブセットのみ)までの距離が計算される。最小距離をもたらすスピーカーは最も近いスピーカーとして定義され、メンバーはその最も近いスピーカーに対してルーティングされる。グループメンバーは、その最も近いスピーカーによって各々再生される。
すでに記述されたように、最も近いスピーカーの決定に対する距離尺度は、たとえば、次のように実施することができる。

− 方位角および仰角における重み付けされた絶対差分
− 方位角、仰角および半径/距離における重み付けされた絶対差分およびたとえば(それに限定されないが)
− 累乗p(p=2 => 最小2乗法)に対する重み付けされた絶対差分
− (重み付けされた)ピタゴラスの定理/ユークリッド距離
直交座標に対する距離dは、例えば、次式を使用することによって実現することができる。
Figure 0006239145
ここで、x1、y1、z1は第1の位置のx、y、z座標値であり、x2、y2、z2は第2の位置のx、y、z座標値であり、dは第1の位置と第2の位置の間の距離である。
極座標に対する距離尺度dは、例えば、次式を使用することによって実現することができる。
Figure 0006239145
ここで、α1、β1、r1は第1の位置の極座標であり、α2、β2、r2は第2の位置の極座標であり、dは第1の位置と第2の位置の間の距離である。
重み付けされた角度差分は、例えば、次式によって定義することができる。

diffAngle=acos(cos(α1−α2)・cos(β1−β2))
順行距離、大円弧距離、または大圏距離に関して、距離は、球体の表面に沿って測定された(球体の内部を通る直線と対比されるような)ものである。平方根演算および三角関数を、例えば、使用することができる。座標は、例えば、緯度と経度に変換することができる。
上述された式に戻ると、

Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2

本式は、次式のオリジナルのタクシー幾何学定義におけるような直交座標の代わりに、極座標を用いた修正されたタクシー幾何学距離とみなすことができる。

Δ(P1,P2)=|x1−x2|+|y1−y2
この式によって、仰角、方位角および/または半径に重み付けを加えることが可能である。そのような方法で、高い数で方位角偏差を重み付けすることによって、方位角偏差が仰角偏差より許容できないように決めることが可能である。

Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2
更なる補足の注釈として、実施形態において、図2の「レンダリングされたオブジェクトオーディオ」は、例えば「レンダリングされたオブジェクトベースのオーディオ」とみなすことができることに留意すべきである。図2において、静的オブジェクトメタデータに関するusacConfigExtentionおよびusacExtensionは、特定の実施形態の例としてのみ用いられる。
図3に関して、いくつかの実施形態において、図3の動的オブジェクトメタデータは、例えば、位置的OAM(オーディオオブジェクトメタデータ、位置的データ+ゲイン)とすることができることに留意すべきである。いくつかの実施形態では、「ルート信号」は、例えば、フォーマットコンバータに対するまたはオブジェクトレンダラーに対するルーティングシグナルによって行うことができる。
いくつかの態様が装置の局面において記載されたが、これらの態様は、また対応する方法の記載を表すことは明らかであり、ブロックまたはデバイスは、方法ステップまたは方法ステップの構成に対応する。同様に、方法ステップの局面において記載された態様は、対応する装置の対応するブロックまたは項目または構成の記載を表す。
発明の分解された信号は、デジタル記憶媒体に記憶することができる、または無線伝送媒体または有線伝送媒体のような伝送媒体、例えばインターネット上で伝送することができる。
特定の実施要求によって、本発明の実施形態は、ハードウェアにおいてまたはソフトウェアにおいて実施することができる。実施は、その上に格納される電子的に読取可能な制御信号を有し、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協働する(または協働することができる)、デジタル記憶媒体、たとえば、フロッピーディスク(登録商標)、DVD、CD、ROM、PROM、EPROM、EEPROM、またはFLASHメモリを用いて実行することができる。
本発明に係るいくつかの実施形態は、本願明細書に記載された方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる、電子的に読取可能な制御信号を有する非遷移的なデータキャリアを備える。
一般に、本発明の実施形態は、コンピュータプログラム製品がコンピュータ上で動作するとき、方法の1つを実行するために動作するプログラムコードによるコンピュータプログラム製品として実施することができる。プログラムコードは、機械読取可能キャリアに格納することができる。
他の実施形態は、機械読取可能キャリアに格納された、本願明細書に記載された方法の1つを実行するためのコンピュータプログラムを備える。
言い換えれば、発明の方法の実施形態は、それ故に、コンピュータプログラムがコンピュータ上で動作するとき、本願明細書に記載された方法の1つを実行するプログラムコードを有するコンピュータプログラムである。
発明の方法の更なる実施形態は、それ故に、本願明細書に記載された方法の1つを実行するためのコンピュータプログラムをその上に記録されて備えるデータキャリア(またはデジタル記憶媒体またはコンピュータ可読媒体)である。
発明の方法の更なる実施形態は、それ故に、本願明細書に記載された方法の1つを実行するコンピュータプログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、データ通信接続を介して、たとえばインターネットを介して、伝送されるように構成することができる。
更なる実施形態は、本願明細書に記載された方法の1つを実行するように構成されたまたは適合された処理手段、たとえばコンピュータ、またはプログラマブルロジックデバイスを備える。
更なる実施形態は、本願明細書に記載された方法の1つを実行するコンピュータプログラムがその上にインストールされたコンピュータを備える。
いくつかの実施形態では、プログラマブルロジックデバイス(たとえばフィールドプログラマブルゲートアレイ)を、本願明細書に記載された方法の機能の一部または全てを実行するために用いることができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本願明細書に記載された方法の1つを実行するために、マイクロプロセッサと協働することができる。一般に、方法は、好ましくはいかなるハードウェア装置によっても実行される。
上述された実施形態は、単に本発明の原理に対して示されたものである。本願明細書に記載された構成および詳細の修正および変更は、他の当業者にとって明らかであると理解される。それ故に、本願発明は、間近に迫った特許クレームのスコープのみによって制限され、本願明細書の実施形態の記述および説明の方法によって示された特定の詳細によって制限されないことが意図される。

Claims (11)

  1. 位置に関連するオーディオオブジェクトを再生する装置(100)であって、
    前記位置のスピーカーまでの距離を計算する距離計算器(110)を備え、前記距離計算器(110)は、最小距離を有する解をとるように構成され、
    前記装置は、前記解に対応するスピーカーを用いて前記オーディオオブジェクトを再生するように構成され
    前記距離計算器(110)は、大円弧距離を返す、または方位角および仰角における重み付け絶対差分を返す、または重み付け角度差分を返す距離関数によって距離を計算するように構成された、
    装置(100)。
  2. 前記距離計算器(110)は、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、前記位置のスピーカーまでの距離を計算するように構成され、前記距離計算器(110)は、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、最小距離を有する解をとるように構成され、
    前記スピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能である解のみに対応するスピーカーを用いて前記オーディオオブジェクトを再生するように構成された、
    請求項1に記載の装置(100)。
  3. 前記最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合に、前記オーディオオブジェクトにいかなるレンダリングも行わないように構成された、請求項2に記載の装置(100)。
  4. 前記距離関数は、

    diffAngle=acos(cos(azDiff)*cos(elDiff))

    ここで、azDiffは、2つの方位角の差分を示し、
    elDiffは、2つの仰角の差分を示し、
    diffAngleは、重み付け角度差分を示す、

    に従って定義される、請求項1〜のいずれかに記載の装置(100)。
  5. 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、

    Δ(P1,P2)=|β1−β2|+|α1−α2

    ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す、または

    ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示す、

    に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜のいずれかに記載の装置。
  6. 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、

    Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2

    ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は前記位置の半径を示し、r2は、前記1つのスピーカーの半径を示す、または

    ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は前記位置の半径を示す、

    に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜のいずれかに記載の装置(100)。
  7. 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、

    Δ(P1,P2)=b・|β1−β2|+a・|α1−α2

    ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である、または

    ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、aは第1の数であり、bは第2の数である、

    に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜のいずれかに記載の装置(100)。
  8. 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、

    Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2

    ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示す、β2は前記1つのスピーカーの仰角を示し、r1は前記位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である、または

    ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は前記位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である、

    に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜のいずれかに記載の装置(100)。
  9. ビットストリームを復号化し、1つ以上のオーディオ入力チャンネルを取得し、1つ以上の入力オーディオオブジェクトを取得し、圧縮されたオブジェクトメタデータを取得し、1つ以上のSAOCトランスポートチャンネルを取得する、USACデコーダ(910)と、
    1つ以上SAOCトランスポートチャンネルを復号化し、一群の1つ以上のレンダリングされたオーディオオブジェクトを取得する、SAOCデコーダ(915)と、
    前記圧縮されたオブジェクトメタデータを復号化し、未圧縮のメタデータを取得する、オブジェクトメタデータデコーダ(918)と、
    前記1つ以上のオーディオ入力チャンネルを変換し、1つ以上の変換されたチャンネルを取得する、フォーマットコンバータ(922)と、
    前記一群の1つ以上のレンダリングされたオーディオオブジェクトの1つ以上のレンダリングされたオーディオオブジェクトと、前記1つ以上の入力オーディオオブジェクトと、前記1つ以上の変換されたチャンネルとを混合し、1つ以上の復号化されたオーディオチャンネルを取得する、ミキサー(930)と、
    を備え、
    前記オブジェクトメタデータデコーダ(918)と前記ミキサー(930)は、共に請求項1〜のいずれかに記載の装置(100)を形成し、
    前記オブジェクトメタデータデコーダ(918)は、請求項1〜のいずれかに記載の装置(100)の距離計算器(110)を備え、前記距離計算器(110)は、前記1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトに対して、前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を計算し、最小距離を有する解をとるように構成され、
    前記ミキサー(930)は、前記入力オーディオオブジェクトに対して、前記1つ以上の復号化されたオーディオチャンネルの1つの中で、請求項1〜のいずれかに記載の装置(100)の距離計算器(110)によって決定された解に対応するスピーカーに対して、前記1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトを出力するように構成された、
    デコーダデバイス。
  10. 位置に関連するオーディオオブジェクトを再生する方法であって、
    前記位置のスピーカーまでの距離を計算するステップと、
    最小距離を有する解をとるステップと、
    前記解に対応するスピーカーを用いて前記オーディオオブジェクトを再生するステップと、
    を備え
    前記距離を計算するステップは、大円弧距離を返す、または方位角および仰角における重み付け絶対差分を返す、または重み付け角度差分を返す距離関数によって行われる、
    方法。
  11. コンピュータプログラムがコンピュータ上または信号処理器上で実行されるとき、請求項10に記載の方法を実施する、コンピュータプログラム。
JP2016559271A 2014-03-26 2015-03-04 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 Active JP6239145B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP14161823 2014-03-26
EP14161823.1 2014-03-26
EP14196765.3 2014-12-08
EP14196765.3A EP2925024A1 (en) 2014-03-26 2014-12-08 Apparatus and method for audio rendering employing a geometric distance definition
PCT/EP2015/054514 WO2015144409A1 (en) 2014-03-26 2015-03-04 Apparatus and method for audio rendering employing a geometric distance definition

Publications (2)

Publication Number Publication Date
JP2017513387A JP2017513387A (ja) 2017-05-25
JP6239145B2 true JP6239145B2 (ja) 2017-11-29

Family

ID=52015947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016559271A Active JP6239145B2 (ja) 2014-03-26 2015-03-04 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法

Country Status (17)

Country Link
US (3) US10587977B2 (ja)
EP (2) EP2925024A1 (ja)
JP (1) JP6239145B2 (ja)
KR (1) KR101903873B1 (ja)
CN (2) CN106465034B (ja)
AR (1) AR099834A1 (ja)
AU (2) AU2015238694A1 (ja)
BR (1) BR112016022078B1 (ja)
CA (1) CA2943460C (ja)
ES (1) ES2773293T3 (ja)
MX (1) MX356924B (ja)
PL (1) PL3123747T3 (ja)
PT (1) PT3123747T (ja)
RU (1) RU2666473C2 (ja)
SG (1) SG11201607944QA (ja)
TW (1) TWI528275B (ja)
WO (1) WO2015144409A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3206408B1 (en) * 2014-10-10 2020-12-30 Sony Corporation Encoding device and method, playback device and method, and program
RU2717895C2 (ru) * 2015-10-26 2020-03-27 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для формирования отфильтрованного звукового сигнала, реализующего рендеризацию угла места
US10251007B2 (en) 2015-11-20 2019-04-02 Dolby Laboratories Licensing Corporation System and method for rendering an audio program
US9854375B2 (en) * 2015-12-01 2017-12-26 Qualcomm Incorporated Selection of coded next generation audio data for transport
KR102421292B1 (ko) * 2016-04-21 2022-07-18 한국전자통신연구원 오디오 객체 신호 재생 시스템 및 그 방법
CN109479178B (zh) 2016-07-20 2021-02-26 杜比实验室特许公司 基于呈现器意识感知差异的音频对象聚集
US10492016B2 (en) * 2016-09-29 2019-11-26 Lg Electronics Inc. Method for outputting audio signal using user position information in audio decoder and apparatus for outputting audio signal using same
US10555103B2 (en) * 2017-03-31 2020-02-04 Lg Electronics Inc. Method for outputting audio signal using scene orientation information in an audio decoder, and apparatus for outputting audio signal using the same
KR102506167B1 (ko) * 2017-04-25 2023-03-07 소니그룹주식회사 신호 처리 장치 및 방법, 및 프로그램
GB2567172A (en) * 2017-10-04 2019-04-10 Nokia Technologies Oy Grouping and transport of audio objects
CN113207078B (zh) 2017-10-30 2022-11-22 杜比实验室特许公司 在扬声器的任意集合上的基于对象的音频的虚拟渲染
EP3506661A1 (en) * 2017-12-29 2019-07-03 Nokia Technologies Oy An apparatus, method and computer program for providing notifications
WO2019149337A1 (en) 2018-01-30 2019-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatuses for converting an object position of an audio object, audio stream provider, audio content production system, audio playback apparatus, methods and computer programs
US11540075B2 (en) * 2018-04-10 2022-12-27 Gaudio Lab, Inc. Method and device for processing audio signal, using metadata
KR102048739B1 (ko) * 2018-06-01 2019-11-26 박승민 바이노럴 기술을 이용한 감성사운드 제공방법과 감성사운드 제공을 위한 상용 스피커 프리셋 제공방법 및 이를 위한 장치
WO2020030303A1 (en) 2018-08-09 2020-02-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An audio processor and a method for providing loudspeaker signals
GB2577698A (en) * 2018-10-02 2020-04-08 Nokia Technologies Oy Selection of quantisation schemes for spatial audio parameter encoding
TWI692719B (zh) * 2019-03-21 2020-05-01 瑞昱半導體股份有限公司 音訊處理方法與音訊處理系統
JP7157885B2 (ja) 2019-05-03 2022-10-20 ドルビー ラボラトリーズ ライセンシング コーポレイション 複数のタイプのレンダラーを用いたオーディオ・オブジェクトのレンダリング
CN116700659B (zh) * 2022-09-02 2024-03-08 荣耀终端有限公司 一种界面交互方法及电子设备

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5001745A (en) * 1988-11-03 1991-03-19 Pollock Charles A Method and apparatus for programmed audio annotation
US4954837A (en) * 1989-07-20 1990-09-04 Harris Corporation Terrain aided passive range estimation
JP3645839B2 (ja) 2001-07-18 2005-05-11 博信 近藤 携帯車止め装置
JP4662007B2 (ja) * 2001-07-19 2011-03-30 三菱自動車工業株式会社 障害物情報呈示装置
US20030107478A1 (en) 2001-12-06 2003-06-12 Hendricks Richard S. Architectural sound enhancement system
JP4285457B2 (ja) * 2005-07-20 2009-06-24 ソニー株式会社 音場測定装置及び音場測定方法
US7606707B2 (en) * 2005-09-06 2009-10-20 Toshiba Tec Kabushiki Kaisha Speaker recognition apparatus and speaker recognition method to eliminate a trade-off relationship between phonological resolving performance and speaker resolving performance
WO2007141677A2 (en) * 2006-06-09 2007-12-13 Koninklijke Philips Electronics N.V. A device for and a method of generating audio data for transmission to a plurality of audio reproduction units
JP5337941B2 (ja) 2006-10-16 2013-11-06 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マルチチャネル・パラメータ変換のための装置および方法
RU2321187C1 (ru) * 2006-11-13 2008-03-27 Константин Геннадиевич Ганькин Акустическая система пространственного звучания
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
GB0815362D0 (en) * 2008-08-22 2008-10-01 Queen Mary & Westfield College Music collection navigation
JP2011250311A (ja) 2010-05-28 2011-12-08 Panasonic Corp 聴覚ディスプレイ装置及び方法
US20120113224A1 (en) * 2010-11-09 2012-05-10 Andy Nguyen Determining Loudspeaker Layout Using Visual Markers
US9031268B2 (en) * 2011-05-09 2015-05-12 Dts, Inc. Room characterization and correction for multi-channel audio
US9119011B2 (en) 2011-07-01 2015-08-25 Dolby Laboratories Licensing Corporation Upmixing object based audio
SG10201604679UA (en) 2011-07-01 2016-07-28 Dolby Lab Licensing Corp System and method for adaptive audio signal generation, coding and rendering
TWI701952B (zh) 2011-07-01 2020-08-11 美商杜比實驗室特許公司 用於增強3d音頻編輯與呈現之設備、方法及非暫態媒體
US20130054377A1 (en) * 2011-08-30 2013-02-28 Nils Oliver Krahnstoever Person tracking and interactive advertising
BR112014017457A8 (pt) * 2012-01-19 2017-07-04 Koninklijke Philips Nv aparelho de transmissão de áudio espacial; aparelho de codificação de áudio espacial; método de geração de sinais de saída de áudio espacial; e método de codificação de áudio espacial
JP5843705B2 (ja) * 2012-06-19 2016-01-13 シャープ株式会社 音声制御装置、音声再生装置、テレビジョン受像機、音声制御方法、プログラム、および記録媒体
JP6167178B2 (ja) 2012-08-31 2017-07-19 ドルビー ラボラトリーズ ライセンシング コーポレイション オブジェクトに基づくオーディオのための反射音レンダリング
CN103021414B (zh) * 2012-12-04 2014-12-17 武汉大学 一种三维音频系统距离调制方法

Also Published As

Publication number Publication date
AU2018204548A1 (en) 2018-07-12
CA2943460C (en) 2017-11-07
BR112016022078A2 (ja) 2017-08-22
US20230370799A1 (en) 2023-11-16
RU2666473C2 (ru) 2018-09-07
AU2018204548B2 (en) 2019-11-28
KR101903873B1 (ko) 2018-11-22
US20200260205A1 (en) 2020-08-13
PL3123747T3 (pl) 2020-06-29
US11632641B2 (en) 2023-04-18
PT3123747T (pt) 2020-03-05
EP3123747B1 (en) 2019-12-25
CN108924729B (zh) 2021-10-26
EP3123747A1 (en) 2017-02-01
JP2017513387A (ja) 2017-05-25
KR20160136437A (ko) 2016-11-29
TW201537452A (zh) 2015-10-01
WO2015144409A1 (en) 2015-10-01
BR112016022078B1 (pt) 2023-02-07
US10587977B2 (en) 2020-03-10
MX356924B (es) 2018-06-20
RU2016141784A (ru) 2018-04-26
CN106465034A (zh) 2017-02-22
RU2016141784A3 (ja) 2018-04-26
CA2943460A1 (en) 2015-10-01
US20170013388A1 (en) 2017-01-12
TWI528275B (zh) 2016-04-01
ES2773293T3 (es) 2020-07-10
CN108924729A (zh) 2018-11-30
AR099834A1 (es) 2016-08-24
CN106465034B (zh) 2018-10-19
MX2016012317A (es) 2017-01-06
SG11201607944QA (en) 2016-10-28
AU2015238694A1 (en) 2016-11-10
EP2925024A1 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP6239145B2 (ja) 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法
TWI744341B (zh) 使用近場/遠場渲染之距離聲相偏移
US10453462B2 (en) Method and apparatus for encoding and decoding 3-dimensional audio signal
JP5337941B2 (ja) マルチチャネル・パラメータ変換のための装置および方法
US9761229B2 (en) Systems, methods, apparatus, and computer-readable media for audio object clustering
RU2759160C2 (ru) УСТРОЙСТВО, СПОСОБ И КОМПЬЮТЕРНАЯ ПРОГРАММА ДЛЯ КОДИРОВАНИЯ, ДЕКОДИРОВАНИЯ, ОБРАБОТКИ СЦЕНЫ И ДРУГИХ ПРОЦЕДУР, ОТНОСЯЩИХСЯ К ОСНОВАННОМУ НА DirAC ПРОСТРАНСТВЕННОМУ АУДИОКОДИРОВАНИЮ
JP5525527B2 (ja) 変換された空間オーディオ信号を決定するための装置
RU2643644C2 (ru) Кодирование и декодирование аудиосигналов
JP2016529544A (ja) ジョイント符号化残留信号を用いたオーディオエンコーダ、オーディオデコーダ、方法、およびコンピュータプログラム
KR20140092779A (ko) 채널 신호를 처리하는 부호화/복호화 장치 및 방법
KR101951001B1 (ko) 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치
US20220377488A1 (en) Information processing apparatus and information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6239145

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250