JP6239145B2 - 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 - Google Patents
幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 Download PDFInfo
- Publication number
- JP6239145B2 JP6239145B2 JP2016559271A JP2016559271A JP6239145B2 JP 6239145 B2 JP6239145 B2 JP 6239145B2 JP 2016559271 A JP2016559271 A JP 2016559271A JP 2016559271 A JP2016559271 A JP 2016559271A JP 6239145 B2 JP6239145 B2 JP 6239145B2
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- distance
- indicates
- audio
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000009877 rendering Methods 0.000 title claims description 34
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 20
- 230000004044 response Effects 0.000 description 13
- 230000005236 sound signal Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/301—Automatic calibration of stereophonic sound system, e.g. with test microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
diffAngle=acos(cos(azDiff)*cos(elDiff))
ここで、azDiffは2つの方位角の差分を示し、elDiffは2つの仰角の差分を示し、diffAngleは重み付け角度差分を示す。
Δ(P1,P2)=|β1−β2|+|α1−α2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示す。
Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示す。
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、aは第1の数であり、bは第2の数である。
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。
- 位置のスピーカーまでの距離を計算するまたは位置のスピーカーまでの距離を読み込む。
- 最小距離を有する解をとる。
- 解に対応するスピーカーを用いてオーディオオブジェクトを再生する。
diffAngle=acos(cos(azDiff)*cos(elDiff))
ここで、azDiffは2つの方位角の差分を示し、elDiffは2つの仰角の差分を示し、diffAngleは重み付け角度差分を示す。
Δ(P1,P2)=|β1−β2|+|α1−α2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示す。
Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示す。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示す。
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、aは第1の数であり、bは第2の数である。
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
α1は位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。または、α1は前記1つのスピーカーの方位角を示し、α2は位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である。
1) 空間においてどこでオブジェクトがレンダリングされるべきか、または
2) オブジェクトを再生するためにどのスピーカーが用いられるべきか
mdae_closestSpeakerPlayout このフラグは、メタデータエレメントグループのメンバーはレンダリングされるべきでないが、メンバーの幾何学的な位置に最も近いスピーカーによって直接再生されるべきであることを定義する。
− 最も近いスピーカーメタデータフラグがセットされている場合、音は最も近いスピーカーを通じて再生される
− このために、次のスピーカーまでの距離が計算される(または予め記憶されたテーブルから読み取る)
− 最小距離を有する解がとられる
− 距離関数は、例えば以下とすることができる(しかしながらそれに限定されない)
− 重み付けユークリッドまたは大円弧距離
− 方位角および仰角における重み付け絶対差分
− 累乗p(p=2 => 最小2乗法)に対する重み付け絶対差分
− 重み付け角度差分、例えば diffAngle=acos(cos(azDiff)*cos(elDiff)))
Δ(P1,P2)= |β1−β2|+|α1−α2|+|r1−r2|
Pnext=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(Pwanted,PN))
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
Δ(P1,P2)=|β1−β2|+|α1−α2|
Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2|
Pnext=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(Pwanted,PN))
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
Δ(P1,P2)=|θ1−θ2|+|φ1−φ2|
Pnext=min(Δ(Pwanted,P1),Δ(Pwanted,P2),・・・,Δ(Pwanted,PN))
− プリレンダリングされたオブジェクト: オブジェクト信号は、プリレンダリングされ、符合化の前に22.2チャンネル信号に混合される。引き続く符号化チェーンは22.2チャンネル信号を参照されたい。
− 離散オブジェクト波形: オブジェクトは、USACエンコーダ820にモノラル波形として供給される。USACエンコーダ820は、チャンネル信号に加えてオブジェクトを伝送するため、単一のチャンネルエレメントSCEを用いる。復号化されたオブジェクトは、レシーバー側でレンダリングされ、混合される。圧縮されたオブジェクトメタデータ情報は、レシーバー/レンダラーに並んで伝送される。
− パラメトリックオブジェクト波形: オブジェクトの属性およびそれらの互いに対する関係は、SAOCパラメータによって記述される。オブジェクト信号のダウンミックスは、USACエンコーダ820によって符号化される。パラメトリック情報は、並んで伝送される。ダウンミックスチャンネルの数は、オブジェクトの数および全体のデータレートによって選択される。圧縮されたオブジェクトメタデータ情報は、SAOCレンダラーに伝送される。
− 方位角および仰角における重み付けされた絶対差分
− 方位角、仰角および半径/距離における重み付けされた絶対差分およびたとえば(それに限定されないが)
− 累乗p(p=2 => 最小2乗法)に対する重み付けされた絶対差分
− (重み付けされた)ピタゴラスの定理/ユークリッド距離
ここで、x1、y1、z1は第1の位置のx、y、z座標値であり、x2、y2、z2は第2の位置のx、y、z座標値であり、dは第1の位置と第2の位置の間の距離である。
ここで、α1、β1、r1は第1の位置の極座標であり、α2、β2、r2は第2の位置の極座標であり、dは第1の位置と第2の位置の間の距離である。
diffAngle=acos(cos(α1−α2)・cos(β1−β2))
Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2|
本式は、次式のオリジナルのタクシー幾何学定義におけるような直交座標の代わりに、極座標を用いた修正されたタクシー幾何学距離とみなすことができる。
Δ(P1,P2)=|x1−x2|+|y1−y2|
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
Claims (11)
- 位置に関連するオーディオオブジェクトを再生する装置(100)であって、
前記位置のスピーカーまでの距離を計算する距離計算器(110)を備え、前記距離計算器(110)は、最小距離を有する解をとるように構成され、
前記装置は、前記解に対応するスピーカーを用いて前記オーディオオブジェクトを再生するように構成され、
前記距離計算器(110)は、大円弧距離を返す、または方位角および仰角における重み付け絶対差分を返す、または重み付け角度差分を返す距離関数によって距離を計算するように構成された、
装置(100)。 - 前記距離計算器(110)は、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、前記位置のスピーカーまでの距離を計算するように構成され、前記距離計算器(110)は、最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合にのみ、最小距離を有する解をとるように構成され、
前記スピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能である解のみに対応するスピーカーを用いて前記オーディオオブジェクトを再生するように構成された、
請求項1に記載の装置(100)。 - 前記最も近いスピーカープレイアウトフラグ(mdae_closestSpeakerPlayout)が使用可能な場合に、前記オーディオオブジェクトにいかなるレンダリングも行わないように構成された、請求項2に記載の装置(100)。
- 前記距離関数は、
diffAngle=acos(cos(azDiff)*cos(elDiff))
ここで、azDiffは、2つの方位角の差分を示し、
elDiffは、2つの仰角の差分を示し、
diffAngleは、重み付け角度差分を示す、
に従って定義される、請求項1〜3のいずれかに記載の装置(100)。 - 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、
Δ(P1,P2)=|β1−β2|+|α1−α2|
ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示す、または
ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示す、
に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜4のいずれかに記載の装置。 - 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、
Δ(P1,P2)=|β1−β2|+|α1−α2|+|r1−r2|
ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、r1は前記位置の半径を示し、r2は、前記1つのスピーカーの半径を示す、または
ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は前記位置の半径を示す、
に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜4のいずれかに記載の装置(100)。 - 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|
ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示し、β2は前記1つのスピーカーの仰角を示し、aは第1の数であり、bは第2の数である、または
ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、aは第1の数であり、bは第2の数である、
に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜4のいずれかに記載の装置(100)。 - 前記距離計算器(110)は、前記位置の1つのスピーカーまでの各距離Δ(P1,P2)が、
Δ(P1,P2)=b・|β1−β2|+a・|α1−α2|+c・|r1−r2|
ここで、α1は前記位置の方位角を示し、α2は前記1つのスピーカーの方位角を示し、β1は前記位置の仰角を示す、β2は前記1つのスピーカーの仰角を示し、r1は前記位置の半径を示し、r2は前記1つのスピーカーの半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である、または
ここで、α1は前記1つのスピーカーの方位角を示し、α2は前記位置の方位角を示し、β1は前記1つのスピーカーの仰角を示し、β2は前記位置の仰角を示し、r1は前記1つのスピーカーの半径を示し、r2は前記位置の半径を示し、aは第1の数であり、bは第2の数であり、cは第3の数である、
に従って計算されるように、前記位置のスピーカーまでの距離を計算するように構成された、請求項1〜4のいずれかに記載の装置(100)。 - ビットストリームを復号化し、1つ以上のオーディオ入力チャンネルを取得し、1つ以上の入力オーディオオブジェクトを取得し、圧縮されたオブジェクトメタデータを取得し、1つ以上のSAOCトランスポートチャンネルを取得する、USACデコーダ(910)と、
1つ以上SAOCトランスポートチャンネルを復号化し、一群の1つ以上のレンダリングされたオーディオオブジェクトを取得する、SAOCデコーダ(915)と、
前記圧縮されたオブジェクトメタデータを復号化し、未圧縮のメタデータを取得する、オブジェクトメタデータデコーダ(918)と、
前記1つ以上のオーディオ入力チャンネルを変換し、1つ以上の変換されたチャンネルを取得する、フォーマットコンバータ(922)と、
前記一群の1つ以上のレンダリングされたオーディオオブジェクトの1つ以上のレンダリングされたオーディオオブジェクトと、前記1つ以上の入力オーディオオブジェクトと、前記1つ以上の変換されたチャンネルとを混合し、1つ以上の復号化されたオーディオチャンネルを取得する、ミキサー(930)と、
を備え、
前記オブジェクトメタデータデコーダ(918)と前記ミキサー(930)は、共に請求項1〜8のいずれかに記載の装置(100)を形成し、
前記オブジェクトメタデータデコーダ(918)は、請求項1〜8のいずれかに記載の装置(100)の距離計算器(110)を備え、前記距離計算器(110)は、前記1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトに対して、前記入力オーディオオブジェクトに関連する位置のスピーカーまでの距離を計算し、最小距離を有する解をとるように構成され、
前記ミキサー(930)は、前記入力オーディオオブジェクトに対して、前記1つ以上の復号化されたオーディオチャンネルの1つの中で、請求項1〜8のいずれかに記載の装置(100)の距離計算器(110)によって決定された解に対応するスピーカーに対して、前記1つ以上の入力オーディオオブジェクトの各入力オーディオオブジェクトを出力するように構成された、
デコーダデバイス。 - 位置に関連するオーディオオブジェクトを再生する方法であって、
前記位置のスピーカーまでの距離を計算するステップと、
最小距離を有する解をとるステップと、
前記解に対応するスピーカーを用いて前記オーディオオブジェクトを再生するステップと、
を備え、
前記距離を計算するステップは、大円弧距離を返す、または方位角および仰角における重み付け絶対差分を返す、または重み付け角度差分を返す距離関数によって行われる、
方法。 - コンピュータプログラムがコンピュータ上または信号処理器上で実行されるとき、請求項10に記載の方法を実施する、コンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14161823 | 2014-03-26 | ||
EP14161823.1 | 2014-03-26 | ||
EP14196765.3 | 2014-12-08 | ||
EP14196765.3A EP2925024A1 (en) | 2014-03-26 | 2014-12-08 | Apparatus and method for audio rendering employing a geometric distance definition |
PCT/EP2015/054514 WO2015144409A1 (en) | 2014-03-26 | 2015-03-04 | Apparatus and method for audio rendering employing a geometric distance definition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017513387A JP2017513387A (ja) | 2017-05-25 |
JP6239145B2 true JP6239145B2 (ja) | 2017-11-29 |
Family
ID=52015947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016559271A Active JP6239145B2 (ja) | 2014-03-26 | 2015-03-04 | 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 |
Country Status (17)
Country | Link |
---|---|
US (3) | US10587977B2 (ja) |
EP (2) | EP2925024A1 (ja) |
JP (1) | JP6239145B2 (ja) |
KR (1) | KR101903873B1 (ja) |
CN (2) | CN106465034B (ja) |
AR (1) | AR099834A1 (ja) |
AU (2) | AU2015238694A1 (ja) |
BR (1) | BR112016022078B1 (ja) |
CA (1) | CA2943460C (ja) |
ES (1) | ES2773293T3 (ja) |
MX (1) | MX356924B (ja) |
PL (1) | PL3123747T3 (ja) |
PT (1) | PT3123747T (ja) |
RU (1) | RU2666473C2 (ja) |
SG (1) | SG11201607944QA (ja) |
TW (1) | TWI528275B (ja) |
WO (1) | WO2015144409A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3206408B1 (en) * | 2014-10-10 | 2020-12-30 | Sony Corporation | Encoding device and method, playback device and method, and program |
RU2717895C2 (ru) * | 2015-10-26 | 2020-03-27 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для формирования отфильтрованного звукового сигнала, реализующего рендеризацию угла места |
US10251007B2 (en) | 2015-11-20 | 2019-04-02 | Dolby Laboratories Licensing Corporation | System and method for rendering an audio program |
US9854375B2 (en) * | 2015-12-01 | 2017-12-26 | Qualcomm Incorporated | Selection of coded next generation audio data for transport |
KR102421292B1 (ko) * | 2016-04-21 | 2022-07-18 | 한국전자통신연구원 | 오디오 객체 신호 재생 시스템 및 그 방법 |
CN109479178B (zh) | 2016-07-20 | 2021-02-26 | 杜比实验室特许公司 | 基于呈现器意识感知差异的音频对象聚集 |
US10492016B2 (en) * | 2016-09-29 | 2019-11-26 | Lg Electronics Inc. | Method for outputting audio signal using user position information in audio decoder and apparatus for outputting audio signal using same |
US10555103B2 (en) * | 2017-03-31 | 2020-02-04 | Lg Electronics Inc. | Method for outputting audio signal using scene orientation information in an audio decoder, and apparatus for outputting audio signal using the same |
KR102506167B1 (ko) * | 2017-04-25 | 2023-03-07 | 소니그룹주식회사 | 신호 처리 장치 및 방법, 및 프로그램 |
GB2567172A (en) * | 2017-10-04 | 2019-04-10 | Nokia Technologies Oy | Grouping and transport of audio objects |
CN113207078B (zh) | 2017-10-30 | 2022-11-22 | 杜比实验室特许公司 | 在扬声器的任意集合上的基于对象的音频的虚拟渲染 |
EP3506661A1 (en) * | 2017-12-29 | 2019-07-03 | Nokia Technologies Oy | An apparatus, method and computer program for providing notifications |
WO2019149337A1 (en) | 2018-01-30 | 2019-08-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatuses for converting an object position of an audio object, audio stream provider, audio content production system, audio playback apparatus, methods and computer programs |
US11540075B2 (en) * | 2018-04-10 | 2022-12-27 | Gaudio Lab, Inc. | Method and device for processing audio signal, using metadata |
KR102048739B1 (ko) * | 2018-06-01 | 2019-11-26 | 박승민 | 바이노럴 기술을 이용한 감성사운드 제공방법과 감성사운드 제공을 위한 상용 스피커 프리셋 제공방법 및 이를 위한 장치 |
WO2020030303A1 (en) | 2018-08-09 | 2020-02-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | An audio processor and a method for providing loudspeaker signals |
GB2577698A (en) * | 2018-10-02 | 2020-04-08 | Nokia Technologies Oy | Selection of quantisation schemes for spatial audio parameter encoding |
TWI692719B (zh) * | 2019-03-21 | 2020-05-01 | 瑞昱半導體股份有限公司 | 音訊處理方法與音訊處理系統 |
JP7157885B2 (ja) | 2019-05-03 | 2022-10-20 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 複数のタイプのレンダラーを用いたオーディオ・オブジェクトのレンダリング |
CN116700659B (zh) * | 2022-09-02 | 2024-03-08 | 荣耀终端有限公司 | 一种界面交互方法及电子设备 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5001745A (en) * | 1988-11-03 | 1991-03-19 | Pollock Charles A | Method and apparatus for programmed audio annotation |
US4954837A (en) * | 1989-07-20 | 1990-09-04 | Harris Corporation | Terrain aided passive range estimation |
JP3645839B2 (ja) | 2001-07-18 | 2005-05-11 | 博信 近藤 | 携帯車止め装置 |
JP4662007B2 (ja) * | 2001-07-19 | 2011-03-30 | 三菱自動車工業株式会社 | 障害物情報呈示装置 |
US20030107478A1 (en) | 2001-12-06 | 2003-06-12 | Hendricks Richard S. | Architectural sound enhancement system |
JP4285457B2 (ja) * | 2005-07-20 | 2009-06-24 | ソニー株式会社 | 音場測定装置及び音場測定方法 |
US7606707B2 (en) * | 2005-09-06 | 2009-10-20 | Toshiba Tec Kabushiki Kaisha | Speaker recognition apparatus and speaker recognition method to eliminate a trade-off relationship between phonological resolving performance and speaker resolving performance |
WO2007141677A2 (en) * | 2006-06-09 | 2007-12-13 | Koninklijke Philips Electronics N.V. | A device for and a method of generating audio data for transmission to a plurality of audio reproduction units |
JP5337941B2 (ja) | 2006-10-16 | 2013-11-06 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | マルチチャネル・パラメータ変換のための装置および方法 |
RU2321187C1 (ru) * | 2006-11-13 | 2008-03-27 | Константин Геннадиевич Ганькин | Акустическая система пространственного звучания |
US8170222B2 (en) * | 2008-04-18 | 2012-05-01 | Sony Mobile Communications Ab | Augmented reality enhanced audio |
GB0815362D0 (en) * | 2008-08-22 | 2008-10-01 | Queen Mary & Westfield College | Music collection navigation |
JP2011250311A (ja) | 2010-05-28 | 2011-12-08 | Panasonic Corp | 聴覚ディスプレイ装置及び方法 |
US20120113224A1 (en) * | 2010-11-09 | 2012-05-10 | Andy Nguyen | Determining Loudspeaker Layout Using Visual Markers |
US9031268B2 (en) * | 2011-05-09 | 2015-05-12 | Dts, Inc. | Room characterization and correction for multi-channel audio |
US9119011B2 (en) | 2011-07-01 | 2015-08-25 | Dolby Laboratories Licensing Corporation | Upmixing object based audio |
SG10201604679UA (en) | 2011-07-01 | 2016-07-28 | Dolby Lab Licensing Corp | System and method for adaptive audio signal generation, coding and rendering |
TWI701952B (zh) | 2011-07-01 | 2020-08-11 | 美商杜比實驗室特許公司 | 用於增強3d音頻編輯與呈現之設備、方法及非暫態媒體 |
US20130054377A1 (en) * | 2011-08-30 | 2013-02-28 | Nils Oliver Krahnstoever | Person tracking and interactive advertising |
BR112014017457A8 (pt) * | 2012-01-19 | 2017-07-04 | Koninklijke Philips Nv | aparelho de transmissão de áudio espacial; aparelho de codificação de áudio espacial; método de geração de sinais de saída de áudio espacial; e método de codificação de áudio espacial |
JP5843705B2 (ja) * | 2012-06-19 | 2016-01-13 | シャープ株式会社 | 音声制御装置、音声再生装置、テレビジョン受像機、音声制御方法、プログラム、および記録媒体 |
JP6167178B2 (ja) | 2012-08-31 | 2017-07-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オブジェクトに基づくオーディオのための反射音レンダリング |
CN103021414B (zh) * | 2012-12-04 | 2014-12-17 | 武汉大学 | 一种三维音频系统距离调制方法 |
-
2014
- 2014-12-08 EP EP14196765.3A patent/EP2925024A1/en not_active Withdrawn
-
2015
- 2015-03-04 CN CN201580016080.2A patent/CN106465034B/zh active Active
- 2015-03-04 AU AU2015238694A patent/AU2015238694A1/en not_active Abandoned
- 2015-03-04 SG SG11201607944QA patent/SG11201607944QA/en unknown
- 2015-03-04 EP EP15709657.9A patent/EP3123747B1/en active Active
- 2015-03-04 KR KR1020167029721A patent/KR101903873B1/ko active IP Right Grant
- 2015-03-04 CN CN201811092027.2A patent/CN108924729B/zh active Active
- 2015-03-04 PL PL15709657T patent/PL3123747T3/pl unknown
- 2015-03-04 PT PT157096579T patent/PT3123747T/pt unknown
- 2015-03-04 WO PCT/EP2015/054514 patent/WO2015144409A1/en active Application Filing
- 2015-03-04 BR BR112016022078-1A patent/BR112016022078B1/pt active IP Right Grant
- 2015-03-04 MX MX2016012317A patent/MX356924B/es active IP Right Grant
- 2015-03-04 CA CA2943460A patent/CA2943460C/en active Active
- 2015-03-04 ES ES15709657T patent/ES2773293T3/es active Active
- 2015-03-04 RU RU2016141784A patent/RU2666473C2/ru active
- 2015-03-04 JP JP2016559271A patent/JP6239145B2/ja active Active
- 2015-03-23 TW TW104109248A patent/TWI528275B/zh active
- 2015-03-25 AR ARP150100876A patent/AR099834A1/es active IP Right Grant
-
2016
- 2016-09-23 US US15/274,623 patent/US10587977B2/en active Active
-
2018
- 2018-06-22 AU AU2018204548A patent/AU2018204548B2/en active Active
-
2020
- 2020-02-19 US US16/795,564 patent/US11632641B2/en active Active
-
2023
- 2023-02-27 US US18/175,432 patent/US20230370799A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6239145B2 (ja) | 幾何学的な距離定義を使用してオーディオレンダリングする装置および方法 | |
TWI744341B (zh) | 使用近場/遠場渲染之距離聲相偏移 | |
US10453462B2 (en) | Method and apparatus for encoding and decoding 3-dimensional audio signal | |
JP5337941B2 (ja) | マルチチャネル・パラメータ変換のための装置および方法 | |
US9761229B2 (en) | Systems, methods, apparatus, and computer-readable media for audio object clustering | |
RU2759160C2 (ru) | УСТРОЙСТВО, СПОСОБ И КОМПЬЮТЕРНАЯ ПРОГРАММА ДЛЯ КОДИРОВАНИЯ, ДЕКОДИРОВАНИЯ, ОБРАБОТКИ СЦЕНЫ И ДРУГИХ ПРОЦЕДУР, ОТНОСЯЩИХСЯ К ОСНОВАННОМУ НА DirAC ПРОСТРАНСТВЕННОМУ АУДИОКОДИРОВАНИЮ | |
JP5525527B2 (ja) | 変換された空間オーディオ信号を決定するための装置 | |
RU2643644C2 (ru) | Кодирование и декодирование аудиосигналов | |
JP2016529544A (ja) | ジョイント符号化残留信号を用いたオーディオエンコーダ、オーディオデコーダ、方法、およびコンピュータプログラム | |
KR20140092779A (ko) | 채널 신호를 처리하는 부호화/복호화 장치 및 방법 | |
KR101951001B1 (ko) | 3차원 오디오 신호를 부호화 및 복호화하는 방법 및 장치 | |
US20220377488A1 (en) | Information processing apparatus and information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171031 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6239145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |