JP7122793B2 - 深度拡張DirAC技術またはその他の技術を使用して、拡張音場記述または修正音場記述を生成するための概念 - Google Patents
深度拡張DirAC技術またはその他の技術を使用して、拡張音場記述または修正音場記述を生成するための概念 Download PDFInfo
- Publication number
- JP7122793B2 JP7122793B2 JP2020500707A JP2020500707A JP7122793B2 JP 7122793 B2 JP7122793 B2 JP 7122793B2 JP 2020500707 A JP2020500707 A JP 2020500707A JP 2020500707 A JP2020500707 A JP 2020500707A JP 7122793 B2 JP7122793 B2 JP 7122793B2
- Authority
- JP
- Japan
- Prior art keywords
- sound field
- information
- field description
- description
- modified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 239000013598 vector Substances 0.000 claims description 52
- 238000013519 translation Methods 0.000 claims description 38
- 230000005236 sound signal Effects 0.000 claims description 26
- 230000015572 biosynthetic process Effects 0.000 claims description 21
- 238000003786 synthesis reaction Methods 0.000 claims description 20
- 238000004458 analytical method Methods 0.000 claims description 19
- 238000009877 rendering Methods 0.000 claims description 18
- 238000004091 panning Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000001419 dependent effect Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims description 3
- 230000007480 spreading Effects 0.000 claims description 3
- 238000003892 spreading Methods 0.000 claims description 3
- 230000014616 translation Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 16
- 230000033458 reproduction Effects 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000013707 sensory perception of sound Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000001303 quality assessment method Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 238000000540 analysis of variance Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 208000001992 Autosomal Dominant Optic Atrophy Diseases 0.000 description 1
- 206010011906 Death Diseases 0.000 description 1
- 206010052804 Drug tolerance Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000026781 habituation Effects 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 238000013105 post hoc analysis Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Stereophonic System (AREA)
- Electrophonic Musical Instruments (AREA)
Description
・拡張表現を使用する場合、既存のソフトウェアおよびハードウェアの実施態様を再利用できること。
で表される到来方向(DoA)から録音される。このDoAは、録音の解析から推定できる。それは距離
から来ている。この情報は、例えば飛行時間カメラを使用して自動的に推定され、録音位置から各方向rをメートル単位で最も近い音源の距離にマッピングする深度マップm(r)の形式で距離情報を取得することが仮定される。
拡散度は、このベクトル[18]の変動係数から推定される。
(k、n)を取得する。信号の直接部分のDoAは、反対方向の単位長さベクトルとして計算される。
方向は各時間-周波数ビンの単位長さの3次元ベクトルとして符号化されるため、距離情報を統合するのは簡単である。方向ベクトルは、ベクトルの長さが対応する音源dr(k、n)の距離を表すように、対応するマップエントリと乗算される。
=
(k、n)
ここで、dr(k、n)は、マイクの録音位置から、時間nおよび周波数ビンkでアクティブな音源を指すベクトルである。
の新しい変換方向ベクトルd1(k、n)を生成できる(図10を参照)。リスナーのPoVから音源までの距離が導出され、DoAは単一のステップで適応される。
リアルな再現の重要な側面は、距離の減衰である。減衰は、音源とリスナーとの間の距離の関数であると仮定される[19]。方向ベクトルの長さは、再生のために減衰または増幅を符号化することである。録音位置までの距離は、距離マップに従ってdr(k、n)で符号化され、再生される距離はd1(k、n)で符号化される。ベクトルを単位長に正規化し、古い距離と新しい距離の比率とを乗算すると、d1(k、n)を元のベクトルの長さで除算することによって必要な長さが与えられることが分かる。
リスナーの向きの変更は、次の手順で適用される。トラッキングによって与えられる方向は、原点としての録音位置を基準としたピッチ、ヨー、およびロール
Tで構成されるベクトルとして記述できる。音源方向は、リスナーの方向に従って回転され、これは、2D回転行列を使用して実施される。
結果として得られるリスナーのDoAは、単位長に正規化されたベクトルによって与えられる。
変換された方向ベクトル、拡散度、および複雑なスペクトルを使用して、均一に分散された8+4仮想スピーカ設定用の信号を合成する。8つの仮想スピーカは、リスナー平面上で45°の方位角のステップ(仰角0°)で配置され、4つの仮想スピーカは、45°の仰角で90°のクロスフォーメーションで配置される。合成は、スピーカチャネル
ごとに直接部分および拡散部分に分割され、
はスピーカの数[16]である。
直接部分では、エッジフェージング振幅パンニング(EFAP)パンニングが適用され、仮想スピーカジオメトリ[20]が与えられると、正しい方向から音が再生される。DoAベクトルrp(k、n)が与えられると、これは各仮想スピーカチャネル
のパンニングゲインGi(r)を提供する。各DoAの距離依存ゲインは、結果の方向ベクトルの長さdp(k、n)から導出される。チャネル
の直接合成は次のようになる。
ここで、指数γは、通常は約1に設定される調整係数である[19]。γ=0の場合、距離依存ゲインはオフになることに留意されたい。
各チャネルの拡散部分と直接部分が一緒に加算され、信号は逆STFTによって時間領域に変換される。これらのチャネル時間領域信号は、バイノーラル化された信号を作成するために、スピーカの位置に応じて左右の耳のHRTFと畳み込まれる。
、リスナーの頭部の回転
は引き続き適用される。ゲインは、リスナーから2mの距離にある音源のゲインに設定される。この条件はアンカーとして使用される。
、距離依存ゲインが適用される(γ=1)。
は、方向ベクトルを変化させるために使用される。距離情報m(r)は、リスナー位置(5)で正しいDoAを計算するために使用され、距離依存ゲイン(6)が適用される(γ=1)。
、方位角θおよび仰角ψの方向の音源信号
の合成直接Bフォーマット信号
は次のとおりである。
ここで、cは音速(m/s)である。その後に、追跡された回転がFOAドメインに適用される[7]。
のように推定することができ、STFTドメインで表される。
参考文
Claims (16)
- 拡張音場記述を生成するための装置であって、
少なくとも1つの基準位置についての音場を示す少なくとも1つの音場記述を生成するための音場生成器(100)と、
前記音場の空間情報に関連するメタデータを生成するためのメタデータ生成器(110)と、を含み、
前記少なくとも1つの音場記述および前記メタデータは、前記拡張音場記述を構成し、
前記音場生成器(100)は、前記少なくとも1つの音場記述として、前記音場のDirAC記述を生成するように構成され、前記DirAC記述は、1つもしくは複数のダウンミックス信号および個別方向データ(322)、ならびに任意選択で異なる時間-周波数ビンに対する拡散度データを有し、前記メタデータ生成器(110)は、前記空間情報に関連する前記メタデータとして、前記異なる時間-周波数ビンの追加の個々の深度情報を生成するように構成され、且つ
前記メタデータ生成器(110)は、前記音場生成器(100)によって使用されるオーディオ信号から、または前記オーディオ信号に関連付けられたビデオ信号から、またはステレオスコピック(3次元)撮像/ビデオもしくは明視野技術で使用される深度マップから、またはコンピュータグラフィックスシーンの幾何学的情報から前記追加の個々の深度情報を推定するように構成されるか、または
前記メタデータ生成器(110)は、前記追加の個々の深度情報として、異なる方向を示す前記個別方向データ(322)について、対応する距離情報(324)を含む深度マップ(320)を生成するように構成される、装置。 - 送信または保存のための出力信号を生成するための出力インターフェース(120)をさらに含み、前記出力信号は、時間フレーム(302、304、306)について、前記時間フレーム(302、304、306)の前記少なくとも1つの音場記述としての前記音場および前記メタデータとしての前記異なる時間-周波数ビンの前記追加の個々の深度情報から導出された1つまたは複数のオーディオ信号を含む、請求項1に記載の装置。
- 前記異なる時間-周波数ビンの前記追加の個々の深度情報は、前記深度マップ(320)であり、前記深度マップ(320)は、前記個別方向データ(322)として複数の到来方向データ項目および複数の関連する距離(324)を含み、前記複数の到来方向データ項目の各到来方向データ項目は関連する距離(324)を有する、
請求項1または2に記載の装置。 - 前記音場生成器(100)は、前記音場の時間フレームの前記異なる時間-周波数ビンについて拡散度値(316)を生成するように構成され、
前記メタデータ生成器(110)は、前記異なる時間-周波数ビンのある時間-周波数ビンの前記拡散度値(316)が拡散度しきい値よりも低い場合に、前記時間-周波数ビンの前記追加の個々の深度情報のみを生成するように構成され、または、前記メタデータ生成器(110)は、前記異なる時間-周波数ビンの前記時間-周波数ビンの前記拡散度値(316)が拡散度しきい値よりも低い場合に、所定の値とは異なる前記追加の個々の深度情報のみを生成するように構成される、
請求項1から3のいずれか一項に記載の装置。 - 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための装置であって、
前記装置は、前記空間情報、前記音場記述、およびある基準位置(520)から異なる基準位置(500)への並進を示す並進情報を使用して前記修正音場記述を計算するための音場計算器(420)を含み、
前記空間情報は、深度情報を含み、前記音場記述は、異なる時間-周波数ビンの方向データおよび任意選択の拡散度データを有するDirAC記述を含み、
前記音場計算器(420)は、
前記方向データ、前記深度情報、および前記並進情報を使用して、前記異なる時間-周波数ビンの修正方向データを計算し、
前記修正方向データを使用して、前記DirAC記述を複数のオーディオチャネルを含む音響記述にレンダリングするか、または、前記異なる時間-周波数ビンの前記方向データの代わりに前記異なる時間-周波数ビンについての前記修正方向データ、および任意選択で、前記DirAC記述に含まれているものと同じ拡散度データを使用して、前記DirAC記述を送信または保存する、
ように構成される、装置。 - 前記音場計算器(420)は、前記異なる時間-周波数ビンのある時間-周波数ビンについて、前記方向データを維持するか、または前記時間-周波数ビンの前記拡散データに基づいて前記修正方向データを計算する、ように決定するように構成され、前記修正方向データは、所定のまたは適応的な拡散度レベルよりも低い拡散度を示す拡散度データについてのみ計算される、請求項5に記載の装置。
- 前記並進情報または前記修正音場記述に対する意図されたリスナーの回転を示す回転情報を提供するための変換インターフェース(410)と、
前記音場計算器(420)に前記メタデータを提供するためのメタデータサプライヤ(402、400)と、
前記音場計算器(420)に前記音場記述を提供するための音場サプライヤ(404、400)と、
前記修正音場記述と、前記並進情報を使用して前記メタデータから導出された修正メタデータと、を出力するための、または各スピーカチャネルが所定のスピーカ位置に関連する複数のスピーカチャネルを出力するための、または前記修正音場記述のバイノーラル表現を出力するための、出力インターフェース(428)と、
をさらに含む、請求項5または6に記載の装置。 - 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための装置であって、
前記装置は、前記空間情報、前記音場記述、およびある基準位置(520)から異なる基準位置(500)への並進を示す並進情報を使用して前記修正音場記述を計算するための音場計算器(420)を含み、
前記音場記述は、複数の音場成分を含み、前記複数の音場成分は、全方向性成分および少なくとも1つの指向性成分を含み、
前記音場計算器は、
前記音場成分を解析して、異なる周波数ビンについて、到来方向情報を導出するための音場解析器(420)と、
前記到来方向情報および前記メタデータを使用して、周波数ビンごとに修正到来方向情報を計算するための並進変換器(423)であって、前記メタデータは、距離情報(324)を周波数ビンの到来方向情報(322)に関連付ける深度マップ(320)を含む、並進変換器(423)と、
前記周波数ビンの前記深度マップ(320)によって提供される前記距離、および前記修正到来方向情報に関連する前記周波数ビンに関連付けられた新しい距離に応じた距離補償情報を使用して、前記修正音場記述を計算するための距離補償器と、を含む、
装置。 - 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための装置であって、
前記装置は、前記空間情報、前記音場記述、およびある基準位置(520)から異なる基準位置(500)への並進を示す並進情報を使用して前記修正音場記述を計算するための音場計算器(420)を含み、前記空間情報は、異なる時間-周波数ビンの深度情報を含み、前記異なる時間-周波数ビンは、時間フレームの異なる周波数ビンを含み、
前記音場計算器(420)は、
前記音場記述から音源信号を決定し、音解析により前記基準位置(520)に関連する前記音源信号の方向を決定し(1200)、前記音解析は、前記時間フレームの前記異なる周波数ビンの前記音源信号を取得するための前記音場記述の時間-周波数変換(421)と、前記音源信号の前記方向としての前記時間フレームの前記異なる周波数ビンの到来方向データ項目の計算(422)とを含み、
対応する周波数ビンの前記深度情報を使用して、前記異なる基準位置(500)に関連する前記時間フレームの前記異なる周波数ビンの周波数ビンごとに新しい方向を計算し(1230、423、424)、
前記異なる基準位置(500)に関連する前記時間フレームの前記異なる周波数ビンの周波数ビンごとに前記距離情報を計算し(1230)、
前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記距離情報、前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記音源信号、および前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記新しい方向を使用して前記時間フレームの合成された修正音場記述を取得する(1260)、
ように構成される、装置。 - 前記音場計算器(420)は、
再生設定に関連して前記新しい方向により与えられた方向に前記音源信号をパンニングすることにより、
ならびに前記パンニングを実行する前または前記パンニングを実行した後に、前記距離情報を使用して前記音源信号をスケーリングすることにより、前記合成された修正音場記述を取得するように構成される、請求項9に記載の装置。 - 前記音場計算器(420)は、拡散信号を前記音源信号の直接部分に追加するように構成され、前記直接部分は、前記拡散信号に追加される前に前記距離情報によって修正される、
請求項9または10に記載の装置。 - 前記音場計算器(420)は、
前記フレームの対応する周波数ビンの前記合成された修正音場記述を取得する際に(1260)、前記対応する周波数ビンの前記音源信号、前記対応する周波数ビンの前記新しい方向から導出された前記対応する周波数ビンのパンニングゲイン、および前記対応する周波数ビンの前記距離情報から導出された前記対応する周波数ビンのスケーリングベクトルを使用して、前記時間フレームの前記異なる周波数ビンの周波数ビンごとに直接合成を実行する、
ように構成される、請求項9から11のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
前記対応する周波数ビンのオーディオ信号から導出された拡散オーディオ信号を使用し、かつ前記対応する周波数ビンの前記音解析によって導出された拡散度パラメータを使用して拡散合成を実行し、直接オーディオ信号と前記拡散オーディオ信号とを組み合わせて、前記対応する周波数ビンの合成オーディオ信号を取得し、
時間フレームの前記異なる周波数ビンの前記合成オーディオ信号を使用して周波数-時間変換(426)を実行し、前記修正音場記述として時間領域合成オーディオ信号を取得する、
ように構成される、請求項12に記載の装置。 - 拡張音場の記述を生成するための方法であって、
少なくとも1つの基準位置についての音場を示す少なくとも1つの音場記述を生成するステップと、
前記音場の空間情報に関連するメタデータを生成するステップと、を含み、
前記少なくとも1つの音場記述および前記メタデータは、前記拡張音場記述を構成し、
前記少なくとも1つの音場記述を生成するステップは、前記少なくとも1つの音場記述として、前記音場のDirAC記述を生成することを含み、前記DirAC記述は、1つもしくは複数のダウンミックス信号および個別方向データ(322)、ならびに任意選択で異なる時間-周波数ビンに対する拡散度データを有し、前記メタデータを生成するステップは、前記空間情報に関連する前記メタデータとして、前記異なる時間-周波数ビンの追加の個々の深度情報を生成することを含み、且つ
前記メタデータを生成するステップは、前記音場記述を生成するステップによって使用されるオーディオ信号から、または前記オーディオ信号に関連付けられたビデオ信号から、またはステレオスコピック(3次元)撮像/ビデオもしくは明視野技術で使用される深度マップから、またはコンピュータグラフィックスシーンの幾何学的情報から前記追加の個々の深度情報を推定することを含むか、または
前記メタデータを生成するステップは、前記追加の個々の深度情報として、異なる方向を示す前記個別方向データ(322)について、対応する距離情報(324)を含む深度マップ(320)を生成することを含む、方法。 - 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための方法であって、前記方法は、
前記空間情報、前記音場記述、およびある基準位置(520)から異なる基準位置(500)への並進を示す並進情報を使用して前記修正音場記述を計算するステップを含み、
前記空間情報は、深度情報を含み、前記音場記述は、異なる時間-周波数ビンの方向データおよび任意選択の拡散度データを有するDirAC記述を含み、前記修正音場記述を計算するステップは、前記方向データ、前記深度情報、および前記並進情報を使用して、前記異なる時間-周波数ビンの修正方向データを計算すること、および前記修正方向データを使用して、前記DirAC記述を複数のオーディオチャネルを含む音響記述にレンダリングするか、または、前記異なる時間-周波数ビンの前記方向データの代わりに前記異なる時間-周波数ビンについての前記修正方向データ、および任意選択で、前記DirAC記述に含まれているものと同じ拡散度データを使用して、前記DirAC記述を送信または保存することを含むか、
または、
前記音場記述は、複数の音場成分を含み、前記複数の音場成分は、全方向性成分および少なくとも1つの指向性成分を含み、前記修正音場記述を計算するステップは、前記音場成分を解析して、異なる周波数ビンについて、到来方向情報を導出することと、前記到来方向情報および前記メタデータを使用して、周波数ビンごとに修正到来方向情報を計算することと(前記メタデータは、距離情報(324)を周波数ビンの到来方向情報(322)に関連付ける深度マップ(320)を含む)、前記周波数ビンの前記深度マップ(320)によって提供される前記距離、および前記修正到来方向情報に関連する前記周波数ビンに関連付けられた新しい距離に応じた距離補償情報を使用して、前記修正音場記述を計算することと、を含むか、
または、
前記空間情報は、異なる時間-周波数ビンの前記深度情報を含み、前記異なる時間-周波数ビンは、時間フレームの異なる周波数ビンを含み、前記修正音場記述を計算するステップは、音場解析により前記音場記述および音源の方向から前記音源を決定すること(1200、1240)と〔前記音解析は、前記時間フレームの前記異なる周波数ビンの前記音源信号を取得するための前記音場記述の時間-周波数変換(421)と、前記音源信号の前記方向としての前記時間フレームの前記異なる周波数ビンの到来方向データ項目の計算(422)とを含む〕;対応する周波数ビンの前記深度情報を使用して、前記異なる基準位置(500)に関連する前記時間フレームの前記異なる周波数ビンの周波数ビンごとに新しい方向を計算すること(1230、423、424)と;前記異なる基準位置(500)に関連する前記時間フレームの前記異なる周波数ビンの周波数ビンごとに前記距離情報を計算すること(1230)と;前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記距離情報、前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記音源信号、および前記時間フレームの前記異なる周波数ビンの周波数ビンごとの前記新しい方向を使用して前記時間フレームの合成された修正音場記述を取得すること(1260)と;を含む、方法。 - コンピュータまたはプロセッサで実行される場合に、請求項14に記載の方法または請求項15に記載の方法を実行するためのコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17181481 | 2017-07-14 | ||
EP17181481.7 | 2017-07-14 | ||
PCT/EP2018/069147 WO2019012135A1 (en) | 2017-07-14 | 2018-07-13 | CONCEPT FOR GENERATING AN ENHANCED AUDIO FIELD DESCRIPTION OR A MODIFIED SOUND FIELD DESCRIPTION USING DIRAC TECHNIQUE EXTENDED IN DEPTH OR OTHER TECHNIQUES |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020527887A JP2020527887A (ja) | 2020-09-10 |
JP7122793B2 true JP7122793B2 (ja) | 2022-08-22 |
Family
ID=59631528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500707A Active JP7122793B2 (ja) | 2017-07-14 | 2018-07-13 | 深度拡張DirAC技術またはその他の技術を使用して、拡張音場記述または修正音場記述を生成するための概念 |
Country Status (14)
Country | Link |
---|---|
US (1) | US11477594B2 (ja) |
EP (1) | EP3652737A1 (ja) |
JP (1) | JP7122793B2 (ja) |
KR (2) | KR102568365B1 (ja) |
CN (1) | CN111108555B (ja) |
AR (1) | AR112556A1 (ja) |
AU (2) | AU2018298878A1 (ja) |
BR (1) | BR112020000779A2 (ja) |
CA (1) | CA3069772C (ja) |
RU (1) | RU2736274C1 (ja) |
SG (1) | SG11202000287RA (ja) |
TW (1) | TWI684978B (ja) |
WO (1) | WO2019012135A1 (ja) |
ZA (1) | ZA202000169B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112020010819A2 (pt) | 2017-12-18 | 2020-11-10 | Dolby International Ab | método e sistema para tratar transições locais entre posições de escuta em um ambiente de realidade virtual |
JP7311602B2 (ja) * | 2018-12-07 | 2023-07-19 | フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 低次、中次、高次成分生成器を用いたDirACベースの空間音声符号化に関する符号化、復号化、シーン処理および他の手順を行う装置、方法およびコンピュータプログラム |
EP3997895A1 (en) * | 2019-07-08 | 2022-05-18 | DTS, Inc. | Non-coincident audio-visual capture system |
WO2021071498A1 (en) * | 2019-10-10 | 2021-04-15 | Dts, Inc. | Spatial audio capture with depth |
CN113284504A (zh) | 2020-02-20 | 2021-08-20 | 北京三星通信技术研究有限公司 | 姿态检测方法、装置、电子设备及计算机可读存储介质 |
US11164550B1 (en) * | 2020-04-23 | 2021-11-02 | Hisep Technology Ltd. | System and method for creating and outputting music |
WO2021261085A1 (ja) * | 2020-06-26 | 2021-12-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、プログラム、収録再生システム |
US11830471B1 (en) * | 2020-08-31 | 2023-11-28 | Amazon Technologies, Inc. | Surface augmented ray-based acoustic modeling |
GB2602148A (en) * | 2020-12-21 | 2022-06-22 | Nokia Technologies Oy | Audio rendering with spatial metadata interpolation and source position information |
US11758348B1 (en) * | 2021-01-07 | 2023-09-12 | Apple Inc. | Auditory origin synthesis |
EP4174637A1 (en) * | 2021-10-26 | 2023-05-03 | Koninklijke Philips N.V. | Bitstream representing audio in an environment |
GB2614253A (en) * | 2021-12-22 | 2023-07-05 | Nokia Technologies Oy | Apparatus, methods and computer programs for providing spatial audio |
WO2023147864A1 (en) * | 2022-02-03 | 2023-08-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method to transform an audio stream |
WO2024014711A1 (ko) * | 2022-07-11 | 2024-01-18 | 한국전자통신연구원 | 녹음 거리 파라미터 기반 오디오 렌더링 방법 및 이를 수행하는 장치 |
WO2024069796A1 (ja) * | 2022-09-28 | 2024-04-04 | 三菱電機株式会社 | 音空間構築装置、音空間構築システム、プログラム及び音空間構築方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074589A (ja) | 2004-09-03 | 2006-03-16 | Matsushita Electric Ind Co Ltd | 音響処理装置 |
JP2015509212A (ja) | 2012-01-19 | 2015-03-26 | コーニンクレッカ フィリップス エヌ ヴェ | 空間オーディオ・レンダリング及び符号化 |
WO2015107926A1 (ja) | 2014-01-16 | 2015-07-23 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1512514A (en) * | 1974-07-12 | 1978-06-01 | Nat Res Dev | Microphone assemblies |
JPH08107600A (ja) * | 1994-10-04 | 1996-04-23 | Yamaha Corp | 音像定位装置 |
US5970152A (en) | 1996-04-30 | 1999-10-19 | Srs Labs, Inc. | Audio enhancement system for use in a surround sound environment |
EP2346028A1 (en) * | 2009-12-17 | 2011-07-20 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal |
EP2450880A1 (en) * | 2010-11-05 | 2012-05-09 | Thomson Licensing | Data structure for Higher Order Ambisonics audio data |
ES2643163T3 (es) | 2010-12-03 | 2017-11-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y procedimiento para codificación de audio espacial basada en geometría |
EP2600637A1 (en) | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for microphone positioning based on a spatial power density |
EP2600343A1 (en) | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for merging geometry - based spatial audio coding streams |
US9516446B2 (en) | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
CN104604257B (zh) | 2012-08-31 | 2016-05-25 | 杜比实验室特许公司 | 用于在各种收听环境中渲染并且回放基于对象的音频的系统 |
US9769588B2 (en) * | 2012-11-20 | 2017-09-19 | Nokia Technologies Oy | Spatial audio enhancement apparatus |
US9685163B2 (en) | 2013-03-01 | 2017-06-20 | Qualcomm Incorporated | Transforming spherical harmonic coefficients |
US9466305B2 (en) | 2013-05-29 | 2016-10-11 | Qualcomm Incorporated | Performing positional analysis to code spherical harmonic coefficients |
US9384741B2 (en) | 2013-05-29 | 2016-07-05 | Qualcomm Incorporated | Binauralization of rotated higher order ambisonics |
US9883312B2 (en) | 2013-05-29 | 2018-01-30 | Qualcomm Incorporated | Transformed higher order ambisonics audio data |
US20150127354A1 (en) | 2013-10-03 | 2015-05-07 | Qualcomm Incorporated | Near field compensation for decomposed representations of a sound field |
EP3007167A1 (en) | 2014-10-10 | 2016-04-13 | Thomson Licensing | Method and apparatus for low bit rate compression of a Higher Order Ambisonics HOA signal representation of a sound field |
CN105635635A (zh) * | 2014-11-19 | 2016-06-01 | 杜比实验室特许公司 | 调节视频会议系统中的空间一致性 |
WO2017098949A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
US10659906B2 (en) | 2017-01-13 | 2020-05-19 | Qualcomm Incorporated | Audio parallax for virtual reality, augmented reality, and mixed reality |
-
2018
- 2018-07-13 KR KR1020227010356A patent/KR102568365B1/ko active IP Right Grant
- 2018-07-13 JP JP2020500707A patent/JP7122793B2/ja active Active
- 2018-07-13 AU AU2018298878A patent/AU2018298878A1/en not_active Abandoned
- 2018-07-13 WO PCT/EP2018/069147 patent/WO2019012135A1/en active Search and Examination
- 2018-07-13 CN CN201880060085.9A patent/CN111108555B/zh active Active
- 2018-07-13 BR BR112020000779-0A patent/BR112020000779A2/pt unknown
- 2018-07-13 KR KR1020207001256A patent/KR102448736B1/ko active IP Right Grant
- 2018-07-13 EP EP18737642.1A patent/EP3652737A1/en active Pending
- 2018-07-13 AR ARP180101956 patent/AR112556A1/es active IP Right Grant
- 2018-07-13 CA CA3069772A patent/CA3069772C/en active Active
- 2018-07-13 SG SG11202000287RA patent/SG11202000287RA/en unknown
- 2018-07-13 RU RU2020106726A patent/RU2736274C1/ru active
- 2018-07-16 TW TW107124518A patent/TWI684978B/zh active
-
2020
- 2020-01-10 ZA ZA2020/00169A patent/ZA202000169B/en unknown
- 2020-01-10 US US16/740,290 patent/US11477594B2/en active Active
-
2021
- 2021-08-18 AU AU2021218089A patent/AU2021218089A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006074589A (ja) | 2004-09-03 | 2006-03-16 | Matsushita Electric Ind Co Ltd | 音響処理装置 |
JP2015509212A (ja) | 2012-01-19 | 2015-03-26 | コーニンクレッカ フィリップス エヌ ヴェ | 空間オーディオ・レンダリング及び符号化 |
WO2015107926A1 (ja) | 2014-01-16 | 2015-07-23 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
Non-Patent Citations (2)
Title |
---|
Plinge et al.,Six-Degrees-of-Freedom Binaural Audio Reproduction of First-Order Ambisonics with Distance Information,2018年08月22日,Conference on Audio for Virtual and Augmented Reality |
Yang et al.,A 3D AUDIO CODING TECHNIQUE BASED ON EXTRACTING THE DISTANCE PARAMETER,2014年07月18日,2014 IEEE International Conference on Multimedia and Expo (ICME) |
Also Published As
Publication number | Publication date |
---|---|
CN111108555B (zh) | 2023-12-15 |
JP2020527887A (ja) | 2020-09-10 |
US20200154229A1 (en) | 2020-05-14 |
AU2018298878A1 (en) | 2020-01-30 |
AR112556A1 (es) | 2019-11-13 |
US11477594B2 (en) | 2022-10-18 |
EP3652737A1 (en) | 2020-05-20 |
KR102448736B1 (ko) | 2022-09-30 |
TWI684978B (zh) | 2020-02-11 |
CA3069772C (en) | 2024-01-02 |
SG11202000287RA (en) | 2020-02-27 |
AU2021218089A1 (en) | 2021-09-09 |
KR20200041307A (ko) | 2020-04-21 |
WO2019012135A1 (en) | 2019-01-17 |
RU2736274C1 (ru) | 2020-11-13 |
TW201919043A (zh) | 2019-05-16 |
KR20220044393A (ko) | 2022-04-07 |
CN111108555A (zh) | 2020-05-05 |
BR112020000779A2 (pt) | 2020-07-14 |
CA3069772A1 (en) | 2019-01-17 |
ZA202000169B (en) | 2022-07-27 |
KR102568365B1 (ko) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7122793B2 (ja) | 深度拡張DirAC技術またはその他の技術を使用して、拡張音場記述または修正音場記述を生成するための概念 | |
JP7119060B2 (ja) | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト | |
KR102540642B1 (ko) | 다중-층 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210324 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210618 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210819 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211224 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220706 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7122793 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |