JP2022153626A - マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト - Google Patents
マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト Download PDFInfo
- Publication number
- JP2022153626A JP2022153626A JP2022124044A JP2022124044A JP2022153626A JP 2022153626 A JP2022153626 A JP 2022153626A JP 2022124044 A JP2022124044 A JP 2022124044A JP 2022124044 A JP2022124044 A JP 2022124044A JP 2022153626 A JP2022153626 A JP 2022153626A
- Authority
- JP
- Japan
- Prior art keywords
- sound field
- sound
- reference position
- field description
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 71
- 238000013519 translation Methods 0.000 claims abstract description 56
- 238000012545 processing Methods 0.000 claims abstract description 21
- 239000013598 vector Substances 0.000 claims description 92
- 238000004458 analytical method Methods 0.000 claims description 34
- 230000015572 biosynthetic process Effects 0.000 claims description 22
- 238000003786 synthesis reaction Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 18
- 238000004091 panning Methods 0.000 claims description 16
- 230000005236 sound signal Effects 0.000 claims description 16
- 238000000926 separation method Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000009792 diffusion process Methods 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 claims description 2
- 230000001256 tonic effect Effects 0.000 claims description 2
- 238000011426 transformation method Methods 0.000 claims 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 230000014616 translation Effects 0.000 description 40
- 230000008859 change Effects 0.000 description 9
- 230000033458 reproduction Effects 0.000 description 9
- 238000009877 rendering Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 208000001992 Autosomal Dominant Optic Atrophy Diseases 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 3
- 206010011906 Death Diseases 0.000 description 3
- 230000003321 amplification Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000013707 sensory perception of sound Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000796 flavoring agent Substances 0.000 description 1
- 235000019634 flavors Nutrition 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/02—Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Stereophonic System (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
Description
・拡張された表現は、既存の拡張されていない表現(例えば、レンダリング用)に変換することができ、
・拡張表現を使用する場合、既存のソフトウェアとハードウェアの実施態様を再利用することができるという意味で、これらの表現/システムとの下位互換性を提供することが実施形態の目的である。
で表される到来方向(DoA)から録音される。このDoAは、録音の解析から推定できる。それは距離
から来ている。この情報は、各音源のメタデータ、または一般的に図3bの項目352、353、354から取得でき、例えば2つの異なる基準位置と距離/位置または基準位置に対する2つの角度を使用して三角測量処理により得られる、録音位置から距離(例えばメートル単位で与えられる)までの任意の方向rを有する距離記述として表すことができると仮定される。
拡散度は、このベクトル[18]の変動係数から推定される。
は、移動平均として実施される、時間フレームに沿った期待演算子を示す。
基準位置までの各(一致した)音源の距離を有する方向ベースの距離マップを使用して音響を操作することを目的としているため、任意選択の実施形態では方向推定の分散は低くなければならない。通常、フレームは短いので、これは必ずしもそうではない。したがって、移動平均を適用して、平滑化された方向推定値
(k、n)を取得する。信号の直接部分のDoAは、一実施形態では、反対方向の単位長さベクトルとして計算される。
方向は各時間-周波数ビンの単位長さの3次元ベクトルとして符号化されるため、距離情報を統合するのは簡単である。方向ベクトルは、ベクトルの長さが対応する音源dr(k、n)の距離を表すように、対応するマップエントリと乗算されるdr(k,n):
=
(k,n)
ここで、dr(k、n)は、マイクの録音位置から、時間nおよび周波数ビンkでアクティブな音源を指すベクトルである。
の新しい変換方向ベクトルd1(k、n)を生成できる(図6bを参照)。リスナーのPoVから音源までの距離が導出され、DoAは単一のステップで適応される。
リアルな再現の重要な側面は、距離の減衰である。減衰は、音源とリスナーとの間の距離の関数であると仮定される[19]。方向ベクトルの長さは、再生のために減衰または増幅を符号化することである。録音位置までの距離は、距離マップに従ってdr(k、n)で符号化され、再生される距離はd1(k、n)で符号化される。ベクトルを単位長に正規化し、古い距離と新しい距離の比率とを乗算すると、d1(k、n)を元のベクトルの長さで除算することによって必要な長さが与えられることが分かる。
リスナーの向きの変更は、次の手順で適用される。トラッキングによって与えられる方向は、原点としての録音位置を基準としたピッチ、ヨー、およびロール
Tで構成されるベクトルとして記述できる。音源方向は、リスナーの方向に従って回転され、これは、2D回転行列を使用して実施される。
結果として得られるリスナーのDoAは、単位長に正規化されたベクトルによって与えられる。
変換された方向ベクトル、拡散度、および複雑なスペクトルを使用して、均一に分散された8+4仮想スピーカ設定用の信号を合成する。8つの仮想スピーカは、リスナー平面上で45°の方位角のステップ(仰角0°)で配置され、4つの仮想スピーカは、45°の仰角で90°のクロスフォーメーションで配置される。合成は、スピーカチャネル
ごとに直接部分および拡散部分に分割され、
はスピーカの数[16]である。
直接部分では、エッジフェージング振幅パンニング(EFAP)パンニングが適用され、仮想スピーカジオメトリ[20]が与えられると、正しい方向から音が再生される。DoAベクトルrp(k、n)が与えられると、これは各仮想スピーカチャネルiのパンニングゲインGi(r)を提供する。各DoAの距離依存ゲインは、結果の方向ベクトルの長さdp(k、n)から導出される。チャネルiの直接合成は次のようになる。
ここで、指数γは、通常は約1に設定される調整係数である[19]。γ=0の場合、距離依存ゲインはオフになることに留意されたい。
各チャネルの拡散部分と直接部分が一緒に加算され、信号は逆STFTによって時間領域に変換される。これらのチャネル時間領域信号は、バイノーラル化された信号を作成するために、スピーカの位置に応じて左右の耳のHRTFと畳み込まれる。
のように推定することができ、STFTドメインで表される。
参考文
Claims (50)
- 拡張音場記述を生成するための装置であって、
少なくとも1つの基準位置についての音場を示す少なくとも1つの音場記述を生成するための音場生成器と、
前記音場の空間情報に関連するメタデータを生成するためのメタデータ生成器と、を含み、
前記少なくとも1つの音場記述および前記メタデータは、前記拡張音場記述を構成する、装置。 - 前記音場生成器は、前記基準位置についての第1の音場記述と、さらなる基準位置についての第2の音場記述と、を生成するように構成され、前記さらなる基準位置は前記基準位置とは異なり、
前記メタデータ生成器は、前記メタデータとして、前記基準位置および前記さらなる基準位置を個別に決定するか、あるいは、前記基準位置と前記さらなる基準位置との間の距離、または前記基準位置と前記さらなる基準位置との間の位置ベクトルを決定するように構成される、
請求項1に記載の装置。 - 前記第1の音場記述は第1のアンビソニックス記述であり、前記第2の音場記述は第2のアンビソニックス記述であるか、あるいは前記第1の音場記述および前記第2の音場記述はアンビソニックス記述またはDirAC記述の一方である、
請求項2に記載の装置。 - 前記第1の幾何学的記述は、所定の原点から前記第1の音場記述の基準位置に向かう第1のベクトルに関する情報であり、
前記第2の幾何学的記述は、所定の原点から第2の音場記述のさらなる基準位置に向かう第2のベクトルに関する情報である、
請求項1から3のいずれか一項に記載の装置。 - 前記第1の幾何学的記述は、所定の原点から第1の音場記述の基準位置に向かう第1のベクトル、および前記所定の原点から第2の音場記述のさらなる基準位置に向かう第2のベクトルの一方に関する情報、ならびに前記基準位置と前記さらなる基準位置との間のベクトルに関する情報である、
請求項1から4のいずれか一項に記載の装置。 - 前記基準位置および前記さらなる基準位置の一方は所定の原点であり、前記メタデータは、前記所定の原点と前記基準位置および前記さらなる基準位置の他方との間のベクトルに関する情報を含む、
請求項1から5のいずれか一項に記載の装置。 - 前記音場生成器は、実際のマイク装置を使用して、または仮想マイク技術を使用した音響合成によって、前記第1の音場記述または前記第2の音場記述を生成するように構成される、請求項1から6のいずれか一項に記載の装置。
- 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための装置であって、
前記空間情報、前記音場記述、およびある基準位置から異なる基準位置への並進を示す並進情報を使用して前記修正音場を計算するための音場計算器を含む装置。 - 前記音場計算器は、信号ベースの変換方法を使用して前記修正音場記述を計算するように構成される、
請求項8に記載の装置。 - 前記音場計算器は、
前記第1の基準位置に関係する第1の音場記述を受け取り、前記基準位置とは異なるさらなる基準位置に関係する第2の音場記述を受け取り、
前記第1の音場記述に音源分離を実行して1つまたは複数の抽出されたオブジェクトの第1のグループを取得し、前記第2の音場記述に音源分離を実行して1つまたは複数の抽出されたオブジェクトの第2のグループを取得し、
前記抽出されたオブジェクトについて到来方向(DoA)データを計算し、
前記第1の音場記述の抽出されたオブジェクトの前記第1のグループと前記第2の音場記述の抽出されたオブジェクトの前記第2のグループとを一致させ、
1つまたは複数の一致したオブジェクトの位置を推定し、
前記一致したオブジェクトの前記推定位置および前記異なる基準位置に基づいて、1つまたは複数の一致したオブジェクトを修正する、
ように構成される、請求項8または9に記載の装置。 - 前記音場計算器は、
前記一致したオブジェクトの到来方向データを計算し、
前記異なる基準位置について前記計算された到来方向データを使用して一致した各オブジェクトの音場記述データを決定する、請求項10に記載の装置。 - 前記音場計算器は、1つまたは複数の不一致オブジェクトについて得られた前記到来方向データを使用して、前記不一致オブジェクトの音場データを計算するように構成される、
請求項9から11のいずれか一項に記載の装置。 - 前記音場計算器は、前記1つまたは複数の一致するオブジェクトと前記1つまたは複数の不一致オブジェクトの前記音場記述データを組み合わせることにより、前記修正音場記述を計算するように構成される、
請求項9から12のいずれか一項に記載の装置。 - 前記音場計算器は、パラメトリックベースの変換方法を実行するように構成される、請求項8に記載の装置。
- 前記音場計算器は、
音場モデルを仮定し、
前記仮定された音場の信号成分および/またはパラメータを推定し、
前記並進情報または前記異なる基準位置に応じて、前記信号成分および/または前記パラメータを修正し、
前記修正信号成分および/または前記修正パラメータを使用して前記修正音場記述を生成する、
ように構成される、請求項8または14に記載の装置。 - 前記音場計算器は、前記音場の1つまたは複数の直接音成分と1つまたは複数の拡散音成分への分解を使用して、あるいは、前記音場の1つまたは複数の直接/主音成分と残留音成分への分解を使用することにより、前記信号成分および/または前記パラメータを推定するように構成され、前記残留音成分は、シングルチャネル信号またはマルチチャネル信号であってもよい、
請求項15に記載の装置。 - 前記音場計算器は、前記修正音場記述の回転を適用するように構成される、
請求項8から16のいずれか一項に記載の装置。 - 前記修正音場記述はアンビソニックス音場記述である、
請求項8から12のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
前記音場記述として、第1の音場記述と第2の音場記述を受け取り、
前記第1および前記第2の音場記述の音源分離を実行して、前記第1および前記第2の音場記述の音源と抽出された音源の到来方向(DoA)データとを抽出し、
抽出された音源ごとに、前記DoAデータおよび前記並進情報を使用して、前記異なる位置についての修正DoAデータを計算し、
前記抽出された音源と前記修正DoAデータを処理して、前記修正音場記述を取得する、ように構成される、請求項8から18のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
各音場記述の前記音源分離を個別に実行し、各音場記述のアンビエンス/拡散/残差信号を抽出するように構成される、
請求項8から19のいずれか一項に記載の装置。 - 前記並進情報または前記修正音場に対する意図されたリスナーの回転を示す回転情報を提供するための変換インターフェース(410)と、
前記音場計算器(420)に前記メタデータを提供するためのメタデータサプライヤ(402、400)と、
前記音場計算器(420)に前記音場記述を提供するための音場サプライヤ(404、400)と、
前記修正音場記述と、前記並進情報を使用して前記メタデータから導出された修正メタデータと、を含む前記修正音場を出力するための、または各スピーカチャネルが所定のスピーカ位置に関連する複数のスピーカチャネルを出力するための、または前記修正音場のバイノーラル表現を出力するための、出力インターフェース(421)と、
をさらに含む、請求項8から20のいずれか一項に記載の装置。 - 前記音場記述は、複数の音場成分を含み、前記複数の音場成分は、全方向性成分および少なくとも1つの指向性成分を含み、
前記音場計算器は、
前記音場成分を解析して、異なる周波数ビンについて、到来方向情報を導出するための音場解析器(422)と、
前記方向情報およびメタデータを使用して、周波数ビンごとに修正到来方向情報を計算するための並進変換器(423)であって、前記メタデータは、距離情報を前記周波数ビンにより表された音源に関連付ける深度マップを含む、並進変換器(423)と、
前記音源の前記深度マップによって提供される距離に応じた距離補償情報と、前記修正到来方向情報に関連する前記周波数ビンに関連付けられた新しい距離と、を使用して、前記修正音場を計算するための距離補償器と、
を含む、請求項8から21のいずれか一項に記載の装置。 - 前記音場計算器(420)は、1つまたは複数の音場について、
前記基準位置から前記音場の前記解析(1102)により得られた音源(510)を指す第1のベクトルを計算し(1104)、
前記第1のベクトルおよび前記並進情報を使用して、前記異なる基準位置(500)から前記音源(510)を指す第2のベクトルを計算し(1106)、前記並進情報は、前記基準位置(522)から前記異なる基準位置(500)への並進ベクトルを定義し、
前記異なる基準位置(500)、前記音源(510)の位置、および前記第2のベクトルを使用して、あるいは、前記異なる基準位置(500)から前記音源(510)の位置までの距離および前記第2のベクトルを使用して、距離修正値を計算する(1106)、
ように構成される、請求項8から22のいずれか一項に記載の装置。 - 第1のベクトルは、到来方向の単位ベクトルに前記メタデータに含まれる距離を乗算することによって計算されるか、または、
第2のベクトルは、前記第1のベクトルから前記並進ベクトルを減算することによって計算されるか、または、
前記距離修正値は、前記第2のベクトルを前記第1のベクトルのノルムで除算することにより計算される、請求項8から23のいずれか一項に記載の装置。 - 前記音場計算器(420)は、前記並進情報に加えて、回転情報を受け取るように構成され、
前記音場計算器(420)は、前記回転情報を使用して回転変換(424)を実行し、音場の到来方向データを回転させるように構成され、前記到来方向データは、前記音場記述の音場解析および前記並進情報を使用することにより得られた到来方向データから導出される、
請求項8から24のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
音場解析により前記音場記述および音源の方向から前記音源を決定し(1200、1240)、
音源について、前記メタデータを使用して前記基準位置から前記音源までの距離を決定し(1220)、
前記音源の方向および前記並進情報を使用して、前記異なる基準位置に関連する前記音源の新しい方向を決定し(1250)、
前記異なる基準位置に関連する前記音源の新しい距離情報を決定し(1230)、
前記音源の前記新しい方向、前記新しい距離情報、および前記音場記述もしくは前記音場記述から導出された前記音源に対応する音源信号を使用して、前記修正音場を生成する(1260)、
ように構成される、請求項8から25のいずれか一項に記載の装置。 - 前記音場計算器は、
前記音場記述から音源信号を決定し、音解析により前記基準位置に関連する前記音源信号の方向を決定し(1200)、
前記並進情報を使用して、前記異なる基準位置に関連する前記音源信号の新しい方向を計算し(1230)、
前記異なる基準位置に関連する前記音源の距離情報を計算し(1230)、
前記距離情報、前記音源信号、前記新しい方向を使用して前記修正音場を合成する(1260)、
ように構成される、請求項8から26のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
再生設定に関連して前記新しい方向により与えられた方向に音源信号をパンニングすることにより、
ならびに前記パンニングを実行する前または前記パンニングを実行した後に、前記距離情報を使用して前記音源信号をスケーリングすることにより、前記修正音場を合成するように構成される、請求項27に記載の装置。 - 前記音場計算器(420)は、拡散信号を前記音源信号の直接部分に追加するように構成され、前記直接部分は、前記拡散信号に追加される前に前記距離情報によって修正される、
請求項27または28に記載の装置。 - 前記音場計算器(420)は、
前記音場記述の時間-周波数変換を実行し、時間フレームの複数の周波数ビンの到来方向を計算し(422)、
周波数ビンごとに前記新しい方向を計算(423、424)し、
周波数ビンごとに前記距離情報を計算し、
周波数ビンのオーディオ信号、前記周波数ビンの前記新しい方向から導出された前記周波数ビンのパンニングゲイン、および前記対応する音源の前記距離情報から導出された前記周波数ビンのスケーリング係数を使用して、周波数ビンごとに直接合成を実行する、
ように構成される、請求項27から29のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
前記周波数ビンの前記オーディオ信号から導出された拡散オーディオ信号を使用し、かつ前記周波数ビンの前記音解析によって導出された拡散度パラメータを使用して拡散合成を実行し、前記直接部分と前記拡散部分とを組み合わせて、前記周波数ビンの合成オーディオ信号を取得し、
時間フレームの前記周波数ビンの前記オーディオ信号を使用して周波数-時間変換を実行し、前記修正音場として時間領域合成オーディオ信号を取得する、
ように構成される、請求項30に記載の装置。 - 前記音場計算器(420)は、音源ごとに、前記異なる基準位置に関連する音場を合成するように構成され、前記合成は、
音源ごとに、前記音源信号の前記新しい方向を使用して音源信号を処理して(430)、前記異なる基準位置に関連する前記音源信号の音場記述を取得し、
前記音源信号を処理する前に前記音源信号を修正するか、または前記方向情報を使用して前記音場記述を修正し、
前記音源の前記音場記述を追加して、前記異なる基準位置に関連する修正音場を取得する、
ことを含む、請求項27から31のいずれか一項に記載の装置。 - 前記音解析(1200)は、音源分離アルゴリズムによって前記音源信号を決定し、前記拡散信号を取得するために前記音場記述から前記音源信号の少なくともいくつかを減算するように構成される、
請求項27から32のいずれか一項に記載の装置。 - 前記音場計算器(420)は、一致した各音源の到来方向情報を決定し、
前記到来方向情報および前記少なくとも1つの音場記述の前記メタデータを使用して、音源から前記新しい基準位置までの距離を決定し、
前記音源から前記新しい基準位置までの前記距離を使用してスケーリング係数を決定する、
ように構成される、請求項8から33のいずれか一項に記載の装置。 - 前記音場計算器(420)は、
前記音場記述に対して音響解析(700、740、741)を実行して、1つまたは複数の抽出されたオブジェクトの第1のグループ、または1つまたは複数の抽出されたオブジェクトの到来方向情報を取得し、さらなる基準位置に関連するさらなる音場記述に対して音響解析(700、740、741)を実行して、1つまたは複数の抽出されたオブジェクトの第2のグループ、または前記メタデータを使用して1つまたは複数の抽出されたオブジェクトの到来方向情報を取得し、
前記グループからのオブジェクト信号または前記グループからのオブジェクトの到来方向情報を使用して前記第1のグループと前記第2のグループとを一致させて、少なくとも1つの一致したオブジェクトを見いだし(704)、
前記メタデータと、前記第1のグループを取得するために前記音響解析を実行して前記一致したオブジェクトについて取得した第1の到来方向情報と、前記第2のグループを取得するために前記音響解析を実行して前記一致したオブジェクトについて取得した第2の到来方向情報と、を使用して前記一致したオブジェクトの推定位置を計算し(706、746)、
前記推定位置と前記並進情報に基づいて、前記一致したオブジェクトに距離補償処理を適用する(710、748)、
ように構成される、請求項8から34のいずれか一項に記載の装置。 - 前記音響解析は、DirAC解析(740、741)であり、各時間-周波数ビンの信号と、各時間-周波数ビンの到来方向の値と、任意選択で拡散度値が得られ、
個々の時間-周波数ビンごとに前記マッチングが実行され、少なくとも1つのビンが前記一致したオブジェクトとして決定され、
前記少なくとも1つのビンの推定位置が計算される(746)、
請求項35に記載の装置。 - 前記音響解析は、ブロードバンド音源解析(700)であり、抽出されたブロードバンド信号と、前記抽出されたブロードバンド信号の到来方向情報と、任意選択で拡散信号とが得られ、
前記音源マッチング(704)は、前記第1のグループから抽出されたブロードバンド信号と前記第2のグループから抽出されたブロードバンド信号のペアごとの相関尺度を使用して、前記抽出されたブロードバンド信号に対して実行され、
前記少なくとも1つの一致したブロードバンドオブジェクトの前記推定位置が計算される(706)、
請求項35に記載の装置。 - 前記音場計算器(420)は、前記音場記述から導出された第1の到来方向情報と、前記さらなる音場記述から導出された前記第2の到来情報と、を受け取る三角測量計算を使用して、前記一致したオブジェクトの前記位置の前記計算を実行するように構成され、前記メタデータは、前記基準位置と前記さらなる基準位置との間のベクトルに関する情報が導出され得る情報を含む、
請求項35から37のいずれか一項に記載の装置。 - 前記音場計算器(420)は、前記異なる基準位置に関連する一致したオブジェクトの音場記述の計算のために、前記基準位置または前記並進情報によって決定されたリスナー位置への前記さらなる基準位置の距離に応じて、前記音場記述に関連するかまたは前記さらなる音場記述に関連する情報を選択するように構成される、
請求項1から38のいずれか一項に記載の装置。 - 前記音場計算器は、
前記基準位置と前記新しいリスナー位置との間の第1の距離を計算し(720)、
前記さらなる基準位置と前記新しいリスナー位置との間の第2の距離を計算し(722)、
前記第1および前記第2の距離からの距離がより小さい基準位置を有する前記音場記述を選択する(724)、
ように構成される、請求項39に記載の装置。 - 前記音場計算器は、一致したオブジェクトごとに、前記音場記述および前記さらなる音場記述から導出された前記到来方向情報の一方を使用して、新しい到来方向情報を計算するように構成される、
請求項35から40のいずれか一項に記載の装置。 - 前記音場計算器(420)は、一致したオブジェクトごとに、前記新しい到来方向情報を使用して音場記述を計算し、前記一致したオブジェクトの前記推定位置を使用して前記音源信号または前記音源信号の前記音場記述をスケーリングするように構成される、
請求項40または41のいずれか一項に記載の装置。 - 前記音場計算器(420)は、前記第1のグループからの各不一致オブジェクトの音場記述を計算し、前記対応する到来方向情報を使用して前記第2のグループからの各不一致オブジェクトの音場記述を計算するように構成される、
請求項35から42のいずれか一項に記載の装置。 - 前記音場計算器(420)は、前記一致したオブジェクトの前記音場記述と前記不一致オブジェクトの前記音場記述とを組み合わせる(712)ことにより、前記修正音場を計算するように構成される、
請求項43に記載の装置。 - 前記音場計算器(420)は、前記第1のグループおよび前記第2のグループの少なくとも一方の拡散信号に関する情報を決定するように構成され、
前記音場計算器は、前記拡散信号を、一致したオブジェクトの音場記述または不一致オブジェクトの音場記述に追加するように構成される、
請求項35から44のいずれか一項に記載の装置。 - 拡張音場の記述を生成するための方法であって、
少なくとも1つの基準位置についての音場を示す少なくとも1つの音場記述を生成するステップと、
前記音場の空間情報に関連するメタデータを生成するステップと、を含み、
前記少なくとも1つの音場記述および前記メタデータは、前記拡張音場記述を構成する、方法。 - 音場記述および前記音場記述の空間情報に関連するメタデータから修正音場記述を生成するための方法であって、前記方法は、
前記空間情報、前記音場記述、およびある基準位置から異なる基準位置への並進を示す並進情報を使用して前記修正音場を計算するステップを含む方法。 - コンピュータまたはプロセッサで実行される場合に、請求項46に記載の方法または請求項47に記載の方法を実行するためのコンピュータプログラム。
- 少なくとも1つの基準位置に関する音場を示す少なくとも1つの音場記述、および前記音場の空間情報に関連するメタデータを含む、
拡張音場記述。 - 前記少なくとも1つの音場記述は、前記基準位置についての第1の音場記述と、さらなる基準位置についての第2の音場記述と、を含み、前記さらなる基準位置は前記基準位置とは異なり、
前記メタデータは、前記基準位置および前記さらなる基準位置を個別に、または前記基準位置と前記さらなる基準位置との間の距離を、または前記基準位置と前記さらなる基準位置との間の位置ベクトルを、または前記基準位置と前記さらなる基準位置に関連する情報を含む、
請求項49に記載の拡張音場記述。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17181488 | 2017-07-14 | ||
EP17181488.2 | 2017-07-14 | ||
JP2020500728A JP7119060B2 (ja) | 2017-07-14 | 2018-07-13 | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト |
PCT/EP2018/069140 WO2019012131A1 (en) | 2017-07-14 | 2018-07-13 | CONCEPT FOR GENERATING AN ENHANCED AUDIO FIELD DESCRIPTION OR A MODIFIED AUDIO FIELD DESCRIPTION USING A MULTIPOINT SOUND FIELD DESCRIPTION |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500728A Division JP7119060B2 (ja) | 2017-07-14 | 2018-07-13 | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022153626A true JP2022153626A (ja) | 2022-10-12 |
Family
ID=59631530
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500728A Active JP7119060B2 (ja) | 2017-07-14 | 2018-07-13 | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト |
JP2022124044A Pending JP2022153626A (ja) | 2017-07-14 | 2022-08-03 | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020500728A Active JP7119060B2 (ja) | 2017-07-14 | 2018-07-13 | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト |
Country Status (14)
Country | Link |
---|---|
US (3) | US11463834B2 (ja) |
EP (1) | EP3652735A1 (ja) |
JP (2) | JP7119060B2 (ja) |
KR (2) | KR102491818B1 (ja) |
CN (2) | CN117319917A (ja) |
AR (1) | AR112451A1 (ja) |
AU (1) | AU2018298874C1 (ja) |
BR (1) | BR112020000775A2 (ja) |
CA (1) | CA3069241C (ja) |
RU (1) | RU2736418C1 (ja) |
SG (1) | SG11202000330XA (ja) |
TW (1) | TWI713866B (ja) |
WO (1) | WO2019012131A1 (ja) |
ZA (1) | ZA202000020B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230003835A1 (en) * | 2019-11-01 | 2023-01-05 | Arizona Board Of Regents On Behalf Of Arizona State University | Remote recovery of acoustic signals from passive sources |
US11690563B2 (en) | 2019-10-28 | 2023-07-04 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods and systems for remote sleep monitoring |
US12102420B2 (en) | 2018-10-03 | 2024-10-01 | Arizona Board Of Regents On Behalf Of Arizona State University | Direct RF signal processing for heart-rate monitoring using UWB impulse radar |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4123644B1 (en) | 2018-04-11 | 2024-08-21 | Dolby International AB | 6dof audio decoding and/or rendering |
US10735882B2 (en) * | 2018-05-31 | 2020-08-04 | At&T Intellectual Property I, L.P. | Method of audio-assisted field of view prediction for spherical video streaming |
WO2020008890A1 (ja) * | 2018-07-04 | 2020-01-09 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
US11019449B2 (en) * | 2018-10-06 | 2021-05-25 | Qualcomm Incorporated | Six degrees of freedom and three degrees of freedom backward compatibility |
GB2582748A (en) * | 2019-03-27 | 2020-10-07 | Nokia Technologies Oy | Sound field related rendering |
WO2021018378A1 (en) * | 2019-07-29 | 2021-02-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method or computer program for processing a sound field representation in a spatial transform domain |
US11341952B2 (en) * | 2019-08-06 | 2022-05-24 | Insoundz, Ltd. | System and method for generating audio featuring spatial representations of sound sources |
CN110544486B (zh) * | 2019-09-02 | 2021-11-02 | 上海其高电子科技有限公司 | 基于麦克风阵列的语音增强方法及系统 |
CN114651452A (zh) * | 2019-11-13 | 2022-06-21 | 索尼集团公司 | 信号处理装置、方法和程序 |
CN112153538B (zh) * | 2020-09-24 | 2022-02-22 | 京东方科技集团股份有限公司 | 显示装置及其全景声实现方法、非易失性存储介质 |
FR3115103B1 (fr) * | 2020-10-12 | 2023-05-12 | Renault Sas | Dispositif et procédé de mesure et de visualisation d’un champ sonore |
KR102505249B1 (ko) * | 2020-11-24 | 2023-03-03 | 네이버 주식회사 | 사용자 맞춤형 현장감 실현을 위한 오디오 콘텐츠를 전송하는 컴퓨터 시스템 및 그의 방법 |
US11930349B2 (en) | 2020-11-24 | 2024-03-12 | Naver Corporation | Computer system for producing audio content for realizing customized being-there and method thereof |
US11930348B2 (en) | 2020-11-24 | 2024-03-12 | Naver Corporation | Computer system for realizing customized being-there in association with audio and method thereof |
CN114584913B (zh) * | 2020-11-30 | 2023-05-16 | 华为技术有限公司 | Foa信号和双耳信号的获得方法、声场采集装置及处理装置 |
US11653166B2 (en) | 2021-05-27 | 2023-05-16 | Qualcomm Incorporated | Directional audio generation with multiple arrangements of sound sources |
EP4396810A1 (en) * | 2021-09-03 | 2024-07-10 | Dolby Laboratories Licensing Corporation | Music synthesizer with spatial metadata output |
WO2024044113A2 (en) * | 2022-08-24 | 2024-02-29 | Dolby Laboratories Licensing Corporation | Rendering audio captured with multiple devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013514696A (ja) * | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
JP2015502573A (ja) * | 2011-12-02 | 2015-01-22 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 幾何学配置に基づく空間オーディオ符号化ストリームを統合する装置および方法 |
WO2017098949A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1512514A (en) | 1974-07-12 | 1978-06-01 | Nat Res Dev | Microphone assemblies |
JPH08107600A (ja) | 1994-10-04 | 1996-04-23 | Yamaha Corp | 音像定位装置 |
US5970152A (en) * | 1996-04-30 | 1999-10-19 | Srs Labs, Inc. | Audio enhancement system for use in a surround sound environment |
JP2006074589A (ja) | 2004-09-03 | 2006-03-16 | Matsushita Electric Ind Co Ltd | 音響処理装置 |
EP2205007B1 (en) * | 2008-12-30 | 2019-01-09 | Dolby International AB | Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction |
EP2450880A1 (en) * | 2010-11-05 | 2012-05-09 | Thomson Licensing | Data structure for Higher Order Ambisonics audio data |
ES2643163T3 (es) * | 2010-12-03 | 2017-11-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y procedimiento para codificación de audio espacial basada en geometría |
EP2469741A1 (en) | 2010-12-21 | 2012-06-27 | Thomson Licensing | Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field |
EP2541547A1 (en) | 2011-06-30 | 2013-01-02 | Thomson Licensing | Method and apparatus for changing the relative positions of sound objects contained within a higher-order ambisonics representation |
EP2600637A1 (en) | 2011-12-02 | 2013-06-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for microphone positioning based on a spatial power density |
JP2015509212A (ja) | 2012-01-19 | 2015-03-26 | コーニンクレッカ フィリップス エヌ ヴェ | 空間オーディオ・レンダリング及び符号化 |
US9516446B2 (en) | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
KR101828448B1 (ko) | 2012-07-27 | 2018-03-29 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 확성기-인클로져-마이크로폰 시스템 표현을 제공하기 위한 장치 및 방법 |
CN104604257B (zh) * | 2012-08-31 | 2016-05-25 | 杜比实验室特许公司 | 用于在各种收听环境中渲染并且回放基于对象的音频的系统 |
US9769588B2 (en) | 2012-11-20 | 2017-09-19 | Nokia Technologies Oy | Spatial audio enhancement apparatus |
CN104019885A (zh) | 2013-02-28 | 2014-09-03 | 杜比实验室特许公司 | 声场分析系统 |
US9685163B2 (en) * | 2013-03-01 | 2017-06-20 | Qualcomm Incorporated | Transforming spherical harmonic coefficients |
US10499176B2 (en) | 2013-05-29 | 2019-12-03 | Qualcomm Incorporated | Identifying codebooks to use when coding spatial components of a sound field |
US9384741B2 (en) * | 2013-05-29 | 2016-07-05 | Qualcomm Incorporated | Binauralization of rotated higher order ambisonics |
US9466305B2 (en) | 2013-05-29 | 2016-10-11 | Qualcomm Incorporated | Performing positional analysis to code spherical harmonic coefficients |
CN104244164A (zh) * | 2013-06-18 | 2014-12-24 | 杜比实验室特许公司 | 生成环绕立体声声场 |
US20150127354A1 (en) * | 2013-10-03 | 2015-05-07 | Qualcomm Incorporated | Near field compensation for decomposed representations of a sound field |
EP2866475A1 (en) | 2013-10-23 | 2015-04-29 | Thomson Licensing | Method for and apparatus for decoding an audio soundfield representation for audio playback using 2D setups |
EP2884491A1 (en) * | 2013-12-11 | 2015-06-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Extraction of reverberant sound using microphone arrays |
DE102013225892A1 (de) | 2013-12-13 | 2015-06-18 | Robert Bosch Gmbh | Schrägscheibenmaschine, Schrägscheibe und Verfahren zur hydrostatischen Entlastung einer Stellteilanbindung einer Schrägscheibenmaschine und zum Druckabbau eines Arbeitsmediums während eines Umsteuervorgangs der Schrägscheibenmaschine |
CN109996166B (zh) | 2014-01-16 | 2021-03-23 | 索尼公司 | 声音处理装置和方法、以及程序 |
US10412522B2 (en) | 2014-03-21 | 2019-09-10 | Qualcomm Incorporated | Inserting audio channels into descriptions of soundfields |
EP3007167A1 (en) * | 2014-10-10 | 2016-04-13 | Thomson Licensing | Method and apparatus for low bit rate compression of a Higher Order Ambisonics HOA signal representation of a sound field |
CN105635635A (zh) | 2014-11-19 | 2016-06-01 | 杜比实验室特许公司 | 调节视频会议系统中的空间一致性 |
US10659906B2 (en) | 2017-01-13 | 2020-05-19 | Qualcomm Incorporated | Audio parallax for virtual reality, augmented reality, and mixed reality |
US10182303B1 (en) * | 2017-07-12 | 2019-01-15 | Google Llc | Ambisonics sound field navigation using directional decomposition and path distance estimation |
-
2018
- 2018-07-13 EP EP18737640.5A patent/EP3652735A1/en active Pending
- 2018-07-13 CA CA3069241A patent/CA3069241C/en active Active
- 2018-07-13 RU RU2020106725A patent/RU2736418C1/ru active
- 2018-07-13 CN CN202311248978.5A patent/CN117319917A/zh active Pending
- 2018-07-13 BR BR112020000775-7A patent/BR112020000775A2/pt unknown
- 2018-07-13 JP JP2020500728A patent/JP7119060B2/ja active Active
- 2018-07-13 CN CN201880060064.7A patent/CN111149155B/zh active Active
- 2018-07-13 SG SG11202000330XA patent/SG11202000330XA/en unknown
- 2018-07-13 AU AU2018298874A patent/AU2018298874C1/en active Active
- 2018-07-13 AR ARP180101958 patent/AR112451A1/es active IP Right Grant
- 2018-07-13 KR KR1020207001183A patent/KR102491818B1/ko active IP Right Grant
- 2018-07-13 KR KR1020227021791A patent/KR102654507B1/ko active IP Right Grant
- 2018-07-13 WO PCT/EP2018/069140 patent/WO2019012131A1/en active Search and Examination
- 2018-07-16 TW TW107124520A patent/TWI713866B/zh active
-
2020
- 2020-01-02 ZA ZA2020/00020A patent/ZA202000020B/en unknown
- 2020-01-10 US US16/740,272 patent/US11463834B2/en active Active
-
2022
- 2022-08-03 JP JP2022124044A patent/JP2022153626A/ja active Pending
- 2022-08-29 US US17/898,016 patent/US11950085B2/en active Active
-
2023
- 2023-11-17 US US18/513,090 patent/US20240098445A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013514696A (ja) * | 2009-12-17 | 2013-04-25 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 第1のパラメトリック空間オーディオ信号を第2のパラメトリック空間オーディオ信号に変換する装置および方法 |
JP2015502573A (ja) * | 2011-12-02 | 2015-01-22 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 幾何学配置に基づく空間オーディオ符号化ストリームを統合する装置および方法 |
WO2017098949A1 (ja) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | 音声処理装置および方法、並びにプログラム |
Non-Patent Citations (1)
Title |
---|
塚田学 他: ""SDM3602:音楽イベントのための自由視聴点映像音声のインタラクティブ再生"", マルチメディア,分散,協調とモバイル(DICOMO2017)シンポジウム論文集, vol. 2017, no. 1, JPN6023045568, 21 June 2017 (2017-06-21), pages 1460 - 1467, ISSN: 0005188819 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12102420B2 (en) | 2018-10-03 | 2024-10-01 | Arizona Board Of Regents On Behalf Of Arizona State University | Direct RF signal processing for heart-rate monitoring using UWB impulse radar |
US11690563B2 (en) | 2019-10-28 | 2023-07-04 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods and systems for remote sleep monitoring |
US20230003835A1 (en) * | 2019-11-01 | 2023-01-05 | Arizona Board Of Regents On Behalf Of Arizona State University | Remote recovery of acoustic signals from passive sources |
US11988772B2 (en) * | 2019-11-01 | 2024-05-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Remote recovery of acoustic signals from passive sources |
Also Published As
Publication number | Publication date |
---|---|
BR112020000775A2 (pt) | 2020-07-14 |
CA3069241C (en) | 2023-10-17 |
JP7119060B2 (ja) | 2022-08-16 |
SG11202000330XA (en) | 2020-02-27 |
AR112451A1 (es) | 2019-10-30 |
EP3652735A1 (en) | 2020-05-20 |
US11950085B2 (en) | 2024-04-02 |
ZA202000020B (en) | 2021-10-27 |
KR20220098261A (ko) | 2022-07-11 |
KR20200040745A (ko) | 2020-04-20 |
CN117319917A (zh) | 2023-12-29 |
US11463834B2 (en) | 2022-10-04 |
WO2019012131A1 (en) | 2019-01-17 |
AU2018298874B2 (en) | 2021-08-19 |
US20220417695A1 (en) | 2022-12-29 |
AU2018298874C1 (en) | 2023-10-19 |
US20240098445A1 (en) | 2024-03-21 |
AU2018298874A1 (en) | 2020-02-20 |
CA3069241A1 (en) | 2019-01-17 |
US20200228913A1 (en) | 2020-07-16 |
TWI713866B (zh) | 2020-12-21 |
RU2736418C1 (ru) | 2020-11-17 |
CN111149155A (zh) | 2020-05-12 |
KR102654507B1 (ko) | 2024-04-05 |
JP2020527746A (ja) | 2020-09-10 |
KR102491818B1 (ko) | 2023-01-26 |
CN111149155B (zh) | 2023-10-10 |
TW201909657A (zh) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7119060B2 (ja) | マルチポイント音場記述を使用して拡張音場記述または修正音場記述を生成するためのコンセプト | |
JP7122793B2 (ja) | 深度拡張DirAC技術またはその他の技術を使用して、拡張音場記述または修正音場記述を生成するための概念 | |
US11863962B2 (en) | Concept for generating an enhanced sound-field description or a modified sound field description using a multi-layer description |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220803 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231102 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240830 |