JP2021073763A - 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム - Google Patents
空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム Download PDFInfo
- Publication number
- JP2021073763A JP2021073763A JP2021000727A JP2021000727A JP2021073763A JP 2021073763 A JP2021073763 A JP 2021073763A JP 2021000727 A JP2021000727 A JP 2021000727A JP 2021000727 A JP2021000727 A JP 2021000727A JP 2021073763 A JP2021073763 A JP 2021073763A
- Authority
- JP
- Japan
- Prior art keywords
- sources
- audio
- audio data
- listener
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003190 augmentative effect Effects 0.000 title abstract description 8
- 238000009877 rendering Methods 0.000 claims abstract description 80
- 238000013519 translation Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000002349 favourable effect Effects 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 150
- 238000000034 method Methods 0.000 description 116
- 238000012545 processing Methods 0.000 description 56
- 230000008569 process Effects 0.000 description 19
- 230000001953 sensory effect Effects 0.000 description 12
- 241000256837 Apidae Species 0.000 description 10
- 230000003111 delayed effect Effects 0.000 description 10
- 210000005069 ears Anatomy 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000001149 cognitive effect Effects 0.000 description 8
- 230000001934 delay Effects 0.000 description 7
- 238000003672 processing method Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000001144 postural effect Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 206010034719 Personality change Diseases 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001052 transient effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 206010028813 Nausea Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000008693 nausea Effects 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって
聴取者の頭部姿勢を検出するためのセンサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目2)
前記センサは、慣性測定ユニットである、項目1に記載のシステム。
(項目3)
前記第1の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目4)
前記第2の複数のソースは、仮想音源である、項目1に記載のシステム。
(項目5)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の頭部姿勢を検出する、項目1に記載のシステム。
(項目6)
前記センサは、前記第2の段階の直前に、前記聴取者の頭部姿勢を検出する、項目5に記載のシステム。
(項目7)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目1に記載のシステム。
(項目8)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目1に記載のシステム。
(項目9)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目1に記載のシステム。
(項目10)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目1に記載のシステム。
(項目11)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目12)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目13)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目1に記載のシステム。
(項目14)
前記第1の複数のソースは、第1の複数の位置に対応する、項目1に記載のシステム。
(項目15)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目14に記載のシステム。
(項目16)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目1記載のシステム。
(項目17)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目1に記載のシステム。
(項目18)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目17に記載のシステム。
(項目19)
前記第2の段階は、前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目1に記載のシステム。
(項目20)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目1に記載のシステム。
(項目21)
前記第2の段階は、回転専用オーディオ変換である、項目1に記載のシステム。
(項目22)
空間化オーディオシステムであって、
第1の時間における第1の頭部姿勢および第2の時間における聴取者の第2の頭部姿勢を検出するためのセンサであって、前記第2の時間は、前記第1の時間の後である、センサと、
第1および第2の段階においてオーディオデータをレンダリングするためのプロセッサと
を備え、
前記第1の段階は、前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることを含み、
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
システム。
(項目23)
前記センサは、慣性測定ユニットである、項目22に記載のシステム。
(項目24)
前記第1の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目25)
前記第2の複数のソースは、仮想音源である、項目22に記載のシステム。
(項目26)
前記センサは、前記第1の段階の前に、前記聴取者の第1の頭部姿勢を検出する、項目22に記載のシステム。
(項目27)
前記センサは、前記第1の段階の後かつ前記第2の段階の前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目28)
前記センサは、前記第2の段階の直前に、前記聴取者の第2の頭部姿勢を検出する、項目22に記載のシステム。
(項目29)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目22に記載のシステム。
(項目30)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目22に記載のシステム。
(項目31)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目22に記載のシステム。
(項目32)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目22に記載のシステム。
(項目33)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目34)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目35)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目22に記載のシステム。
(項目36)
前記第1の複数のソースは、第1の複数の位置に対応する、項目22に記載のシステム。
(項目37)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目36に記載のシステム。
(項目38)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目22に記載のシステム。
(項目39)
前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて、音を生産する、項目22に記載のシステム。
(項目40)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目39に記載のシステム。
(項目41)
前記第2の段階は、前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることを含む、項目22に記載のシステム。
(項目42)
前記第2の段階は、前記聴取者の平行移動より回転に敏感である、項目22に記載のシステム。
(項目43)
前記第2の段階は、回転専用オーディオ変換である、項目22に記載のシステム。
(項目44)
空間化オーディオをレンダリングする方法であって、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目45)
前記第1の複数のソースは、仮想音源である、項目44に記載の方法。
(項目46)
前記第2の複数のソースは、仮想音源である、項目44に記載の方法。
(項目47)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目48)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の頭部姿勢を検出することをさらに含む、項目44に記載の方法。
(項目49)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目44に記載の方法。
(項目50)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目44に記載の方法。
(項目51)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目44に記載の方法。
(項目52)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目44に記載の方法。
(項目53)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目54)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目55)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目44に記載の方法。
(項目56)
前記第1の複数のソースは、第1の複数の位置に対応する、項目44に記載の方法。
(項目57)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目56に記載の方法。
(項目58)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目44に記載の方法。
(項目59)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目44に記載の方法。
(項目60)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目59に記載の方法。
(項目61)
前記聴取者の検出された頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目44に記載の方法。
(項目62)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目44に記載の方法。
(項目63)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目44に記載の方法。
(項目64)
空間化オーディオをレンダリングする方法であって、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、方法。
(項目65)
前記第1の複数のソースは、仮想音源である、項目64に記載の方法。
(項目66)
前記第2の複数のソースは、仮想音源である、項目64に記載の方法。
(項目67)
前記第1のオーディオデータをレンダリングする前に、前記聴取者の第1の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目68)
前記第1のオーディオデータをレンダリングした後かつ前記第2のオーディオデータをレンダリングする前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目69)
前記第2のオーディオデータをレンダリングする直前に、前記聴取者の第2の頭部姿勢を検出することをさらに含む、項目64に記載の方法。
(項目70)
前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、項目64に記載の方法。
(項目71)
前記第3の複数のソースは、前記第2の複数のソースと等しい個数のソースから成る、項目64に記載の方法。
(項目72)
前記第1のオーディオデータは、完全オーディオストリームデータセットである、項目64に記載の方法。
(項目73)
前記第2の複数のソースは、8つまたはより少ないソースから成る、項目64に記載の方法。
(項目74)
前記第1の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目75)
前記第2の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目76)
前記第3の複数のソースのそれぞれは、異なる位置/配向に対応する、項目64に記載の方法。
(項目77)
前記第1の複数のソースは、第1の複数の位置に対応する、項目64に記載の方法。
(項目78)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、
項目77に記載の方法。
(項目79)
前記第2の複数のソースは、第2の複数の位置に対応し、
前記第2の複数の位置は、単一平面内に位置しない、
項目64に記載の方法。
(項目80)
前記第3のオーディオデータに基づいて、前記第3の複数のソースに対応する複数のスピーカを通して音を生産することをさらに含む、項目64に記載の方法。
(項目81)
前記第3の複数のソースのそれぞれは、異なる位置に対応し、
前記複数のスピーカのそれぞれは、個別の異なる位置における前記第3の複数のソースの個別のソースに対応する、
項目80に記載の方法。
(項目82)
前記聴取者の検出された第2の頭部姿勢および前記第2の複数のソースの個別の位置/配向に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることをさらに含む、項目64に記載の方法。
(項目83)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、項目64に記載の方法。
(項目84)
前記第2の複数のソースに対応する第2のオーディオデータを前記第3の複数のソースに対応する第3のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、項目64に記載の方法。
(項目85)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
聴取者の頭部姿勢を検出することと、
前記聴取者の検出された頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目86)
非一過性コンピュータ可読媒体内に具現化されるコンピュータプログラム製品であって、前記コンピュータ可読媒体は、その上に記憶される命令のシーケンスを有し、前記命令のシーケンスは、プロセッサによって実行されると、前記プロセッサに、空間化オーディオをレンダリングするための方法を実行させ、前記方法は、
聴取者の第1の頭部姿勢を検出することと、
前記聴取者の検出された第1の頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることと、
前記聴取者の第2の頭部姿勢を検出することと、
前記聴取者の検出された第2の頭部姿勢に基づいて、前記第2の複数のソースに対応する第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングすることと
を含み、前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成る、
コンピュータプログラム製品。
(項目87)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目1に記載のシステム。
(項目88)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目22に記載のシステム。
(項目89)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目44に記載の方法。
(項目90)
前記第2の複数のソースのそれぞれは、前記聴取者の頭部から約6インチ〜約12インチに位置する、項目64に記載の方法。
2−D/3−Dシネマシステム、2−D/3−Dビデオゲーム、およびVR/AR/MRシステムの一部との併用またはそれを形成するためのもの等の空間化オーディオシステムは、実世界の物理的な3−D空間内の仮想場所とともに、仮想オブジェクトに対応する空間化オーディオをレンダリング、提示、および放出する。本願で使用されるように、オーディオまたは音の「放出」、「生産」、または「提示」は、限定ではないが、ヒトの聴覚系によって音(亜音速低周波数音波を含む)として知覚され得る、音波の形成を生じさせることを含む。これらの仮想場所は、典型的には、座標系(例えば、原点における空間化オーディオシステムと空間化オーディオシステムに対する既知の配向とを伴う、座標系)を使用して、空間化オーディオシステムに「把握」される(すなわち、その中に記録される)。仮想オブジェクトと関連付けられた仮想オーディオソースは、コンテンツ、位置、および配向を有する。仮想オーディオソースの別の特性は、聴取者からの距離の2乗として減少する、音量である。しかしながら、現在の空間化オーディオシステム(例えば、5.1空間化オーディオシステム、7.1空間化オーディオシステム、シネマオーディオシステム、およびさらにいくつかの頭部装着型オーディオシステム)は全て、空間化オーディオシステムが現実的空間化オーディオを生成し得る、聴取者の数および特性を限定する、聴取者位置および配向制限を有する。
AR/MRシナリオは、多くの場合、実世界オブジェクトに関連して、仮想オブジェクトに対応する画像および音の提示を含む。例えば、図1を参照すると、拡張現実場面100が、描写され、AR/MR技術のユーザには、人物、木、背景の建物、および実世界の物理的コンクリートプラットフォーム104を特徴とする、実世界の物理的公園状設定102が見える。これらのアイテムに加えて、AR/MR技術のユーザはまた、実世界の物理的プラットフォーム104上に立っている仮想ロボット像106およびマルハナバチの擬人化されたように見える、飛んでいる仮想漫画のようなアバタキャラクタ108とが「見える」と知覚するが、これらの仮想オブジェクト106、108は、実世界には存在しない。
図11は、一実施形態による、ユーザ/聴取者の頭部200の背後の正面に向いた斜方視からの空間化オーディオ体験400を描写する。空間化オーディオ体験400を実装するために、空間化オーディオシステムは、ユーザ/聴取者および複数のスピーカの相対的位置および配向を提供される。例えば、ユーザ/聴取者は、既知の「適合」を伴って、頭部搭載型空間化オーディオシステム(図示せず)を装着し得る。
(姿勢に敏感な空間化オーディオシステム)
上記に説明されるように、感覚待ち時間は、ユーザ/聴取者の頭部姿勢に関する空間化オーディオシステムの情報が、姿勢センサが(例えば、頭部姿勢変化をもたらす頭部および/または身体の)運動を捕捉する時間と、オーディオデータが運動に基づいてレンダリングされ、対応する音がユーザ/聴取者に提示される時間との間で変化すると、仮想音源が世界中心様式において仮想世界に「繋げられる」空間化オーディオシステムにおいて、問題(例えば、アーチファクト)を生じさせる。例示的感覚待ち時間アーチファクトは、仮想オブジェクトの仮想場所と異なる仮想場所から発出するように現れる、仮想オブジェクトに対応する仮想音である。ユーザ/聴取者の頭部の回転および傾斜は、回転方向と比較して平行移動方向を迅速に変化させる頭部の限定された能力のため、ユーザ/聴取者の頭部の平行移動より感覚待ち時間問題が大きい。方向変化の速度は、姿勢または運動捕捉と仮想音提示との間の典型的時間が約ミリ秒(「ms」)であるため、感覚待ち時間問題をもたらす変化のタイプを決定する。
図15は、一実施形態による、感覚待ち時間アーチファクトを最小限にする、姿勢に敏感なオーディオ処理の方法500を描写する。姿勢に敏感なオーディオ処理方法500は、遅れフレーム時間ワーピング技法を利用して、姿勢変化の検出と、検出された姿勢変化に基づく音の生成との間の遅れ/待ち時間を最小限にする。方法500は、例えば、上記に説明される空間化オーディオシステム802を利用して実装されてもよい。要するに、方法500は、オーディオ処理を2つの段階、すなわち、オーディオデータを中間フォーマットに部分的に処理する、第1の段階と、姿勢データを利用して処理を急速に完了する、算出上あまり集約的ではなく/負担とならない第2の段階とに分割する。
Claims (20)
- 空間化オーディオシステムであって、
聴取者の頭部姿勢を検出するためのセンサと、
前記聴取者の前記検出された頭部姿勢に基づいて、第1の複数のソースに対応する第1のオーディオデータを第2の複数のソースに対応する第2のオーディオデータにレンダリングすることであって、前記第1の複数のソースのそれぞれは、第1の複数の位置のうちの個別の位置を有し、前記第2の複数のソースのそれぞれは、第2の複数の位置のうちの個別の位置を有する、ことと、
前記第2のオーディオデータに基づいて、前記聴取者に対して前記第1のオーディオデータに対応する空間化音場を再現することと
を実行するためのプロセッサと
を備え、
前記第2の複数のソースは、前記第1の複数のソースより少ないソースから成り、
前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第2の複数のソースのそれぞれが、前記第2の複数の位置のうちの個別の1つの位置において前記第1の複数のソースによって生成された仮想音を記録することを含む、システム。 - 前記第1の複数のソースは、仮想音源である、請求項1に記載のシステム。
- 前記第2の複数のソースは、仮想音源である、請求項1に記載のシステム。
- 前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記第1のオーディオデータを前記第2のオーディオデータにワーピングすることを含む、請求項1に記載のシステム。
- 前記センサは、前記プロセッサが前記第1のオーディオデータを前記第2のオーディオデータにレンダリングする直前に、前記聴取者の前記頭部姿勢を検出する、請求項1に記載のシステム。
- 前記第1のオーディオデータは、完全オーディオストリームデータセットである、請求項1に記載のシステム。
- 前記第2の複数のソースは、8つまたは8つより少ないソースから成る、請求項1に記載のシステム。
- 前記第2の複数の位置のそれぞれは、異なる位置である、請求項1に記載のシステム。
- 前記第2の複数の位置のそれぞれは、前記第1の複数の位置のそれぞれより前記聴取者に近い、請求項1に記載のシステム。
- 前記第2の複数の位置は、単一平面内に位置しない、請求項1に記載のシステム。
- 前記第2の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第2のオーディオデータに基づいて音を生産する、請求項1に記載のシステム。
- 前記複数のスピーカのそれぞれは、前記第2の複数の位置のうちの個別の1つの位置における前記第2の複数のソースのうちの個別のソースに対応する、請求項11に記載のシステム。
- 前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、さらに、前記第1の複数のソースの個別の位置に基づく、請求項1に記載のシステム。
- 前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、前記聴取者の平行移動より回転に敏感である、請求項1に記載のシステム。
- 前記第1のオーディオデータを前記第2のオーディオデータにレンダリングすることは、回転専用オーディオ変換である、請求項1に記載のシステム。
- 前記センサは、前記聴取者の第2の頭部姿勢を検出し、
前記プロセッサは、前記聴取者の前記検出された第2の頭部姿勢に基づいて、前記第2のオーディオデータを第3の複数のソースに対応する第3のオーディオデータにレンダリングするように構成されており、前記第3の複数のソースのそれぞれは、第3の複数の位置のうちの1つを有し、
前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第3の複数のソースのそれぞれが、前記第3の複数の位置のうちの個別の1つの位置において前記第2の複数のソースによって生成された仮想音を記録することを含む、請求項1に記載のシステム。 - 前記第2のオーディオデータを前記第3のオーディオデータにレンダリングすることは、前記第2のオーディオデータを前記第3のオーディオデータにワーピングすることを含む、請求項16に記載のシステム。
- 前記センサは、前記プロセッサが前記第2のオーディオデータを前記第3のオーディオデータにレンダリングする直前に、前記聴取者の前記検出された第2の頭部姿勢を検出する、請求項16に記載のシステム。
- 前記第3の複数のソースは、前記第2の複数のソースより少ないソースから成る、請求項16に記載のシステム。
- 前記第3の複数のソースに対応する複数のスピーカをさらに備え、前記複数のスピーカは、前記第3のオーディオデータに基づいて音を生産する、請求項16に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662394617P | 2016-09-14 | 2016-09-14 | |
US62/394,617 | 2016-09-14 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513952A Division JP6821795B2 (ja) | 2016-09-14 | 2017-09-13 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021073763A true JP2021073763A (ja) | 2021-05-13 |
JP7165215B2 JP7165215B2 (ja) | 2022-11-02 |
Family
ID=61560542
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513952A Active JP6821795B2 (ja) | 2016-09-14 | 2017-09-13 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
JP2021000727A Active JP7165215B2 (ja) | 2016-09-14 | 2021-01-06 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019513952A Active JP6821795B2 (ja) | 2016-09-14 | 2017-09-13 | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム |
Country Status (9)
Country | Link |
---|---|
US (2) | US10448189B2 (ja) |
EP (2) | EP3513405B1 (ja) |
JP (2) | JP6821795B2 (ja) |
KR (2) | KR102230645B1 (ja) |
CN (2) | CN114885274B (ja) |
AU (2) | AU2017327387B2 (ja) |
CA (1) | CA3034916A1 (ja) |
IL (1) | IL265214B (ja) |
WO (1) | WO2018053047A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3034916A1 (en) * | 2016-09-14 | 2018-03-22 | Magic Leap, Inc. | Virtual reality, augmented reality, and mixed reality systems with spatialized audio |
US10667072B2 (en) | 2018-06-12 | 2020-05-26 | Magic Leap, Inc. | Efficient rendering of virtual soundfields |
US10863300B2 (en) | 2018-06-18 | 2020-12-08 | Magic Leap, Inc. | Spatial audio for interactive audio environments |
US10484811B1 (en) * | 2018-09-10 | 2019-11-19 | Verizon Patent And Licensing Inc. | Methods and systems for providing a composite audio stream for an extended reality world |
KR20210106546A (ko) | 2018-12-24 | 2021-08-30 | 디티에스, 인코포레이티드 | 딥 러닝 이미지 분석을 사용한 룸 음향 시뮬레이션 |
US20220279303A1 (en) * | 2019-10-22 | 2022-09-01 | Google Llc | Spatial audio for wearable devices |
US10911885B1 (en) | 2020-02-03 | 2021-02-02 | Microsoft Technology Licensing, Llc | Augmented reality virtual audio source enhancement |
US11089427B1 (en) | 2020-03-31 | 2021-08-10 | Snap Inc. | Immersive augmented reality experiences using spatial audio |
US11381797B2 (en) | 2020-07-16 | 2022-07-05 | Apple Inc. | Variable audio for audio-visual content |
CN116529652A (zh) * | 2020-12-07 | 2023-08-01 | 美国斯耐普公司 | 增强现实空间音频体验 |
US20220319014A1 (en) * | 2021-04-05 | 2022-10-06 | Facebook Technologies, Llc | Systems and methods for dynamic image processing and segmentation |
CN114745656A (zh) * | 2022-04-12 | 2022-07-12 | 南昌黑鲨科技有限公司 | 多人交流的空间音效的构建方法、系统及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001359197A (ja) * | 2000-06-13 | 2001-12-26 | Victor Co Of Japan Ltd | 音像定位信号の生成方法、及び音像定位信号生成装置 |
JP2002505058A (ja) * | 1997-06-17 | 2002-02-12 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | 空間形成されたオーディオの再生 |
JP2014140128A (ja) * | 2013-01-21 | 2014-07-31 | Fujitsu Ltd | 音声処理装置、音声処理方法および音声処理プログラム |
JP2014523172A (ja) * | 2011-06-30 | 2014-09-08 | トムソン ライセンシング | 高次Ambisonics表現に含まれるサウンドオブジェクトの相対位置を変更する方法と装置 |
JP2015133665A (ja) * | 2014-01-15 | 2015-07-23 | 富士通株式会社 | 音響再生装置および音場補正プログラム |
KR20160094349A (ko) * | 2015-01-30 | 2016-08-09 | 가우디오디오랩 주식회사 | 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5749073A (en) * | 1996-03-15 | 1998-05-05 | Interval Research Corporation | System for automatically morphing audio information |
US6182042B1 (en) * | 1998-07-07 | 2001-01-30 | Creative Technology Ltd. | Sound modification employing spectral warping techniques |
US6487526B1 (en) * | 1999-04-14 | 2002-11-26 | Rockwell Collins | Vector correlator for speech VOCODER using optical processor |
US7340062B2 (en) | 2000-03-14 | 2008-03-04 | Revit Lawrence J | Sound reproduction method and apparatus for assessing real-world performance of hearing and hearing aids |
US8140859B1 (en) * | 2000-07-21 | 2012-03-20 | The Directv Group, Inc. | Secure storage and replay of media programs using a hard-paired receiver and storage device |
FR2814891B1 (fr) | 2000-10-04 | 2003-04-04 | Thomson Multimedia Sa | Procede de reglages de niveau audio provenant de plusieurs canaux et dispositif de reglage |
US7472058B2 (en) | 2004-12-28 | 2008-12-30 | Cyberlink Corp. | Automatic audio source detection for capture devices |
US7680465B2 (en) * | 2006-07-31 | 2010-03-16 | Broadcom Corporation | Sound enhancement for audio devices based on user-specific audio processing parameters |
US20080196575A1 (en) * | 2007-02-16 | 2008-08-21 | Recordare Llc | Process for creating and viewing digital sheet music on a media device |
US8406439B1 (en) * | 2007-04-04 | 2013-03-26 | At&T Intellectual Property I, L.P. | Methods and systems for synthetic audio placement |
US8620009B2 (en) | 2008-06-17 | 2013-12-31 | Microsoft Corporation | Virtual sound source positioning |
CN103000178B (zh) * | 2008-07-11 | 2015-04-08 | 弗劳恩霍夫应用研究促进协会 | 提供时间扭曲激活信号以及使用该时间扭曲激活信号对音频信号编码 |
US9037468B2 (en) * | 2008-10-27 | 2015-05-19 | Sony Computer Entertainment Inc. | Sound localization for user in motion |
JP2010273175A (ja) * | 2009-05-22 | 2010-12-02 | Panasonic Corp | 音声出力装置 |
US20100328419A1 (en) | 2009-06-30 | 2010-12-30 | Walter Etter | Method and apparatus for improved matching of auditory space to visual space in video viewing applications |
US8767968B2 (en) | 2010-10-13 | 2014-07-01 | Microsoft Corporation | System and method for high-precision 3-dimensional audio for augmented reality |
JP5505395B2 (ja) * | 2011-10-28 | 2014-05-28 | ヤマハ株式会社 | 音響処理装置 |
EP2810453B1 (en) * | 2012-01-17 | 2018-03-14 | Koninklijke Philips N.V. | Audio source position estimation |
US9271103B2 (en) * | 2012-03-29 | 2016-02-23 | Intel Corporation | Audio control based on orientation |
US20150131824A1 (en) * | 2012-04-02 | 2015-05-14 | Sonicemotion Ag | Method for high quality efficient 3d sound reproduction |
GB201211512D0 (en) * | 2012-06-28 | 2012-08-08 | Provost Fellows Foundation Scholars And The Other Members Of Board Of The | Method and apparatus for generating an audio output comprising spartial information |
RU2602346C2 (ru) * | 2012-08-31 | 2016-11-20 | Долби Лэборетериз Лайсенсинг Корпорейшн | Рендеринг отраженного звука для объектно-ориентированной аудиоинформации |
US9549253B2 (en) | 2012-09-26 | 2017-01-17 | Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) | Sound source localization and isolation apparatuses, methods and systems |
US20140140417A1 (en) * | 2012-11-16 | 2014-05-22 | Gary K. Shaffer | System and method for providing alignment of multiple transcoders for adaptive bitrate streaming in a network environment |
US9131298B2 (en) * | 2012-11-28 | 2015-09-08 | Qualcomm Incorporated | Constrained dynamic amplitude panning in collaborative sound systems |
US9258647B2 (en) | 2013-02-27 | 2016-02-09 | Hewlett-Packard Development Company, L.P. | Obtaining a spatial audio signal based on microphone distances and time delays |
TWI673707B (zh) * | 2013-07-19 | 2019-10-01 | 瑞典商杜比國際公司 | 將以L<sub>1</sub>個頻道為基礎之輸入聲音訊號產生至L<sub>2</sub>個揚聲器頻道之方法及裝置,以及得到一能量保留混音矩陣之方法及裝置,用以將以輸入頻道為基礎之聲音訊號混音以用於L<sub>1</sub>個聲音頻道至L<sub>2</sub>個揚聲器頻道 |
WO2015054033A2 (en) | 2013-10-07 | 2015-04-16 | Dolby Laboratories Licensing Corporation | Spatial audio processing system and method |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US9729984B2 (en) * | 2014-01-18 | 2017-08-08 | Microsoft Technology Licensing, Llc | Dynamic calibration of an audio system |
US9560445B2 (en) | 2014-01-18 | 2017-01-31 | Microsoft Technology Licensing, Llc | Enhanced spatial impression for home audio |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2015161307A1 (en) * | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CN104284291B (zh) | 2014-08-07 | 2016-10-05 | 华南理工大学 | 5.1通路环绕声的耳机动态虚拟重放方法及其实现装置 |
WO2016074734A1 (en) | 2014-11-13 | 2016-05-19 | Huawei Technologies Co., Ltd. | Audio signal processing device and method for reproducing a binaural signal |
US10979843B2 (en) | 2016-04-08 | 2021-04-13 | Qualcomm Incorporated | Spatialized audio output based on predicted position data |
CA3034916A1 (en) * | 2016-09-14 | 2018-03-22 | Magic Leap, Inc. | Virtual reality, augmented reality, and mixed reality systems with spatialized audio |
-
2017
- 2017-09-13 CA CA3034916A patent/CA3034916A1/en active Pending
- 2017-09-13 WO PCT/US2017/051421 patent/WO2018053047A1/en unknown
- 2017-09-13 EP EP17851481.6A patent/EP3513405B1/en active Active
- 2017-09-13 CN CN202210357688.3A patent/CN114885274B/zh active Active
- 2017-09-13 KR KR1020197010682A patent/KR102230645B1/ko active IP Right Grant
- 2017-09-13 JP JP2019513952A patent/JP6821795B2/ja active Active
- 2017-09-13 EP EP23182794.0A patent/EP4254403A3/en active Pending
- 2017-09-13 AU AU2017327387A patent/AU2017327387B2/en active Active
- 2017-09-13 KR KR1020217007740A patent/KR102514464B1/ko active IP Right Grant
- 2017-09-13 US US15/703,946 patent/US10448189B2/en active Active
- 2017-09-13 CN CN201780056074.9A patent/CN109691141B/zh active Active
-
2019
- 2019-03-07 IL IL265214A patent/IL265214B/en active IP Right Grant
- 2019-09-04 US US16/560,670 patent/US11310618B2/en active Active
-
2021
- 2021-01-06 JP JP2021000727A patent/JP7165215B2/ja active Active
-
2022
- 2022-03-18 AU AU2022201898A patent/AU2022201898A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002505058A (ja) * | 1997-06-17 | 2002-02-12 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | 空間形成されたオーディオの再生 |
JP2001359197A (ja) * | 2000-06-13 | 2001-12-26 | Victor Co Of Japan Ltd | 音像定位信号の生成方法、及び音像定位信号生成装置 |
JP2014523172A (ja) * | 2011-06-30 | 2014-09-08 | トムソン ライセンシング | 高次Ambisonics表現に含まれるサウンドオブジェクトの相対位置を変更する方法と装置 |
JP2014140128A (ja) * | 2013-01-21 | 2014-07-31 | Fujitsu Ltd | 音声処理装置、音声処理方法および音声処理プログラム |
JP2015133665A (ja) * | 2014-01-15 | 2015-07-23 | 富士通株式会社 | 音響再生装置および音場補正プログラム |
KR20160094349A (ko) * | 2015-01-30 | 2016-08-09 | 가우디오디오랩 주식회사 | 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
AU2017327387B2 (en) | 2021-12-23 |
KR20190052086A (ko) | 2019-05-15 |
EP3513405A4 (en) | 2019-09-18 |
JP2019532569A (ja) | 2019-11-07 |
AU2022201898A1 (en) | 2022-04-07 |
CN114885274B (zh) | 2023-05-16 |
JP7165215B2 (ja) | 2022-11-02 |
CA3034916A1 (en) | 2018-03-22 |
JP6821795B2 (ja) | 2021-01-27 |
KR102230645B1 (ko) | 2021-03-19 |
AU2017327387A1 (en) | 2019-03-21 |
US10448189B2 (en) | 2019-10-15 |
KR20210031796A (ko) | 2021-03-22 |
EP4254403A3 (en) | 2023-11-01 |
KR102514464B1 (ko) | 2023-03-24 |
US11310618B2 (en) | 2022-04-19 |
EP3513405A1 (en) | 2019-07-24 |
CN109691141A (zh) | 2019-04-26 |
IL265214B (en) | 2021-04-29 |
WO2018053047A1 (en) | 2018-03-22 |
US20180077513A1 (en) | 2018-03-15 |
EP4254403A2 (en) | 2023-10-04 |
US20200008005A1 (en) | 2020-01-02 |
CN114885274A (zh) | 2022-08-09 |
IL265214A (en) | 2019-05-30 |
EP3513405B1 (en) | 2023-07-19 |
CN109691141B (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6821795B2 (ja) | 空間化オーディオを用いた仮想現実、拡張現実、および複合現実システム | |
JP6799141B2 (ja) | 空間化オーディオを用いた複合現実システム | |
KR20190112799A (ko) | 가상 현실에서 확장 비디오의 렌더링 | |
US12120493B2 (en) | Method and device for sound processing for a synthesized reality setting | |
EP4416725A1 (en) | Microphone array geometry | |
WO2023234949A1 (en) | Spatial audio processing for speakers on head-mounted displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220525 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7165215 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |