JP7270820B2 - 空間化オーディオを用いた複合現実システム - Google Patents
空間化オーディオを用いた複合現実システム Download PDFInfo
- Publication number
- JP7270820B2 JP7270820B2 JP2022123243A JP2022123243A JP7270820B2 JP 7270820 B2 JP7270820 B2 JP 7270820B2 JP 2022123243 A JP2022123243 A JP 2022123243A JP 2022123243 A JP2022123243 A JP 2022123243A JP 7270820 B2 JP7270820 B2 JP 7270820B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- cinema
- personal
- media
- spatialized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 claims description 67
- 230000003190 augmentative effect Effects 0.000 claims description 13
- 230000001360 synchronised effect Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000003993 interaction Effects 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 2
- 210000003128 head Anatomy 0.000 description 179
- 238000000034 method Methods 0.000 description 46
- 238000012545 processing Methods 0.000 description 24
- 210000005069 ears Anatomy 0.000 description 21
- 230000000694 effects Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000006854 communication Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 241000256837 Apidae Species 0.000 description 8
- 230000036961 partial effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000000670 limiting effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 206010028813 Nausea Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000001427 coherent effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 230000008693 nausea Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical group O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Stereophonic System (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Studio Devices (AREA)
- Holo Graphy (AREA)
- Processing Or Creating Images (AREA)
Description
本願は、2016年8月1日に出願され“MIXED REALITY SYSTEM WITH SPATIALIZED AUDIO”と題された米国仮出願第62/369,561号(代理人管理番号ML.30041.00)に対する優先権を主張するものである。本願は、2014年2月4日に出願された米国仮特許出願第62/291,363号(代理人管理番号ML.30043.00)、2014年6月14日に出願された米国仮特許出願第62/012,273号(代理人管理番号ML.30019.00)、2013年6月13日に出願された米国特許出願第14/738,877号(代理人管理番号ML.20019.00)、2014年11月27日に出願された米国特許出願第14/555,585号(代理人管理番号ML.20011.00)に関連している。これらの特許出願の内容は、全体が開示されているかのように、それらの全体が参照により本明細書中に明示的かつ全体的に援用される。上記で援用した特許出願に記載されているのは、空間化オーディオシステムを含む仮想現実システム、拡張現実システム、または複合現実システムの種々の実施形態である。本明細書中で記載されるのは、空間化オーディオシステムおよび方法を伴う仮想現実システム、拡張現実システム、または複合現実システムのさらなる実施形態である。
本発明は、例えば、以下を提供する。
(項目1)
空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。
(項目2)
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備え、
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目1に記載のシステム。
(項目3)
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目2に記載のシステム。
(項目4)
無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、項目3に記載のシステム。
(項目5)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備え、光学キューは、前記生成されたシネマサウンドに対応するビデオから別個に投影される、または光学キューは、赤外線光を用いて投影される、項目3に記載のシステム。
(項目6)
前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、項目2に記載のシステム。
(項目7)
前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、項目6に記載のシステム。
(項目8)
前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、
項目2に記載のシステム。
(項目9)
前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、項目2に記載のシステム。
(項目10)
ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、項目2に記載のシステム。
(項目11)
前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、項目10に記載のシステム。
(項目12)
前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
項目11に記載のシステム。
(項目13)
前記サブウーファは、前記ユーザのための座席に隣接して配置される、または前記サブウーファは、前記ユーザによって装着される、項目12に記載のシステム。
(項目14)
前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、項目11に記載のシステム。
(項目15)
前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、項目10に記載のシステム。(項目16)
前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、項目2に記載のシステム。
(項目17)
前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、項目16に記載のシステム。
(項目18)
前記フレームは、前記生成された音を前記ユーザの耳に集束させる、項目1に記載のシステム。
(項目19)
前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、項目1に記載のシステム。
(項目20)
前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、項目1に記載のシステム。
(項目21)
空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。
(項目22)
前記複数のスピーカに結合される増幅器をさらに備える、項目21に記載のシステム。(項目23)
前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、項目21に記載のシステム。
(項目24)
前記複数のスピーカは、前記生成された音を前記ユーザの耳に集束させる、項目21に記載のシステム。
(項目25)
前記複数のスピーカはそれぞれ、変換器を備える、項目24に記載のシステム。
(項目26)
前記フレームは、前記生成された音を前記ユーザの耳に集束させる、項目21に記載のシステム。
(項目27)
AR/MRシステムであって、
仮想画像を生成するためのディスプレイシステムと、
項目21に記載の空間化オーディオシステムと
を備え、
前記仮想画像および前記生成された音は、同期される、システム。
(項目28)
前記生成された音は、仮想オブジェクトから発出するように現れる、項目27に記載のシステム。
(項目29)
前記生成された音は、実際の物理的オブジェクトから発出するように現れる、項目27に記載のシステム。
(項目30)
前記生成された音は、実際の物理的人物から発出するように現れる、項目27に記載のシステム。
(項目31)
前記生成された音は、前記実際の物理的人物の口から発出するように現れる、項目30に記載のシステム。
(項目32)
前記生成された音は、前記実際の物理的人物の実際の音声と異なる、項目31に記載のシステム。
(項目33)
前記生成された音は、前記ユーザの周囲の複数のソースから発出するように現れる、項目27に記載のシステム。
(項目34)
前記生成された音は、前記ユーザ内から発出するように現れる、項目27に記載のシステム。
(項目35)
前記頭部姿勢センサは、IMUである、項目21に記載のシステム。
(項目36)
前記頭部姿勢センサは、カメラである、項目21に記載のシステム。
(項目37)
前記複数のスピーカは、前記フレームに除去可能に取り付けられる、項目21に記載のシステム。
(項目38)
前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、項目37に記載のシステム。
(項目39)
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備える、項目21に記載のシステム。
(項目40)
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目41)
前記タイミング情報は、タイムコードを備える、項目40に記載のシステム。
(項目42)
前記タイミング情報は、キューを備える、項目40に記載のシステム。
(項目43)
無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、項目40に記載のシステム。
(項目44)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備える、項目40に記載のシステム。
(項目45)
前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオから別個に投影される、光学キューを備える、項目40に記載のシステム。
(項目46)
前記タイミング情報は、赤外線光を用いて投影される光学キューを備える、項目40に記載のシステム。
(項目47)
前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、項目39に記載のシステム。
(項目48)
前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、項目47に記載のシステム。
(項目49)
前記仮想オブジェクト音情報は、モノオーディオストリームを備える、項目48に記載のシステム。
(項目50)
前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目51)
前記空間化オーディオプロセッサは、前記空間化オーディオデータを空間化オーディオソースデータから生成する、項目39に記載のシステム。
(項目52)
前記空間化オーディオソースデータは、前記空間化オーディオプロセッサ上に事前にロードされる、項目51に記載のシステム。
(項目53)
前記空間化オーディオソースデータは、前記空間化オーディオプロセッサにストリームされる、項目51に記載のシステム。
(項目54)
前記ストリームされた空間化オーディオソースデータは、前記空間化オーディオプロセッサにバッファ/キャッシュされる、項目53に記載のシステム。
(項目55)
前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、項目39に記載のシステム。
(項目56)
ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、項目39に記載のシステム。
(項目57)
前記ユーザセンサは、前記フレームに取り付けられる、項目56に記載のシステム。
(項目58)
前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、項目56に記載のシステム。
(項目59)
前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、項目58に記載のシステム。(項目60)
前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
項目58に記載のシステム。
(項目61)
前記サブウーファは、前記ユーザのための座席に隣接して配置される、項目60に記載のシステム。
(項目62)
前記サブウーファは、前記ユーザによって装着される、項目60に記載のシステム。
(項目63)
前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、項目39に記載のシステム。
(項目64)
前記アプリケーションプロセッサは、前記シネマオーディオプロセッサに動作可能に結合される、項目63に記載のシステム。
(項目65)
前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、項目63に記載のシステム。
(項目66)
前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、項目58に記載のシステム。
(項目67)
前記フレームに取り付けられ、前記シネマサウンドを記録する、マイクロホンと、
前記空間化オーディオプロセッサに動作可能に結合される同期モジュールであって、前記同期モジュールは、前記記録されたシネマサウンドを分析し、シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、同期モジュールと
をさらに備え、
前記同期モジュールは、前記シネマサウンドトラックの識別および前記シネマサウンドトラック内の識別された時間に基づいて、タイミング情報を生成し、前記音と前記シネマサウンドを同期させる、項目39に記載のシステム。
(項目68)
前記マイクロホンは、前記シネマサウンドの再生の間、後の時間において前記シネマサウンドを記録し、
前記同期モジュールは、前記後の記録されたシネマサウンドを分析し、前記シネマサウンドトラック内の後の時間を識別し、前記音と前記シネマサウンドとの間の同期を維持する、
項目67に記載のシステム。
(項目69)
シネマサウンドトラックデータベースをさらに備え、前記同期モジュールは、前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較し、前記シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、項目67に記載のシステム。
(項目70)
前記同期モジュールは、前記記録されたシネマサウンドからの第1の記録されたパケットと前記シネマサウンドトラックデータベースからの第1のデータベースパケットとの間の第1の合致を識別する、項目69に記載のシステム。
(項目71)
前記同期モジュールは、前記同期モジュールが前記第1の合致を識別した後、前記記録されたシネマサウンドからの第2の記録されたパケットと前記シネマサウンドトラックデータベースからの第2のデータベースパケットとの間の第2の合致を識別する、項目70に記載のシステム。
(項目72)
前記シネマサウンドトラックデータベースは、複数の音調クラスタを備える、項目69に記載のシステム。
(項目73)
前記シネマサウンドトラックデータベースは、音調クラスタ、前記シネマサウンドトラック内の個別の時間、および前記音調クラスタに続く音調クラスタのシーケンスに対応する識別子を備える、項目72に記載のシステム。
(項目74)
前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較する前記同期モジュールは、前記記録されたシネマサウンド内の音調クラスタと前記シネマサウンドトラックデータベース内の音調クラスタを合致させることを含む、項目72に記載のシステム。
(項目75)
前記複数の音調クラスタの各音調クラスタは、約1ms長である、項目72に記載のシステム。
(項目76)
シネマサウンドトラックデータベースビルダをさらに備え、前記シネマサウンドトラックデータベースビルダは、前記シネマサウンドトラックを走査し、その中の前記複数の音調クラスタを識別する、項目72に記載のシステム。
(項目77)
前記タイミング情報は、タイムコードを備える、項目67に記載のシステム。
(項目78)
空間化オーディオシステムであって、
複数のパーソナルオーディオデバイスであって、前記複数のうちの各パーソナルオーディオデバイスは、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記ユーザの決定された頭部姿勢および特性に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備える、複数のパーソナルオーディオデバイスと、
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
を備え、
前記複数のスピーカはそれぞれ、個別の生成された空間化オーディオデータに対応する音を生成する、システム。
(項目79)
前記第1のユーザの第1の特性が、前記第2のユーザの第2の特性と異なるので、前記複数のパーソナルオーディオデバイスの第1のパーソナルオーディオデバイスの第1のユーザのための第1の生成された空間化オーディオデータは、前記複数のパーソナルオーディオデバイスの第2のパーソナルオーディオデバイスの第2のユーザのための第2の生成された空間化オーディオデータと異なる、項目78に記載のシステム。
(項目80)
前記第1および第2の特性は、ゲームにおける異なるレベルである、項目79に記載のシステム。
(項目81)
前記第1および第2の特性は、異なる個人的選好である、項目79に記載のシステム。(項目82)
前記第1および第2の特性は、ユーザ焦点の異なる場所である、項目79に記載のシステム。
(項目83)
前記第1および第2の特性は、映画館内の異なる場所である、項目79に記載のシステム。
(項目84)
前記第1および第2の特性は、注意の異なるインジケータである、項目79に記載のシステム。
(項目85)
前記第1および第2の特性は、それぞれ、前記第1および第2のユーザによって放出される異なる音である、項目79に記載のシステム。
(項目86)
部屋センサをさらに備え、前記部屋センサは、前記ユーザが配置される部屋の音響性質を測定し、前記空間化オーディオプロセッサは、前記ユーザの前記決定された頭部姿勢および前記部屋の測定された音響性質に基づいて、前記空間化オーディオデータを生成する、項目21に記載のシステム。
(項目87)
前記部屋センサは、マイクロホンであり、前記マイクロホンは、部屋音を収集し、前記部屋の音響性質を測定する、項目86に記載のシステム。
(項目88)
前記部屋センサは、カメラであり、前記カメラは、部屋画像を収集し、前記部屋の音響性質を測定する、項目86に記載のシステム。
(項目89)
パーソナライズされたメディアシステムであって、
一般的メディアシステムであって、
メディア製品に対応する一般的ビデオおよびオーディオデータを生成するための一般的メディアプロセッサと、
前記一般的ビデオデータに対応する一般的ライトフィールドを提示するための一般的メディアディスプレイと、
前記一般的シネマオーディオデータに対応する一般的音場を提示するための複数の一般的メディアスピーカと
を備える、一般的メディアシステムと、
複数のパーソナルメディアデバイスであって、前記複数のうちの各パーソナルメディアデバイスは、
前記ユーザの姿勢データを収集するための姿勢センサと、
前記ユーザの姿勢を前記姿勢データから決定するための姿勢プロセッサと、
前記ユーザの決定された姿勢および特性に基づいて、パーソナルビデオおよびオーディオデータを生成するためのパーソナルメディアプロセッサと、
ユーザの頭部上に装着されるフレームと、
前記フレームに取り付けられ、前記パーソナルビデオデータに対応する前記ユーザのためのパーソナル3次元ライトフィールドを提示するように構成されるパーソナルディスプレイと、
複数のパーソナルスピーカであって、前記複数のパーソナルスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のパーソナルスピーカと
とを備え、前記複数のパーソナルスピーカは、パーソナルオーディオデータに対応する前記ユーザのための、パーソナル空間化音場を提示するように構成される、複数のパーソナルメディアデバイスと
を備え、
前記複数のパーソナルメディアデバイスはそれぞれ、前記個別のパーソナル3次元ライトフィールド、パーソナル空間化音場、前記一般的メディアライトフィールド、および前記一般的メディア音場が、前記ユーザのためのコヒーレントメディア体験を形成するように、前記一般的メディアシステムと同期される、システム。
(項目90)
前記メディア製品は、シネマ製品である、項目89に記載のシステム。
(項目91)
前記メディア製品は、ゲーム製品である、項目89に記載のシステム。
(項目92)
前記メディア製品は、複合メディア製品である、項目89に記載のシステム。
(項目93)
前記ユーザの特性は、前記ユーザの識別である、項目89に記載のシステム。
(項目94)
前記ユーザの特性は、前記ユーザの場所である、項目89に記載のシステム。
(項目95)
前記ユーザの特性は、前記メディアに関連するソフトウェアとの前記ユーザの相互作用に関連する、項目89に記載のシステム。
(項目96)
前記メディア製品は、シネマ製品であり、前記ソフトウェアは、ゲームである、項目95に記載のシステム。
(項目97)
前記ユーザの姿勢は、頭部姿勢である、項目89に記載のシステム。
(項目98)
前記パーソナルディスプレイは、AR/MRディスプレイである、項目89に記載のシステム。
(項目99)
前記一般的メディアプロセッサは、前記一般的ライトフィールドの一部が空にされるように、前記一般的ビデオデータを修正するように構成され、
前記一般的ライトフィールドの一部は、前記パーソナル3次元ライトフィールド内のオブジェクトの場所に対応する、項目89に記載のシステム。
(項目100)
前記パーソナルビデオデータは、別のユーザに対応する別のパーソナルビデオデータを含む、項目89に記載のシステム。
(問題およびソリューションの概要)
(空間化オーディオシステム)
(個人化された空間化シネマオーディオおよびビデオ体験)
(空間化シネマオーディオシステム)
(個人化された空間化シネマオーディオシステム)
(個人化された空間化シネマ体験)
Claims (20)
- 一般的およびパーソナルメディアを含むパーソナライズされたメディアシステムであって、
一般的メディアシステムであって、
メディア製品に対応する一般的ビデオおよびオーディオデータを生成するための一般的メディアプロセッサと、
前記一般的ビデオデータに対応する一般的ライトフィールドを複数のユーザに提示するように構成される一般的メディアディスプレイと、
前記一般的オーディオデータに対応する一般的メディア音場を提示するための複数の一般的メディアスピーカと
を備える、一般的メディアシステムと、
前記一般的メディアシステムと併用するための複数のパーソナルメディアデバイスであって、前記複数のもののうちの各パーソナルメディアデバイスは、
個別のユーザの頭部上に装着されるフレームと、
前記個別のユーザの姿勢データを収集するための姿勢センサと、
前記個別のユーザの姿勢を前記姿勢データから決定するための姿勢プロセッサと、
前記個別のユーザの決定された姿勢および特性に基づいて、パーソナルビデオおよびオーディオデータを生成するためのパーソナルメディアプロセッサと、
前記フレームに取り付けられるパーソナルディスプレイであって、前記パーソナルディスプレイは、前記パーソナルビデオデータに対応するパーソナルライトフィールドを前記個別のユーザに提示するように構成される、パーソナルディスプレイと、
前記フレームに取り付けられる複数のパーソナルスピーカであって、前記複数のパーソナルスピーカは、前記パーソナルオーディオデータに対応するパーソナル空間化音場を前記個別のユーザに提示するように構成される、複数のパーソナルスピーカと
を備える、複数のパーソナルメディアデバイスと
を備え、
前記複数のパーソナルメディアデバイスの各々は、前記個別のパーソナルライトフィールド、パーソナル空間化音場、前記一般的ライトフィールド、および前記一般的メディア音場が、前記個別のユーザに提供されるように、前記一般的メディアシステムと同期される、システム。 - 前記メディア製品は、シネマ製品である、請求項1に記載のシステム。
- 前記メディア製品は、ゲーム製品である、請求項1に記載のシステム。
- 前記メディア製品は、複合メディア製品である、請求項1に記載のシステム。
- 前記個別のユーザの特性は、前記個別のユーザの識別である、請求項1に記載のシステム。
- 前記個別のユーザの特性は、前記個別のユーザの場所である、請求項1に記載のシステム。
- 前記個別のユーザの特性は、前記メディア製品に関連するソフトウェアとの前記個別のユーザの相互作用に関連する、請求項1に記載のシステム。
- 前記メディア製品は、シネマ製品であり、前記ソフトウェアは、ゲームである、請求項7に記載のシステム。
- 前記個別のユーザの姿勢は、頭部姿勢である、請求項1に記載のシステム。
- 前記パーソナルディスプレイは、拡張現実/複合現実(AR/MR)ディスプレイである、請求項1に記載のシステム。
- 前記一般的メディアプロセッサは、前記一般的ライトフィールドの一部が空にされるように、前記一般的ビデオデータを修正するように構成され、
前記一般的ライトフィールドの一部は、前記パーソナルライトフィールド内のオブジェクトの場所に対応する、請求項1に記載のシステム。 - 前記パーソナルビデオデータは、第2のユーザに対応する第2のパーソナルビデオデータを含む、請求項1に記載のシステム。
- 前記複数のパーソナルメディアデバイスの各々は、個別のタイミング情報を受信し、前記個別のパーソナルライトフィールドを前記一般的ライトフィールドと同期させ、前記パーソナル空間化音場を前記一般的メディア音場と同期させる、請求項1に記載のシステム。
- 前記タイミング情報は、前記一般的ライトフィールド内の光学キュー、または、前記一般的ライトフィールドから別個に投影される光学キューを含む、請求項13に記載のシステム。
- 前記タイミング情報は、前記一般的メディア音場内のオーディオキュー、または、前記一般的メディア音場から別個に再生されるオーディオキューを含む、請求項13に記載のシステム。
- 前記一般的メディアプロセッサは、前記タイミング情報を前記複数のパーソナルメディアデバイスの各々の個別のパーソナルメディアプロセッサに伝送する、請求項13に記載のシステム。
- 各パーソナルメディアプロセッサは、前記パーソナルメディアプロセッサと前記一般的メディアプロセッサとの間の個別の待ち時間差を補償する、請求項1に記載のシステム。
- 前記複数のもののうちの各パーソナルメディアデバイスは、前記一般的メディアプロセッサへの伝送のためにユーザ情報を収集するためのユーザセンサをさらに備える、請求項1に記載のシステム。
- 前記ユーザ情報は、前記個別のユーザからのサンプリングされた音である、請求項18に記載のシステム。
- 前記パーソナルメディアプロセッサは、前記個別のユーザからの前記サンプリングされた音を前記一般的メディアプロセッサに送信し、
前記一般的メディアプロセッサは、前記サンプリングされた音を前記一般的メディア音場に組み込む、請求項19に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662369561P | 2016-08-01 | 2016-08-01 | |
US62/369,561 | 2016-08-01 | ||
JP2020192230A JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192230A Division JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022166062A JP2022166062A (ja) | 2022-11-01 |
JP7270820B2 true JP7270820B2 (ja) | 2023-05-10 |
Family
ID=61010443
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505064A Active JP6799141B2 (ja) | 2016-08-01 | 2017-08-01 | 空間化オーディオを用いた複合現実システム |
JP2020192230A Active JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
JP2022123243A Active JP7270820B2 (ja) | 2016-08-01 | 2022-08-02 | 空間化オーディオを用いた複合現実システム |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505064A Active JP6799141B2 (ja) | 2016-08-01 | 2017-08-01 | 空間化オーディオを用いた複合現実システム |
JP2020192230A Active JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
Country Status (9)
Country | Link |
---|---|
US (3) | US10390165B2 (ja) |
EP (2) | EP4376444A3 (ja) |
JP (3) | JP6799141B2 (ja) |
KR (1) | KR102197544B1 (ja) |
CN (1) | CN109791441A (ja) |
AU (2) | AU2017305249B2 (ja) |
CA (1) | CA3032603A1 (ja) |
IL (1) | IL264478B (ja) |
WO (1) | WO2018026828A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4376444A3 (en) | 2016-08-01 | 2024-08-21 | Magic Leap, Inc. | Mixed reality system with spatialized audio |
US10089063B2 (en) * | 2016-08-10 | 2018-10-02 | Qualcomm Incorporated | Multimedia device for processing spatialized audio based on movement |
JP7449856B2 (ja) | 2017-10-17 | 2024-03-14 | マジック リープ, インコーポレイテッド | 複合現実空間オーディオ |
WO2019161312A1 (en) * | 2018-02-15 | 2019-08-22 | Magic Leap, Inc. | Mixed reality musical instrument |
IL305799B2 (en) | 2018-02-15 | 2024-10-01 | Magic Leap Inc | Virtual reverberation in mixed reality |
JP7102024B2 (ja) * | 2018-04-10 | 2022-07-19 | ガウディオ・ラボ・インコーポレイテッド | メタデータを利用するオーディオ信号処理装置 |
US11395089B2 (en) | 2018-05-08 | 2022-07-19 | Google Llc | Mixing audio based on a pose of a user |
US10863300B2 (en) * | 2018-06-18 | 2020-12-08 | Magic Leap, Inc. | Spatial audio for interactive audio environments |
US10569164B1 (en) | 2018-09-26 | 2020-02-25 | Valve Corporation | Augmented reality (AR) system for providing AR in video games |
CN113039815B (zh) * | 2018-11-09 | 2022-11-11 | 候本株式会社 | 声音生成方法及执行其的装置 |
KR20210106546A (ko) | 2018-12-24 | 2021-08-30 | 디티에스, 인코포레이티드 | 딥 러닝 이미지 분석을 사용한 룸 음향 시뮬레이션 |
US11100909B2 (en) | 2019-05-06 | 2021-08-24 | Apple Inc. | Devices, methods, and graphical user interfaces for adaptively providing audio outputs |
SG11202111622WA (en) * | 2019-05-10 | 2021-11-29 | Cinewav Pte Ltd | System and method for synchronizing audio content on a mobile device to a separate visual display system |
EP4035418A2 (en) * | 2019-09-23 | 2022-08-03 | Dolby Laboratories Licensing Corporation | Hybrid near/far-field speaker virtualization |
US11228857B2 (en) * | 2019-09-28 | 2022-01-18 | Facebook Technologies, Llc | Dynamic customization of head related transfer functions for presentation of audio content |
US20220279303A1 (en) * | 2019-10-22 | 2022-09-01 | Google Llc | Spatial audio for wearable devices |
US11304017B2 (en) | 2019-10-25 | 2022-04-12 | Magic Leap, Inc. | Reverberation fingerprint estimation |
US11741159B2 (en) * | 2019-10-29 | 2023-08-29 | Shmuel Ur Innovation Ltd | Digital media authentication |
US11270115B2 (en) * | 2019-11-18 | 2022-03-08 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality content based on identification of trigger accompanying video content |
US11337023B2 (en) | 2019-12-20 | 2022-05-17 | Magic Leap, Inc. | Physics-based audio and haptic synthesis |
CN111093142B (zh) * | 2019-12-24 | 2021-06-08 | 杭州当虹科技股份有限公司 | 一种基于vr多方向音源合成的实现方法 |
WO2021243098A1 (en) | 2020-05-29 | 2021-12-02 | Magic Leap, Inc. | Surface appropriate collisions |
US20220385748A1 (en) * | 2021-05-27 | 2022-12-01 | Qualcomm Incorporated | Conveying motion data via media packets |
CN113596673B (zh) * | 2021-07-14 | 2024-07-30 | 杭州泽沃电子科技有限公司 | Ar眼镜扬声器的定向发声方法、装置和发声设备 |
CN115834757A (zh) * | 2021-09-17 | 2023-03-21 | 北京小米移动软件有限公司 | 数据传输方法、电子设备、通信系统及可读存储介质 |
CN114040318A (zh) * | 2021-11-02 | 2022-02-11 | 海信视像科技股份有限公司 | 一种空间音频的播放方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009543479A (ja) | 2006-07-07 | 2009-12-03 | ハリス コーポレイション | バイノーラル情報をユーザに伝える方法及びバイノーラル音響システム |
US20120237037A1 (en) | 2011-03-18 | 2012-09-20 | Dolby Laboratories Licensing Corporation | N Surround |
JP2015042006A (ja) | 2013-08-21 | 2015-03-02 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | コンテンツに基づく音声/映像調整 |
JP2016504824A (ja) | 2012-11-28 | 2016-02-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 協調的サウンドシステム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR920014231A (ko) * | 1990-12-31 | 1992-07-30 | 이헌조 | 무선헤드폰 송 수신회로 |
US5633993A (en) * | 1993-02-10 | 1997-05-27 | The Walt Disney Company | Method and apparatus for providing a virtual world sound system |
JP3796776B2 (ja) * | 1995-09-28 | 2006-07-12 | ソニー株式会社 | 映像音声再生装置 |
JP4281937B2 (ja) * | 2000-02-02 | 2009-06-17 | パナソニック株式会社 | ヘッドホンシステム |
FR2847376B1 (fr) | 2002-11-19 | 2005-02-04 | France Telecom | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
JP2004229221A (ja) * | 2003-01-27 | 2004-08-12 | Yamaha Corp | 楽音発生システム |
US8201080B2 (en) | 2006-05-24 | 2012-06-12 | International Business Machines Corporation | Systems and methods for augmenting audio/visual broadcasts with annotations to assist with perception and interpretation of broadcast content |
JP4735993B2 (ja) | 2008-08-26 | 2011-07-27 | ソニー株式会社 | 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法 |
WO2011068192A1 (ja) * | 2009-12-03 | 2011-06-09 | 独立行政法人科学技術振興機構 | 音響変換装置 |
US8908874B2 (en) | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
JP2012129800A (ja) * | 2010-12-15 | 2012-07-05 | Sony Corp | 情報理装置および方法、プログラム、並びに情報処理システム |
JP5716451B2 (ja) * | 2011-02-25 | 2015-05-13 | ソニー株式会社 | ヘッドホン装置およびヘッドホン装置の音声再生方法 |
US9727132B2 (en) * | 2011-07-01 | 2017-08-08 | Microsoft Technology Licensing, Llc | Multi-visor: managing applications in augmented reality environments |
US9183676B2 (en) * | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
DE102012208118A1 (de) * | 2012-05-15 | 2013-11-21 | Eberhard-Karls-Universität Tübingen | Headtracking-Headset und Gerät |
US9813776B2 (en) * | 2012-06-25 | 2017-11-07 | Pin Pon Llc | Secondary soundtrack delivery |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US20140328485A1 (en) * | 2013-05-06 | 2014-11-06 | Nvidia Corporation | Systems and methods for stereoisation and enhancement of live event audio |
CA2913218C (en) * | 2013-05-24 | 2022-09-27 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
DE102014204630A1 (de) * | 2014-03-13 | 2015-09-17 | Steffen Armbruster | Mobile Vorrichtung für immersive Sounderlebnisse |
CN106464953B (zh) * | 2014-04-15 | 2020-03-27 | 克里斯·T·阿纳斯塔斯 | 双声道音频系统和方法 |
CN112651288B (zh) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US10057706B2 (en) * | 2014-11-26 | 2018-08-21 | Sony Interactive Entertainment Inc. | Information processing device, information processing system, control method, and program |
CN105797366A (zh) * | 2016-03-25 | 2016-07-27 | 中国传媒大学 | 一种基于声源定位的头戴式交互音频游戏终端 |
EP4376444A3 (en) | 2016-08-01 | 2024-08-21 | Magic Leap, Inc. | Mixed reality system with spatialized audio |
-
2017
- 2017-08-01 EP EP24167824.2A patent/EP4376444A3/en active Pending
- 2017-08-01 CA CA3032603A patent/CA3032603A1/en active Pending
- 2017-08-01 JP JP2019505064A patent/JP6799141B2/ja active Active
- 2017-08-01 US US15/666,210 patent/US10390165B2/en active Active
- 2017-08-01 EP EP17837548.1A patent/EP3491495B1/en active Active
- 2017-08-01 WO PCT/US2017/044921 patent/WO2018026828A1/en unknown
- 2017-08-01 AU AU2017305249A patent/AU2017305249B2/en active Active
- 2017-08-01 CN CN201780060939.9A patent/CN109791441A/zh active Pending
- 2017-08-01 KR KR1020197006247A patent/KR102197544B1/ko active IP Right Grant
-
2019
- 2019-01-27 IL IL264478A patent/IL264478B/en active IP Right Grant
- 2019-07-03 US US16/502,999 patent/US10856095B2/en active Active
-
2020
- 2020-10-28 US US17/082,556 patent/US11240622B2/en active Active
- 2020-11-19 JP JP2020192230A patent/JP7118121B2/ja active Active
-
2021
- 2021-10-13 AU AU2021250896A patent/AU2021250896B2/en active Active
-
2022
- 2022-08-02 JP JP2022123243A patent/JP7270820B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009543479A (ja) | 2006-07-07 | 2009-12-03 | ハリス コーポレイション | バイノーラル情報をユーザに伝える方法及びバイノーラル音響システム |
US20120237037A1 (en) | 2011-03-18 | 2012-09-20 | Dolby Laboratories Licensing Corporation | N Surround |
JP2016504824A (ja) | 2012-11-28 | 2016-02-12 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 協調的サウンドシステム |
JP2015042006A (ja) | 2013-08-21 | 2015-03-02 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | コンテンツに基づく音声/映像調整 |
Also Published As
Publication number | Publication date |
---|---|
JP6799141B2 (ja) | 2020-12-09 |
EP3491495B1 (en) | 2024-04-10 |
EP4376444A2 (en) | 2024-05-29 |
NZ750048A (en) | 2023-08-25 |
JP7118121B2 (ja) | 2022-08-15 |
EP3491495A1 (en) | 2019-06-05 |
AU2017305249B2 (en) | 2021-07-22 |
KR20190027934A (ko) | 2019-03-15 |
CN109791441A (zh) | 2019-05-21 |
EP4376444A3 (en) | 2024-08-21 |
JP2022166062A (ja) | 2022-11-01 |
IL264478B (en) | 2021-02-28 |
US20190327574A1 (en) | 2019-10-24 |
AU2021250896B2 (en) | 2023-09-14 |
AU2017305249A1 (en) | 2019-02-07 |
US20210044915A1 (en) | 2021-02-11 |
AU2021250896A1 (en) | 2021-11-11 |
US11240622B2 (en) | 2022-02-01 |
WO2018026828A1 (en) | 2018-02-08 |
IL264478A (en) | 2019-02-28 |
KR102197544B1 (ko) | 2020-12-31 |
CA3032603A1 (en) | 2018-02-08 |
EP3491495A4 (en) | 2019-07-24 |
US20180035234A1 (en) | 2018-02-01 |
JP2019523607A (ja) | 2019-08-22 |
US10390165B2 (en) | 2019-08-20 |
JP2021036722A (ja) | 2021-03-04 |
US10856095B2 (en) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7270820B2 (ja) | 空間化オーディオを用いた複合現実システム | |
US11310618B2 (en) | Virtual reality, augmented reality, and mixed reality systems with spatialized audio | |
US20220225050A1 (en) | Head tracked spatial audio and/or video rendering | |
US20230283976A1 (en) | Device and rendering environment tracking | |
US20230254660A1 (en) | Head tracking and hrtf prediction | |
NZ750048B2 (en) | Mixed reality system with spatialized audio | |
WO2023150486A1 (en) | Gesture controlled audio and/or visual rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230425 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7270820 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |