JP2019523607A - 空間化オーディオを用いた複合現実システム - Google Patents
空間化オーディオを用いた複合現実システム Download PDFInfo
- Publication number
- JP2019523607A JP2019523607A JP2019505064A JP2019505064A JP2019523607A JP 2019523607 A JP2019523607 A JP 2019523607A JP 2019505064 A JP2019505064 A JP 2019505064A JP 2019505064 A JP2019505064 A JP 2019505064A JP 2019523607 A JP2019523607 A JP 2019523607A
- Authority
- JP
- Japan
- Prior art keywords
- cinema
- user
- audio
- sound
- spatialized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 claims description 64
- 230000001360 synchronised effect Effects 0.000 claims description 12
- 210000005069 ears Anatomy 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 7
- 239000002131 composite material Substances 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 6
- 230000001427 coherent effect Effects 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 143
- 238000000034 method Methods 0.000 description 47
- 238000012545 processing Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 12
- 230000003190 augmentative effect Effects 0.000 description 11
- 239000004020 conductor Substances 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 241000256837 Apidae Species 0.000 description 9
- 230000036961 partial effect Effects 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 206010019233 Headaches Diseases 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 206010028813 Nausea Diseases 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 231100000869 headache Toxicity 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000008693 nausea Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical group O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 230000036316 preload Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Stereophonic System (AREA)
- Details Of Audible-Bandwidth Transducers (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Holo Graphy (AREA)
Abstract
Description
本願は、2016年8月1日に出願され“MIXED REALITY SYSTEM WITH SPATIALIZED AUDIO”と題された米国仮出願第62/369,561号(代理人管理番号ML.30041.00)に対する優先権を主張するものである。本願は、2014年2月4日に出願された米国仮特許出願第62/291,363号(代理人管理番号ML.30043.00)、2014年6月14日に出願された米国仮特許出願第62/012,273号(代理人管理番号ML.30019.00)、2013年6月13日に出願された米国特許出願第14/738,877号(代理人管理番号ML.20019.00)、2014年11月27日に出願された米国特許出願第14/555,585号(代理人管理番号ML.20011.00)に関連している。これらの特許出願の内容は、全体が開示されているかのように、それらの全体が参照により本明細書中に明示的かつ全体的に援用される。上記で援用した特許出願に記載されているのは、空間化オーディオシステムを含む仮想現実システム、拡張現実システム、または複合現実システムの種々の実施形態である。本明細書中で記載されるのは、空間化オーディオシステムおよび方法を伴う仮想現実システム、拡張現実システム、または複合現実システムのさらなる実施形態である。
(問題およびソリューションの概要)
(空間化オーディオシステム)
(個人化された空間化シネマオーディオおよびビデオ体験)
(空間化シネマオーディオシステム)
(個人化された空間化シネマオーディオシステム)
(個人化された空間化シネマ体験)
Claims (100)
- 空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。 - 前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備え、
前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、請求項1に記載のシステム。 - 前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、請求項2に記載のシステム。
- 無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、請求項3に記載のシステム。
- 前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備え、光学キューは、前記生成されたシネマサウンドに対応するビデオから別個に投影される、または光学キューは、赤外線光を用いて投影される、請求項3に記載のシステム。
- 前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、請求項2に記載のシステム。
- 前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、請求項6に記載のシステム。
- 前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、
請求項2に記載のシステム。 - 前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、請求項2に記載のシステム。
- ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、請求項2に記載のシステム。
- 前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、請求項10に記載のシステム。
- 前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
請求項11に記載のシステム。 - 前記サブウーファは、前記ユーザのための座席に隣接して配置される、または前記サブウーファは、前記ユーザによって装着される、請求項12に記載のシステム。
- 前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、請求項11に記載のシステム。 - 前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、請求項10に記載のシステム。
- 前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、請求項2に記載のシステム。
- 前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、請求項16に記載のシステム。
- 前記フレームは、前記生成された音を前記ユーザの耳に集束させる、請求項1に記載のシステム。
- 前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、請求項1に記載のシステム。
- 前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、請求項1に記載のシステム。
- 空間化オーディオシステムであって、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部の任意の表面に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記決定された前記ユーザの頭部姿勢に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備え、
前記スピーカは、前記生成された空間化オーディオデータに対応する音を生成する、システム。 - 前記複数のスピーカに結合される増幅器をさらに備える、請求項21に記載のシステム。
- 前記生成された空間化オーディオデータは、複数の仮想オーディオソース毎に、位置、配向、および音量データを含む、請求項21に記載のシステム。
- 前記複数のスピーカは、前記生成された音を前記ユーザの耳に集束させる、請求項21に記載のシステム。
- 前記複数のスピーカはそれぞれ、変換器を備える、請求項24に記載のシステム。
- 前記フレームは、前記生成された音を前記ユーザの耳に集束させる、請求項21に記載のシステム。
- AR/MRシステムであって、
仮想画像を生成するためのディスプレイシステムと、
請求項21に記載の空間化オーディオシステムと
を備え、
前記仮想画像および前記生成された音は、同期される、システム。 - 前記生成された音は、仮想オブジェクトから発出するように現れる、請求項27に記載のシステム。
- 前記生成された音は、実際の物理的オブジェクトから発出するように現れる、請求項27に記載のシステム。
- 前記生成された音は、実際の物理的人物から発出するように現れる、請求項27に記載のシステム。
- 前記生成された音は、前記実際の物理的人物の口から発出するように現れる、請求項30に記載のシステム。
- 前記生成された音は、前記実際の物理的人物の実際の音声と異なる、請求項31に記載のシステム。
- 前記生成された音は、前記ユーザの周囲の複数のソースから発出するように現れる、請求項27に記載のシステム。
- 前記生成された音は、前記ユーザ内から発出するように現れる、請求項27に記載のシステム。
- 前記頭部姿勢センサは、IMUである、請求項21に記載のシステム。
- 前記頭部姿勢センサは、カメラである、請求項21に記載のシステム。
- 前記複数のスピーカは、前記フレームに除去可能に取り付けられる、請求項21に記載のシステム。
- 前記複数のスピーカは、個別の磁石を用いて、前記フレームに除去可能に取り付けられる、請求項37に記載のシステム。
- 前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
をさらに備える、請求項21に記載のシステム。 - 前記空間化オーディオプロセッサは、タイミング情報/メタデータを前記シネマオーディオプロセッサから受信し、前記音と前記シネマサウンドを同期させる、請求項39に記載のシステム。
- 前記タイミング情報は、タイムコードを備える、請求項40に記載のシステム。
- 前記タイミング情報は、キューを備える、請求項40に記載のシステム。
- 無線ネットワークをさらに備え、前記シネマオーディオプロセッサは、前記無線ネットワークを経由して、前記タイミング情報を前記空間化オーディオプロセッサに伝送する、請求項40に記載のシステム。
- 前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオ内の光学キューを備える、請求項40に記載のシステム。
- 前記タイミング情報は、前記生成されたシネマサウンドに対応するビデオから別個に投影される、光学キューを備える、請求項40に記載のシステム。
- 前記タイミング情報は、赤外線光を用いて投影される光学キューを備える、請求項40に記載のシステム。
- 前記シネマオーディオプロセッサは、シネマ情報を前記空間化オーディオプロセッサに伝送する、請求項39に記載のシステム。
- 前記シネマ情報は、タイミング情報、仮想オブジェクト音情報、位置情報、配向情報、ハイパーリンク、または音響モデル化情報のうちの1つを備える、請求項47に記載のシステム。
- 前記仮想オブジェクト音情報は、モノオーディオストリームを備える、請求項48に記載のシステム。
- 前記空間化オーディオプロセッサは、第1の時間において、第1のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第1の時間において、前記音と前記シネマサウンドを同期させ、
前記空間化オーディオプロセッサは、前記第1の時間より後の第2の時間において、第2のタイミング情報を前記シネマオーディオプロセッサから受信し、前記第2の時間において、前記音と前記シネマサウンドを同期させる、請求項39に記載のシステム。 - 前記空間化オーディオプロセッサは、前記空間化オーディオデータを空間化オーディオソースデータから生成する、請求項39に記載のシステム。
- 前記空間化オーディオソースデータは、前記空間化オーディオプロセッサ上に事前にロードされる、請求項51に記載のシステム。
- 前記空間化オーディオソースデータは、前記空間化オーディオプロセッサにストリームされる、請求項51に記載のシステム。
- 前記ストリームされた空間化オーディオソースデータは、前記空間化オーディオプロセッサにバッファ/キャッシュされる、請求項53に記載のシステム。
- 前記空間化オーディオプロセッサは、前記空間化オーディオプロセッサ/前記複数のスピーカと前記シネマオーディオプロセッサ/前記複数のシネマスピーカとの間の待ち時間差を補償する、請求項39に記載のシステム。
- ユーザセンサをさらに備え、前記ユーザセンサは、前記シネマオーディオプロセッサへの伝送のためのユーザ情報を収集する、請求項39に記載のシステム。
- 前記ユーザセンサは、前記フレームに取り付けられる、請求項56に記載のシステム。
- 前記シネマオーディオプロセッサは、前記シネマサウンドが修正されたシネマオーディオデータに対応するように、前記ユーザ情報に基づいて、前記シネマオーディオデータを修正する、請求項56に記載のシステム。
- 前記ユーザ情報は、前記ユーザからサンプリングされた音を含み、前記修正されたシネマオーディオデータは、サンプリングされた音を組み込む、請求項58に記載のシステム。
- 前記複数のシネマスピーカは、低周波数音を生成するように構成されるサブウーファを含み、
前記ユーザ情報は、低周波数オーディオデータを含み、
前記シネマオーディオプロセッサは、前記低周波数オーディオデータに基づいて、前記シネマオーディオデータを修正し、
前記サブウーファは、前記修正されたシネマオーディオデータに対応する低周波数音を生成する、
請求項58に記載のシステム。 - 前記サブウーファは、前記ユーザのための座席に隣接して配置される、請求項60に記載のシステム。
- 前記サブウーファは、前記ユーザによって装着される、請求項60に記載のシステム。
- 前記空間化オーディオプロセッサに動作可能に結合されるアプリケーションプロセッサをさらに備え、前記アプリケーションプロセッサは、前記空間化オーディオプロセッサが前記空間化オーディオデータを生成するソースデータを提供する、請求項39に記載のシステム。
- 前記アプリケーションプロセッサは、前記シネマオーディオプロセッサに動作可能に結合される、請求項63に記載のシステム。
- 前記アプリケーションプロセッサは、前記空間化オーディオデータと前記シネマオーディオデータを同期させる、請求項63に記載のシステム。
- 前記シネマオーディオデータは、分岐構造内に編成され、
前記修正されたシネマオーディオデータは、前記シネマオーディオデータの分岐構造より小さい修正された分岐構造を有する、請求項58に記載のシステム。 - 前記フレームに取り付けられ、前記シネマサウンドを記録する、マイクロホンと、
前記空間化オーディオプロセッサに動作可能に結合される同期モジュールであって、前記同期モジュールは、前記記録されたシネマサウンドを分析し、シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、同期モジュールと
をさらに備え、
前記同期モジュールは、前記シネマサウンドトラックの識別および前記シネマサウンドトラック内の識別された時間に基づいて、タイミング情報を生成し、前記音と前記シネマサウンドを同期させる、請求項39に記載のシステム。 - 前記マイクロホンは、前記シネマサウンドの再生の間、後の時間において前記シネマサウンドを記録し、
前記同期モジュールは、前記後の記録されたシネマサウンドを分析し、前記シネマサウンドトラック内の後の時間を識別し、前記音と前記シネマサウンドとの間の同期を維持する、
請求項67に記載のシステム。 - シネマサウンドトラックデータベースをさらに備え、前記同期モジュールは、前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較し、前記シネマサウンドトラックおよび前記シネマサウンドトラック内の時間を識別する、請求項67に記載のシステム。
- 前記同期モジュールは、前記記録されたシネマサウンドからの第1の記録されたパケットと前記シネマサウンドトラックデータベースからの第1のデータベースパケットとの間の第1の合致を識別する、請求項69に記載のシステム。
- 前記同期モジュールは、前記同期モジュールが前記第1の合致を識別した後、前記記録されたシネマサウンドからの第2の記録されたパケットと前記シネマサウンドトラックデータベースからの第2のデータベースパケットとの間の第2の合致を識別する、請求項70に記載のシステム。
- 前記シネマサウンドトラックデータベースは、複数の音調クラスタを備える、請求項69に記載のシステム。
- 前記シネマサウンドトラックデータベースは、音調クラスタ、前記シネマサウンドトラック内の個別の時間、および前記音調クラスタに続く音調クラスタのシーケンスに対応する識別子を備える、請求項72に記載のシステム。
- 前記記録されたシネマサウンドと前記シネマサウンドトラックデータベースを比較する前記同期モジュールは、前記記録されたシネマサウンド内の音調クラスタと前記シネマサウンドトラックデータベース内の音調クラスタを合致させることを含む、請求項72に記載のシステム。
- 前記複数の音調クラスタの各音調クラスタは、約1ms長である、請求項72に記載のシステム。
- シネマサウンドトラックデータベースビルダをさらに備え、前記シネマサウンドトラックデータベースビルダは、前記シネマサウンドトラックを走査し、その中の前記複数の音調クラスタを識別する、請求項72に記載のシステム。
- 前記タイミング情報は、タイムコードを備える、請求項67に記載のシステム。
- 空間化オーディオシステムであって、
複数のパーソナルオーディオデバイスであって、前記複数のうちの各パーソナルオーディオデバイスは、
ユーザの頭部上に装着されるフレームと、
複数のスピーカであって、前記複数のスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のスピーカと、
前記ユーザの頭部姿勢データを収集するための頭部姿勢センサと、
前記ユーザの頭部姿勢を前記頭部姿勢データから決定するための頭部姿勢プロセッサと、
前記ユーザの決定された頭部姿勢および特性に基づいて、空間化オーディオデータを生成するための空間化オーディオプロセッサと
を備える、複数のパーソナルオーディオデバイスと、
前記空間化オーディオプロセッサに動作可能に結合されるシネマオーディオプロセッサであって、前記シネマオーディオプロセッサは、前記シネマオーディオデータを生成する、シネマオーディオプロセッサと、
前記生成されたシネマオーディオデータに対応するシネマサウンドを生成するための複数のシネマスピーカと
を備え、
前記複数のスピーカはそれぞれ、個別の生成された空間化オーディオデータに対応する音を生成する、システム。 - 前記第1のユーザの第1の特性が、前記第2のユーザの第2の特性と異なるので、前記複数のパーソナルオーディオデバイスの第1のパーソナルオーディオデバイスの第1のユーザのための第1の生成された空間化オーディオデータは、前記複数のパーソナルオーディオデバイスの第2のパーソナルオーディオデバイスの第2のユーザのための第2の生成された空間化オーディオデータと異なる、請求項78に記載のシステム。
- 前記第1および第2の特性は、ゲームにおける異なるレベルである、請求項79に記載のシステム。
- 前記第1および第2の特性は、異なる個人的選好である、請求項79に記載のシステム。
- 前記第1および第2の特性は、ユーザ焦点の異なる場所である、請求項79に記載のシステム。
- 前記第1および第2の特性は、映画館内の異なる場所である、請求項79に記載のシステム。
- 前記第1および第2の特性は、注意の異なるインジケータである、請求項79に記載のシステム。
- 前記第1および第2の特性は、それぞれ、前記第1および第2のユーザによって放出される異なる音である、請求項79に記載のシステム。
- 部屋センサをさらに備え、前記部屋センサは、前記ユーザが配置される部屋の音響性質を測定し、前記空間化オーディオプロセッサは、前記ユーザの前記決定された頭部姿勢および前記部屋の測定された音響性質に基づいて、前記空間化オーディオデータを生成する、請求項21に記載のシステム。
- 前記部屋センサは、マイクロホンであり、前記マイクロホンは、部屋音を収集し、前記部屋の音響性質を測定する、請求項86に記載のシステム。
- 前記部屋センサは、カメラであり、前記カメラは、部屋画像を収集し、前記部屋の音響性質を測定する、請求項86に記載のシステム。
- パーソナライズされたメディアシステムであって、
一般的メディアシステムであって、
メディア製品に対応する一般的ビデオおよびオーディオデータを生成するための一般的メディアプロセッサと、
前記一般的ビデオデータに対応する一般的ライトフィールドを提示するための一般的メディアディスプレイと、
前記一般的シネマオーディオデータに対応する一般的音場を提示するための複数の一般的メディアスピーカと
を備える、一般的メディアシステムと、
複数のパーソナルメディアデバイスであって、前記複数のうちの各パーソナルメディアデバイスは、
前記ユーザの姿勢データを収集するための姿勢センサと、
前記ユーザの姿勢を前記姿勢データから決定するための姿勢プロセッサと、
前記ユーザの決定された姿勢および特性に基づいて、パーソナルビデオおよびオーディオデータを生成するためのパーソナルメディアプロセッサと、
ユーザの頭部上に装着されるフレームと、
前記フレームに取り付けられ、前記パーソナルビデオデータに対応する前記ユーザのためのパーソナル3次元ライトフィールドを提示するように構成されるパーソナルディスプレイと、
複数のパーソナルスピーカであって、前記複数のパーソナルスピーカは、前記フレームが前記ユーザによって装着されると、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの頭部から個別の非ゼロ距離に配置され、前記複数のパーソナルスピーカのそれぞれが、前記ユーザの耳を含む、前記ユーザの頭部に接触しないように、前記フレームに取り付けられる、複数のパーソナルスピーカと
とを備え、前記複数のパーソナルスピーカは、パーソナルオーディオデータに対応する前記ユーザのための、パーソナル空間化音場を提示するように構成される、複数のパーソナルメディアデバイスと
を備え、
前記複数のパーソナルメディアデバイスはそれぞれ、前記個別のパーソナル3次元ライトフィールド、パーソナル空間化音場、前記一般的メディアライトフィールド、および前記一般的メディア音場が、前記ユーザのためのコヒーレントメディア体験を形成するように、前記一般的メディアシステムと同期される、システム。 - 前記メディア製品は、シネマ製品である、請求項89に記載のシステム。
- 前記メディア製品は、ゲーム製品である、請求項89に記載のシステム。
- 前記メディア製品は、複合メディア製品である、請求項89に記載のシステム。
- 前記ユーザの特性は、前記ユーザの識別である、請求項89に記載のシステム。
- 前記ユーザの特性は、前記ユーザの場所である、請求項89に記載のシステム。
- 前記ユーザの特性は、前記メディアに関連するソフトウェアとの前記ユーザの相互作用に関連する、請求項89に記載のシステム。
- 前記メディア製品は、シネマ製品であり、前記ソフトウェアは、ゲームである、請求項95に記載のシステム。
- 前記ユーザの姿勢は、頭部姿勢である、請求項89に記載のシステム。
- 前記パーソナルディスプレイは、AR/MRディスプレイである、請求項89に記載のシステム。
- 前記一般的メディアプロセッサは、前記一般的ライトフィールドの一部が空にされるように、前記一般的ビデオデータを修正するように構成され、
前記一般的ライトフィールドの一部は、前記パーソナル3次元ライトフィールド内のオブジェクトの場所に対応する、請求項89に記載のシステム。 - 前記パーソナルビデオデータは、別のユーザに対応する別のパーソナルビデオデータを含む、請求項89に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662369561P | 2016-08-01 | 2016-08-01 | |
US62/369,561 | 2016-08-01 | ||
PCT/US2017/044921 WO2018026828A1 (en) | 2016-08-01 | 2017-08-01 | Mixed reality system with spatialized audio |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192230A Division JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019523607A true JP2019523607A (ja) | 2019-08-22 |
JP2019523607A5 JP2019523607A5 (ja) | 2020-09-10 |
JP6799141B2 JP6799141B2 (ja) | 2020-12-09 |
Family
ID=61010443
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019505064A Active JP6799141B2 (ja) | 2016-08-01 | 2017-08-01 | 空間化オーディオを用いた複合現実システム |
JP2020192230A Active JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
JP2022123243A Active JP7270820B2 (ja) | 2016-08-01 | 2022-08-02 | 空間化オーディオを用いた複合現実システム |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020192230A Active JP7118121B2 (ja) | 2016-08-01 | 2020-11-19 | 空間化オーディオを用いた複合現実システム |
JP2022123243A Active JP7270820B2 (ja) | 2016-08-01 | 2022-08-02 | 空間化オーディオを用いた複合現実システム |
Country Status (9)
Country | Link |
---|---|
US (3) | US10390165B2 (ja) |
EP (1) | EP3491495B1 (ja) |
JP (3) | JP6799141B2 (ja) |
KR (1) | KR102197544B1 (ja) |
CN (1) | CN109791441A (ja) |
AU (2) | AU2017305249B2 (ja) |
CA (1) | CA3032603A1 (ja) |
IL (1) | IL264478B (ja) |
WO (1) | WO2018026828A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3032603A1 (en) | 2016-08-01 | 2018-02-08 | Magic Leap, Inc. | Mixed reality system with spatialized audio |
US10089063B2 (en) * | 2016-08-10 | 2018-10-02 | Qualcomm Incorporated | Multimedia device for processing spatialized audio based on movement |
CA3078420A1 (en) | 2017-10-17 | 2019-04-25 | Magic Leap, Inc. | Mixed reality spatial audio |
JP2021514081A (ja) | 2018-02-15 | 2021-06-03 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 複合現実仮想反響音 |
IL276511B2 (en) | 2018-02-15 | 2024-01-01 | Magic Leap Inc | Musical instruments in mixed reality |
WO2019199040A1 (ko) * | 2018-04-10 | 2019-10-17 | 가우디오랩 주식회사 | 메타데이터를 이용하는 오디오 신호 처리 방법 및 장치 |
WO2019217320A1 (en) * | 2018-05-08 | 2019-11-14 | Google Llc | Mixing audio based on a pose of a user |
JP2021528001A (ja) * | 2018-06-18 | 2021-10-14 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 双方向オーディオ環境のための空間オーディオ |
US10569164B1 (en) * | 2018-09-26 | 2020-02-25 | Valve Corporation | Augmented reality (AR) system for providing AR in video games |
CN113039815B (zh) * | 2018-11-09 | 2022-11-11 | 候本株式会社 | 声音生成方法及执行其的装置 |
US11100909B2 (en) * | 2019-05-06 | 2021-08-24 | Apple Inc. | Devices, methods, and graphical user interfaces for adaptively providing audio outputs |
CA3137289A1 (en) * | 2019-05-10 | 2020-11-19 | Cinewav Pte. Ltd. | System and method for synchronizing audio content on a mobile device to a separate visual display system |
US20220345845A1 (en) * | 2019-09-23 | 2022-10-27 | Dolby Laboratories Licensing Corporation | Method, Systems and Apparatus for Hybrid Near/Far Virtualization for Enhanced Consumer Surround Sound |
US11228857B2 (en) * | 2019-09-28 | 2022-01-18 | Facebook Technologies, Llc | Dynamic customization of head related transfer functions for presentation of audio content |
EP3967061A1 (en) * | 2019-10-22 | 2022-03-16 | Google LLC | Spatial audio for wearable devices |
US11304017B2 (en) | 2019-10-25 | 2022-04-12 | Magic Leap, Inc. | Reverberation fingerprint estimation |
US11741159B2 (en) * | 2019-10-29 | 2023-08-29 | Shmuel Ur Innovation Ltd | Digital media authentication |
US11270115B2 (en) * | 2019-11-18 | 2022-03-08 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality content based on identification of trigger accompanying video content |
US11337023B2 (en) | 2019-12-20 | 2022-05-17 | Magic Leap, Inc. | Physics-based audio and haptic synthesis |
CN111093142B (zh) * | 2019-12-24 | 2021-06-08 | 杭州当虹科技股份有限公司 | 一种基于vr多方向音源合成的实现方法 |
US11636843B2 (en) | 2020-05-29 | 2023-04-25 | Magic Leap, Inc. | Surface appropriate collisions |
CN113596673A (zh) * | 2021-07-14 | 2021-11-02 | 宁波旗芯电子科技有限公司 | Ar眼镜扬声器的定向发声方法、装置和发声设备 |
CN114040318A (zh) * | 2021-11-02 | 2022-02-11 | 海信视像科技股份有限公司 | 一种空间音频的播放方法及设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0993700A (ja) * | 1995-09-28 | 1997-04-04 | Sony Corp | 映像音声再生装置 |
US20130007668A1 (en) * | 2011-07-01 | 2013-01-03 | James Chia-Ming Liu | Multi-visor: managing applications in head mounted displays |
US20130286004A1 (en) * | 2012-04-27 | 2013-10-31 | Daniel J. McCulloch | Displaying a collision between real and virtual objects |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US20160104452A1 (en) * | 2013-05-24 | 2016-04-14 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR920014231A (ko) * | 1990-12-31 | 1992-07-30 | 이헌조 | 무선헤드폰 송 수신회로 |
US5633993A (en) * | 1993-02-10 | 1997-05-27 | The Walt Disney Company | Method and apparatus for providing a virtual world sound system |
JP4281937B2 (ja) * | 2000-02-02 | 2009-06-17 | パナソニック株式会社 | ヘッドホンシステム |
FR2847376B1 (fr) * | 2002-11-19 | 2005-02-04 | France Telecom | Procede de traitement de donnees sonores et dispositif d'acquisition sonore mettant en oeuvre ce procede |
JP2004229221A (ja) * | 2003-01-27 | 2004-08-12 | Yamaha Corp | 楽音発生システム |
US8201080B2 (en) * | 2006-05-24 | 2012-06-12 | International Business Machines Corporation | Systems and methods for augmenting audio/visual broadcasts with annotations to assist with perception and interpretation of broadcast content |
US7876903B2 (en) | 2006-07-07 | 2011-01-25 | Harris Corporation | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system |
JP4735993B2 (ja) * | 2008-08-26 | 2011-07-27 | ソニー株式会社 | 音声処理装置、音像定位位置調整方法、映像処理装置及び映像処理方法 |
JP5281695B2 (ja) * | 2009-12-03 | 2013-09-04 | 独立行政法人科学技術振興機構 | 音響変換装置 |
US8908874B2 (en) | 2010-09-08 | 2014-12-09 | Dts, Inc. | Spatial audio encoding and reproduction |
JP2012129800A (ja) * | 2010-12-15 | 2012-07-05 | Sony Corp | 情報理装置および方法、プログラム、並びに情報処理システム |
JP5716451B2 (ja) * | 2011-02-25 | 2015-05-13 | ソニー株式会社 | ヘッドホン装置およびヘッドホン装置の音声再生方法 |
US9107023B2 (en) | 2011-03-18 | 2015-08-11 | Dolby Laboratories Licensing Corporation | N surround |
DE102012208118A1 (de) * | 2012-05-15 | 2013-11-21 | Eberhard-Karls-Universität Tübingen | Headtracking-Headset und Gerät |
US9131298B2 (en) | 2012-11-28 | 2015-09-08 | Qualcomm Incorporated | Constrained dynamic amplitude panning in collaborative sound systems |
US20140328485A1 (en) * | 2013-05-06 | 2014-11-06 | Nvidia Corporation | Systems and methods for stereoisation and enhancement of live event audio |
US20150058877A1 (en) | 2013-08-21 | 2015-02-26 | Harman International Industries, Incorporated | Content-based audio/video adjustment |
CN107219628B (zh) | 2013-11-27 | 2020-05-01 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
DE102014204630A1 (de) * | 2014-03-13 | 2015-09-17 | Steffen Armbruster | Mobile Vorrichtung für immersive Sounderlebnisse |
CN112651288B (zh) * | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US10057706B2 (en) * | 2014-11-26 | 2018-08-21 | Sony Interactive Entertainment Inc. | Information processing device, information processing system, control method, and program |
CN105797366A (zh) * | 2016-03-25 | 2016-07-27 | 中国传媒大学 | 一种基于声源定位的头戴式交互音频游戏终端 |
CA3032603A1 (en) | 2016-08-01 | 2018-02-08 | Magic Leap, Inc. | Mixed reality system with spatialized audio |
-
2017
- 2017-08-01 CA CA3032603A patent/CA3032603A1/en active Pending
- 2017-08-01 KR KR1020197006247A patent/KR102197544B1/ko active IP Right Grant
- 2017-08-01 US US15/666,210 patent/US10390165B2/en active Active
- 2017-08-01 AU AU2017305249A patent/AU2017305249B2/en active Active
- 2017-08-01 WO PCT/US2017/044921 patent/WO2018026828A1/en unknown
- 2017-08-01 CN CN201780060939.9A patent/CN109791441A/zh active Pending
- 2017-08-01 JP JP2019505064A patent/JP6799141B2/ja active Active
- 2017-08-01 EP EP17837548.1A patent/EP3491495B1/en active Active
-
2019
- 2019-01-27 IL IL264478A patent/IL264478B/en active IP Right Grant
- 2019-07-03 US US16/502,999 patent/US10856095B2/en active Active
-
2020
- 2020-10-28 US US17/082,556 patent/US11240622B2/en active Active
- 2020-11-19 JP JP2020192230A patent/JP7118121B2/ja active Active
-
2021
- 2021-10-13 AU AU2021250896A patent/AU2021250896B2/en active Active
-
2022
- 2022-08-02 JP JP2022123243A patent/JP7270820B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0993700A (ja) * | 1995-09-28 | 1997-04-04 | Sony Corp | 映像音声再生装置 |
US20130007668A1 (en) * | 2011-07-01 | 2013-01-03 | James Chia-Ming Liu | Multi-visor: managing applications in head mounted displays |
US20130286004A1 (en) * | 2012-04-27 | 2013-10-31 | Daniel J. McCulloch | Displaying a collision between real and virtual objects |
US20140176591A1 (en) * | 2012-12-26 | 2014-06-26 | Georg Klein | Low-latency fusing of color image data |
US20160104452A1 (en) * | 2013-05-24 | 2016-04-14 | Awe Company Limited | Systems and methods for a shared mixed reality experience |
Also Published As
Publication number | Publication date |
---|---|
IL264478B (en) | 2021-02-28 |
AU2017305249B2 (en) | 2021-07-22 |
AU2021250896B2 (en) | 2023-09-14 |
AU2021250896A1 (en) | 2021-11-11 |
CN109791441A (zh) | 2019-05-21 |
JP2021036722A (ja) | 2021-03-04 |
EP3491495A4 (en) | 2019-07-24 |
KR102197544B1 (ko) | 2020-12-31 |
JP2022166062A (ja) | 2022-11-01 |
US20190327574A1 (en) | 2019-10-24 |
IL264478A (en) | 2019-02-28 |
NZ750048A (en) | 2023-08-25 |
US10856095B2 (en) | 2020-12-01 |
CA3032603A1 (en) | 2018-02-08 |
JP6799141B2 (ja) | 2020-12-09 |
WO2018026828A1 (en) | 2018-02-08 |
JP7270820B2 (ja) | 2023-05-10 |
EP3491495B1 (en) | 2024-04-10 |
AU2017305249A1 (en) | 2019-02-07 |
KR20190027934A (ko) | 2019-03-15 |
US20210044915A1 (en) | 2021-02-11 |
JP7118121B2 (ja) | 2022-08-15 |
US20180035234A1 (en) | 2018-02-01 |
EP3491495A1 (en) | 2019-06-05 |
US10390165B2 (en) | 2019-08-20 |
US11240622B2 (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7270820B2 (ja) | 空間化オーディオを用いた複合現実システム | |
US11310618B2 (en) | Virtual reality, augmented reality, and mixed reality systems with spatialized audio | |
US20220225050A1 (en) | Head tracked spatial audio and/or video rendering | |
US20230283976A1 (en) | Device and rendering environment tracking | |
NZ750048B2 (en) | Mixed reality system with spatialized audio | |
WO2023150486A1 (en) | Gesture controlled audio and/or visual rendering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200729 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200729 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200729 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201022 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6799141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |