JP7445070B2 - オーディオファイルの頭部姿勢ミキシング - Google Patents
オーディオファイルの頭部姿勢ミキシング Download PDFInfo
- Publication number
- JP7445070B2 JP7445070B2 JP2023173498A JP2023173498A JP7445070B2 JP 7445070 B2 JP7445070 B2 JP 7445070B2 JP 2023173498 A JP2023173498 A JP 2023173498A JP 2023173498 A JP2023173498 A JP 2023173498A JP 7445070 B2 JP7445070 B2 JP 7445070B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- stem
- wearer
- tracks
- wearable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002156 mixing Methods 0.000 title description 8
- 238000000034 method Methods 0.000 claims description 117
- 238000012800 visualization Methods 0.000 claims description 52
- 230000003190 augmentative effect Effects 0.000 claims description 51
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000004048 modification Effects 0.000 claims description 25
- 238000012986 modification Methods 0.000 claims description 25
- 230000003993 interaction Effects 0.000 claims description 20
- 230000000694 effects Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 description 231
- 230000036544 posture Effects 0.000 description 93
- 239000000203 mixture Substances 0.000 description 83
- 210000003128 head Anatomy 0.000 description 42
- 230000003287 optical effect Effects 0.000 description 38
- 230000001755 vocal effect Effects 0.000 description 29
- 238000003384 imaging method Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 26
- 210000001747 pupil Anatomy 0.000 description 24
- 241000405217 Viola <butterfly> Species 0.000 description 20
- 230000008859 change Effects 0.000 description 20
- 210000000695 crystalline len Anatomy 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 15
- 230000004308 accommodation Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 208000023514 Barrett esophagus Diseases 0.000 description 6
- 230000002350 accommodative effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 6
- 230000007423 decrease Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000005266 casting Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 229910001369 Brass Inorganic materials 0.000 description 1
- 241001342895 Chorus Species 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 208000036366 Sensation of pressure Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/131—Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Circuit For Audible Band Transducer (AREA)
- Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
- Stereo-Broadcasting Methods (AREA)
- Electrically Operated Instructional Devices (AREA)
- Stereophonic System (AREA)
- Studio Devices (AREA)
Description
本願は、2015年9月16日に出願され“HEAD POSE MIXING OF AUDIO FILES”と題された米国仮出願第62/219,604号および2016年1月29日に出願され“HEAD POSE MIXING OF AUDIO FILES”と題された米国仮出願第62/289,085号に対して35 U.S.C. § 119(e)のもとで優先権の利益を主張するものである。両仮出願は、それらの全体が参照により本明細書中に援用される。
本開示は、仮想現実および拡張現実イメージングおよび可視化システムに関し、特に、ユーザの姿勢に基づいて、オーディオファイルをミックスするためのシステムに関する。
ディスプレイデバイスのユーザに、オーディオファイルの聴覚的または視覚的表現を提示することができる、ウェアラブルデバイスの実施例が、説明される。オーディオファイルは、オーディオファイルの異なるオーディオコンテンツを表す複数のステムトラックを備える。
(項目1)
ウェアラブルデバイスであって、
複数のステムトラックを含むオーディオファイルを記憶するように構成される非一過性メモリであって、各ステムトラックは、前記オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、
前記ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成されるセンサと、
画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、
音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカと、
前記非一過性メモリ、前記センサ、前記スピーカ、および前記ディスプレイと通信するプロセッサであって、前記プロセッサは、
前記ユーザの姿勢を判定することと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成することと、
少なくとも部分的に、前記ユーザの姿勢および前記オーディオミックスに基づいて、前記オーディオミックスの可視化を生成することと、
前記オーディオミックスを表すオーディオ信号を前記スピーカに通信することと、
前記オーディオミックスの可視化を表す視覚的信号を前記ディスプレイに通信することと
を行うための実行可能命令でプログラムされる、プロセッサと
を備える、ウェアラブルデバイス。
(項目2)
前記複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、項目1に記載のウェアラブルデバイス。
(項目3)
前記複数のステムトラックの少なくとも1つのステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、項目1に記載のウェアラブルデバイス。
(項目4)
前記センサは、ジャイロスコープ、加速度計、慣性測定ユニット、眼追跡カメラ、または前記ユーザの環境を撮像するように構成されるカメラのうちの少なくとも1つを備える、項目1に記載のウェアラブルデバイス。
(項目5)
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、項目1に記載のウェアラブルデバイス。
(項目6)
前記可視化は、前記複数のステムトラックの個別のステムトラックと関連付けられた視覚的グラフィックを備える、項目1に記載のウェアラブルデバイス。
(項目7)
前記視覚的グラフィックは、前記ステムトラックの演奏と関連付けられた楽器または人物のグラフィカル表現を備える、項目6に記載のウェアラブルデバイス。
(項目8)
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、項目6に記載のウェアラブルデバイス。
(項目9)
前記ウェアラブルデバイスは、前記ユーザの環境内の物理的オブジェクトを認識し、前記複数のステムトラックのうちのステムトラックのグラフィカル表現を前記物理的オブジェクトと関連付けられているように提示するように構成される、項目1に記載のウェアラブルデバイス。
(項目10)
前記ウェアラブルデバイスは、ユーザ入力デバイスから入力を受信するように構成され、前記プロセッサは、少なくとも部分的に、前記入力に基づいて、前記オーディオミックスまたは前記可視化を生成するように構成される、項目1に記載のウェアラブルデバイス。
(項目11)
オーディオファイルと相互作用するための方法であって、前記方法は、
ハードウェアコンピュータプロセッサと、前記ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成されるセンサと、画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカとを備える、ウェアラブルデバイスの制御下で、
オーディオファイルと関連付けられた複数のステムトラックにアクセスするステップと、
前記複数のステムトラックの可視化を生成するステップと、
前記ユーザの姿勢を検出するステップと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成するステップと、
少なくとも、前記ユーザの姿勢または前記オーディオミックスのうちの1つに基づいて、前記複数のステムトラックの可視化を更新するステップと、
前記オーディオミックスを表すオーディオ信号を前記スピーカに通信するステップと、
前記オーディオミックスの可視化を表す視覚的信号を前記ディスプレイに通信するステップと
を含む、方法。
(項目12)
前記複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、項目11に記載の方法。
(項目13)
前記複数のステムトラックの少なくとも1つのステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、項目11に記載の方法。
(項目14)
前記可視化は、前記複数のステムトラックの個別のステムトラックに対応する視覚的グラフィックを含む、項目11に記載の方法。
(項目15)
前記視覚的グラフィックは、前記個別のステムトラックと関連付けられた楽器または前記個別のステムトラックと関連付けられた楽器を演奏する人物を含む、項目14に記載の方法。
(項目16)
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、項目14に記載の方法。
(項目17)
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、項目11に記載の方法。
(項目18)
前記可視化を更新するステップは、複数のステムトラックのステムトラックと関連付けられた視覚的グラフィックを強調または強調解除するステップを含む、項目11に記載の方法。
(項目19)
前記複数のステムトラックのうちのステムトラックの選択を受信するステップと、
前記ステムトラックを修正するためのインジケーションを受信するステップであって、前記インジケーションは、前記ユーザの姿勢の変化またはユーザ入力デバイスからの入力を含む、ステップと、
少なくとも部分的に、前記インジケーションに基づいて、前記ステムトラックを修正するステップと、
をさらに含む、項目11に記載の方法。
(項目20)
前記ステムトラックを修正するステップは、音量を調節するステップと、前記ステムトラックと別のステムトラックを置換するステップと、前記ステムトラックを消音するステップと、前記複数のステムトラックの他のステムトラックより前記ステムトラックを強調するステップとのうちの少なくとも1つを含む、項目19に記載の方法。
オーディオファイルは、例えば、音声、ドラム、ギター、ベース、または他の音に関するオーディオ信号を表す、複数のステムトラックを含むことができる。ステムトラックは、ドラムのグループまたは楽器の四重奏等の複数の楽器と関連付けられる、または音声または1つの楽器等の単一音源と関連付けられてもよい。単一ステムトラックは、モノ、ステレオ、または周囲音トラックを表すことができる。オーディオファイルは、1、2、3、4、5、6、8、10、12、またはそれを上回るステムトラックを含むことができる。ステムトラックに加え、オーディオファイルはまた、標準的再生のためのマスタトラックを含むことができる。
(3Dディスプレイ)
(導波管スタックアセンブリ)
(ウェアラブルシステムの他のコンポーネント)
(例示的ウェアラブルシステム、環境、およびインターフェース)
(ステムトラックの実施例)
(ステムトラックのミックスの実施例)
(ステムトラックを提示するための例示的ユーザインターフェース)
(ステムトラックとの例示的相互作用)
(3D空間内におけるステムトラックの提示)
(音コラージュ効果の実施例)
(ステムトラックを提示する例示的プロセス)
(付加的実施形態)
(結論)
Claims (25)
- 拡張現実オブジェクトと相互作用するための方法であって、前記方法は、
ハードウェアコンピュータプロセッサの制御下で、
ウェアラブルディスプレイシステムの装着者による相互作用のための拡張現実オブジェクトを生成することであって、前記拡張現実オブジェクトは、前記拡張現実オブジェクトと関連付けられる特性の修正のためのインターフェースを含み、前記ウェアラブルディスプレイシステムのディスプレイ上に表示され、前記拡張現実オブジェクトは、複数のステムトラックのうちの少なくとも1つを備えるオーディオファイルと関連付けられる、ことと、
複数の可聴領域を参照して3次元(3D)環境において前記装着者の姿勢を判定することであって、前記可聴領域のそれぞれは、前記装着者が、前記ウェアラブルディスプレイシステムのスピーカを通して前記オーディオファイルの前記複数のステムトラックのうちの1つ以上を知覚することができる、前記3D環境の一部を備える、ことと、
前記装着者の前記判定された姿勢に対応する可聴領域を選択することと、
前記装着者が前記インターフェースと相互作用する間に前記装着者のジェスチャを検出することと、
前記検出されたジェスチャを、前記選択された可聴領域内に提示された前記拡張現実オブジェクトの特性への修正と関連付けることと、
前記拡張現実オブジェクトの前記特性への前記修正にしたがって前記拡張現実オブジェクトを修正することと、
前記修正された拡張現実オブジェクトおよび前記選択された可聴領域と関連付けられる前記複数のステムトラックのうちの少なくとも1つを備える視聴覚データを提示することであって、前記ウェアラブルディスプレイシステムの少なくとも前記スピーカを介して前記複数のステムトラックのうちの前記少なくとも1つを再生することを含む、ことと
を実行することを含む、方法。 - 前記装着者が前記インターフェースと相互作用する間に前記装着者の前記ジェスチャを検出することは、
前記ウェアラブルディスプレイシステムの外向きに面した画像捕捉デバイスを用いて、前記装着者の手の第1の画像を捕捉することと、
前記ウェアラブルディスプレイシステムの前記外向きに面した画像捕捉デバイスを用いて、前記装着者の手の第2の画像を捕捉することと、
前記第1の画像および前記第2の画像を比較して、前記装着者のジェスチャを検出することと
を含む、請求項1に記載の方法。 - 前記拡張現実オブジェクトの前記インターフェースは、前記拡張現実オブジェクトのスキュアモーフィック表現に対応する、請求項1に記載の方法。
- 前記拡張現実オブジェクトは、楽器または楽器を演奏している人物に対応する、請求項1に記載の方法。
- 前記検出されたジェスチャを前記楽器または前記楽器を演奏している前記人物への前記修正と関連付けることは、前記楽器と相互作用する前記装着者の手または指の移動を検出し、前記楽器と関連付けられるステムトラックの属性を修正することを含む、請求項4に記載の方法。
- 前記検出されたジェスチャを前記楽器または前記楽器を演奏している前記人物への前記修正と関連付けることは、前記楽器と相互作用する前記装着者の手または指の移動を検出し、前記楽器と関連付けられる新しいステムトラックを生成することを含む、請求項4に記載の方法。
- 前記拡張現実オブジェクトは、複数の表面を備える3次元仮想オブジェクトであり、各表面は、前記複数のステムトラックのうちのあるステムトラックと関連付けられる、請求項1に記載の方法。
- 前記装着者の前記ジェスチャに応答して、前記複数のステムトラックを使用して、音コラージュ効果を生成することをさらに含む、請求項7に記載の方法。
- 前記楽器と関連付けられる前記ステムトラックは、前記ウェアラブルディスプレイシステムに結合されたオーディオシステムによって再生されている複数のステムトラックのうちの1つである、請求項5に記載の方法。
- 前記複数のステムトラックのうちの少なくとも1つは、ユーザ生成ステムトラックによって置換されるオリジナルステムトラックである、請求項1に記載の方法。
- 付加的拡張現実オブジェクトは、前記付加的拡張現実オブジェクトによって表される、対応するステムトラックの変更のために、前記装着者の頭部ジェスチャを用いて選択される、請求項1に記載の方法。
- 前記複数のステムトラックのうちの少なくとも1つは、前記ステムトラックの指向性と関連付けられる情報を備える、請求項1に記載の方法。
- 前記複数のステムトラックのうちの少なくとも1つは、前記装着者に対する空間場所と関連付けられる、請求項1に記載の方法。
- 少なくとも部分的に前記装着者の前記ジェスチャに基づいて、前記複数のステムトラックのうちの前記少なくとも1つと関連付けられる前記空間場所をロックすることをさらに含む、請求項13に記載の方法。
- 前記オーディオファイルは、前記複数のステムトラック、所与の時間における前記複数のステムトラックと関連付けられる位置データ、または前記複数のステムトラックの可視化に関する情報のうちの少なくとも1つを示すメタデータを備える、オーディオフォーマットでエンコードされる、請求項1に記載の方法。
- ウェアラブルデバイスであって、
複数のステムトラックを備えるオーディオファイルを記憶するように構成された非一過性メモリであって、各ステムトラックは、前記オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、
前記ウェアラブルデバイスのユーザの姿勢と関連付けられる情報を測定するように構成されたセンサと、
画像を前記ウェアラブルデバイスの前記ユーザの眼に提示するように構成されたディスプレイと、
音を前記ウェアラブルデバイスの前記ユーザに提示するように構成されたスピーカと、
前記非一過性メモリ、前記センサ、前記スピーカ、および前記ディスプレイと通信するプロセッサと
を備え、
前記プロセッサは、
前記ウェアラブルデバイスの前記ユーザによる相互作用のための拡張現実オブジェクトを生成することであって、前記拡張現実オブジェクトは、前記拡張現実オブジェクトと関連付けられる特性の修正のためのインターフェースを含み、前記ディスプレイを通して提示され、前記拡張現実オブジェクトは、前記複数のステムトラックのうちの少なくとも1つを備える前記オーディオファイルと関連付けられる、ことと、
複数の可聴領域を参照して3次元(3D)環境において装着者の姿勢を判定することであって、前記可聴領域のそれぞれは、前記装着者が、ウェアラブルディスプレイシステムのスピーカを通して前記オーディオファイルの前記複数のステムトラックのうちの1つ以上を知覚することができる、前記3D環境の一部を備える、ことと、
前記装着者の前記判定された姿勢に対応する可聴領域を選択することと、
前記ユーザが前記インターフェースと相互作用する間に前記ユーザのジェスチャを検出することと、
前記検出されたジェスチャを、前記選択された可聴領域内に提示された前記拡張現実オブジェクトの特性への修正と関連付けることと、
前記拡張現実オブジェクトの前記特性への前記修正にしたがって前記拡張現実オブジェクトを修正することと、
前記修正された拡張現実オブジェクトおよび前記選択された可聴領域と関連付けられる前記複数のステムトラックのうちの少なくとも1つを備える視聴覚データを提示することであって、前記ウェアラブルディスプレイシステムの少なくとも前記スピーカを介して前記複数のステムトラックのうちの前記少なくとも1つを再生することを含む、ことと
を行うための実行可能命令を用いてプログラムされている、ウェアラブルデバイス。 - 前記装着者が前記インターフェースと相互作用する間に前記装着者の前記ジェスチャを検出するために、前記ウェアラブルデバイスは、
前記ウェアラブルディスプレイシステムの外向きに面した画像捕捉デバイスを用いて、前記装着者の手の第1の画像を捕捉することと、
前記ウェアラブルディスプレイシステムの前記外向きに面した画像捕捉デバイスを用いて、前記装着者の手の第2の画像を捕捉することと、
前記第1の画像および前記第2の画像を比較して、前記装着者のジェスチャを検出することと
を行うように構成されている、請求項16に記載のウェアラブルデバイス。 - 前記拡張現実オブジェクトは、楽器または楽器を演奏している人物に対応する、請求項16に記載のウェアラブルデバイス。
- 前記検出されたジェスチャを前記楽器または前記楽器を演奏している前記人物への前記修正と関連付けるために、前記プロセッサは、前記楽器と相互作用する前記装着者の手または指の移動を検出し、前記楽器と関連付けられるステムトラックの属性を修正するように構成されている、請求項18に記載のウェアラブルデバイス。
- 前記検出されたジェスチャを前記楽器または前記楽器を演奏している前記人物への前記修正と関連付けるために、前記プロセッサは、前記楽器と相互作用する前記装着者の手または指の移動を検出し、前記楽器と関連付けられる新しいステムトラックを生成するように構成されている、請求項18に記載のウェアラブルデバイス。
- 前記楽器と関連付けられる前記ステムトラックは、前記ウェアラブルディスプレイシステムに結合されたオーディオシステムによって再生されている複数のステムトラックのうちの1つである、請求項19に記載の方法。
- 前記複数のステムトラックのうちの少なくとも1つは、ユーザ生成ステムトラックによって置換されるオリジナルステムトラックである、請求項16に記載のウェアラブルデバイス。
- 付加的拡張現実オブジェクトは、前記付加的拡張現実オブジェクトによって表される、対応するステムトラックの変更のために、前記装着者の頭部ジェスチャを用いて選択される、請求項16に記載のウェアラブルデバイス。
- 前記プロセッサは、少なくとも部分的に前記装着者の前記ジェスチャに基づいて、前記複数のステムトラックのうちの前記少なくとも1つと関連付けられる空間場所をロックするように構成されている、請求項16に記載のウェアラブルデバイス。
- 前記オーディオファイルは、前記複数のステムトラック、所与の時間における前記複数のステムトラックと関連付けられる位置データ、または前記複数のステムトラックの可視化に関する情報のうちの少なくとも1つを示すメタデータを備える、オーディオフォーマットでエンコードされる、請求項16に記載のウェアラブルデバイス。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562219604P | 2015-09-16 | 2015-09-16 | |
US62/219,604 | 2015-09-16 | ||
US201662289085P | 2016-01-29 | 2016-01-29 | |
US62/289,085 | 2016-01-29 | ||
JP2018513620A JP6887422B2 (ja) | 2015-09-16 | 2016-09-13 | オーディオファイルの頭部姿勢ミキシング |
JP2021083750A JP7162099B2 (ja) | 2015-09-16 | 2021-05-18 | オーディオファイルの頭部姿勢ミキシング |
JP2022135746A JP7406602B2 (ja) | 2015-09-16 | 2022-08-29 | オーディオファイルの頭部姿勢ミキシング |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022135746A Division JP7406602B2 (ja) | 2015-09-16 | 2022-08-29 | オーディオファイルの頭部姿勢ミキシング |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2023181210A JP2023181210A (ja) | 2023-12-21 |
JP2023181210A5 JP2023181210A5 (ja) | 2024-01-18 |
JP7445070B2 true JP7445070B2 (ja) | 2024-03-06 |
Family
ID=58237555
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018513620A Active JP6887422B2 (ja) | 2015-09-16 | 2016-09-13 | オーディオファイルの頭部姿勢ミキシング |
JP2021083750A Active JP7162099B2 (ja) | 2015-09-16 | 2021-05-18 | オーディオファイルの頭部姿勢ミキシング |
JP2022135746A Active JP7406602B2 (ja) | 2015-09-16 | 2022-08-29 | オーディオファイルの頭部姿勢ミキシング |
JP2023173498A Active JP7445070B2 (ja) | 2015-09-16 | 2023-10-05 | オーディオファイルの頭部姿勢ミキシング |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018513620A Active JP6887422B2 (ja) | 2015-09-16 | 2016-09-13 | オーディオファイルの頭部姿勢ミキシング |
JP2021083750A Active JP7162099B2 (ja) | 2015-09-16 | 2021-05-18 | オーディオファイルの頭部姿勢ミキシング |
JP2022135746A Active JP7406602B2 (ja) | 2015-09-16 | 2022-08-29 | オーディオファイルの頭部姿勢ミキシング |
Country Status (10)
Country | Link |
---|---|
US (5) | US10681489B2 (ja) |
EP (2) | EP3353589A4 (ja) |
JP (4) | JP6887422B2 (ja) |
KR (2) | KR102351060B1 (ja) |
CN (2) | CN115525148A (ja) |
AU (2) | AU2016324039B2 (ja) |
CA (2) | CA2997789C (ja) |
IL (1) | IL257855A (ja) |
NZ (1) | NZ776082A (ja) |
WO (1) | WO2017048713A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9690374B2 (en) * | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
CA2997789C (en) | 2015-09-16 | 2022-10-04 | Magic Leap, Inc. | Head pose mixing of audio files |
CN108762496B (zh) * | 2015-09-24 | 2020-12-18 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US9986363B2 (en) | 2016-03-03 | 2018-05-29 | Mach 1, Corp. | Applications and format for immersive spatial sound |
JP2018082308A (ja) * | 2016-11-16 | 2018-05-24 | ソニー株式会社 | 情報処理装置、方法及びプログラム |
EP3343957B1 (en) * | 2016-12-30 | 2022-07-06 | Nokia Technologies Oy | Multimedia content |
EP3343348A1 (en) * | 2016-12-30 | 2018-07-04 | Nokia Technologies Oy | An apparatus and associated methods |
US10497346B2 (en) * | 2017-01-04 | 2019-12-03 | 2236008 Ontario Inc. | Three-dimensional simulation system |
US10747301B2 (en) * | 2017-03-28 | 2020-08-18 | Magic Leap, Inc. | Augmented reality system with spatialized audio tied to user manipulated virtual object |
JP2020512771A (ja) | 2017-03-30 | 2020-04-23 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 非遮断型デュアルドライバイヤホン |
JP7149289B2 (ja) | 2017-04-19 | 2022-10-06 | マジック リープ, インコーポレイテッド | ウェアラブルシステムのためのマルチモード実行およびテキスト編集 |
US10558853B2 (en) | 2017-05-07 | 2020-02-11 | Massachusetts Institute Of Technology | Methods and apparatus for sharing of music or other information |
US9843883B1 (en) * | 2017-05-12 | 2017-12-12 | QoSound, Inc. | Source independent sound field rotation for virtual and augmented reality applications |
US10146501B1 (en) * | 2017-06-01 | 2018-12-04 | Qualcomm Incorporated | Sound control by various hand gestures |
CN114995644A (zh) * | 2017-09-29 | 2022-09-02 | 苹果公司 | 基于注视的用户交互 |
KR20230130729A (ko) | 2017-10-12 | 2023-09-12 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 가상 현실 애플리케이션들에 대한 오디오 전달의 최적화 |
CA3059064C (en) | 2018-03-07 | 2022-01-04 | Magic Leap, Inc. | Visual tracking of peripheral devices |
US10694311B2 (en) * | 2018-03-15 | 2020-06-23 | Microsoft Technology Licensing, Llc | Synchronized spatial audio presentation |
EP3791597A1 (en) * | 2018-05-08 | 2021-03-17 | Google LLC | Mixing audio based on a pose of a user |
JP7341166B2 (ja) * | 2018-05-22 | 2023-09-08 | マジック リープ, インコーポレイテッド | ウェアラブルシステムのためのトランスモード入力融合 |
US11783548B2 (en) | 2018-05-30 | 2023-10-10 | Apple Inc. | Method and device for presenting an audio and synthesized reality experience |
US11019449B2 (en) | 2018-10-06 | 2021-05-25 | Qualcomm Incorporated | Six degrees of freedom and three degrees of freedom backward compatibility |
USD923053S1 (en) * | 2018-10-31 | 2021-06-22 | Apple Inc. | Electronic device or portion thereof with graphical user interface |
CN114026527A (zh) * | 2019-10-22 | 2022-02-08 | 谷歌有限责任公司 | 可穿戴装置的空间音频 |
US11307412B1 (en) * | 2019-12-30 | 2022-04-19 | Snap Inc. | Audio visualizer eyewear device |
WO2022003465A1 (en) * | 2020-06-30 | 2022-01-06 | 3M Innovative Properties Company | Apparatus and method for earbud augmented reality |
US11392263B2 (en) * | 2020-08-26 | 2022-07-19 | Immersive Wisdom, Inc. | Real-time geospatial collaboration system |
CN112000308B (zh) * | 2020-09-10 | 2023-04-18 | 成都拟合未来科技有限公司 | 一种双音轨音频播放控制方法、系统、终端及介质 |
US11164375B1 (en) * | 2020-10-21 | 2021-11-02 | Tanzle, Inc. | Stereoscopic rendering of non-flat, reflective or refractive surfaces |
CN112380396B (zh) * | 2020-11-11 | 2024-04-26 | 网易(杭州)网络有限公司 | 视频处理方法及装置、计算机可读存储介质和电子设备 |
CN114527864B (zh) * | 2020-11-19 | 2024-03-15 | 京东方科技集团股份有限公司 | 增强现实文字显示系统、方法、设备及介质 |
EP4311585A1 (en) * | 2022-07-29 | 2024-01-31 | Utopia Music AG | Method for tracking audio consumption in virtual environments |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012135546A1 (en) | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
US20140145931A1 (en) | 2012-11-28 | 2014-05-29 | Electronics And Telecommunications Research Institute | Apparatus and method for controlling multi-modal human-machine interface (hmi) |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US7333863B1 (en) * | 1997-05-05 | 2008-02-19 | Warner Music Group, Inc. | Recording and playback control system |
JP3603599B2 (ja) * | 1998-06-08 | 2004-12-22 | ヤマハ株式会社 | 演奏システムの視覚的表示方法および演奏システムの視覚的表示プログラムが記録されたコンピュータ読み取り可能な記録媒体 |
US20160098095A1 (en) * | 2004-01-30 | 2016-04-07 | Electronic Scripting Products, Inc. | Deriving Input from Six Degrees of Freedom Interfaces |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
JP2008508621A (ja) * | 2004-08-03 | 2008-03-21 | シルバーブルック リサーチ ピーティワイ リミテッド | ウォークアップ印刷 |
US20070028187A1 (en) * | 2005-08-01 | 2007-02-01 | Goro Katsuyama | Apparatus and method for performing display processing, and computer program product |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US20080250914A1 (en) * | 2007-04-13 | 2008-10-16 | Julia Christine Reinhart | System, method and software for detecting signals generated by one or more sensors and translating those signals into auditory, visual or kinesthetic expression |
FI20075530A0 (fi) | 2007-07-09 | 2007-07-09 | Virtual Air Guitar Company Oy | Eleohjattu musiikkisynteesijärjestelmä |
KR20100055286A (ko) * | 2008-11-17 | 2010-05-26 | 삼성전자주식회사 | 그래픽 표시 방법 및 이를 이용한 휴대 단말기 |
US8577060B2 (en) | 2009-07-02 | 2013-11-05 | Avaya Inc. | Method and apparatus for dynamically determining mix sets in an audio processor |
US20110271186A1 (en) * | 2010-04-30 | 2011-11-03 | John Colin Owens | Visual audio mixing system and method thereof |
US9024166B2 (en) | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
AU2011348122A1 (en) | 2010-12-24 | 2013-07-11 | Magic Leap Inc. | An ergonomic head mounted display device and optical system |
US9123316B2 (en) | 2010-12-27 | 2015-09-01 | Microsoft Technology Licensing, Llc | Interactive content creation |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130083003A1 (en) | 2011-09-30 | 2013-04-04 | Kathryn Stone Perez | Personal audio/visual system |
AU2012348348B2 (en) * | 2011-10-28 | 2017-03-30 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US8183997B1 (en) * | 2011-11-14 | 2012-05-22 | Google Inc. | Displaying sound indications on a wearable computing system |
CN104067316B (zh) | 2011-11-23 | 2017-10-27 | 奇跃公司 | 三维虚拟和增强现实显示系统 |
JP6044079B2 (ja) * | 2012-02-06 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US8831255B2 (en) | 2012-03-08 | 2014-09-09 | Disney Enterprises, Inc. | Augmented reality (AR) audio with position and action triggered virtual sound effects |
KR102223290B1 (ko) | 2012-04-05 | 2021-03-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
NZ702897A (en) | 2012-06-11 | 2017-03-31 | Magic Leap Inc | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
KR101371157B1 (ko) * | 2012-06-27 | 2014-03-05 | 서울대학교산학협력단 | 패닝을 이용한 입체음향 구현 기법 |
WO2014008185A1 (en) | 2012-07-02 | 2014-01-09 | Sony Computer Entertainment Inc. | Methods and systems for interaction with an expanded information space |
US9740006B2 (en) | 2012-09-11 | 2017-08-22 | Magic Leap, Inc. | Ergonomic head mounted display device and optical system |
US9244925B2 (en) * | 2012-09-21 | 2016-01-26 | Intel Corporation | Audio distribution for electronic tabletop system |
US20140115468A1 (en) * | 2012-10-24 | 2014-04-24 | Benjamin Guerrero | Graphical user interface for mixing audio using spatial and temporal organization |
NZ710096A (en) | 2013-01-15 | 2018-11-30 | Magic Leap Inc | Ultra-high resolution scanning fiber display |
KR102387314B1 (ko) | 2013-03-11 | 2022-04-14 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
US9618747B2 (en) * | 2013-03-13 | 2017-04-11 | Jason Villmer | Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data |
US20140278403A1 (en) * | 2013-03-14 | 2014-09-18 | Toytalk, Inc. | Systems and methods for interactive synthetic character dialogue |
CN105229719B (zh) | 2013-03-15 | 2018-04-27 | 奇跃公司 | 显示系统和方法 |
US9900720B2 (en) * | 2013-03-28 | 2018-02-20 | Dolby Laboratories Licensing Corporation | Using single bitstream to produce tailored audio device mixes |
US20140328505A1 (en) * | 2013-05-02 | 2014-11-06 | Microsoft Corporation | Sound field adaptation based upon user tracking |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9727129B2 (en) | 2013-06-28 | 2017-08-08 | Harman International Industries, Incorporated | System and method for audio augmented reality |
KR20230098359A (ko) | 2013-10-16 | 2023-07-03 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
KR102378457B1 (ko) | 2013-11-27 | 2022-03-23 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
KR102206953B1 (ko) * | 2013-12-09 | 2021-01-25 | 엘지전자 주식회사 | 음향 출력 장치 |
JP6553052B2 (ja) * | 2014-01-03 | 2019-07-31 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | ジェスチャ相互作用式の装着可能な空間オーディオシステム |
KR102177133B1 (ko) | 2014-01-31 | 2020-11-10 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
CA2938264C (en) | 2014-01-31 | 2020-09-22 | Magic Leap, Inc. | Multi-focal display system and method |
EP2916209B1 (en) | 2014-03-03 | 2019-11-20 | Nokia Technologies Oy | Input axis between an apparatus and a separate apparatus |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
AU2015255652B2 (en) | 2014-05-09 | 2018-03-29 | Google Llc | Systems and methods for using eye signals with secure mobile communications |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
NZ727350A (en) | 2014-05-30 | 2020-08-28 | Magic Leap Inc | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
GB2528699B (en) * | 2014-07-29 | 2017-05-03 | Sony Computer Entertainment Europe Ltd | Image processing |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
CA2997789C (en) | 2015-09-16 | 2022-10-04 | Magic Leap, Inc. | Head pose mixing of audio files |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
-
2016
- 2016-09-13 CA CA2997789A patent/CA2997789C/en active Active
- 2016-09-13 NZ NZ776082A patent/NZ776082A/en unknown
- 2016-09-13 US US15/264,164 patent/US10681489B2/en active Active
- 2016-09-13 CA CA3169076A patent/CA3169076A1/en active Pending
- 2016-09-13 CN CN202210966445.XA patent/CN115525148A/zh active Pending
- 2016-09-13 EP EP16847135.7A patent/EP3353589A4/en not_active Ceased
- 2016-09-13 EP EP23187054.4A patent/EP4254145A3/en active Pending
- 2016-09-13 WO PCT/US2016/051521 patent/WO2017048713A1/en active Application Filing
- 2016-09-13 JP JP2018513620A patent/JP6887422B2/ja active Active
- 2016-09-13 CN CN201680066714.XA patent/CN108351700B/zh active Active
- 2016-09-13 AU AU2016324039A patent/AU2016324039B2/en active Active
- 2016-09-13 KR KR1020187010378A patent/KR102351060B1/ko active IP Right Grant
- 2016-09-13 KR KR1020227000838A patent/KR102389807B1/ko active IP Right Grant
-
2018
- 2018-03-04 IL IL257855A patent/IL257855A/en active IP Right Grant
-
2020
- 2020-04-28 US US16/861,057 patent/US11039267B2/en active Active
-
2021
- 2021-05-12 US US17/318,782 patent/US11438724B2/en active Active
- 2021-05-18 JP JP2021083750A patent/JP7162099B2/ja active Active
- 2021-12-23 AU AU2021290360A patent/AU2021290360A1/en not_active Abandoned
-
2022
- 2022-08-15 US US17/888,113 patent/US11778412B2/en active Active
- 2022-08-29 JP JP2022135746A patent/JP7406602B2/ja active Active
-
2023
- 2023-08-08 US US18/446,277 patent/US20230388739A1/en active Pending
- 2023-10-05 JP JP2023173498A patent/JP7445070B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012135546A1 (en) | 2011-03-29 | 2012-10-04 | Qualcomm Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
US20140145931A1 (en) | 2012-11-28 | 2014-05-29 | Electronics And Telecommunications Research Institute | Apparatus and method for controlling multi-modal human-machine interface (hmi) |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7445070B2 (ja) | オーディオファイルの頭部姿勢ミキシング | |
JP7313361B2 (ja) | 複合現実楽器 | |
US20210258713A1 (en) | Delayed audio following | |
US20230396948A1 (en) | Delayed audio following | |
NZ741095B2 (en) | Head pose mixing of audio files |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240110 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20240110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7445070 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |