JP7445720B2 - 拡張現実のためのシステムおよび方法 - Google Patents
拡張現実のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7445720B2 JP7445720B2 JP2022141180A JP2022141180A JP7445720B2 JP 7445720 B2 JP7445720 B2 JP 7445720B2 JP 2022141180 A JP2022141180 A JP 2022141180A JP 2022141180 A JP2022141180 A JP 2022141180A JP 7445720 B2 JP7445720 B2 JP 7445720B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- perspective
- virtual object
- user
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 230000003190 augmentative effect Effects 0.000 title description 13
- 230000008859 change Effects 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 34
- 230000001360 synchronised effect Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 17
- 238000009877 rendering Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 210000001747 pupil Anatomy 0.000 description 11
- 230000009466 transformation Effects 0.000 description 11
- 230000000007 visual effect Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 10
- 230000002085 persistent effect Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 230000008878 coupling Effects 0.000 description 8
- 238000010168 coupling process Methods 0.000 description 8
- 238000005859 coupling reaction Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241000219357 Cactaceae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 150000003014 phosphoric acid esters Chemical class 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/92—Video game devices specially adapted to be hand-held while playing
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Life Sciences & Earth Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Cardiology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本願は、2018年9月25日に出願された米国仮特許出願第62/736,432号への優先権を主張し、その内容は、それら全体が参照によって本明細書中に援用される。
本開示は、概して、視覚的信号を共有し、提示するシステムおよび方法に関しており、特に、複合現実環境におけるコンテンツに対応する視覚的信号を共有し提示するシステムおよび方法に関している。
現代のコンピューティングテクノロジおよびディスプレイテクノロジは、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル方式で再現された画像またはそれらの一部は、それらが現実であるように見えるか、または現実として知覚され得る態様で、ユーザに提示される。仮想現実(すなわち「VR」)シナリオは、典型的に、他の実際の現実世界の視覚的入力に対する透明性のないデジタルまたは仮想画像情報の提示を伴う;拡張現実(すなわち「AR」)シナリオは、典型的に、ユーザの周りの実世界の視覚化への拡張として、デジタルまたは仮想画像情報の提示を伴う。
本開示の例は、仮想コンテンツの視点のビューを共有するシステムおよび方法を説明している。例示的方法において、仮想オブジェクトが、ディスプレイを介して第1のユーザに提示される。仮想オブジェクトの第1の視点のビューが決定され、第1の視点のビューは、仮想オブジェクトの位置および第1のユーザの第1の位置に基づいている。仮想オブジェクトは、ディスプレイを介して第2のユーザに提示され、仮想オブジェクトは、第1の視点のビューにしたがって第2のユーザに提示される。入力が、第1のユーザから受信される。仮想オブジェクトの第2の視点のビューが決定され、第2の視点のビューは、第1のユーザからの入力に基づいている。仮想オブジェクトは、ディスプレイを介して第2のユーザに提示され、仮想オブジェクトを第2のユーザに提示することは、第1の視点のビューから第2の視点のビューへの移行を提示することを備えている。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向と、前記第1の頭部ウェアラブルデバイスの位置および方向とに基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す前記入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、方法。
(項目2)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目1に記載の方法。
(項目3)
前記第2の角度は、前記第1の角度と異なる、項目2に記載の方法。
(項目4)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目1に記載の方法。
(項目5)
前記第2のサイズは、前記第1のサイズと異なる、項目4に記載の方法。
(項目6)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目1に記載の方法。
(項目7)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目1に記載の方法。
(項目8)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目1に記載の方法。
(項目9)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目1に記載の方法。
(項目10)
システムであって、前記システムは、
第1の頭部ウェアラブルデバイスと、
第2の頭部ウェアラブルデバイスと、
方法を実行するように構成されている1つ以上のプロセッサと
を備え、
前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向と、前記第1の頭部ウェアラブルデバイスの位置および方向とに基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す前記入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、システム。
(項目11)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目10に記載のシステム。
(項目12)
前記第2の角度は、前記第1の角度と異なる、項目11に記載のシステム。
(項目13)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目10に記載のシステム。
(項目14)
前記第2のサイズは、前記第1のサイズと異なる、項目13に記載のシステム。
(項目15)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目10に記載のシステム。
(項目16)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目10に記載のシステム。
(項目17)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目10に記載のシステム。
(項目18)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目10に記載のシステム。
(項目19)
命令を記憶している非一過性のコンピュータ読み取り可能な媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに方法を実行させ、前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向、ならびに前記第1の頭部ウェアラブルデバイスの位置および方向に基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、非一過性のコンピュータ読み取り可能な媒体。
(項目20)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目21)
前記第2の角度は、前記第1の角度と異なる、項目20に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目22)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目23)
前記第2のサイズは、前記第1のサイズと異なる、項目22に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目24)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目25)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目26)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目27)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
本発明は、仮想コンテンツ、少なくとも1人のユーザにARコンテンツを提示するための頭部搭載型ディスプレイ(HMD)、およびユーザの眼の位置の相対位置を決定するために複数の座標フレームを作り出すためのシステムおよび方法に関している。
仮想コンテンツが共有され得る環境の場合、さらなる実施形態が、上で詳細に説明される座標フレームプロトコルによって可能とされる。
Claims (14)
- 方法であって、前記方法は、
世界座標系における仮想オブジェクトの第1の位置を決定することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、第1の頭部ウェアラブルデバイスのビューの軸に少なくとも部分的に基づいている、ことと、
第1の時間において、前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第1の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第1の視点のビューに関連付けられた距離は、第1の距離である、ことと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける前記変化を示す前記入力に少なくとも部分的に基づいている、ことと、
前記第1の時間よりも後の第2の時間において、前記第2の視点のビューにしたがって、前記第2の頭部ウェアラブルデバイスの前記ディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第2の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、前記第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第2の視点のビューに関連付けられた距離は、前記第1の距離とは異なる第2の距離である、ことと
を含み、
前記第1の視点のビューは、前記第1の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応しておらず、
前記第2の視点のビューは、前記第2の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応していない、方法。 - 第3の時間において、前記第1の見かけのサイズとは異なる第2の見かけのサイズで前記仮想オブジェクトを提示することを含む第3の視点のビューにしたがって前記仮想オブジェクトを提示することをさらに含む、請求項1に記載の方法。
- 前記第1の視点のビューは、前記第2の頭部ウェアラブルデバイスに対して前記第1の時間において塞がれる前記仮想オブジェクトの一部分のビューを含む、請求項1に記載の方法。
- 前記入力は、前記第1の頭部ウェアラブルデバイスの前記ビューの軸における変化を含む、請求項1に記載の方法。
- 前記入力は、前記世界座標系に対する前記仮想オブジェクトの操作を含む、請求項1に記載の方法。
- 1つ以上のプロセッサを備えるシステムであって、前記1つ以上のプロセッサは、第1の頭部ウェアラブルデバイスと通信し、さらに、第2の頭部ウェアラブルデバイスと通信し、前記1つ以上のプロセッサは、方法を実行するように構成され、前記方法は、
世界座標系における仮想オブジェクトの第1の位置を決定することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスのビューの軸に少なくとも部分的に基づいている、ことと、
第1の時間において、前記第1の視点のビューにしたがって、前記第2の頭部ウェアラブルデバイスのディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第1の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第1の視点のビューに関連付けられた距離は、第1の距離である、ことと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける前記変化を示す前記入力に少なくとも部分的に基づいている、ことと、
前記第1の時間よりも後の第2の時間において、前記第2の視点のビューにしたがって、前記第2の頭部ウェアラブルデバイスの前記ディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第2の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、前記第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第2の視点のビューに関連付けられた距離は、前記第1の距離とは異なる第2の距離である、ことと
を含み、
前記第1の視点のビューは、前記第1の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応しておらず、
前記第2の視点のビューは、前記第2の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応していない、システム。 - 第3の時間において、前記第1の見かけのサイズとは異なる第2の見かけのサイズで前記仮想オブジェクトを提示することを含む第3の視点のビューにしたがって前記仮想オブジェクトを提示することをさらに含む、請求項6に記載のシステム。
- 前記第1の視点のビューは、前記第2の頭部ウェアラブルデバイスに対して前記第1の時間において塞がれる前記仮想オブジェクトの一部分のビューを含む、請求項6に記載のシステム。
- 前記入力は、前記第1の頭部ウェアラブルデバイスの前記ビューの軸における変化を含む、請求項6に記載のシステム。
- 前記入力は、前記世界座標系に対する前記仮想オブジェクトの操作を含む、請求項6に記載のシステム。
- 命令を記憶している非一過性のコンピュータ読み取り可能な媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに方法を実行させ、前記方法は、
世界座標系における仮想オブジェクトの第1の位置を決定することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、第1の頭部ウェアラブルデバイスのビューの軸に少なくとも部分的に基づいている、ことと、
第1の時間において、前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第1の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第1の視点のビューに関連付けられた距離は、第1の距離である、ことと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける前記変化を示す前記入力に少なくとも部分的に基づいている、ことと、
前記第1の時間よりも後の第2の時間において、前記第2の視点のビューにしたがって、前記第2の頭部ウェアラブルデバイスの前記ディスプレイを介して前記世界座標系における前記第1の位置に前記仮想オブジェクトを提示することであって、
前記第2の視点のビューにしたがって前記仮想オブジェクトを前記提示することは、前記第1の見かけのサイズで前記仮想オブジェクトを提示することを含み、
前記第1の頭部ウェアラブルデバイスから前記仮想オブジェクトまでの前記第2の視点のビューに関連付けられた距離は、前記第1の距離とは異なる第2の距離である、ことと
を含み、
前記第1の視点のビューは、前記第1の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応しておらず、
前記第2の視点のビューは、前記第2の時間において前記第2の頭部ウェアラブルデバイスのビューの軸に直接的に対応していない、非一過性のコンピュータ読み取り可能な媒体。 - 前記第1の視点のビューは、前記第2の頭部ウェアラブルデバイスに対して前記第1の時間において塞がれる前記仮想オブジェクトの一部分のビューを含む、請求項11に記載の非一過性のコンピュータ読み取り可能な媒体。
- 前記入力は、前記第1の頭部ウェアラブルデバイスの前記ビューの軸における変化を含む、請求項11に記載の非一過性のコンピュータ読み取り可能な媒体。
- 前記入力は、前記世界座標系に対する前記仮想オブジェクトの操作を含む、請求項11に記載の非一過性のコンピュータ読み取り可能な媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024008629A JP2024042018A (ja) | 2018-09-25 | 2024-01-24 | 拡張現実のためのシステムおよび方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862736432P | 2018-09-25 | 2018-09-25 | |
US62/736,432 | 2018-09-25 | ||
PCT/US2019/052992 WO2020069006A1 (en) | 2018-09-25 | 2019-09-25 | Systems and methods for augmented reality |
JP2021540396A JP7316360B2 (ja) | 2018-09-25 | 2019-09-25 | 拡張現実のためのシステムおよび方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540396A Division JP7316360B2 (ja) | 2018-09-25 | 2019-09-25 | 拡張現実のためのシステムおよび方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024008629A Division JP2024042018A (ja) | 2018-09-25 | 2024-01-24 | 拡張現実のためのシステムおよび方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022168029A JP2022168029A (ja) | 2022-11-04 |
JP2022168029A5 JP2022168029A5 (ja) | 2023-07-26 |
JP7445720B2 true JP7445720B2 (ja) | 2024-03-07 |
Family
ID=69884956
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540396A Active JP7316360B2 (ja) | 2018-09-25 | 2019-09-25 | 拡張現実のためのシステムおよび方法 |
JP2022141180A Active JP7445720B2 (ja) | 2018-09-25 | 2022-09-06 | 拡張現実のためのシステムおよび方法 |
JP2024008629A Pending JP2024042018A (ja) | 2018-09-25 | 2024-01-24 | 拡張現実のためのシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021540396A Active JP7316360B2 (ja) | 2018-09-25 | 2019-09-25 | 拡張現実のためのシステムおよび方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024008629A Pending JP2024042018A (ja) | 2018-09-25 | 2024-01-24 | 拡張現実のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (4) | US11094127B2 (ja) |
EP (1) | EP3857291A4 (ja) |
JP (3) | JP7316360B2 (ja) |
CN (2) | CN113168007B (ja) |
WO (1) | WO2020069006A1 (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12055414B2 (en) | 2015-02-16 | 2024-08-06 | Northwest Instrument Inc. | Ranging system and ranging method |
WO2020069006A1 (en) | 2018-09-25 | 2020-04-02 | Magic Leap, Inc. | Systems and methods for augmented reality |
CN111523474B (zh) * | 2020-04-23 | 2023-09-26 | 维沃移动通信有限公司 | 目标对象追踪方法及电子设备 |
GB2596588B (en) * | 2020-07-03 | 2022-10-26 | Sony Interactive Entertainment Inc | Data processing apparatus and method |
US11756225B2 (en) | 2020-09-16 | 2023-09-12 | Campfire 3D, Inc. | Augmented reality collaboration system with physical device |
US11176756B1 (en) | 2020-09-16 | 2021-11-16 | Meta View, Inc. | Augmented reality collaboration system |
US10979672B1 (en) | 2020-10-20 | 2021-04-13 | Katmai Tech Holdings LLC | Web-based videoconference virtual environment with navigable avatars, and applications thereof |
US11095857B1 (en) | 2020-10-20 | 2021-08-17 | Katmai Tech Holdings LLC | Presenter mode in a three-dimensional virtual conference space, and applications thereof |
US10952006B1 (en) | 2020-10-20 | 2021-03-16 | Katmai Tech Holdings LLC | Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof |
US11457178B2 (en) | 2020-10-20 | 2022-09-27 | Katmai Tech Inc. | Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof |
US11076128B1 (en) | 2020-10-20 | 2021-07-27 | Katmai Tech Holdings LLC | Determining video stream quality based on relative position in a virtual space, and applications thereof |
US11070768B1 (en) | 2020-10-20 | 2021-07-20 | Katmai Tech Holdings LLC | Volume areas in a three-dimensional virtual conference space, and applications thereof |
CN112308981A (zh) * | 2020-11-09 | 2021-02-02 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及存储介质 |
US11743430B2 (en) | 2021-05-06 | 2023-08-29 | Katmai Tech Inc. | Providing awareness of who can hear audio in a virtual conference, and applications thereof |
US11184362B1 (en) | 2021-05-06 | 2021-11-23 | Katmai Tech Holdings LLC | Securing private audio in a virtual conference, and applications thereof |
CN114116110A (zh) * | 2021-07-20 | 2022-03-01 | 上海诺司纬光电仪器有限公司 | 基于增强现实的智能界面 |
USD1024198S1 (en) | 2022-03-10 | 2024-04-23 | Campfire 3D, Inc. | Augmented reality console |
USD1029076S1 (en) | 2022-03-10 | 2024-05-28 | Campfire 3D, Inc. | Augmented reality pack |
USD1014499S1 (en) | 2022-03-10 | 2024-02-13 | Campfire 3D, Inc. | Augmented reality headset |
US12022235B2 (en) | 2022-07-20 | 2024-06-25 | Katmai Tech Inc. | Using zones in a three-dimensional virtual environment for limiting audio and video |
US11651108B1 (en) | 2022-07-20 | 2023-05-16 | Katmai Tech Inc. | Time access control in virtual environment application |
US11876630B1 (en) | 2022-07-20 | 2024-01-16 | Katmai Tech Inc. | Architecture to control zones |
US12009938B2 (en) | 2022-07-20 | 2024-06-11 | Katmai Tech Inc. | Access control in zones |
US11928774B2 (en) | 2022-07-20 | 2024-03-12 | Katmai Tech Inc. | Multi-screen presentation in a virtual videoconferencing environment |
US11741664B1 (en) | 2022-07-21 | 2023-08-29 | Katmai Tech Inc. | Resituating virtual cameras and avatars in a virtual environment |
US11700354B1 (en) | 2022-07-21 | 2023-07-11 | Katmai Tech Inc. | Resituating avatars in a virtual environment |
US11776203B1 (en) | 2022-07-28 | 2023-10-03 | Katmai Tech Inc. | Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars |
WO2024026245A2 (en) * | 2022-07-28 | 2024-02-01 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
US11593989B1 (en) | 2022-07-28 | 2023-02-28 | Katmai Tech Inc. | Efficient shadows for alpha-mapped models |
US11704864B1 (en) * | 2022-07-28 | 2023-07-18 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
US11562531B1 (en) | 2022-07-28 | 2023-01-24 | Katmai Tech Inc. | Cascading shadow maps in areas of a three-dimensional environment |
US11682164B1 (en) | 2022-07-28 | 2023-06-20 | Katmai Tech Inc. | Sampling shadow maps at an offset |
US11711494B1 (en) | 2022-07-28 | 2023-07-25 | Katmai Tech Inc. | Automatic instancing for efficient rendering of three-dimensional virtual environment |
US11956571B2 (en) | 2022-07-28 | 2024-04-09 | Katmai Tech Inc. | Scene freezing and unfreezing |
US20240073402A1 (en) * | 2022-08-31 | 2024-02-29 | Snap Inc. | Multi-perspective augmented reality experience |
US11748939B1 (en) | 2022-09-13 | 2023-09-05 | Katmai Tech Inc. | Selecting a point to navigate video avatars in a three-dimensional environment |
US20240127548A1 (en) * | 2022-10-17 | 2024-04-18 | T-Mobile Usa, Inc. | Generating mixed reality content based on data from a wireless device |
WO2024147391A1 (ko) * | 2023-01-06 | 2024-07-11 | 엘지전자 주식회사 | 확장현실 디바이스 및 그 제어 방법 |
CN117170504B (zh) * | 2023-11-01 | 2024-01-19 | 南京维赛客网络科技有限公司 | 在虚拟人物交互场景中带人观看的方法、系统及存储介质 |
CN117893692B (zh) * | 2024-03-12 | 2024-05-28 | 之江实验室 | 一种基于对称视图的三维重建方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022958A (ja) | 1999-07-06 | 2001-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間システムにおけるオブジェクト表示方法およびオブジェクト表示プログラムを記録した記録媒体 |
JP2006293604A (ja) | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2016071900A (ja) | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US7084887B1 (en) * | 1999-06-11 | 2006-08-01 | Canon Kabushiki Kaisha | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
SE0203908D0 (sv) * | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
EP1755441B1 (en) | 2004-04-01 | 2015-11-04 | Eyefluence, Inc. | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US20080211771A1 (en) * | 2007-03-02 | 2008-09-04 | Naturalpoint, Inc. | Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
WO2012042974A1 (ja) * | 2010-09-30 | 2012-04-05 | 富士フイルム株式会社 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
JP5776201B2 (ja) * | 2011-02-10 | 2015-09-09 | ソニー株式会社 | 情報処理装置、情報共有方法、プログラム及び端末装置 |
JP5960796B2 (ja) * | 2011-03-29 | 2016-08-02 | クアルコム,インコーポレイテッド | ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ |
US8836771B2 (en) * | 2011-04-26 | 2014-09-16 | Echostar Technologies L.L.C. | Apparatus, systems and methods for shared viewing experience using head mounted displays |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US20130137076A1 (en) * | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US20130194304A1 (en) * | 2012-02-01 | 2013-08-01 | Stephen Latta | Coordinate-system sharing for augmented reality |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
US20140218281A1 (en) | 2012-12-06 | 2014-08-07 | Eyefluence, Inc. | Systems and methods for eye gaze determination |
US9720505B2 (en) | 2013-01-03 | 2017-08-01 | Meta Company | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
IL313175A (en) | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
US9685003B2 (en) * | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US9818225B2 (en) * | 2014-09-30 | 2017-11-14 | Sony Interactive Entertainment Inc. | Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space |
US10360729B2 (en) * | 2015-04-06 | 2019-07-23 | Scope Technologies Us Inc. | Methods and apparatus for augmented reality applications |
US9977493B2 (en) * | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
US10112111B2 (en) | 2016-03-18 | 2018-10-30 | Sony Interactive Entertainment Inc. | Spectator view perspectives in VR environments |
US10099122B2 (en) * | 2016-03-30 | 2018-10-16 | Sony Interactive Entertainment Inc. | Head-mounted display tracking |
US10657701B2 (en) * | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
EP3496044A4 (en) | 2016-07-15 | 2019-10-09 | Nurve, Inc. | PICTURE DISPLAY AND PICTURE DISPLAY SYSTEM |
US10482665B2 (en) | 2016-12-16 | 2019-11-19 | Microsoft Technology Licensing, Llc | Synching and desyncing a shared view in a multiuser scenario |
US10685489B2 (en) * | 2017-03-02 | 2020-06-16 | Daqri, Llc | System and method for authoring and sharing content in augmented reality |
JP6509938B2 (ja) * | 2017-05-02 | 2019-05-08 | 株式会社コロプラ | 情報処理方法、コンピュータ、及びプログラム |
US10403047B1 (en) * | 2018-03-01 | 2019-09-03 | Dell Products L.P. | Information handling system augmented reality through a virtual object anchor |
US20200021668A1 (en) * | 2018-07-13 | 2020-01-16 | Merge Labs, Inc. | Dynamic augmented reality collaboration system using a trackable three-dimensional object |
WO2020015611A1 (zh) * | 2018-07-20 | 2020-01-23 | 广东虚拟现实科技有限公司 | 虚拟内容的交互显示方法、终端设备及存储介质 |
CN116088783A (zh) | 2018-07-24 | 2023-05-09 | 奇跃公司 | 用于确定和/或评价图像显示设备的定位地图的方法和装置 |
US10832481B2 (en) * | 2018-08-21 | 2020-11-10 | Disney Enterprises, Inc. | Multi-screen interactions in virtual and augmented reality |
WO2020069006A1 (en) | 2018-09-25 | 2020-04-02 | Magic Leap, Inc. | Systems and methods for augmented reality |
-
2019
- 2019-09-25 WO PCT/US2019/052992 patent/WO2020069006A1/en unknown
- 2019-09-25 EP EP19864639.0A patent/EP3857291A4/en active Pending
- 2019-09-25 US US16/582,880 patent/US11094127B2/en active Active
- 2019-09-25 CN CN201980073915.6A patent/CN113168007B/zh active Active
- 2019-09-25 CN CN202311134786.1A patent/CN117572954A/zh active Pending
- 2019-09-25 JP JP2021540396A patent/JP7316360B2/ja active Active
-
2021
- 2021-07-13 US US17/374,738 patent/US11651565B2/en active Active
-
2022
- 2022-09-06 JP JP2022141180A patent/JP7445720B2/ja active Active
-
2023
- 2023-01-09 US US18/152,035 patent/US11928784B2/en active Active
-
2024
- 2024-01-24 JP JP2024008629A patent/JP2024042018A/ja active Pending
- 2024-02-02 US US18/431,729 patent/US20240177428A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022958A (ja) | 1999-07-06 | 2001-01-26 | Nippon Telegr & Teleph Corp <Ntt> | 仮想空間システムにおけるオブジェクト表示方法およびオブジェクト表示プログラムを記録した記録媒体 |
JP2006293604A (ja) | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
JP2016071900A (ja) | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
岡嶋雄太,外3名,視点座標を基準にした遠隔MR作業指示,情報処理学会論文誌,日本,社団法人情報処理学会,2010年,第51巻,第2号,p.564-573 |
Also Published As
Publication number | Publication date |
---|---|
US20200098191A1 (en) | 2020-03-26 |
JP2024042018A (ja) | 2024-03-27 |
CN113168007A (zh) | 2021-07-23 |
US20220005282A1 (en) | 2022-01-06 |
US11651565B2 (en) | 2023-05-16 |
JP2022168029A (ja) | 2022-11-04 |
US20240177428A1 (en) | 2024-05-30 |
EP3857291A1 (en) | 2021-08-04 |
US11928784B2 (en) | 2024-03-12 |
US11094127B2 (en) | 2021-08-17 |
JP2022502800A (ja) | 2022-01-11 |
CN117572954A (zh) | 2024-02-20 |
CN113168007B (zh) | 2023-09-15 |
EP3857291A4 (en) | 2021-11-24 |
WO2020069006A1 (en) | 2020-04-02 |
US20230162454A1 (en) | 2023-05-25 |
JP7316360B2 (ja) | 2023-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7445720B2 (ja) | 拡張現実のためのシステムおよび方法 | |
US10643394B2 (en) | Augmented reality | |
US20140347391A1 (en) | Hologram anchoring and dynamic positioning | |
JP7369212B2 (ja) | 空間コンピューティングのための写実的キャラクタ構成 | |
US11797720B2 (en) | Tool bridge | |
JP2023130426A (ja) | 複合現実における空間命令およびガイド | |
JP2023513250A (ja) | 仮想コンテンツの動的併置 | |
US11477599B2 (en) | Delayed audio following | |
US11961194B2 (en) | Non-uniform stereo rendering | |
US12056273B2 (en) | Determining angular acceleration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7445720 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |