JP2024042018A - 拡張現実のためのシステムおよび方法 - Google Patents

拡張現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP2024042018A
JP2024042018A JP2024008629A JP2024008629A JP2024042018A JP 2024042018 A JP2024042018 A JP 2024042018A JP 2024008629 A JP2024008629 A JP 2024008629A JP 2024008629 A JP2024008629 A JP 2024008629A JP 2024042018 A JP2024042018 A JP 2024042018A
Authority
JP
Japan
Prior art keywords
user
virtual
environment
real
perspective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024008629A
Other languages
English (en)
Inventor
アラン マッコール マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2024042018A publication Critical patent/JP2024042018A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想コンテンツの視点のビューを共有するシステムおよび方法を提供する。【解決手段】仮想オブジェクト1102を、ディスプレイを介してユーザ#1に提示するる方法であって、仮想オブジェクトの位置およびユーザ#1の第1の位置に基づいている仮想オブジェクトの第1の視点のビューを決定することを含む。仮想オブジェクトは、ディスプレイを介してユーザ#2に、第1の視点のビューにしたがって提示される。入力を、ユーザから受信し、第1のユーザからの入力に基づく仮想オブジェクトの第2の視点のビューを決定する。仮想オブジェクトを第2のユーザに提示することは、第1の視点のビューから第2の視点のビューへの移行を提示することである。【選択図】図10B

Description

(関連出願への相互参照)
本願は、2018年9月25日に出願された米国仮特許出願第62/736,432号への優先権を主張し、その内容は、それら全体が参照によって本明細書中に援用される。
(分野)
本開示は、概して、視覚的信号を共有し、提示するシステムおよび方法に関しており、特に、複合現実環境におけるコンテンツに対応する視覚的信号を共有し提示するシステムおよび方法に関している。
(背景)
現代のコンピューティングテクノロジおよびディスプレイテクノロジは、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル方式で再現された画像またはそれらの一部は、それらが現実であるように見えるか、または現実として知覚され得る態様で、ユーザに提示される。仮想現実(すなわち「VR」)シナリオは、典型的に、他の実際の現実世界の視覚的入力に対する透明性のないデジタルまたは仮想画像情報の提示を伴う;拡張現実(すなわち「AR」)シナリオは、典型的に、ユーザの周りの実世界の視覚化への拡張として、デジタルまたは仮想画像情報の提示を伴う。
例えば、図1を参照すると、拡張現実シーン(4)が描写されており、AR技術のユーザは、人々、木、背景の建物、およびコンクリートのプラットフォーム(1120)を特徴とする現実世界の公園のような情景(6)を見ている。これらのアイテムに加え、ARテクノロジのユーザは、現実世界のプラットフォーム(1120)上に建っているロボットの像(1110)、および飛んでいることによりマルハナバチの擬人化であるように見えるアニメのようなアバターキャラクター(2)も、これらの要素(2、1110)が現実世界には存在していないにもかかわらず、彼が「見ている」と知覚する。
本物のような拡張現実(または「複合現実」)のための現実世界におけるこの仮想画像の正しい配置は、一連の相互結合された座標フレームワークを必要とする。
人間の視覚的知覚システムは、非常に複雑であり、他の仮想世界画像要素または現実世界画像要素の中での快適で、自然で、豊かな仮想画像要素の提示を促進するVRまたはARテクノロジを生み出すことは困難である。
例えば、頭部装着型ARディスプレイ(またはヘルメット搭載型ディスプレイ、またはスマート眼鏡)は、典型的に、ユーザの頭部に少なくとも緩く結合され、したがって、ユーザの頭部が移動したとき、頭部装着型ARディスプレイが移動する。頭部搭載型ディスプレイにおける接眼レンズ等のディスプレイコンポーネントは、ユーザの眼に非対称に位置付けられ得る。例えば、双眼システムは、1つの接眼レンズを(例えば、補足的接眼レンズおよび眼と比較して)より所与の眼に対してより近くに、またはより遠くに配置し得る。単眼システムでは、一体的な接眼レンズのアラインメントは、左眼/右眼がもう一方の眼に対して同様に位置付けられないように、ある角度をなし得る。
ユーザの頭部の運動、または、さもなければユーザの位置の変化が、上で説明されるような適合の変動を複雑にする。
例えば、頭部装着型ディスプレイを装着しているユーザが、ディスプレイ上の3次元(3D)オブジェクトの仮想表現を視認し、3Dオブジェクトが出現する領域を歩き回る場合、3Dオブジェクトは、各視認ポイントに関して再びレンダリングされ得、ユーザに、彼または彼女が実空間を占めるオブジェクトの周りを歩いているという知覚を与える。頭部装着型ディスプレイが仮想空間(例えば、豊かな仮想世界)内で複数のオブジェクトを提示するために用いられる場合、頭部姿勢の測定(すなわち、ユーザの頭部の場所および向き)は、動的に変化するユーザの頭部の場所および向きに合致するようにシーンを再びレンダリングし、仮想空間における増加した没入感を提供するために用いられ得る。
ARシステムにおいて、頭部姿勢の検出または算出は、ディスプレイシステムが仮想オブジェクトをレンダリングし、それによって、仮想オブジェクトがユーザに理解される態様で現実世界における空間を占めるように出現することを促進し得る。
Google Glass(登録商標)等のいくつかの拡張現実テクノロジにおいて、仮想コンテンツは、定位置に表示される。そのような例では、デバイスの任意の運動が仮想コンテンツの位置を同様に変化させるように、仮想コンテンツおよびデバイスは、共通の座標フレームを共有する。
いくつかの拡張現実または複合現実システムでは、一連の座標フレームは、仮想コンテンツが、デバイス自体に固定されるのではなく、デバイスが存在する現実世界または環境に固定されて出現することを確実にする。
(概要)
本開示の例は、仮想コンテンツの視点のビューを共有するシステムおよび方法を説明している。例示的方法において、仮想オブジェクトが、ディスプレイを介して第1のユーザに提示される。仮想オブジェクトの第1の視点のビューが決定され、第1の視点のビューは、仮想オブジェクトの位置および第1のユーザの第1の位置に基づいている。仮想オブジェクトは、ディスプレイを介して第2のユーザに提示され、仮想オブジェクトは、第1の視点のビューにしたがって第2のユーザに提示される。入力が、第1のユーザから受信される。仮想オブジェクトの第2の視点のビューが決定され、第2の視点のビューは、第1のユーザからの入力に基づいている。仮想オブジェクトは、ディスプレイを介して第2のユーザに提示され、仮想オブジェクトを第2のユーザに提示することは、第1の視点のビューから第2の視点のビューへの移行を提示することを備えている。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向と、前記第1の頭部ウェアラブルデバイスの位置および方向とに基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す前記入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、方法。
(項目2)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目1に記載の方法。
(項目3)
前記第2の角度は、前記第1の角度と異なる、項目2に記載の方法。
(項目4)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目1に記載の方法。
(項目5)
前記第2のサイズは、前記第1のサイズと異なる、項目4に記載の方法。
(項目6)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目1に記載の方法。
(項目7)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目1に記載の方法。
(項目8)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目1に記載の方法。
(項目9)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目1に記載の方法。
(項目10)
システムであって、前記システムは、
第1の頭部ウェアラブルデバイスと、
第2の頭部ウェアラブルデバイスと、
方法を実行するように構成されている1つ以上のプロセッサと
を備え、
前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向と、前記第1の頭部ウェアラブルデバイスの位置および方向とに基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す前記入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、システム。
(項目11)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目10に記載のシステム。
(項目12)
前記第2の角度は、前記第1の角度と異なる、項目11に記載のシステム。
(項目13)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目10に記載のシステム。
(項目14)
前記第2のサイズは、前記第1のサイズと異なる、項目13に記載のシステム。
(項目15)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目10に記載のシステム。
(項目16)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目10に記載のシステム。
(項目17)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目10に記載のシステム。
(項目18)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目10に記載のシステム。
(項目19)
命令を記憶している非一過性のコンピュータ読み取り可能な媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに方法を実行させ、前記方法は、
第1の頭部ウェアラブルデバイスのディスプレイを介して仮想オブジェクトを提示することと、
前記仮想オブジェクトの第1の視点のビューを決定することであって、前記第1の視点のビューは、前記仮想オブジェクトの位置および方向、ならびに前記第1の頭部ウェアラブルデバイスの位置および方向に基づいている、ことと、
前記第1の視点のビューにしたがって、第2の頭部ウェアラブルデバイスのディスプレイを介して前記仮想オブジェクトを提示することと、
前記第1の視点のビューにおける変化を示す入力を受信することと、
前記仮想オブジェクトの第2の視点のビューを決定することであって、前記第2の視点のビューは、前記第1の視点のビューにおける変化を示す入力に基づいている、ことと、
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することと
を含む、非一過性のコンピュータ読み取り可能な媒体。
(項目20)
前記第1の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第1の角度で前記仮想オブジェクトを提示し、前記第2の視点のビューは、前記第1の頭部ウェアラブルデバイスに対して第2の角度で前記仮想オブジェクトを提示する、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目21)
前記第2の角度は、前記第1の角度と異なる、項目20に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目22)
前記第1の視点のビューは、第1のサイズで前記仮想オブジェクトを提示し、前記第2の視点のビューは、第2のサイズで前記仮想オブジェクトを提示する、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目23)
前記第2のサイズは、前記第1のサイズと異なる、項目22に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目24)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスが第1の位置から第2の位置に移動することを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目25)
前記第1の視点のビューにおける変化を示す前記入力は、前記仮想オブジェクトを第1の位置から第2の位置に移動させることを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目26)
前記第1の視点のビューにおける変化を示す前記入力は、前記第1の頭部ウェアラブルデバイスの視点における変化を備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
(項目27)
前記第2の視点のビューにしたがって、前記第2のウェアラブルデバイスの前記ディスプレイを介して前記仮想オブジェクトを提示することは、前記第1の視点のビューから前記第2の視点のビューへの移行を提示することを備えている、項目19に記載の非一過性のコンピュータ読み取り可能な媒体。
図1は、いくつかの実施形態による特定の仮想現実オブジェクトを有する拡張現実シナリオを例証している。
図2A-図2Cは、いくつかの実施形態による視覚表示システムを備えているコンポーネントの種々の構成を例証している。 図2A-図2Cは、いくつかの実施形態による視覚表示システムを備えているコンポーネントの種々の構成を例証している。 図2A-図2Cは、いくつかの実施形態による視覚表示システムを備えているコンポーネントの種々の構成を例証している。
図3は、いくつかの実施形態によるクラウドコンピューティングアセットとの遠隔相互作用を例証している。
図4は、いくつかの実施形態による単一ユーザ座標フレームシステムを仮想コンテンツと共に例証している。
図5は、いくつかの実施形態による双眼レンダリングカメラのためのユーザデバイス座標フレームを例証している。
図6は、いくつかの実施形態によるマルチユーザ座標フレームシステムを仮想コンテンツと共に例証している。
図7は、いくつかの実施形態によるマルチユーザ共有座標フレームシステムを仮想コンテンツと共に例証している。
図8A-図8Cは、いくつかの実施形態によるユーザ間の世界フレーム選択プロトコルを例証している。 図8A-図8Cは、いくつかの実施形態によるユーザ間の世界フレーム選択プロトコルを例証している。 図8A-図8Cは、いくつかの実施形態によるユーザ間の世界フレーム選択プロトコルを例証している。
図9A-図9Bは、いくつかの実施形態によるカメラフレーム変換オプションをレンダリングするためのデバイスを例証している。 図9A-図9Bは、いくつかの実施形態によるカメラフレーム変換オプションをレンダリングするためのデバイスを例証している。
図10A-図10Bは、いくつかの実施形態による、視認者と結果として生じる仮想コンテンツ表示との間の角度の関係を例証している。 図10A-図10Bは、いくつかの実施形態による、視認者と結果として生じる仮想コンテンツ表示との間の角度の関係を例証している。
図11A-図11Cは、いくつかの実施形態による、距離を変動させる視認者と結果として生じる仮想コンテンツ表示との間のさらなる角度の関係を例証している。 図11A-図11Cは、いくつかの実施形態による、距離を変動させる視認者と結果として生じる仮想コンテンツ表示との間のさらなる角度の関係を例証している。 図11A-図11Cは、いくつかの実施形態による、距離を変動させる視認者と合成仮想コンテンツ表示との間のさらなる角度の関係を例証している。
図11D-図11Eは、いくつかの実施形態によるユーザ間の角度差に基づく結果として生じる仮想コンテンツ知覚を例証している。 図11D-図11Eは、いくつかの実施形態によるユーザ間の角度差に基づく結果として生じる仮想コンテンツ知覚を例証している。
図12A-図12Cは、例示的複合現実環境を例証している。 図12A-図12Cは、例示的複合現実環境を例証している。 図12A-図12Cは、例示的複合現実環境を例証している。
図13A-図13Dは、複合現実環境を生成するために、およびそれと相互作用するために用いられ得る例示的複合現実システムのコンポーネントを例証している。 図13A-図13Dは、複合現実環境を生成するために、およびそれと相互作用するために用いられ得る例示的複合現実システムのコンポーネントを例証している。 図13A-図13Dは、複合現実環境を生成するために、およびそれと相互作用するために用いられ得る例示的複合現実システムのコンポーネントを例証している。 図13A-図13Dは、複合現実環境を生成するために、およびそれと相互作用するために用いられ得る例示的複合現実システムのコンポーネントを例証している。
図14Aは、複合現実環境に入力を提供するために用いられ得る例示的複合現実ハンドヘルドコントローラを例証している。
図14Bは、例示的複合現実システムにおいて用いられ得る例示的補助ユニットを例証している。
図15は、例示的複合現実システムのための例示的機能的ブロック図を例証している。
(詳細な説明)
本発明は、仮想コンテンツ、少なくとも1人のユーザにARコンテンツを提示するための頭部搭載型ディスプレイ(HMD)、およびユーザの眼の位置の相対位置を決定するために複数の座標フレームを作り出すためのシステムおよび方法に関している。
追加の実施形態、利点、および詳細が、適切に図を具体的に参照して以下でより詳細に説明される。
複合現実環境
全ての人々と同様、複合現実システムのユーザは、現実環境、すなわち、「現実世界」の3次元部分の中に存在しており、そのコンテンツの全ては、ユーザによって知覚可能である。例えば、ユーザは、その通常の人間の感覚(眺め、音、触感、味、におい)を用いて現実環境を知覚し、現実環境において自身の身体を移動させることによって現実環境と相互作用する。現実環境における場所は、座標空間における座標(例えば、座標は、緯度、経度、および海面に対する標高を備え得る)、基準点からの3つの直交する次元における距離、または、他の適切な値として説明され得る。同様に、ベクトルが、座標空間における方向および大きさを有する量を説明し得る。
コンピューティングデバイスは、例えばデバイスに関連付けられたメモリ内に、仮想環境の表現を維持し得る。本明細書中で用いられる場合、仮想環境とは、3次元空間の計算的表現である。仮想環境は、その空間に関連付けられる任意のオブジェクト、行動、信号、パラメータ、座標、ベクトル、または他の特徴の表現を含み得る。いくつかの例では、コンピューティングデバイスの回路(例えば、プロセッサ)が、仮想環境の状態を維持し得る;つまり、プロセッサは、第1の時刻t0において、仮想環境に関連付けられたデータおよび/またはユーザによって提供される入力に基づいて、第2の時刻t1における仮想環境の状態を決定し得る。例えば、仮想環境におけるオブジェクトが時刻t0において第1の座標に位置し、そのオブジェクトが特定のプログラムされた物理的パラメータ(例えば、質量、摩擦率)を有し;ユーザから受信された入力が方向ベクトルでオブジェクトに力が与えられるべきであることを示す場合;プロセッサは、運動学の法則を適用し、基本的メカニズムを用いて時刻t1におけるオブジェクトの場所を決定し得る。プロセッサは、仮想環境に関する任意の適切な既知情報、および/または任意の適切な入力(例えば、現実世界パラメータ)を用い、時刻t1における仮想環境の状態を決定し得る。仮想環境の状態を維持し、更新することにおいて、プロセッサは、仮想環境における仮想オブジェクトの創出および削除に関係するソフトウェア;仮想環境における仮想オブジェクトまたは仮想キャラクターの動作を定義するためのソフトウェア(例えば、スクリプト);仮想環境における信号(例えば、音響信号)の動作を定義するためのソフトウェア;仮想環境に関連付けられるパラメータを創出し更新するためのソフトウェア;仮想環境における音響信号を生成するためのソフトウェア;入力および出力を扱うためのソフトウェア;ネットワーク運用を実装するためのソフトウェア;アセットデータ(例えば、経時的に仮想オブジェクトを移動させるためのアニメーションデータ)を適用するためのソフトウェア;または多くの他の可能なものを含む任意の適切なソフトウェアを実行し得る。
ディスプレイまたはスピーカ等の出力デバイスは、仮想環境のいずれかの側面または全ての側面をユーザに提示し得る。例えば、仮想環境は、ユーザに提示され得る仮想オブジェクト(無生物オブジェクト;人々;動物;光等の表現を含み得る)を含み得る。プロセッサは、仮想環境のビュー(例えば、原点座標、ビューの軸、および円錐台を有する「カメラ」に対応する)を決定し、ディスプレイにそのビューに対応する仮想環境の視認可能なシーンをレンダリングし得る。任意の適切なレンダリングテクノロジが、この目的のために用いられ得る。いくつかの例では、視認可能なシーンは、仮想環境にいくつかの仮想オブジェクトのみを含み得、特定の他の仮想オブジェクトを除外し得る。同様に、仮想環境は、1つ以上の音響信号としてユーザに提示され得る音響的側面を含み得る。例えば、仮想環境における仮想オブジェクトは、オブジェクトの位置座標から生ずる音を生成し得(例えば、仮想キャラクターが、話し、または音響効果を発生させ得る);または仮想環境は、音楽キューまたは周囲の音に関連付けられ得、それらの音は、特定の場所に関連付けられていることも、関連付けられていないこともある。プロセッサは、「リスナー」座標に対応する音響信号(例えば、仮想環境における音の合成物に対応し、およびリスナー座標にいるリスナーに聞こえ得る音響信号を刺激するように混合させられ処理された音響信号)を決定し、1つ以上のスピーカを介してユーザに音響信号を提示し得る。
仮想環境は、計算的構造としてのみ存在するので、ユーザは、その通常の感覚を用いて仮想環境を直接知覚できない。その代わり、例えば、ディスプレイ、スピーカ、触覚出力デバイス等によってユーザに提示される場合、ユーザは、間接的にのみ仮想環境を知覚し得る。同様に、ユーザは、直接的に仮想環境に接触し、仮想環境を操作し、さもなければ仮想環境と相互作用することができないが、入力デバイスまたはセンサを介して、デバイスまたはセンサデータを用いて仮想環境を更新し得るプロセッサに入力データを提供し得る。例えば、カメラセンサは、ユーザが仮想環境におけるオブジェクトを移動させようとしていることを示す光データを提供し得、プロセッサは、そのデータを用いて、仮想環境においてそれに従って応答することをオブジェクトに行わせ得る。
複合現実システムは、例えば、透過的ディスプレイおよび/または1つ以上のスピーカ(それらは、例えば、ウェアラブル頭部デバイスに組み込まれ得る)を用いて、現実環境の側面と仮想環境の側面とを組み合わせた複合現実(「MR」)環境をユーザに提示し得る。いくつかの実施形態では、1つ以上のスピーカは、頭部搭載型ウェアラブルユニットの外部にあり得る。本明細書中で用いられる場合、MR環境は、現実環境と対応する仮想環境との同時の表現である。いくつかの例では、対応する現実環境と仮想環境とは、単一の座標空間を共有する;いくつかの例では、現実座標空間および1つ以上の対応する仮想座標空間は、変換行列(または他の適切な表現)によって互いに関連付けられている。よって、いくつかの実施形態では、単一の座標が、(いくつかの例では、変換行列と一緒になって)現実環境における第1の場所を画定し、仮想環境における第2の対応する場所も画定し得る;その逆も然り。
MR環境において、(例えば、MR環境に関連付けられた仮想環境における)仮想オブジェクトは、(例えば、MR環境に関連付けられた現実環境における)現実オブジェクトに対応し得る。例えば、MR環境のうちの現実環境がある位置座標に現実の街灯(現実オブジェクト)を備えている場合、MR環境のうちの仮想環境は、対応する位置座標にある対応する仮想の街灯(仮想オブジェクト)を備え得る。本明細書中で用いられる場合、現実オブジェクトは、その対応する仮想オブジェクトと共同して、「複合現実オブジェクト」を一緒に構成する。仮想オブジェクトが、対応する現実オブジェクトに完璧に合致しているか、またはそれと位置が合っていることは、必要ではない。いくつかの例では、仮想オブジェクトは、対応する現実オブジェクトの簡略化されたバージョンであり得る。例えば、現実環境が、現実の街灯を含む場合、対応する仮想オブジェクトは、(街灯がおよそ円柱形状であり得ることを反映して)現実の街灯とおよそ同一の高さおよび半径の円柱を備え得る。この態様で仮想オブジェクトを簡略化することは、計算の効率化を可能にし得、そのような仮想オブジェクトにおいて実施されるべき計算を簡略化し得る。さらに、MR環境のいくつかの例では、現実環境における全ての現実オブジェクトが、対応する仮想オブジェクトに関連付けられているとは限らない。同様に、MR環境のいくつかの例では、仮想環境における全ての仮想オブジェクトが、対応する現実オブジェクトに関連付けられているとは限らない。つまり、いくつかの仮想オブジェクトは、いずれの現実世界の対応物も伴わず、MR環境のうちの仮想環境にのみあり得る。いくつかの例では、全ての現実オブジェクトが、対応する現実オブジェクトに関連付けられているとは限らない。
いくつかの例では、仮想オブジェクトは、対応する現実オブジェクトの特性と異なる(時には大きく異なる)特性を有し得る。例えば、MR環境における現実環境が、緑色の2アームのサボテン(棘のある無生物オブジェクト)を備え得る一方で、MR環境における対応する仮想オブジェクトは、人間の顔の特徴を有し無愛想な表情の緑色の2アームの仮想キャラクターの特性を有し得る。この例では、仮想オブジェクトは、特定の特性(色、アームの数)において、その対応する現実オブジェクトに似ているが、他の特性(顔の特徴、個性)において現実オブジェクトと異なる。このように、仮想オブジェクトは、創造的態様、抽象的態様、強調された態様、または空想的態様で、現実オブジェクトを表現する可能性を有し;または、別の無生物現実オブジェクトに振る舞い(例えば、人間の個性)を与える可能性を有する。いくつかの例では、仮想オブジェクトは、現実世界の対応物を有しない単なる空想上の創造物(例えば、おそらく現実環境における空白の空間に対応する場所にある仮想環境における仮想モンスター)であり得る。
現実環境を妨げて仮想環境をユーザに提示するVRシステムと対照的に、MR環境を提示する複合現実システムは、仮想環境が提示されながら現実環境が知覚可能であり続けるという利点をもたらす。よって、複合現実システムのユーザは、現実環境に関連付けられた視覚的キューおよび聴覚的キューを用いて、対応する仮想環境を体験し、それと相互作用することが可能である。例えば、上で指摘したように、ユーザは仮想環境を直接的に知覚し、またはそれと相互作用することができないので、VRシステムのユーザは、仮想環境において表示される仮想オブジェクトを知覚し、またはそれと相互作用することに苦労する一方で、MRシステムのユーザは、彼または彼女自身の現実環境における対応する現実オブジェクトを見ること、聞くこと、触れることによって、仮想オブジェクトと相互作用することが直感的であり自然なことであると感じ得る。このレベルの相互作用性は、ユーザの仮想環境への没入感、それとのつながり、およびそれとの関与を高め得る。同様に、現実環境と仮想環境とを同時に提示することによって、複合現実システムは、VRシステムに関連するネガティブな心情(例えば、認知的不協和)およびネガティブな身体的感覚(例えば、乗り物酔い)を低減させ得る。複合現実システムは、現実世界の我々の体験を増大させ、またはそれを変更し得る用途のための多くの可能性をさらに提供する。
図12Aは、ユーザ1210が複合現実システム1212を用いる例示的現実環境1200を例証している。複合現実システム1212は、例えば以下で説明されるように、ディスプレイ(例えば、透過性ディスプレイ)および1つ以上のスピーカと、1つ以上のセンサ(例えば、カメラ)とを備え得る。示されている現実環境1200は、ユーザ1210が立っている長方形の部屋1204Aと;現実オブジェクト1222A(ランプ)、1224A(テーブル)、1226A(ソファー)、および1228A(絵画)とを備えている。部屋1204Aは、位置座標1206をさらに備え、位置座標1206は、現実環境1200の原点とみなされ得る。図12Aに示されるように、点1206(世界座標)にその原点を有する(x軸1208Xと、y軸1208Yと、z軸1208Zとを備えている)環境/世界座標系1208は、現実環境1200のための座標空間を画定し得る。いくつかの実施形態では、環境/世界座標系1208の原点1206は、複合現実システム1212が電源を入れられた場所に対応し得る。いくつかの実施形態では、環境/世界座標系1208の原点1206は、動作中にリセットされ得る。いくつかの例では、ユーザ1210は、現実環境1200における現実オブジェクトとみなされ得;同様に、ユーザ1210の身体部位(例えば、頭部、足)が、現実環境1200における現実オブジェクトとみなされ得る。いくつかの例では、点1215(例えば、ユーザ/リスナー/頭部座標)を原点とする(x軸1214Xと、y軸1214Yと、z軸1214Zとを備えている)ユーザ/リスナー/頭部座標系1214は、複合現実システム1212が位置するユーザ/リスナー/頭部のための座標空間を画定し得る。ユーザ/リスナー/頭部座標系1214の原点1215は、複合現実システム1212の1つ以上コンポーネントに対し画定され得る。例えば、ユーザ/リスナー/頭部座標系1214の原点1215は、例えば複合現実システム1212の初期キャリブレーション中に複合システム1212のディスプレイに対して画定され得る。行列(行列は、平行移動行列およびクォータニオン行列または他の回転行列を含み得る)、または他の適切な表現が、ユーザ/リスナー/頭部座標系1214空間と環境/世界座標系1208空間との間の変換を特徴付け得る。いくつかの実施形態では、左耳座標1216および右耳座標1217が、ユーザ/リスナー/頭部座標系1214の原点1215に対して画定され得る。行列(行列は、平行移動行列およびクォータニオン行列または他の回転行列を含み得る)、または他の適切な表現が、左耳座標1216および右耳座標1217と、ユーザ/リスナー/頭部座標系1214空間との間の変換を特徴付け得る。ユーザ/リスナー/頭部座標系1214は、ユーザの頭部に対する場所の表現、または頭部搭載型デバイスに対する(例えば、環境/世界座標系1208に対する)場所の表現を簡略化し得る。Simultaneous Localization and Mapping(SLAM)、ビジュアルオドメトリ、または他の技術を用いて、ユーザ座標系1214と環境座標系1208との間の変換が、リアルタイムで決定され、更新され得る。
図12Bは、現実環境1200に対応する例示的仮想環境1230を例証している。示されている仮想環境1230は、現実の長方形の部屋1204Aに対応する仮想の長方形の部屋1204Bと;現実オブジェクト1222Aに対応する仮想オブジェクト1222Bと;現実オブジェクト1224Aに対応する仮想オブジェクト1224Bと;現実オブジェクト1226Aに対応する仮想オブジェクト1226Bとを備えている。仮想オブジェクト1222B、1224B、1226Bに関連付けられたメタデータは、対応する現実オブジェクト1222A、1224A、1226Aに由来する情報を含み得る。仮想環境1230は、仮想モンスター1232をさらに備え、仮想モンスター1232は、現実環境1200におけるどの現実オブジェクトにも対応していない。現実環境1200における現実オブジェクト1228Aは、仮想環境1230におけるどの仮想オブジェクトにも対応していない。点1234に原点を有する(x軸1233Xと、y軸1233Yと、z軸1233Zとを備えている)持続座標系1233(持続座標)は、仮想コンテンツのための座標空間を画定し得る。持続座標系1233の原点1234は、現実オブジェクト1226A等の1つ以上の現実オブジェクトに対して/関連して画定され得る。(平行移動行列およびクォータニオン行列または他の回転行列を含み得る)行列、または他の適切な表現が、持続座標系1233空間と環境/世界座標系1208空間との間の変換を特徴付け得る。いくつかの実施形態では、仮想オブジェクト1222B、1224B、1226B、および1232の各々が、持続座標系1233の原点1234に対するそれら自体の持続座標点を有し得る。いくつかの実施形態では、複数の持続座標系が存在し得、仮想オブジェクト1222B、1224B、1226B、および1232の各々は、1つ以上の持続座標系に対するそれら自体の持続座標点を有し得る。
図12Aおよび図12Bに関して、環境/世界座標系1208は、現実環境1200および仮想環境1230の両方のために共有座標空間を画定する。示されている例では、座標空間は、点1206にその原点を有する。さらに、座標空間は、同一の3つの直交軸(1208X、1208Y、1208Z)によって画定される。よって、現実環境1200における第1の場所、および仮想環境1230における第2の対応する場所が、同一の座標空間で説明され得る。両方の場所を識別するために同一の座標系が用いられ得るので、このことは、現実環境および仮想環境における対応する場所を識別し表示することを簡略化する。しかしながら、いくつかの例では、対応する現実環境および仮想環境は、共有座標空間を用いる必要がない。例えば、いくつかの例(示されず)では、(平行移動行列およびクォータニオン行列または他の回転行列を含み得る)行列、または他の適切な表現が、現実環境座標空間と仮想環境座標空間との間の変換を特徴付け得る。
図12Cは、複合現実システム1212を介して、現実環境1200の側面と仮想環境1230の側面とを同時にユーザ1210に提示する例示的MR環境1250を例証している。示されている例では、MR環境1250は、(例えば、複合現実システム1212のディスプレイの透過的部分を介して)現実環境1200からの現実オブジェクト1222A、1224A、1226A、および1228Aと、(例えば、複合現実システム1212のディスプレイのアクティブディスプレイ部分を介して)仮想環境1230からの仮想オブジェクト1222B、1224B、1226B、および1232とをユーザ1210に同時に提示する。上記のように、原点1206は、MR環境1250に対応する座標空間のための原点として機能し、座標系1208は、座標空間に関するx軸、y軸、およびz軸を画定する。
示されている例において、複合現実オブジェクトは、現実オブジェクトおよび仮想オブジェクトの対応する対(すなわち、1222A/1222B、1224A/1224B、1226A/1226B)を備え、それらは、座標空間1208における対応する場所を占めている。いくつかの例では、現実オブジェクトおよび仮想オブジェクトの両方が、同時にユーザ1210に視認可能であり得る。これは、例えば、仮想オブジェクトが対応する現実オブジェクトのビューを増加させるように設計された情報を提示する場合において(仮想オブジェクトが損傷した古代彫刻の欠損したピースを提示する博物館用途において等)所望され得る。いくつかの例では、仮想オブジェクト(1222B、1224B、および/または1226B)は、対応する現実オブジェクト(1222A、1224A、および/または1226A)を塞ぐように(例えば、ピクセル化された遮蔽シャッターを用いたアクティブピクセル化遮蔽を介して)表示され得る。これは、例えば、仮想オブジェクトが対応する現実オブジェクトの視覚入れ替えとして機能する場合において(無生物の現実オブジェクトが「生きている」キャラクターになる相互作用可能な物語用途において等)所望され得る。
いくつかの例では、現実オブジェクト(例えば、1222A、1224A、1226A)は、必ずしも仮想オブジェクトを構成しないこともある仮想コンテンツまたは補助データに関連付けられ得る。仮想コンテンツまたは補助データは、複合現実環境における仮想オブジェクトの処理または操作を促進し得る。例えば、そのような仮想コンテンツは、対応する現実オブジェクトの2次元表現;対応する現実オブジェクトに関連付けられたカスタムアセットタイプ;または対応する現実オブジェクトに関連付けられた統計データを含み得る。この情報は、不要な演算オーバーヘッドを招くことなく現実オブジェクトに関する計算を可能にし、またはそれを促進し得る。
いくつかの例では、上で説明される提示は、音響的側面も組み込み得る。例えば、MR環境1250において、仮想モンスター1232は、MR環境1250のまわりをモンスターが歩くときに生成される足音の効果等、1つ以上の音響信号に関連付けられ得る。以下でさらに説明されるように、複合現実システム1212のプロセッサは、MR環境1250における全てのそのような音の混合され処理された合成物に対応する音響信号を演算し、複合現実システム1212に含まれる1つ以上のスピーカ、および/または1つ以上の外部スピーカを介して音響信号をユーザ1210に音響信号を提示し得る。
例示的複合現実システム
図2A-図2Dを参照すると、いくつかの概略的な構成要素のオプションが例証されている。図2A-図2Dの議論に従う詳細な説明の部分において、ヒトのVRおよび/またはARのための高品質かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために、種々のシステム、サブシステム、およびコンポーネントが提示される。
図2Aに示されるように、ARシステムのユーザ(60)は、ユーザの眼の前に位置付けられたディスプレイシステム(62)に結合されたフレーム(64)構造を特徴とする例示的頭部搭載型コンポーネント(58)を装着して描写されている。スピーカ(66)は、描写される構成においてフレーム(64)に結合され、ユーザの外耳道に隣接して位置付けられ得る。(1つの実施形態では、別のスピーカ(示されず)が、ユーザのもう一方の外耳道に隣接して位置付けられることによって、ステレオサウンド制御/成形可能なサウンド制御を提供し得る)。ディスプレイ(62)は、例えば有線または無線接続によって、ローカル処理およびデータモジュール(70)に動作可能に結合され得(68)、ローカル処理およびデータモジュール(70)は、フレーム(64)に固定的に取り付けられる構成、図2Bの実施形態に示されるようにヘルメットまたは帽子(80)に固定的に取り付けられる構成、ヘットフォンとして組み込まれる構成、バックパック形式の構成でユーザ(60)の胴に取り外し可能に取り付けられる構成、または図2Cの実施形態に示されるようにベルト結合形式の構成でユーザ(60)の尻(84)に取り外し可能に取り付けられる構成等、各種の構成で搭載され得る。
ローカル処理およびデータモジュール(70)は、省電力プロセッサまたはコントローラのみならず、フラッシュメモリ等のデジタルメモリも備え得、それらの両方が、画像捕捉デバイス(カメラ等)、マイクロフォン、慣性測定ユニット、加速度計、コンパス、GPSユニット、ラジオデバイス、および/またはジャイロ等、フレーム(64)に動作可能に結合され得るセンサから捕捉されたデータ;および/または、リモート処理モジュール(72)および/またはリモートデータリポジトリ(74)を用いて獲得されおよび/または処理されたデータの処理、キャッシング、および格納を(おそらく、そのような処理または回収の後、ディスプレイ(62)への受け渡しのために)支援するために活用され得る。
ローカル処理およびデータモジュール(70)は、例えば、有線または無線通信リンクを介してリモート処理モジュール(72)およびリモートデータリポジトリ(74)に動作可能に結合され得(76,78)、それによって、これらのリモートモジュール(72,74)は、互いに動作可能に結合され、ローカル処理およびデータモジュール(70)へのリソースとして利用可能である。
1つの実施形態では、リモート処理モジュール(72)は、データおよび/または画像情報を分析し、処理するように構成された1つ以上の比較的強力なプロセッサまたはコントローラを備え得る。1つの実施形態では、リモートデータリポジトリ(74)は、比較的大規模なデジタルデータストレージファシリティを備え得、それは、「クラウド」リソース構成においてインターネットまたは他のネットワーク構成を通じて利用可能であり得る。1つの実施形態では、ローカル処理およびデータモジュールにおいて、全てのデータが記憶され得、全ての演算が実施され得、それによって、任意のリモートモジュールから完全に自律した使用を可能にする。
例示的複合現実システム
例示的複合現実システム1212(図2A-図2Dに描写される例示的ARシステムに対応し得る)は、ウェアラブル頭部デバイス(例えば、ウェアラブル拡張現実頭部デバイス、またはウェアラブル複合現実頭部デバイス)を含み得、ウェアラブル頭部デバイスは、ディスプレイ(左および右の透過ディスプレイを含むこともあるし、耳近傍のディスプレイであることもあるし、ディスプレイからユーザの眼に光を結合するための関連コンポーネントであることもある)と;左および右のスピーカ(例えば、それぞれ、ユーザの左耳および右耳に隣接して位置付けられる)と;慣性測定ユニット(IMU)(例えば、頭部デバイスのテンプルアームに搭載される)と;直交コイル電磁気受信器(例えば、左のテンプルピースに搭載される)と;ユーザから離れて向けられた左および右のカメラ(例えば、深度(飛行時間)カメラ)と;(例えば、ユーザの眼の移動を検出するための)ユーザに向けられた左眼カメラおよび右眼カメラとを備えている。しかしながら、複合現実システム1212は、任意の適切なディスプレイテクノロジと、任意の適切なセンサ(例えば、光、赤外線、音響、LIDAR、EOG、GPS、磁気)とを組み込み得る。加えて、複合現実システム1212は、ネットワーク特徴(例えば、Wi-Fi性能)を組み込み、他の複合現実システムを含む他のデバイスおよびシステムと通信し得る。複合現実システム1212は、バッテリ(ユーザの腰のまわりに装着されるように設計されたベルトパック等、補助的ユニットとして搭載され得る)と、プロセッサと、メモリとをさらに含み得る。複合現実システム1212のウェアラブル頭部デバイスは、IMUまたは他の適切なセンサ等の追跡コンポーネントを含み得、追跡コンポーネントは、ユーザの環境に対するウェアラブル頭部デバイスの一連の座標を出力するように構成されている。いくつかの例では、追跡コンポーネントは、同時位置特定およびマッピング(SLAM)および/またはビジュアルオドメトリアルゴリズムを実施するプロセッサに入力を提供し得る。いくつかの例では、複合現実システム1212は、ハンドヘルドコントローラ1400および/または補助ユニット1420も含み得、それらは、以下でさらに説明されるようなウェアラブルベルトパックであり得る。
図13A-図13Dは、MRE(MRE1250に対応し得る)または他の仮想環境をユーザに提示するために用いられ得る例示的複合現実システム1300(複合現実システム1300は、複合現実システム1212に対応し得る)のコンポーネントを例証している。図13Aは、例示的複合現実システム1300に含まれるウェアラブル頭部デバイス2102の透視図を例証している。図13Bは、ユーザの頭部2202に装着されたウェアラブル頭部デバイス2102の上面図を例証している。図13Cは、ウェアラブル頭部デバイス2102の前面図を例証している。図13Dは、ウェアラブル頭部デバイス2102の例示的接眼レンズ2110の側面図を例証している。図13A-図13Cに示されているように、例示的ウェアラブル頭部デバイス2102は、例示的な左接眼レンズ(例えば、左透明導波路セット接眼レンズ)2108と、例示的な右接眼レンズ(例えば、右透明導波路セット接眼レンズ)2110とを含む。各接眼レンズ2108および2110は、透過要素(それを通して現実環境が視認可能であり得る)のみならず、(例えば、画像変調光を介して)現実環境と重複する表示を提示するためのディスプレイ要素も含み得る。いくつかの例では、そのようなディスプレイ要素は、画像変調光の流れを制御するための表面回折光学素子を含み得る。例えば、左接眼レンズ2108は、左内部結合回折格子セット2112と、左直交瞳拡大(OPE)回折格子セット2120と、左射出(出力)瞳拡大(EPE)回折格子セット2122とを含み得る。同様に、右接眼レンズ2110は、右内部結合回折格子セット2118と、右OPE回折格子セット2114と、右EPE回折格子セット2116とを含み得る。画像変調光は、内部結合回折格子2112および2118、OPE2114および2120、ならびにEPE2116および2122を介してユーザの眼に伝送され得る。各内部結合回折格子セット2112、2118は、その対応するOPE回折格子セット2120、2114に向かって光を偏向させるように構成され得る。各OPE回折格子セット2120、2114は、その関連するEPE2122、2116に向かって下方に光を増加的に偏向させるように設計され、それによって、形成された射出瞳を水平に伸ばし得る。各EPE2122、2116は、その対応するOPE回折格子セット2120、2114から受け取られた光の少なくとも一部を、接眼レンズ2108、2110の後方に画定されたユーザのアイボックス位置(示されず)に向かって外側に増加的に向け直すように構成され、アイボックスにおいて形成される射出瞳を鉛直方向に伸ばし得る。あるいは、内部結合回折格子セット2112および2118、OPE回折格子セット2114および2120、ならびにEPE回折格子セット2116および2122の代わりに、接眼レンズ2108および2110は、ユーザの眼への画像変調光の結合を制御するための回折格子および/または屈折および反射特徴の他の配置を含み得る。
いくつかの例では、ウェアラブル頭部デバイス2102は、左テンプルアーム2130と右テンプルアーム2132とを含み得、左テンプルアーム2130は、左スピーカ2134を含み、右テンプルアーム2132は、右スピーカ2136を含む。直交コイル電磁気受信器2138は、左テンプルピースか、またはウェアラブル頭部ユニット2102内の別の適切な場所に位置し得る。慣性測定ユニット(IMU)2140は、右テンプルアーム2132、またはウェアラブル頭部デバイス2102内の別の適切な場所に位置し得る。ウェアラブル頭部デバイス2102は、左深度(例えば、飛行時間)カメラ2142、および右深度カメラ2144も含み得る。深度カメラ2142、2144は、適切に異なる方向に向けられ、一緒になってより広い視野をカバーし得る。
図13A-図13Dに示される例では、左画像変調光源2124が、左内部結合回折格子セット2112を通して左接眼レンズ2108に光結合され得、右画像変調光源2126は、右内部結合回折格子セット2118を通して右接眼レンズ2110に光結合され得る。画像変調光源2124、2126は、例えば、光ファイバスキャナ;デジタル光処理(DLP)チップまたはシリコン上液晶(LCoS)変調器等の電子的光変調器を含むプロジェクタ;または、発光ディスプレイ(片面当たり1つ以上のレンズを用いて内部結合回折格子セット2112、2118に結合されたマイクロ発光ダイオード(μLED)もしくはマイクロ有機発光ダイオード(μOLED)パネル等)を含み得る。入力カップリング回折格子セット2112、2118は、画像変調光源2124、2126からの光を接眼レンズ2108、2110に関する全内反射(TIR)の臨界角より大きい角度に偏向させ得る。OPE回折格子セット2114、2120は、TIRによって伝播している光をEPE回折格子セット2116、2122に向かって下方に増加的に偏向させる。EPE回折格子セット2116、2122は、ユーザの眼の瞳を含むユーザの顔に向かって光を増加的に結合する。
いくつかの例では、図13Dに示されるように、左接眼レンズ2108および右接眼レンズ2110の各々が、複数の導波路2402を含む。例えば、各接眼レンズ2108、2110は、複数の個々の導波路を含み得、各導波路は、それぞれの色チャンネル(例えば、赤、青および緑)専用である。いくつかの例では、各接眼レンズ2108、2110は、複数の組のそのような導波路を含み得、各組は、異なる波面曲率を発せられる光に与えるように構成されている。波面曲率は、ユーザの眼に対して凸であり、例えば、ユーザの前方のある距離に(例えば、各々の波面曲率の逆数に対応する距離だけ)位置付けられた仮想オブジェクトを提示し得る。いくつかの例では、EPE回折格子セット2116、2122は、湾曲した回折溝を含み、各EPEを横断する射出光のポインティングベクトルを変更することによって凸波面曲率をもたらし得る。
いくつかの例では、表示されるコンテンツが3次元であることの知覚を創出するために、立体的に調節された左眼画像および右眼画像が、画像光変調器2124、2126および接眼レンズ2108、2110を通してユーザに提示され得る。3次元仮想オブジェクトの提示の知覚される現実性は、立体的な左画像および右画像によって示される距離に近い距離で仮想オブジェクトが表示されるように導波路(および、したがって、波面曲率に対応する)を選択することによって高められ得る。この技術は、何人かのユーザによって体験される乗り物酔い(乗り物酔いは、立体的な左眼画像および右眼画像によって提供される深度知覚キューと、人間の眼の自律的遠近調節(例えば、オブジェクト距離依存フォーカス)との間の差異によって引き起こされ得る)も低減させ得る。
図13Dは、例示的ウェアラブル頭部デバイス2102の右接眼レンズ2110の上からの側面図を例証している。図13Dに示されるように、複数の導波路2402は、3つの導波路の第1のサブセット2404と、3つの導波路の第2のサブセット2406とを含み得る。導波路の2つのサブセット2404、2406は、異なる回折線曲率を特徴とする異なるEPE回折格子によって区別され、射出光に異なる波面曲率を与え得る。導波路のサブセット2404、2406の各々内において、各導波路は、異なるスペクトルチャンネル(例えば、赤、緑および青スペクトルチャンネルのうちの1つ)をユーザの右眼2206に結合するために用いられ得る。(図13Dに示されていないが、左接眼レンズ2108の構造は、右接眼レンズ2110の構造に類似している。)
図14Aは、複合現実システム1300の例示的ハンドヘルドコントローラコンポーネント1400を例証している。いくつかの例では、ハンドヘルドコントローラ1400は、グリップ部分1446と、頂面1448に沿って配置された1つ以上のボタン1450とを含む。いくつかの例では、ボタン1450は、カメラまたは他の光センサ(カメラまたは他の光センサは、複合現実システム1300の頭部ユニット(例えば、ウェアラブル頭部デバイス2102)内に搭載され得る)を伴う光追跡標的としての使用のために(例えば、ハンドヘルドコントローラ1400の6自由度(6DOF)の運動を追跡するために)構成され得る。いくつかの例では、ハンドヘルドコントローラ1400は、位置または向き(ウェアラブル頭部デバイス2102に対する位置または向き等)を検出するための追跡コンポーネント(例えば、IMUまたは他の適切なセンサ)を含む。いくつかの例では、そのような追跡コンポーネントは、ハンドヘルドコントローラ1400のハンドル内に位置付けられ得、および/または、ハンドヘルドコントローラに機械的に結合され得る。ハンドヘルドコントローラ1400は、ボタンの押下された状態のうちの1つ以上;または、(例えば、IMUによる)ハンドヘルドコントローラ1400の位置、向き、および/または移動に対応する1つ以上の出力信号を提供するように構成され得る。そのような出力信号は、複合現実システム1300のプロセッサへの入力として用いられ得る。そのような入力は、ハンドヘルドコントローラの位置、向きおよび/または移動(および、拡大して考えると、コントローラを保持するユーザの手の位置、向き、および/または移動)に対応し得る。そのような入力は、ユーザ押下ボタン1450にも対応し得る。
図14Bは、複合現実システム1300の例示的補助ユニット1420を例証している。補助ユニット1420は、システム1300を動作させるためにエネルギーを提供するためのバッテリを含み得、補助ユニット1420は、システム1300を動作させるためのプログラムを実行させるためのプロセッサを含み得る。示されているように、例示的補助ユニット1420は、補助ユニット1420をユーザのベルトに取り付けるため等のクリップ2128を含む。ユニットをユーザのベルトに搭載することを伴わないフォームファクタを含む他のフォームファクタが、補助ユニット1420に適しており、明らかであろう。いくつかの例では、補助ユニット1420は、複数のコンジットケーブルを通してウェアラブル頭部デバイス2102に結合され、複数導管ケーブルは、例えば、電気ワイヤおよびファイバオプティクスを含み得る。補助ユニット1420とウェアラブル頭部デバイス2102との間の無線接続も用いられ得る。
いくつかの例では、複合現実システム1300は、音を検出して対応する信号を複合現実システムに提供するための1つ以上のマイクロフォンを含み得る。いくつかの例では、マイクロフォンは、ウェアラブル頭部デバイス2102に取り付けられ、またはそれと統合され得、マイクロフォンは、ユーザの声を検出するように構成され得る。いくつかの例では、マイクロフォンは、ハンドヘルドコントローラ1400および/または補助ユニット1420に取り付けられ、またはそれと統合され得る。そのようなマイクロフォンは、環境音、周囲のノイズ、ユーザまたは第三者の声、または他の音を検出するように構成され得る。
例示的複合現実ネットワークアーキテクチャ
ここで図3を参照すると、概略図は、クラウドコンピューティングアセット(46)とローカル処理アセットとの間の連携を例証しており、ローカル処理アセットは、例えば、ユーザの頭部(120)に結合されている頭部搭載型構成部品(58)、ならびに、ユーザのベルト(308)に結合されているローカル処理およびデータモジュール(70)内に存在し得る。コンポーネント70は、「ベルトパック」70とも称され得る。1つの実施形態では、1つ以上のサーバシステム(110)等のクラウド(46)アセットは、例えば有線または無線のネットワーキング(無線は移動性のために好ましく、有線は所望され得る特定の高帯域幅または大データ量転送のために好ましい)を介して、上で説明されるようにユーザの頭部(120)およびベルト(308)に結合されているローカルコンピューティングアセット(プロセッサおよびメモリ構成等)のうちの一方または両方に直接的に(40、42)動作可能に結合され得る(115)。ユーザにローカルなこれらのコンピューティングアセットは、図8を参照して下記で議論される有線結合(68)等の有線および/または無線の接続構成(44)を介して、相互にも動作可能に結合され得る。1つの実施形態では、ユーザの頭部(120)に搭載されている低慣性かつ小型のサブシステムを維持するために、ユーザとクラウド(46)との間の主な転送は、ベルト(308)に搭載されたサブシステムとクラウドとの間のリンクを介し得る。頭部搭載型(120)サブシステムは、主に、個人用コンピューティング周辺機器接続用途において現在採用され得る超広帯域幅(「UWB」)接続等の無線の接続を用いて、ベルトベースの(308)サブシステムへデータテザリングされ得る。
効率的なローカルな処理とリモート処理との連携、および図2Aに示されているユーザインタフェースもしくはユーザディスプレイシステム(62)またはそれらの変形等のユーザのための適当なディスプレイデバイスによって、ユーザの現在の実際の場所または仮想の場所に適切な1つの世界の側面が、ユーザに転送または「渡され」、効率的な手法で更新され得る。つまり、世界のマップは、格納場所で継続的に更新され得、格納場所は、部分的にユーザのARシステム上に存在し得、部分的にクラウドリソース内に存在し得る。マップ(「渡すことが可能な世界モデル」とも称される)は、現実世界に関するラスタ像と、3Dおよび2Dポイントと、パラメータ情報と、他の情報とを備えている大きなデータベースであり得る。ますます多くのARユーザが彼らの現実環境についての情報を(例えばカメラ、センサ、IMU等を通して)継続的に捕捉するにつれて、マップは、ますます正確かつ完璧になり得る。
クラウドコンピューティングリソース上に存在し得、そこから配布され得る1つの世界モデルが存在する上で説明されるような構成では、そのような世界は、リアルタイムのビデオデータ等を渡して回ることが好ましい比較的低い帯域幅の形式で1人以上のユーザに「渡すことが可能」であり得る。彫像の近くに立っている人の拡張体験(すなわち、図1で示されているような体験)は、クラウドベースの世界モデルによって情報を与えられ得、そのモデルのサブセットは、ビューを仕上げるために彼らおよび彼らのローカルディスプレイデバイスへ受け継がれ得る。机上に据え置かれているパーソナルコンピュータのように単純であり得るリモートディスプレイデバイスに向かって座っている人が、クラウドから情報の同一のセクションを効率的にダウンロードし得、それを彼らのディスプレイ上でレンダリングし得る。実際、公園内で彫像の近くに実際に存在する1人が、遠隔に位置する友人を連れてその公園内を散歩し、その友人は仮想現実および拡張現実を通して参加し得る。システムは、道がどこにあるか、木がどこにあるか、彫像がどこにあるかを知っている必要があり得る。いくつかの実施形態では、そのような情報はクラウド上に記憶されており、参加する友人は、シナリオの側面をクラウドからダウンロードし、そして、実際に公園内にいる人に対してローカルな拡張現実として歩行を開始する。
3Dポイントは、環境から捕捉され得、それらの画像またはポイントを捕捉するカメラの姿勢(すなわち、世界に対するベクトルおよび/または原点位置情報)が決定され得、それによって、これらのポイントまたは画像は、この姿勢情報で「タグ付け」され得るか、またはそれに関連付けられ得る。第2のカメラによって捕捉されたポイントが、第2のカメラの姿勢を決定するために活用され得る。つまり、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを向け、および/またはそれを位置決めし得る。(位置決めされている2つのカメラが周囲に存在するので)この知識は、現実世界のテクスチャを抽出し、マップを作成し、および仮想コピーを創出するために活用され得る。
そのため、ベースレベルにおいて、1つの実施形態では、人装着型システムが、3Dポイントと、ポイントを生み出す2D画像との両方を捕捉するために活用され得、これらのポイントおよび画像が、クラウドストレージおよび処理リソースに送信され得る。ポイントおよび画像は、組み込まれた姿勢情報と一緒にローカルにキャッシュされ得(すなわち、タグ付けされた画像をキャッシュする);そのため、クラウドは、3Dポイントと一緒に、タグ付けされた(すなわち、3D姿勢でタグ付けされた)2D画像を準備のできた状態で有し得る(すなわち、利用可能なキャッシュ内にある)。ユーザが動的なものを観測している場合、運動に関係する追加の情報が、クラウドに送信され得る(例えば、別の人の顔を見ている場合、周囲の世界が別様に基本的に静的であっても、顔のテクスチャマップが撮影され得、最適化された頻度でプッシュアップされ得る)。オブジェクト認識部および渡すことが可能な世界モデルに関するより多くの情報は、「System and method for augmented and virtual reality」と題された米国特許出願第14/205,126号に見出され得、それは、その全体が参照によって本明細書中に援用される。
複合現実座標フレーム
図4は、「頭部」座標フレームを有するHMD ARデバイスを装着するユーザの例示的環境を例証している。HMDは、例えば上で説明される渡すことが可能な世界創出およびマッピングによって「世界」座標フレームを創出し得、ユーザの頭部の位置および向きが、世界座標フレームに対して測定され得る。環境は、仮想コンテンツも備え得、仮想コンテンツはそれ自身の「ローカル」座標フレームを有し得る。仮想コンテンツの配置は、ローカルから世界座標フレームへの変換を適用することによってHMDにより処理され得る。
ユーザの頭部であり得るような世界座標フレームに直接的に測定されるのでなく、仮想コンテンツにその固有の座標フレームを与えることによって、仮想コンテンツは、より永続的なフレーム位置を選択し得る。例えば、仮想ランプがテーブル上に配置されている場合、実質的に経時的に変化しない仮想ランプの相対的位置付けのための配置入力を提供するためのテーブル上の複数のデータポイントが存在し得る。対照的に、世界マップが特定の向きおよび位置の関数として創出され、ユーザがその位置または向きを変化させた場合、したがって新たな世界座標フレームを必要とする場合、仮想ランプは、ランプの出現においてジターまたは位置シフトを誘導し得る新たな世界フレームワークに調節するのでなく、同一のローカル座標フレームを活用し続け得る。
いくつかの実施形態では、座標フレームは、複合現実システム(例えば、複合現実システム1212または1300)のセンサを用いることによって確立され得る。例えば、世界座標フレームは、深度センサ、飛行時間カメラ、LIDARセンサ、および/またはRGBカメラを用いて創出され、物理的オブジェクトの互いに対する配置を識別し得る。部屋の中で用いられる複合現実システムは、部屋の物理的特徴を識別し、それらの特徴の配置を識別し得る。例えば、複合現実システムは、壁に対するデスクの配置、床に対するデスクの配置、キャビネットに対するデスクの配置、椅子に対するデスクの配置を決定し得る。ユーザが部屋中を歩き回ると、世界座標フレームは、物理的オブジェクトが異なる角度および/または異なる距離から視認されるように洗練され、相対位置をより正確に決定し得る。複合現実システムは、世界座標フレームと比較してよりローカライズされた特徴を用いて、ローカル座標フレームも確立し得る。例えば、ローカル座標フレームは、机の特徴を識別し、それらの特徴の相対的配置を識別することによって机のために確立され得る。デスクの角が識別され、互いに対して配置され得、それによって、仮想オブジェクトは、現実オブジェクトであるかのようにデスク上に据え置かれているように表示され得る。仮想オブジェクトは、ローカル座標フレームを用いて配置され得る(例えば、仮想オブジェクトの位置は、デスクの角に対して決定される)。そして、(例えば、デスクの)ローカル座標フレームは、部屋内の他の物理的オブジェクトに対してデスクを配置することが可能な世界座標フレームに変換され得る。
図5は、頭部座標フレームといずれかのディスプレイユニット(ずなわち、双眼システムにおける左/右、または単眼視野での単一のシステム)のためのレンダリングカメラとの間のさらなる座標フレーム変換を描写している。ディスプレイ媒体は、ユーザの眼に対する位置が変動し得るので、仮想コンテンツがその位置に対してレンダリングされる場合、さらなる座標フレーム分析を必要とし得る。頭部座標フレームに対するレンダリングカメラの位置は、キャリブレーションレベルイントリンシクスによって提供され得る。コンテンツがレンダリングカメラと無関係にディスプレイに投影される場合、眼の位置の変化は、意図されたコンテンツの位置をワープし得る。レンダリングカメラ変換のさらなる議論が以下で提供される。
図6は、マルチユーザシステムを表示しており、ユーザ1およびユーザ2が同一の仮想コンテンツを観測している。描写されるように、世界座標フレームは、各ユーザ自身のデバイスに対して創出されていることもあり、仮想コンテンツは、ローカル座標フレームを有し得、そして、ローカル座標フレームは、いずれかの世界座標フレーム(例えば、世界1および世界2)に変化し得る。
いくつかの実施形態では、図7に示されるように、ユーザ1およびユーザ2は、世界座標フレームを共有し得る。これは、世界座標フレームの質の小さな変動を防ぎ、システムノイズが共通のコンテンツの異なるビューを与えることを防ぎ得る。
例えば、図8Aにおいて、ユーザ1およびユーザ2は部屋内にいるが、ユーザ2は、左側の壁により近く、その結果、ユーザ2がその壁の近くのコンテンツの方を見ると、信頼性のある長期的世界座標フレームを収集し創出するためのより少ないデータポイントを有する。対照的に、ユーザ1が仮想コンテンツを見るとき、信頼性のある世界座標フレームを創出するために視線内により多くのオブジェクトが存在する。ユーザ2は、ユーザ1によって創出された世界座標フレームを活用し得る。マップの質の分析および世界座標フレームの適性は、米国特許出願第62/702829号「Methods and Apparatuses for Determining and/or Evaluating Localization Maps of Head-Worn Image Display Devices」と併せてさらに可能となり、その内容は、その全体が参照によって本明細書中に援用される。
図8Bのようにユーザ2が壁のより近くに移動する場合、ユーザ1の世界座標フレームがもはやユーザ2によって視認されないことがあり得る。ユーザ2は、頭部姿勢を測定することが可能でないこともあり、したがって、仮想コンテンツは、ユーザ2の移動によって浮くかまたはシフトし始め得る。その代わり、世界におけるより低い信頼性ではあるが、図8Cに描写されるように、新たな世界2座標フレームが創出され得る。
いくつかの実施形態において、複合現実システム(例えば、複合現実システム1212または1300)は、サーバから世界座標フレームを受信し得る。例えば、部屋は、以前の複合現実システムによってマッピングされていることもあり、確立された世界座標フレームがサーバにアップロードされ得る。新たなユーザが同一の部屋に入ると、複合現実システムは、部屋が既にマッピングされていることを認識し、サーバから適切な世界座標フレームを受信し得る。複合現実システムは、場所追跡(例えば、GPS座標またはWi-Fi三角測量)を用いて、および/またはコンピュータビジョン(例えば、部屋内の特徴を認識し、既にマッピングされた部屋の特徴にその特徴を合致させる)を用いて部屋を識別し得る。いくつかの実施形態では、サーバから受信された世界座標フレームは、ユーザ1またはユーザ2によって確立された世界座標フレームより信頼性が高くあり得る。例えば、部屋をマッピングする各複合現実システムは、追加情報をサーバにアップロードし、それによって、サーバ内に記憶されている蓄積的世界座標フレームの信頼性を増加させ得る。複合現実システムまたはサーバは、部屋が既に確立された世界座標フレームを有することを認識すると、いくつかの世界座標フレームのうちのどれがより信頼性が高いかを決定し得、複合現実システムは、最も信頼性の高い世界座標フレームを活用し得る。
図9Aは、頭部座標からディスプレイユニットに変換するための第1のレンダリングカメラプロトコルを描写している。描写されているように、ユーザの片目の瞳が位置Aから位置Bに移動する。光学的パワーを与えられると仮想オブジェクトを表示する光学的接眼レンズに関して、静止して見えるべき仮想オブジェクトは、瞳位置に基づいて2つの位置のうちの1つにおいて3Dで投影され得る(レンダリングカメラが座標フレームとして瞳を用いるように構成されていることを想定している)。つまり、頭部座標に変換された瞳座標を用いることは、ユーザの眼が移動するときに静止している仮想コンテンツにおいてジターを引き起こし得る。これは、ビュー依存型表示または投影システムと称される。
いくつかの実施形態では、図9Bに描写されるように、カメラレンダリングフレームは、全ての瞳位置を含むように、例えば、眼球の回転の中心に位置付けられている。オブジェクト投影CR領域は、瞳位置AおよびBに無関係に一致し得る。頭部座標は、カメラレンダリングフレームに変化し得、それは、ビュー独立型表示または投影システムと称される。いくつかの実施形態では、画像のワープが、眼の位置の変化を説明するために仮想コンテンツに与えられるが、これが依然として同一の位置にレンダリングするので、ジターが最小化され得る。
同期型仮想コンテンツ
仮想コンテンツが共有され得る環境の場合、さらなる実施形態が、上で詳細に説明される座標フレームプロトコルによって可能とされる。
図10Aは、ユーザ1およびユーザ2の両方に表示される共有型仮想オブジェクト1102を例証している。ユーザ1およびユーザ2は、それぞれ、視認ベクトル1および2を有し得、視認ベクトル1および2は、仮想オブジェクト1102に対する例示的x-y-z世界座標フレーム1100で測定される。いくつかの実施形態では、角度差θが、2つのベクトル間で測定され得る。ベクトル1および2は、世界座標フレームにおける仮想コンテンツに対するユーザ角度位置に基づいて、ユーザから仮想コンテンツ1102まで測定され得るが、θは、絶対的測定値でなくベクトルの比較であり得るので、座標フレームにとらわれないこともある。つまり、ユーザ1およびユーザ2が異なる世界座標フレームを用いている場合、2つのフレーム間の変換は、角度差θを決定するためだけに必要とされ得るが、θ自体は、特定の世界座標フレームを用いることに依存しない。
いくつかの実施形態では、ローカル座標フレームに固定されたコンテンツで全ての視認者にコンテンツを表示するのではなく、全ての視認者の間の共有型相互作用を高めるために、提示は、指定されたユーザとの角度関係に基づいて作成され得る。
図10Bは、ユーザ1とユーザ2との間の同期型ビューを例証しており、ユーザ1は、仮想コンテンツ1102を視認する視点を制御する「ディレクター」またはホストとして指定され、仮想コンテンツ1102を視認する全てのユーザの視点を制御し得る。ユーザ1がビューのディレクターとなっている時刻tにおいて、仮想コンテンツは、ユーザ1のそれに等しい視点で、ユーザ1が共に共有型コンテンツ視認モードにある全てのユーザに表示され得る。共有型ディレクタービューの視認者であるユーザ2は、仮想コンテンツ1102-Aがユーザ2に表示され得、それは、時刻tにおいて角度差θで回転させられた仮想オブジェクト1102であり得る。
ユーザ間でのディレクターとしてのユーザ1の立場の持続時間の間、仮想コンテンツ1102は、所与の時刻におけるそれぞれの視認ユーザとディレクターユーザとの間の角度差を反映している角度回転θで時刻tにおいて複数のユーザに表示され得る。
図11A-Bは、これをさらに例証しており、ディレクターモードであるユーザ1は、時刻tにおいて仮想オブジェクト1102のまわりを移動し、(図11Aに示されるように)ユーザ2との角度差θを有する。図11Bは、新たな角度回転を例証しており、ユーザ2に仮想コンテンツ1102-Bを表示する。ユーザ2に表示されるユーザ1の角度変化の蓄積効果は、ユーザ2が物理的に移動していないにもかかわらず、仮想コンテンツ1102がユーザ2に対して回転するように見えることがあり得る。
いくつかの実施形態では、ディレクタービューは、角度変化のみであり得、仮想コンテンツとのディレクターの相対的距離は、視認ユーザがどのように仮想コンテンツが彼らに表示されるかに影響を与えない。図11Cは、ユーザ1(ディレクター)がユーザ2に対する角度差θを有する位置を移動したが、図11Aおよび図11Bにおけるユーザ1の距離と比較して仮想コンテンツ1102との距離を減少させたシナリオを例証している。いくつかの実施形態では、これは、ユーザに対する角度回転のみを生成し得、それによって、回転のみさせられた仮想コンテンツ1102-Bが表示される。仮想コンテンツが、スケーリングされた仮想コンテンツ1102-1としてユーザ1に表示されるのに対し、ユーザ2は、1102-Bの同様にスケーリングされたバージョンを見ないこともある。いくつかの実施形態では、仮想コンテンツの表示は、仮想コンテンツ1102のためのローカル座標フレームに対するユーザ1の位置に対してスケーリングし得るが、共有型視点のビューのこの実施形態は角度差を考慮するので、そのような距離スケーリングは、共有視認者に表示されないこともある。
図11D-図11Eは、仮想コンテンツがユーザ1とユーザ1をディレクターとするユーザ2とにどのように表示され得るかに関するこの関係を例証している。図11Dは、ユーザ1の視野1104-1を例証しており、その視野を通じて、仮想コンテンツ1102-1は、角度および距離位置の両方の関数として仮想コンテンツ1102に対するユーザ1の位置に従って表示され得る。図11Eは、ユーザ2の視野1104-2を例証しており、その視野を通じて、仮想コンテンツ1102-Bは、ユーザ1に対するユーザ2の角度差に従うが、仮想コンテンツ1102からのユーザ2の距離には従わずに表示され得る。
いくつかの実施形態において、同期型視認モードで表示される仮想コンテンツは、専らホスティングユーザの視点から1人以上の視認ユーザに表示され得る。例えば、ホスティングユーザ(ディレクターであり得る)は、仮想コンテンツを選択し、同期型視認モードで表示し得る。そして、1人以上の視認ユーザは、選択された仮想コンテンツをホスティングユーザの視点から視認し得る。いくつかの実施形態では、同期型仮想コンテンツは、視認ユーザの座標フレームと無関係に表示され得る。例えば、1人以上の視認ユーザは、視認ユーザの視野の中心において同期型仮想コンテンツを視認し得る。視認ユーザの座標フレームと無関係に表示される同期型仮想コンテンツは、視認ユーザの頭部姿勢および/または場所に対して固定されていないこともある仮想コンテンツを表示し得る。例えば、視認ユーザは、複合現実システム(複合現実システム1212または1300に対応し得る)を装着している間、異なる方向に動き回り、異なる方向を見得るが、同期型仮想コンテンツは、ホスティングユーザの視点から視認ユーザに表示され続け得る。
いくつかの実施形態では、同期型仮想コンテンツは、視認ユーザの1つ以上の座標フレームを用いて1人以上の視認ユーザに表示され得る。例えば、同期型仮想コンテンツは、世界座標フレームおよびローカル座標フレームを用いて視認ユーザに表示され得る。仮想コンテンツの中心は、ローカル座標フレーム内の座標に固定され得、ローカル座標フレームは、世界座標フレーム(または他の座標フレーム)に変換され得る。仮想コンテンツの中心は、座標フレームに固定され得るが、同期型仮想コンテンツの視点は、ホスティングユーザの視点に同期させられ得る。例えば、ホスティングユーザが同期型仮想コンテンツの周りを歩き回ると、同期型仮想コンテンツは、同期型仮想コンテンツを見ている視認ユーザに対して回転して表示され得、それによって、視認ユーザはホスティングユーザと視点を共有する。いくつかの実施形態では、ホスティングユーザが同期型仮想コンテンツのより近くに移動するか、またはそれからより遠くに離れて移動すると、視認ユーザに表示される同期型仮想コンテンツは、そのサイズが視認ユーザとホスティングユーザとの両方に同じに見えるようにスケーリングし得る。いくつかの実施形態では、ホスティングユーザが同期型仮想コンテンツのより近くに移動するか、またはそれからより遠くに離れて移動すると、視認ユーザに表示される同期型仮想コンテンツは、スケーリングしないこともある(例えば、ホストユーザがより近くに移動すると、視認ユーザに表示される同期型仮想コンテンツは、より大きいサイズに見えない)。視認ユーザが視点をシフトし、同期型仮想コンテンツから目を背ける場合、同期型仮想コンテンツは、もはや視認ユーザに表示されないこともあり、同期型仮想コンテンツは、座標フレーム内の定位置に中心を置かれたままであり得る。いくつかの実施形態では、ホスティングユーザおよび視認ユーザは、座標フレーム(例えば、世界座標フレームおよび/またはローカル座標フレーム)を共有し、同期型仮想コンテンツの配置の一貫性を維持し得る。
いくつかの実施形態では、ホスティングユーザが、視認ユーザに表示され得る同期型仮想コンテンツを操作し得る。例えば、ホスティングユーザは、同期型仮想コンテンツをより大きいサイズまたはより小さいサイズにサイズ変更し得る。ホスティングユーザは、ホスティングユーザの同期型仮想コンテンツの視点を物理的に移動させることなく、およびそれをシフトすることなく、同期型仮想コンテンツを回転させることも可能である。ホスティングユーザは、同期型仮想コンテンツを異なる場所に位置変更することも可能であり、位置変更は、座標フレームおよび/または変換行列を用いて確立され得る。ホスティングユーザが、視認ユーザがホスティングユーザと同一の同期型仮想コンテンツの視点を維持するように同期型仮想コンテンツを操作している間、視認ユーザは、同期仮想コンテンツを視認し得る。いくつかの実施形態では、ホスティングユーザは、複合現実システム(例えば、複合現実システム1212または1300)を用いるユーザであり得る。他の実施形態では、ホスティングユーザは、2Dスクリーンを有し得るコンピュータまたはモバイルデバイスを用いて同期型仮想コンテンツを操作し、またはそれを視認し得る。
本発明の種々の例示的実施形態が、本明細書中で説明される。非限定的意味でこれらの例の言及がなされる。それらの例は、本発明のより広範に適用可能な側面を例証するために提供される。本発明の真の意図および範囲から逸脱することなく、種々の変更が説明された発明になされ得、同等物が代用され得る。加えて、本発明の特定の状態、材料、合成物、プロセス、プロセスアクト(単数または複数)もしくはステップ(単数または複数)を本発明の目的(単数または複数)、意図、または範囲に適合させるために、多くの修正がなされ得る。さらに、当業者によって認識されるように、本発明の範囲または意図から逸脱することなく、本明細書中で説明され例証される個々のバリエーションの各々が個別のコンポーネントおよび特徴を有し、それらは、他の多くの実施形態のうちのいずれかの特徴から容易に分離され、またはそれと組み合わせられ得る。全てのそのような修正は、この開示に関連付けられる請求項の範囲内において意図される。
本発明は、本デバイスを用いて実施され得る方法を含む。方法は、そのような適切なデバイスを提供する行為を含み得る。そのような提供は、エンドユーザによって実施され得る。つまり、「提供する」行為は、単に、本方法における必須のデバイスを提供するために、エンドユーザが、取得し、アクセスし、接近し、位置付け、設定し、作動させ、起動し、さもなければ作用することを必要とするに過ぎない。本明細書中に記載される方法は、論理的に可能である記載されたイベントの任意の順序で実行されるのみならず、イベントの記載された順序で実行され得る。
本発明の例示的な側面が、材料選択および製造に関する詳細と一緒に上述された。本発明の他の詳細について、これらは、上で言及される特許および刊行物のみならず、当業者によって一般的に知られており、または認識されている特許および刊行物とも関連して理解され得る。同じことが、一般的または論理的に採用される追加の行為の観点から、本発明の方法ベースの側面について当てはまり得る。
加えて、本発明は種々の特徴を随意に組み込んだいくつかの例に言及して説明されたが、本発明は、本発明の各バリエーションに関して想定されるものとして説明されまたは示されるものに限定されるべきではない。本発明の真の意図および範囲から逸脱することなく、種々の変更が、説明される発明になされ、(本明細書中に記載されているか、または簡潔さのために含まれていないかに関わらず)同等物が代用され得る。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、および任意の他の記載される値または介在値が本発明のうちに含まれることが理解される。
同様に、説明される本発明のバリエーションの任意の随意的特徴が、独立して、または本明細書で説明される特徴のうちの任意の1つまたは複数と組み合わせて述べられ請求され得ることが想定される。単数形のアイテムへの言及は、複数形の同一のアイテムが存在する可能性を含む。特に、本明細書およびそれに関連する請求項において用いられる場合、単数形「a」、「an」、「said」、および「the」は、そうでないことが具体的に記載されていない限り、複数形の言及を含む。つまり、冠詞の使用は、上の説明のみならず本開示に関連付けられた請求項においても、本アイテムのうちの「少なくとも1つ」を可能にする。そのような請求項は、任意の随意的要素を排除するようにドラフトされ得ることが留意される。そのため、この陳述は、請求要素の記載と関連した「solely」、「only」の類のそのような排除的用語の使用、または「ネガティブな」限定の使用のための先行する根拠として機能することを意図されている。
そのような排除的用語の使用なく、本開示に関連付けられた請求項中の用語「備えている(comprising)」は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加がそのような請求項で述べられる要素の性質を変形しているとみなされ得るかに関わらず、任意の追加の要素の包含を可能にするものとする。本明細書において具体的に定義される場合を除き、本明細書で用いられる全ての技術的用語および科学的用語は、請求項の有効性を維持しながら、可能な限り広く一般的に理解される意味として与えられるべきである。
本発明の幅は、提供される例および/または本明細書に限定されるべきではないが、本開示に関連付けられた請求項の言葉の範囲によってのみ限定されるべきである。

Claims (1)

  1. 本願明細書に記載の発明。
JP2024008629A 2018-09-25 2024-01-24 拡張現実のためのシステムおよび方法 Pending JP2024042018A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862736432P 2018-09-25 2018-09-25
US62/736,432 2018-09-25
PCT/US2019/052992 WO2020069006A1 (en) 2018-09-25 2019-09-25 Systems and methods for augmented reality
JP2021540396A JP7316360B2 (ja) 2018-09-25 2019-09-25 拡張現実のためのシステムおよび方法
JP2022141180A JP7445720B2 (ja) 2018-09-25 2022-09-06 拡張現実のためのシステムおよび方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022141180A Division JP7445720B2 (ja) 2018-09-25 2022-09-06 拡張現実のためのシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2024042018A true JP2024042018A (ja) 2024-03-27

Family

ID=69884956

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021540396A Active JP7316360B2 (ja) 2018-09-25 2019-09-25 拡張現実のためのシステムおよび方法
JP2022141180A Active JP7445720B2 (ja) 2018-09-25 2022-09-06 拡張現実のためのシステムおよび方法
JP2024008629A Pending JP2024042018A (ja) 2018-09-25 2024-01-24 拡張現実のためのシステムおよび方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2021540396A Active JP7316360B2 (ja) 2018-09-25 2019-09-25 拡張現実のためのシステムおよび方法
JP2022141180A Active JP7445720B2 (ja) 2018-09-25 2022-09-06 拡張現実のためのシステムおよび方法

Country Status (5)

Country Link
US (3) US11094127B2 (ja)
EP (1) EP3857291A4 (ja)
JP (3) JP7316360B2 (ja)
CN (2) CN113168007B (ja)
WO (1) WO2020069006A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113168007B (zh) 2018-09-25 2023-09-15 奇跃公司 用于增强现实的系统和方法
CN111523474B (zh) * 2020-04-23 2023-09-26 维沃移动通信有限公司 目标对象追踪方法及电子设备
GB2596588B (en) * 2020-07-03 2022-10-26 Sony Interactive Entertainment Inc Data processing apparatus and method
US11756225B2 (en) 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US10952006B1 (en) 2020-10-20 2021-03-16 Katmai Tech Holdings LLC Adjusting relative left-right sound to provide sense of an avatar's position in a virtual space, and applications thereof
US11076128B1 (en) 2020-10-20 2021-07-27 Katmai Tech Holdings LLC Determining video stream quality based on relative position in a virtual space, and applications thereof
US11095857B1 (en) 2020-10-20 2021-08-17 Katmai Tech Holdings LLC Presenter mode in a three-dimensional virtual conference space, and applications thereof
US11070768B1 (en) 2020-10-20 2021-07-20 Katmai Tech Holdings LLC Volume areas in a three-dimensional virtual conference space, and applications thereof
US10979672B1 (en) 2020-10-20 2021-04-13 Katmai Tech Holdings LLC Web-based videoconference virtual environment with navigable avatars, and applications thereof
US11457178B2 (en) 2020-10-20 2022-09-27 Katmai Tech Inc. Three-dimensional modeling inside a virtual video conferencing environment with a navigable avatar, and applications thereof
US11184362B1 (en) 2021-05-06 2021-11-23 Katmai Tech Holdings LLC Securing private audio in a virtual conference, and applications thereof
US11743430B2 (en) 2021-05-06 2023-08-29 Katmai Tech Inc. Providing awareness of who can hear audio in a virtual conference, and applications thereof
CN114116110A (zh) * 2021-07-20 2022-03-01 上海诺司纬光电仪器有限公司 基于增强现实的智能界面
USD1024198S1 (en) 2022-03-10 2024-04-23 Campfire 3D, Inc. Augmented reality console
USD1014499S1 (en) 2022-03-10 2024-02-13 Campfire 3D, Inc. Augmented reality headset
US11876630B1 (en) 2022-07-20 2024-01-16 Katmai Tech Inc. Architecture to control zones
US11651108B1 (en) 2022-07-20 2023-05-16 Katmai Tech Inc. Time access control in virtual environment application
US11928774B2 (en) 2022-07-20 2024-03-12 Katmai Tech Inc. Multi-screen presentation in a virtual videoconferencing environment
US11741664B1 (en) 2022-07-21 2023-08-29 Katmai Tech Inc. Resituating virtual cameras and avatars in a virtual environment
US11700354B1 (en) 2022-07-21 2023-07-11 Katmai Tech Inc. Resituating avatars in a virtual environment
US11593989B1 (en) 2022-07-28 2023-02-28 Katmai Tech Inc. Efficient shadows for alpha-mapped models
US11704864B1 (en) * 2022-07-28 2023-07-18 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11956571B2 (en) 2022-07-28 2024-04-09 Katmai Tech Inc. Scene freezing and unfreezing
US11711494B1 (en) 2022-07-28 2023-07-25 Katmai Tech Inc. Automatic instancing for efficient rendering of three-dimensional virtual environment
US11776203B1 (en) 2022-07-28 2023-10-03 Katmai Tech Inc. Volumetric scattering effect in a three-dimensional virtual environment with navigable video avatars
WO2024026245A2 (en) * 2022-07-28 2024-02-01 Katmai Tech Inc. Static rendering for a combination of background and foreground objects
US11562531B1 (en) 2022-07-28 2023-01-24 Katmai Tech Inc. Cascading shadow maps in areas of a three-dimensional environment
US11682164B1 (en) 2022-07-28 2023-06-20 Katmai Tech Inc. Sampling shadow maps at an offset
US20240073402A1 (en) * 2022-08-31 2024-02-29 Snap Inc. Multi-perspective augmented reality experience
US11748939B1 (en) 2022-09-13 2023-09-05 Katmai Tech Inc. Selecting a point to navigate video avatars in a three-dimensional environment
CN117170504B (zh) * 2023-11-01 2024-01-19 南京维赛客网络科技有限公司 在虚拟人物交互场景中带人观看的方法、系统及存储介质
CN117893692A (zh) * 2024-03-12 2024-04-16 之江实验室 一种基于对称视图的三维重建方法、装置及存储介质

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP2001022958A (ja) 1999-07-06 2001-01-26 Nippon Telegr & Teleph Corp <Ntt> 仮想空間システムにおけるオブジェクト表示方法およびオブジェクト表示プログラムを記録した記録媒体
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (de) 2001-07-06 2018-10-11 Volkswagen Ag Kopfmontiertes optisches Durchsichtssystem
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
CA2967756C (en) 2004-04-01 2018-08-28 Google Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
JP4738870B2 (ja) 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US20080211771A1 (en) * 2007-03-02 2008-09-04 Naturalpoint, Inc. Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
JP5337915B2 (ja) * 2010-09-30 2013-11-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
JP5776201B2 (ja) * 2011-02-10 2015-09-09 ソニー株式会社 情報処理装置、情報共有方法、プログラム及び端末装置
EP2691935A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130077147A1 (en) 2011-09-22 2013-03-28 Los Alamos National Security, Llc Method for producing a partially coherent beam with fast pattern update rates
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
WO2014089542A1 (en) 2012-12-06 2014-06-12 Eyefluence, Inc. Eye tracking wearable devices and methods for use
CA2896985A1 (en) 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
KR102516124B1 (ko) 2013-03-11 2023-03-29 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9685003B2 (en) * 2013-06-03 2017-06-20 Microsoft Technology Licensing, Llc Mixed reality data collaboration
US10955665B2 (en) * 2013-06-18 2021-03-23 Microsoft Technology Licensing, Llc Concurrent optimal viewing of virtual objects
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
JP2016071900A (ja) 2014-09-30 2016-05-09 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム
EP3281403A4 (en) * 2015-04-06 2018-03-07 Scope Technologies US Inc. Methods and apparatus for augmented reality applications
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
US10112111B2 (en) * 2016-03-18 2018-10-30 Sony Interactive Entertainment Inc. Spectator view perspectives in VR environments
US10099122B2 (en) * 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
US10657701B2 (en) * 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
CN109478342B (zh) 2016-07-15 2020-03-10 纳维株式会社 图像显示装置及图像显示系统
US10482665B2 (en) * 2016-12-16 2019-11-19 Microsoft Technology Licensing, Llc Synching and desyncing a shared view in a multiuser scenario
US10685489B2 (en) * 2017-03-02 2020-06-16 Daqri, Llc System and method for authoring and sharing content in augmented reality
JP6509938B2 (ja) * 2017-05-02 2019-05-08 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
US10403047B1 (en) * 2018-03-01 2019-09-03 Dell Products L.P. Information handling system augmented reality through a virtual object anchor
US20200021668A1 (en) * 2018-07-13 2020-01-16 Merge Labs, Inc. Dynamic augmented reality collaboration system using a trackable three-dimensional object
WO2020015611A1 (zh) * 2018-07-20 2020-01-23 广东虚拟现实科技有限公司 虚拟内容的交互显示方法、终端设备及存储介质
CN112639664B (zh) 2018-07-24 2023-03-24 奇跃公司 用于确定和/或评价图像显示设备的定位地图的方法和装置
US10832481B2 (en) * 2018-08-21 2020-11-10 Disney Enterprises, Inc. Multi-screen interactions in virtual and augmented reality
CN113168007B (zh) 2018-09-25 2023-09-15 奇跃公司 用于增强现实的系统和方法

Also Published As

Publication number Publication date
EP3857291A1 (en) 2021-08-04
US20220005282A1 (en) 2022-01-06
US11928784B2 (en) 2024-03-12
JP2022168029A (ja) 2022-11-04
CN113168007B (zh) 2023-09-15
JP2022502800A (ja) 2022-01-11
CN117572954A (zh) 2024-02-20
US11094127B2 (en) 2021-08-17
JP7316360B2 (ja) 2023-07-27
US11651565B2 (en) 2023-05-16
CN113168007A (zh) 2021-07-23
EP3857291A4 (en) 2021-11-24
US20200098191A1 (en) 2020-03-26
WO2020069006A1 (en) 2020-04-02
JP7445720B2 (ja) 2024-03-07
US20230162454A1 (en) 2023-05-25

Similar Documents

Publication Publication Date Title
JP7445720B2 (ja) 拡張現実のためのシステムおよび方法
US10643394B2 (en) Augmented reality
US20170053445A1 (en) Augmented Reality
CN115516364B (zh) 工具桥
JP7369212B2 (ja) 空間コンピューティングのための写実的キャラクタ構成
JP2023513250A (ja) 仮想コンテンツの動的併置
JP2023130426A (ja) 複合現実における空間命令およびガイド
US11561613B2 (en) Determining angular acceleration
US11961194B2 (en) Non-uniform stereo rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240124