JP2019139781A - 拡張現実および仮想現実のためのシステムおよび方法 - Google Patents

拡張現実および仮想現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP2019139781A
JP2019139781A JP2019046952A JP2019046952A JP2019139781A JP 2019139781 A JP2019139781 A JP 2019139781A JP 2019046952 A JP2019046952 A JP 2019046952A JP 2019046952 A JP2019046952 A JP 2019046952A JP 2019139781 A JP2019139781 A JP 2019139781A
Authority
JP
Japan
Prior art keywords
user
virtual
data
item
world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019046952A
Other languages
English (en)
Inventor
エー. ミラー サムエル
A Miller Samuel
エー. ミラー サムエル
アボビッツ ロニー
Abovitz Rony
アボビッツ ロニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2019139781A publication Critical patent/JP2019139781A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Processing Or Creating Images (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】2人またはそれを上回るユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムを提供すること。【解決手段】システムは、メモリと、処理回路と、少なくとも部分的にメモリに記憶され、仮想世界データの少なくとも一部分を処理するように処理回路によって実行可能であるソフトウェアとを備える、1つまたはそれを上回るコンピューティングデバイスを備える、コンピュータネットワークを備え、仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、第1のユーザ仮想世界の側面が第2のユーザに効果的に渡されるように、第2のユーザが第2のユーザの位置から第1の部分を体験し得るように、コンピュータネットワークは、第2のユーザに提示するために第1の部分をユーザデバイスに伝送するように動作可能である。【選択図】図1

Description

(発明の分野)
本発明は、概して、1人またはそれを上回るユーザのための双方向仮想または拡張現実環境を促進するように構成されるシステムおよび方法に関する。
(背景)
仮想および拡張現実環境は、部分的に、環境を表すデータを使用して、コンピュータによって生成される。このデータは、例えば、ユーザが感知して相互作用し得る、種々のオブジェクトを表してもよい。これらのオブジェクトの実施例は、ユーザが見るためにレンダリングおよび表示されるオブジェクト、ユーザが聞くために再生されるオーディオ、およびユーザが感じるための触知(または触覚)フィードバックを含む。ユーザは、種々の視覚、聴覚、および触覚手段を通して、仮想および拡張現実環境を感知し、それらと相互作用してもよい。
(要約)
本発明の実施形態は、1人またはそれを上回るユーザのための仮想現実および/または拡張現実相互作用を促進するためのデバイス、システム、および方法を対象とする。
一実施形態は、ユーザディスプレイデバイスであって、ユーザの頭部に搭載可能な筐体フレームと、筐体フレームに連結され、ユーザの眼の移動を追跡し、追跡された眼移動に基づいて、焦点深度を推定するための第1の対のカメラと、光生成機構を有し、推定される焦点深度に基づいて、ディスプレイオブジェクトが焦点に現れるように、ディスプレイオブジェクトアプリと関連付けられた投影光を生成および修正するための投影モジュールと、筐体フレーム上に搭載される、レンズと、投影モジュールに通信可能に連結され、ディスプレイ画像と関連付けられたデータを投影モジュールに通信するためのプロセッサとを備える、デバイスを対象とする。レンズは、ユーザの眼の正面に位置付けられ、投影された光をユーザの眼の中に入り込ませるための少なくとも1つの透明ミラーを備えてもよい。少なくとも1つの透明ミラーは、ローカル環境からの光の透過を選択的に可能にしてもよい。
ユーザディスプレイデバイスはさらに、筐体フレーム上に搭載可能であって、第2の対のカメラのそれぞれに対応する眼の視野画像を捕捉するための第2の対のカメラを備えてもよい。プロセッサは、捕捉された視野画像に基づいて、ユーザの頭部姿勢を計算してもよい。
投影モジュールは、推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた投影された光ビームを修正するための走査式レーザ配列を備えてもよい。投影された光ビームの直径は、0.7mm未満であってもよい。
一実施形態では、第1の対のカメラは、ユーザの眼のそれぞれの移動を追跡するために、赤外線光源と対合される、赤外線カメラを備えてもよい。ユーザディスプレイデバイスはさらに、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つを感知するための少なくとも1つのセンサを備える、センサアセンブリを備えてもよい。少なくとも1つのセンサは、加速度計、コンパスまたはジャイロスコープであってもよい。プロセッサは、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つに基づいて、ユーザの頭部の姿勢を推定してもよい。ユーザディスプレイデバイスは、GPSシステムを備えてもよい。ユーザディスプレイデバイスはさらに、投影モジュールに通信可能に連結され、触知フィードバックを提供するための触覚インターフェースデバイスを備えてもよい。ユーザディスプレイデバイスはさらに、ユーザの環境をデジタル的に再構築するための環境感知システムを備えてもよい。
プロセッサは、コンピュータネットワークに通信可能に連結され、仮想世界データの少なくとも一部を伝送し、仮想世界データの別の部分を受信してもよい。
ユーザディスプレイデバイスは、頭部フレーム上に搭載可能であって、音を出力するためのオーディオスピーカモジュールを備えてもよい。ユーザディスプレイデバイスはさらに、筐体フレーム上に搭載可能であって、ユーザにローカルの音を捕捉するためのマイクロホンを備えてもよい。
投影モジュールは、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の投影された光を修正してもよい。プロセッサは、少なくとも60フレーム/秒の率でディスプレイオブジェクトのフレームをレンダリングしてもよい。
ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つであってもよい。
別の実施形態では、方法は、ユーザの眼の移動を追跡するステップと、追跡された眼移動に基づいて、ユーザの眼の焦点深度を推定するステップと、ディスプレイオブジェクトが焦点に表されるように、推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた光ビームを修正するステップと、修正された光ビームをユーザの眼の中に投影するステップとを含む。ユーザの眼に投影された投影光ビームの直径は、0.7mm未満であってもよい。
本方法はさらに、ディスプレイオブジェクトの可視化モードに基づいて、ユーザのローカル環境からの光の透過を選択的に可能にするステップを含んでもよい。可視化モードは、拡張現実モード、仮想現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つであってもよい。
本方法はさらに、ユーザの眼のそれぞれの視野画像を捕捉するステップを含んでもよい。捕捉された視野画像は、ユーザの頭部の姿勢を推定するために使用されてもよい。捕捉された視野画像は、少なくとも1つの物理的オブジェクトを物理的にレンダリングされた仮想オブジェクトに変換し、物理的にレンダリングされた仮想オブジェクトをユーザに表示するために使用されてもよい。
本方法はさらに、捕捉された視野画像内の点集合を抽出するステップと、抽出された点集合に基づいて、捕捉された視野画像内の少なくとも1つの物理的オブジェクトのための基準を作成するステップとを含んでもよい。本方法はさらに、抽出された点集合および作成された基準のうちの少なくとも1つをクラウドコンピュータに伝送するステップと、抽出された点集合および作成された基準のうちの少なくとも1つをオブジェクトのタイプにタグ付けするステップとを含んでもよい。本方法はさらに、オブジェクトのタイプと関連付けられたタグ付けされた点集合およびオブジェクトのタイプと関連付けられたタグ付けされた作成された基準のうちの少なくとも1つに基づいて、異なる物理的オブジェクトがオブジェクトのタイプに属すると認識するステップを含んでもよい。
本方法はさらに、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つを感知するステップと、少なくとも1つの感知された移動、感知された場所、感知された方向、および感知された配向に基づいて、ユーザの姿勢を計算するステップとを含んでもよい。センサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つであってもよい。
本方法はさらに、クラウドネットワークへのディスプレイオブジェクトと関連付けられた仮想世界データを処理するステップと、第2のユーザが、第2の場所におけるディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を体験し得るように、ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を第2の場所に位置する第2のユーザに伝送するステップとを含んでもよい。
本方法はさらに、物理的オブジェクトを感知するステップと、感知された物理的オブジェクトとの所定の関係に基づいて、ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を修正するステップとを含んでもよい。本方法はさらに、修正された仮想世界データを第2のユーザに提示するステップを含む。
本方法はさらに、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の光を修正するステップを含んでもよい。
本方法はさらに、ユーザインターフェースを通してユーザ入力を受信するステップと、受信されたユーザ入力に基づいて、ディスプレイオブジェクトを修正するステップとを含んでもよい。ユーザインターフェースは、触覚インターフェースデバイス、キーボード、マウス、ジョイスティック、モーションキャプチャコントローラ、光学追跡デバイス、およびオーディオ入力デバイスのうちの少なくとも1つであってもよい。ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つであってもよい。
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスを通して仮想世界データを含む仮想世界と相互作用するステップであって、頭部搭載型ユーザディスプレイデバイスは、ユーザの眼の推定される焦点深度に基づいて、仮想世界データの少なくとも一部と関連付けられたディスプレイ画像をユーザにレンダリングする、ステップと、頭部搭載型ユーザデバイスと仮想世界の相互作用およびユーザの物理的環境との相互作用のうちの少なくとも1つを起源とする付加的仮想世界データを作成するステップと、付加的仮想世界データをコンピュータネットワークに伝送するステップとを含む。仮想世界は、2次元形式または3次元形式で提示されてもよい。
本方法はさらに、第2のユーザが第2の場所からの付加的仮想世界データを体験することができるように、提示のために、付加的仮想世界データを第2の場所における第2のユーザに伝送するステップを含んでもよい。付加的仮想世界データは、頭部搭載型ユーザディスプレイデバイスを通して捕捉された視野画像と関連付けられてもよい。付加的仮想世界データは、ユーザの感知された移動、ユーザの感知された場所、ユーザの感知された方向、およびユーザの感知された配向のうちの少なくとも1つと関連付けられてもよい。付加的仮想世界データは、頭部搭載型ユーザディスプレイデバイスによって感知された物理的オブジェクトと関連付けられてもよい。付加的仮想世界データは、感知された物理的オブジェクトとの所定の関係を有するディスプレイオブジェクトと関連付けられてもよい。
本方法はさらに、ユーザ入力に基づいて、ユーザと頭部搭載型ユーザディスプレイデバイスとの間の相互作用を可能にするためのインターフェースを選択するステップと、選択されるインターフェースに基づいて、仮想世界データの少なくとも一部と関連付けられたディスプレイオブジェクトをレンダリングするステップとを含んでもよい。選択されるインターフェースは、仮想現実モード、拡張現実モード、混合現実モード、ならびに仮想現実および拡張現実モードの組み合わせのうちの1つであってもよい。
別の実施形態では、2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法は、第1のユーザの第1の可視化モードにおいて、第1のユーザディスプレイデバイスを通して仮想世界を表示するステップと、コンピュータネットワークを通して第2のユーザディスプレイに仮想世界データの少なくとも一部を伝送するステップと、第2のユーザの第2のユーザディスプレイデバイスにおいて、第2の可視化モードにおいて、仮想世界データの伝送される部分と関連付けられた仮想世界を表示するステップとを含む。第1の可視化モードは、第2の可視化モードと異なってもよい。第1の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つであってもよい。
別の実施形態では、方法は、ユーザの選択に基づいて、実際の物理的オブジェクトの画像と関連付けられたレンダリングされた物理的画像データおよび仮想ディスプレイオブジェクトと関連付けられた仮想画像データのうちの少なくとも1つを処理するステップと、ユーザによってリアルタイムで見られるような実際の物理的オブジェクト、ユーザによってリアルタイムで見られるような実際の物理的オブジェクトに基づいてレンダリングされる、レンダリングされた物理的仮想オブジェクト、および仮想ディスプレイオブジェクトの選択される組み合わせをユーザに選択的に表示するステップとを含む。実際の物理的オブジェクト、レンダリングされた物理的仮想オブジェクト、および仮想ディスプレイオブジェクトのうちの少なくとも1つは、可視化モードのユーザ入力に基づいて選択的に表示されてもよい。可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに仮想および拡張現実モードの組み合わせのうちの少なくとも1つであってもよい。
本方法はさらに、コンピュータネットワークを通して別のディスプレイオブジェクトと関連付けられた画像データを受信するステップと、ユーザが、選択される可視化モードにおいて、他のディスプレイオブジェクトを視認することができるように、画像データを選択される可視化モードと互換性があるデータ形式に変換するステップとを含む。
本方法はさらに、選択される可視化モードに基づいて、ユーザが、実際の物理的オブジェクトを視認することができるように、外側環境からの光の透過を選択的に可能にするステップを含む。
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスのレンズを通して、外側環境からの光の透過を選択的に可能にするステップを含み、頭部搭載型ユーザディスプレイデバイスは、全体的仮想オブジェクト、全体的物理的オブジェクト、または仮想オブジェクトおよび物理的オブジェクトの組み合わせのいずれかを表示するために構成される。
光の透過の選択的可能化は、所望の可視化モードに基づいてもよく、所望の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである。
本方法はさらに、ユーザが、全体的物理的オブジェクトのみを視認するように、頭部搭載型ユーザディスプレイデバイスがオフにされると、外側環境からの光の完全透過を可能にするステップを含んでもよい。
本方法はさらに、特定の形状を有する少なくとも1つのディスプレイオブジェクトと関連付けられた光ビームをユーザの眼の中に投影させるステップと、ユーザが、外側環境内の物理的オブジェクトとともに、ディスプレイオブジェクトを視認するように、少なくとも1つのディスプレイオブジェクトの特定の形状に基づいて、外側環境からの光の透過を選択的に可能にするステップとを含んでもよい。本方法はさらに、ユーザが、全体的仮想オブジェクトのみを視認することができるように、外側環境からの光の透過を防止するステップを含んでもよい。
別の実施形態では、2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法は、第1のユーザが、第1の場所における第1のユーザデバイスを通して仮想世界にアクセスするために、遠隔アバターを作成するステップと、第1のユーザが、第1の場所における第1のユーザデバイスを通して実際の地理的場所を体験することができるように、第1のユーザの遠隔アバターを実際の地理的場所に設置するステップと、実際の地理的場所に設置された遠隔アバターを通して、実際の地理的場所における第2のユーザデバイスを通して仮想世界にアクセスする第2のユーザと相互作用するステップとを含む。第1の場所は、実際の地理的場所と異なってもよく、または第1の場所は、実質的に、実際の地理的場所と同一であってもよい。
遠隔アバターは、実際の地理的場所における物理的オブジェクトと所定の関係を有してもよい。遠隔アバターは、実際の地理的場所における環境キューに応答してもよい。遠隔アバターの移動は、第1のユーザによって制御されてもよい。遠隔アバターは、実際の地理的場所における第2のユーザと相互作用してもよい。
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスを通して、ユーザの眼のそれぞれの視野画像を捕捉するステップと、捕捉された視野画像内の点集合を抽出するステップと、抽出された点集合と特定のオブジェクトを関連付けるステップと、特定のオブジェクトの関連付けられた点集合に基づいて、異なるオブジェクトを認識するステップとを含む。
別の実施形態は、2人またはそれを上回るユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムであって、1つまたはそれを上回るコンピューティングデバイスであって、メモリと、処理回路と、少なくとも部分的にメモリに記憶され、仮想世界データの少なくとも一部分を処理するように処理回路によって実行可能であるソフトウェアとを備える、1つまたはそれを上回るコンピューティングデバイスを備える、コンピュータネットワークを備え、仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、第1のユーザ仮想世界の側面が第2のユーザに効果的に渡されるように、第2のユーザが第2のユーザの位置から第1の部分を体験し得るように、コンピュータネットワークは、第2のユーザに提示するために第1の部分をユーザデバイスに伝送するように動作可能である、システムを対象とする。第1および第2のユーザは、異なる物理的位置、または実質的に同一の物理的位置にあってもよい。仮想世界の少なくとも一部分は、仮想世界データの変更に応答して変化するように構成されてもよい。仮想世界の少なくとも一部分は、ユーザデバイスによって感知される物理的オブジェクトに応答して変化するように構成されてもよい。仮想世界データの変更は、物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表してもよい。仮想世界データの変更は、所定の関係に従って、第2のユーザに提示するために第2のユーザデバイスに提示されてもよい。仮想世界は、コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能であり得る。仮想世界は、2次元形式で提示されてもよい。仮想世界は、3次元形式で提示されてもよい。ユーザデバイスは、拡張現実モードでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、仮想現実モードでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、拡張および仮想現実モードの組み合わせでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。仮想世界データは、データネットワーク上で伝送されてもよい。コンピュータネットワークは、ユーザデバイスから仮想世界データの少なくとも一部分を受信するように動作可能であり得る。ユーザデバイスに伝送される仮想世界データの少なくとも一部分は、仮想世界の少なくとも一部分を生成するための命令を備えてもよい。仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送されてもよい。1つまたはそれを上回るコンピュータサーバのうちの少なくとも1つは、ゲートウェイによって配信される仮想世界データを処理するように動作可能であり得る。
別の実施形態は、遠隔アバターが、音声抑揚および顔認識ソフトウェアからの随意的な入力を用いて、少なくとも部分的に装着型デバイス上のデータに基づいて動画化される、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
別の実施形態は、カメラ姿勢または視点位置およびベクトルが、ある世界セクタ内のいずれかの場所に配置されてもよい、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
別の実施形態は、世界またはその一部が、多様かつ選択可能な尺度でユーザを観察するためにレンダリングされてもよい、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
別の実施形態は、姿勢タグ付け画像に加えて、点またはパラメトリック線等の特徴が、世界モデルの基礎データとして利用され得、そこからソフトウェアロボットまたはオブジェクト認識装置が、セグメント化オブジェクトおよび世界モデルに手動で含むためのソース特徴をタグ付けする、実世界オブジェクトのパラメトリック表現を作成するために利用され得る、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
本発明の付加的ならびに他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ユーザディスプレイデバイスであって、
ユーザの頭部に搭載可能な筐体フレームと、
前記筐体フレームに連結され、前記ユーザの眼の移動を追跡し、前記追跡された眼移動に基づいて、焦点深度を推定するための第1の対のカメラと、
光生成機構を有し、前記推定される焦点深度に基づいて、ディスプレイオブジェクトが焦点に現れるように、ディスプレイオブジェクトアプリと関連付けられた投影光を生成および修正するための投影モジュールと、
前記筐体フレーム上に搭載される、レンズと、
前記投影モジュールに通信可能に連結され、前記ディスプレイ画像と関連付けられたデータを前記投影モジュールに通信するためのプロセッサと、
を備える、デバイス。
(項目2)
前記レンズはさらに、前記ユーザの眼の正面に位置付けられ、前記投影された光を前記ユーザの眼の中に入り込ませるための少なくとも1つの透明ミラーを備える、項目1に記載のユーザディスプレイデバイス。
(項目3)
前記少なくとも1つの透明ミラーは、選択的に、ローカル環境からの光の透過を可能にする、項目2に記載のユーザディスプレイデバイス。
(項目4)
前記筐体フレーム上に搭載可能であって、第2の対のカメラのそれぞれに対応する眼の視野画像を捕捉するための第2の対のカメラをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目5)
前記プロセッサは、前記捕捉された視野画像に基づいて、前記ユーザの頭部姿勢を計算する、項目4に記載のユーザディスプレイデバイス。
(項目6)
前記投影モジュールは、前記推定される焦点深度に基づいて、前記ディスプレイオブジェクトと関連付けられた投影された光を修正するための走査式レーザ配列を備える、項目1に記載のユーザディスプレイデバイス。
(項目7)
前記投影された光は、直径0.7mm未満を有する光ビームである、項目6に記載のユーザディスプレイデバイス。
(項目8)
前記第1の対のカメラは、前記ユーザの眼のそれぞれの移動を追跡するために、赤外線光源と対合される、赤外線カメラを備える、項目1に記載のユーザディスプレイデバイス。
(項目9)
前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つを感知するための少なくとも1つのセンサを備える、センサアセンブリをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目10)
前記少なくとも1つのセンサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つである、項目9に記載のユーザディスプレイデバイス。
(項目11)
前記プロセッサは、前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つに基づいて、前記ユーザの頭部姿勢を推定する、項目9に記載のユーザディスプレイデバイス。
(項目12)
GPSシステムをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目13)
前記プロセッサは、コンピュータネットワークに通信可能に連結され、仮想世界データの少なくとも一部を伝送し、前記仮想世界データの別の部分を受信する、項目1に記載のユーザディスプレイデバイス。
(項目14)
前記頭部フレーム上に搭載可能であって、音を出力するためのオーディオスピーカモジュールをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目15)
前記筐体フレーム上に搭載可能であって、前記ユーザにローカルの音を捕捉するためのマイクロホンをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目16)
前記投影モジュールは、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の投影された光を修正する、項目1に記載のユーザディスプレイデバイス。
(項目17)
前記プロセッサは、少なくとも60フレーム/秒の率で前記ディスプレイオブジェクトのフレームをレンダリングする、項目1に記載のユーザディスプレイデバイス。
(項目18)
前記投影モジュールに通信可能に連結され、触知フィードバックを提供するための触覚インターフェースデバイスをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目19)
前記ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つである、項目1に記載のユーザディスプレイデバイス。
(項目20)
前記ユーザの環境をデジタル的に再構築するための環境感知システムをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目21)
方法であって、
ユーザの眼の移動を追跡するステップと、
前記追跡された眼移動に基づいて、前記ユーザの眼の焦点深度を推定するステップと、
ディスプレイオブジェクトが焦点に表されるように、前記推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた光ビームを修正するステップと、
前記修正された光ビームを前記ユーザの眼の中に投影するステップと、
を含む、方法。
(項目22)
前記ディスプレイオブジェクトの可視化モードに基づいて、前記ユーザのローカル環境からの光の透過を選択的に可能にするステップをさらに含み、前記可視化モードは、拡張現実モード、仮想現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである、項目21に記載の方法。
(項目23)
前記ユーザの眼のそれぞれの視野画像を捕捉するステップをさらに含む、項目21に記載の方法。
(項目24)
前記ユーザの眼の少なくとも1つの視野画像に基づいて、前記ユーザの頭部姿勢を推定するステップをさらに含む、項目23に記載の方法。
(項目25)
前記捕捉された視野画像内の少なくとも1つの物理的オブジェクトを物理的にレンダリングされた仮想オブジェクトに変換するステップと、
前記物理的にレンダリングされた仮想オブジェクトを前記ユーザに表示するステップと、
をさらに含む、項目23に記載の方法。
(項目26)
前記捕捉された視野画像内の点集合を抽出するステップと、
前記抽出された点集合に基づいて、前記捕捉された視野画像内の少なくとも1つの物理的オブジェクトのための基準を作成するステップと、
をさらに含む、項目23に記載の方法。
(項目27)
前記抽出された点集合および前記作成された基準のうちの少なくとも1つをクラウドコンピュータに伝送するステップと、
前記抽出された点集合および前記作成された基準のうちの少なくとも1つをオブジェクトのタイプにタグ付けするステップと、
をさらに含む、項目26に記載の方法。
(項目28)
前記オブジェクトのタイプと関連付けられたタグ付けされた点集合および前記オブジェクトのタイプと関連付けられたタグ付けされた作成された基準のうちの少なくとも1つに基づいて、異なる物理的オブジェクトが前記オブジェクトのタイプに属すると認識するステップをさらに含む、項目27に記載の方法。
(項目29)
前記投影された光は、直径0.7mm未満を有する光ビームである、項目21に記載の方法。
(項目30)
前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つを感知するステップと、
前記少なくとも1つの感知された移動、感知された場所、感知された方向、および感知された配向に基づいて、前記ユーザの姿勢を計算するステップと、
をさらに含む、項目21に記載の方法。
(項目31)
前記少なくとも1つのセンサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つである、項目30に記載の方法。
(項目32)
コンピュータネットワークへの前記ディスプレイオブジェクトと関連付けられた仮想世界データを処理するステップと、
第2のユーザが、第2の場所におけるディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を体験し得るように、前記ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を第2の場所に位置する第2のユーザに伝送するステップと、
をさらに含む、項目21に記載の方法。
(項目33)
物理的オブジェクトを感知するステップと、
前記感知された物理的オブジェクトとの所定の関係に基づいて、前記ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を修正するステップと、
をさらに含む、項目32に記載の方法。
(項目34)
前記修正された仮想世界データを前記第2のユーザに提示するステップをさらに含む、項目33に記載の方法。
(項目35)
他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の光を修正するステップをさらに含む、項目21に記載の方法。
(項目36)
ユーザインターフェースを通してユーザ入力を受信するステップと、
前記受信されたユーザ入力に基づいて、前記ディスプレイオブジェクトを修正するステップと、
をさらに含む、項目21に記載の方法。
(項目37)
前記ユーザインターフェースは、触覚インターフェースデバイス、キーボード、マウス、ジョイスティック、モーションキャプチャコントローラ、光学追跡デバイス、およびオーディオ入力デバイスのうちの少なくとも1つである、項目36に記載の方法。
(項目38)
前記ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つである、項目21に記載の方法。
(項目39)
方法であって、
頭部搭載型ユーザディスプレイデバイスを通して仮想世界データを含む仮想世界と相互作用するステップであって、前記頭部搭載型ユーザディスプレイデバイスは、前記ユーザの眼の推定される焦点深度に基づいて、前記仮想世界データの少なくとも一部と関連付けられたディスプレイ画像をユーザにレンダリングする、ステップと、
前記頭部搭載型ユーザデバイスと前記仮想世界の相互作用および前記ユーザの物理的環境との相互作用のうちの少なくとも1つを起源とする付加的仮想世界データを作成するステップと、
前記付加的仮想世界データをコンピュータネットワークに伝送するステップと、
を含む、方法。
(項目40)
第2のユーザが第2の場所からの付加的仮想世界データを体験することができるように、提示のために、前記付加的仮想世界データを第2の場所における第2のユーザに伝送するステップをさらに含む、項目39に記載の方法。
(項目40)
前記付加的仮想世界データは、前記頭部搭載型ユーザディスプレイデバイスを通して捕捉された視野画像と関連付けられる、項目39に記載の方法。
(項目41)
前記付加的仮想世界データは、前記ユーザの感知された移動、前記ユーザの感知された場所、前記ユーザの感知された方向、および前記ユーザの感知された配向のうちの少なくとも1つと関連付けられる、項目39に記載の方法。
(項目42)
前記付加的仮想世界データは、前記頭部搭載型ユーザディスプレイデバイスによって感知された物理的オブジェクトと関連付けられる、項目39に記載の方法。
(項目43)
前記付加的仮想世界データは、前記感知された物理的オブジェクトとの所定の関係を有するディスプレイオブジェクトと関連付けられる、項目42に記載の方法。
(項目44)
ユーザ入力に基づいて、前記ユーザと前記頭部搭載型ユーザディスプレイデバイスとの間の相互作用を可能にするためのインターフェースを選択するステップと、 前記選択されるインターフェースに基づいて、前記仮想世界データの少なくとも一部と関連付けられたディスプレイオブジェクトをレンダリングするステップと、 をさらに含む、項目39に記載の方法。
(項目45)
前記選択されるインターフェースは、仮想現実モード、拡張現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの1つである、項目44に記載の方法。
(項目46)
前記仮想世界は、2次元形式で提示される、項目39に記載の方法。
(項目47)
前記仮想世界は、3次元形式で提示される、項目39に記載の方法。
(項目48)
2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法であって、
第1のユーザの第1の可視化モードにおいて、第1のユーザディスプレイデバイスを通して前記仮想世界を表示するステップと、
コンピュータネットワークを通して第2のユーザディスプレイに前記仮想世界データの少なくとも一部を伝送するステップと、
第2のユーザの第2のユーザディスプレイデバイスにおいて、第2の可視化モードにおいて、前記仮想世界データの伝送される部分と関連付けられた仮想世界を表示するステップと、
を含む、方法。
(項目49)
前記第1の可視化モードは、前記第2の可視化モードと異なる、項目48に記載の方法。
(項目50)
前記第1の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つである、項目48に記載の方法。
(項目51)
前記第2の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つである、項目48に記載の方法。
(項目52)
方法であって、
ユーザの選択に基づいて、実際の物理的オブジェクトの画像と関連付けられたレンダリングされた物理的画像データおよび仮想ディスプレイオブジェクトと関連付けられた仮想画像データのうちの少なくとも1つを処理するステップと、
前記ユーザによってリアルタイムで見られるような実際の物理的オブジェクト、前記ユーザによってリアルタイムで見られるような実際の物理的オブジェクトに基づいてレンダリングされる、レンダリングされた物理的仮想オブジェクト、および前記仮想ディスプレイオブジェクトの選択される組み合わせをユーザに選択的に表示するステップと、
を含む、方法。
(項目53)
実際の物理的オブジェクト、前記レンダリングされた物理的仮想オブジェクト、および前記仮想ディスプレイオブジェクトのうちの少なくとも1つは、可視化モードのユーザ入力に基づいて選択的に表示される、項目52に記載の方法。
(項目54)
前記可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想および拡張現実モードの組み合わせのうちの少なくとも1つである、項目53に記載の方法。
(項目55)
コンピュータネットワークを通して別のディスプレイオブジェクトと関連付けられた画像データを受信するステップと、
前記ユーザが、前記選択される可視化モードにおいて、他のディスプレイオブジェクトを視認することができるように、前記画像データを前記選択される可視化モードと互換性があるデータ形式に変換するステップと、
をさらに含む、項目53に記載の方法。
(項目56)
前記選択される可視化モードに基づいて、前記ユーザが、前記実際の物理的オブジェクトを視認することができるように、外側環境からの光の透過を選択的に可能にするステップをさらに含む、項目52に記載の方法。
(項目57)
方法であって、
頭部搭載型ユーザディスプレイデバイスのレンズを通して、外側環境からの光の透過を選択的に可能にするステップを含み、前記頭部搭載型ユーザディスプレイデバイスは、全体的仮想オブジェクト、全体的物理的オブジェクト、または仮想オブジェクトおよび物理的オブジェクトの組み合わせのいずれかを表示するために構成される、方法。
(項目58)
前記光の透過の選択的可能化は、所望の可視化モードに基づき、前記所望の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである、項目57に記載の方法。
(項目59)
前記ユーザが、前記全体的物理的オブジェクトのみを視認するように、前記頭部搭載型ユーザディスプレイデバイスがオフにされると、前記外側環境からの光の完全透過を可能にするステップをさらに含む、項目57に記載の方法。
(項目60)
特定の形状を有する少なくとも1つのディスプレイオブジェクトと関連付けられた光ビームを前記ユーザの眼の中に投影させるステップと、
前記ユーザが、前記外側環境内の物理的オブジェクトとともに、前記ディスプレイオブジェクトを視認するように、前記少なくとも1つのディスプレイオブジェクトの特定の形状に基づいて、前記外側環境からの光の透過を選択的に可能にするステップと、
をさらに含む、項目57に記載の方法。
(項目61)
前記ユーザが、前記全体的仮想オブジェクトのみを視認するように、前記外側環境からの光の透過を防止するステップをさらに含む、項目57に記載の方法。
(項目62)
2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法であって、
第1のユーザが、第1の場所における第1のユーザデバイスを通して前記仮想世界にアクセスするために、遠隔アバターを作成するステップと、
前記第1のユーザが、前記第1の場所における前記第1のユーザデバイスを通して前記実際の地理的場所を体験することができるように、前記第1のユーザの遠隔アバターを実際の地理的場所に設置するステップと、
前記実際の地理的場所に設置された遠隔アバターを通して、前記実際の地理的場所における第2のユーザデバイスを通して前記仮想世界にアクセスする第2のユーザと相互作用するステップと、
を含む、方法。
(項目63)
前記第1の場所は、前記実際の地理的場所と異なる、項目62に記載の方法。
(項目64)
前記第1の場所は、実質的に、前記実際の地理的場所と同一である、項目62に記載の方法。
(項目65)
前記遠隔アバターは、前記実際の地理的場所における物理的オブジェクトと所定の関係を有する、項目62に記載の方法。
(項目66)
前記遠隔アバターは、前記実際の地理的場所における環境キューに応答する、項目62に記載の方法。
(項目67)
前記遠隔アバターの移動は、前記第1のユーザによって制御される、項目62に記載の方法。
(項目68)
前記遠隔アバターは、前記実際の地理的場所における第2のユーザと相互作用することができる、項目62に記載の方法。
(項目69)
方法であって、
頭部搭載型ユーザディスプレイデバイスを通して、前記ユーザの眼のそれぞれの視野画像を捕捉するステップと、
前記捕捉された視野画像内の点集合を抽出するステップと、
前記抽出された点集合と特定のオブジェクトを関連付けるステップと、
前記特定のオブジェクトの関連付けられた点集合に基づいて、異なるオブジェクトを認識するステップと、
を含む、方法。
(項目70)
2人またはそれを上回るユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムであって、
1つまたはそれを上回るコンピューティングデバイスを備えるコンピュータネットワークであって、前記1つまたはそれを上回るコンピューティングデバイスは、メモリと、処理回路と、少なくとも部分的に前記メモリに記憶され、前記仮想世界データの少なくとも一部分を処理するように前記処理回路によって実行可能であるソフトウェアとを備える、コンピュータネットワークを備え、
前記仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、前記第1のユーザ仮想世界の側面が前記第2のユーザに効果的に渡されるように、前記第2のユーザが第2のユーザの位置から第1の部分を体験し得るように、前記コンピュータネットワークは、前記第2のユーザに提示するために前記第1の部分をユーザデバイスに伝送するように動作可能である、システム。
(項目71)
前記第1および第2のユーザは、異なる物理的位置にある、項目70に記載のシステム。
(項目72)
前記第1および第2のユーザは、実質的に同一の物理的位置にある、項目70に記載のシステム。
(項目73)
前記仮想世界の少なくとも一部分は、前記仮想世界データの変更に応答して変化する、項目70に記載のシステム。
(項目74)
前記仮想世界の少なくとも一部分は、前記ユーザデバイスによって感知される物理的オブジェクトに応答して変化する、項目70に記載のシステム。
(項目75)
仮想世界データの前記変更は、前記物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表す、項目74に記載のシステム。
(項目76)
仮想世界データの前記変更は、前記所定の関係に従って、前記第2のユーザに提示するために第2のユーザデバイスに提示される、項目75に記載のシステム。
(項目77)
前記仮想世界は、前記コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能である、項目70に記載のシステム。
(項目78)
前記仮想世界は、2次元形式で提示される、項目70に記載のシステム。
(項目79)
前記仮想世界は、3次元形式で提示される、項目70に記載のシステム。
(項目80)
前記ユーザデバイスは、拡張現実モードでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目70に記載のシステム。
(項目81)
前記ユーザデバイスは、仮想現実モードでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目70に記載のシステム。
(項目82)
前記ユーザデバイスは、拡張および仮想現実モードの組み合わせでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目80に記載のシステム。
(項目83)
前記仮想世界データは、データネットワーク上で伝送される、項目70に記載のシステム。
(項目84)
前記コンピュータネットワークは、ユーザデバイスから前記仮想世界データの少なくとも一部分を受信するように動作可能である、項目70に記載のシステム。
(項目85)
前記ユーザデバイスに伝送される前記仮想世界データの少なくとも一部分は、前記仮想世界の少なくとも一部分を生成するための命令を備える、項目70に記載のシステム。
(項目86)
前記仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送される、項目70に記載のシステム。
(項目87)
前記1つまたはそれを上回るコンピュータサーバのうちの少なくとも1つは、前記ゲートウェイによって配信される仮想世界データを処理するように動作可能である、項目86に記載のシステム。
図1は、複数のユーザのための双方向仮想または拡張現実環境を促進するための開示されたシステムの代表的な実施形態を図示する。 図2は、図1で図示されるシステムと相互作用するためのユーザデバイスの実施例を図示する。 図3は、移動式の装着型ユーザデバイスの例示的実施形態を図示する。 図4は、図3の移動式の装着型ユーザデバイスが拡張モードで動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図5は、図3の移動式の装着型ユーザデバイスが仮想モードで動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図6は、図3の移動式の装着型ユーザデバイスが混合仮想インターフェースモードで動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図7は、異なる地理的位置に位置する2人のユーザがそれぞれ、それぞれのユーザデバイスを通して、他方のユーザおよび共通仮想世界と相互作用する、実施形態を図示する。 図8は、図7の実施形態が触覚デバイスの使用を含むように拡張される、実施形態を図示する。 図9Aは、第1のユーザが、混合仮想インターフェースモードでデジタル世界と対話しており、第2のユーザが、仮想現実モードで同一のデジタル世界と対話している、混合モード対話の実施例を図示する。 図9Bは、第1のユーザが、混合仮想インターフェースモードでデジタル世界と対話し、第2のユーザが、拡張現実モードで同一のデジタル世界と対話している、混合モード対話の別の実施例を図示する。 図10は、拡張現実モードでシステムと対話するときのユーザの視界の説明図例を図示する。 図11は、ユーザが拡張現実モードでシステムと対話しているときに物理的オブジェクトによってトリガされる仮想オブジェクトを示す、ユーザの視界の説明図例を図示する。 図12は、拡張現実体験における1人のユーザが、仮想現実体験における別のユーザの存在を可視化する、拡張および仮想現実統合構成の一実施形態を図示する。 図13は、時間および/または偶発事象ベースの拡張現実体験構成の一実施形態を図示する。 図14は、仮想および/または拡張現実体験に好適なユーザ表示構成の一実施形態を図示する。 図15は、ローカルおよびクラウドベースの計算協調の一実施形態を図示する。 図16は、位置合わせ構成の種々の側面を図示する。 図17は、1つのゲーム実施形態に従う、ある家族が仮想および/または拡張現実システムのデジタル世界と相互作用する実施例を図示する。 図18は、図17のユーザによって見られるデジタル世界の環境の、ユーザの視界の説明図例を図示する。 図19は、図17のユーザによって視認される物理的環境中に存在するユーザが、装着型デバイスを通して同一のデジタル世界と相互作用することを図示する。 図20は、図19のユーザの、ユーザの視界の説明図例を図示する。 図21は、別のユーザの視界の説明図例を図示し、図17のユーザによって視認される物理的環境中にも存在する他のユーザが、モバイルデバイスを通して、図17および図19のユーザの同一のデジタル世界と相互作用する。 図22は、図17〜21の環境の、ユーザの鳥瞰図の説明図例を図示する。 図23は、複数のユーザが仮想および/または拡張現実システムと相互作用するシナリオの例を図示する。 図24Aは、図1に図示されたシステムと相互作用するためのモバイル通信デバイスの実施形態の例を図示する。 図24Bは、拡張用コンソールに可撤性かつ動作可能に連結される、図24Aのモバイル通信デバイスの実施形態の例を図示する。 図25は、大まかな位置特定の一実施形態を図示する。
(詳細な説明)
図1を参照すると、システム100は、以下で説明されるプロセスを実装するための代表的なハードウェアである。この代表的なシステムは、1つまたはそれを上回る高帯域幅インターフェース115を通して接続される1つまたはそれを上回るコンピュータサーバ110から成るコンピューティングネットワーク105を備える。コンピューティングネットワーク内のサーバは、同一場所に位置する必要はない。1つまたはそれを上回るサーバ110はそれぞれ、プログラム命令を実行するための1つまたはそれを上回るプロセッサを備える。サーバはまた、プログラム命令、およびプログラム命令の指示の下でサーバによって実行されているプロセスによって使用および/または生成されるデータを記憶するためのメモリも含む。
コンピューティングネットワーク105は、1つまたはそれを上回るデータネットワーク接続130上で、サーバ110の間で、およびサーバと1つまたはそれを上回るユーザデバイス120との間でデータを伝達する。そのようなデータネットワークの実施例は、限定ではないが、移動式および有線の両方である、ありとあらゆるタイプの公衆およびプライベートデータネットワークを含み、例えば、一般的にインターネットと呼ばれる、そのようなネットワークの多くの相互接続を含む。いかなる特定のメディア、トポロジー、またはプロトコルも、図によって暗示されることを目的としていない。
ユーザデバイスは、コンピューティングネットワーク105、またはサーバ110のうちのいずれかと直接通信するために構成される。代替として、ユーザデバイス120は、データを処理するため、および/またはネットワーク105と1つまたはそれを上回るローカルユーザデバイス120との間でデータを伝達するために、特別にプログラムされたローカルゲートウェイ140を通して、遠隔サーバ110と、および随意に、ローカルで他のユーザデバイスと通信する。
図示されるように、ゲートウェイ140は、ソフトウェア命令を実行するためのプロセッサと、ソフトウェア命令およびデータを記憶するためのメモリとを含む、別個のハードウェア構成要素として実装される。ゲートウェイは、コンピューティングネットワーク105を備える、サーバ110と通信するためのデータネットワークへの独自の有線および/または無線接続を有する。代替として、ゲートウェイ140は、ユーザによって装着または携行される、ユーザデバイス120と統合することができる。例えば、ゲートウェイ140は、ユーザデバイス120に含まれるプロセッサ上にインストールされて実行する、ダウンロード可能なソフトウェアアプリケーションとして実装されてもよい。ゲートウェイ140は、一実施形態では、データネットワーク130を介して、コンピューティングネットワーク105へのアクセスを1人またはそれを上回るユーザに提供する。
サーバ110はそれぞれ、例えば、データおよびソフトウェアプログラムを記憶するための作業メモリおよび記憶装置、プログラム命令を実行するためのマイクロプロセッサ、グラフィック、画像、ビデオ、オーディオ、およびマルチメディアファイルをレンダリングして生成するためのグラフィックプロセッサおよび他の特殊プロセッサを含む。コンピューティングネットワーク105はまた、サーバ110によってアクセス、使用、または作成されるデータを記憶するためのデバイスを備えてもよい。
サーバ、随意に、ユーザデバイス120およびゲートウェイ140上で実行するソフトウェアプログラムは、ユーザがユーザデバイス120と相互作用する、デジタル世界(本明細書では、仮想世界とも呼ばれる)を生成するために使用される。デジタル世界は、ユーザが体験して相互作用するために、ユーザデバイス120を通してユーザに提示することができる、仮想の存在しないエンティティ、環境、および条件を表す、および/または定義する、データおよびプロセスによって表される。例えば、ユーザによって視認または体験されている光景でインスタンス化されるときに物理的に存在しているように見えるであろう、何らかのタイプのオブジェクト、エンティティ、またはアイテムは、その外見、その挙動、どのようにしてユーザがそれと相互作用することを許可されるか、および他の特性の説明を含んでもよい。仮想世界(仮想オブジェクトを含む)の環境を作成するために使用されるデータは、例えば、大気データ、地形データ、気象データ、温度データ、位置データ、および仮想環境を定義する、および/または表すために使用される他のデータを含んでもよい。加えて、仮想世界の動作を支配する種々の条件を定義するデータは、例えば、物理法則、時間、空間的関係、および仮想世界(仮想オブジェクトを含む)の動作を支配する種々の条件を定義および/または作成するために使用され得る他のデータを含んでもよい。
デジタル世界のエンティティ、オブジェクト、条件、特性、挙動、または他の特徴は、概して、文脈が特に指示しない限り、本明細書ではオブジェクト(例えば、デジタルオブジェクト、仮想オブジェクト、レンダリングされた物理的オブジェクト等)と呼ばれるであろう。オブジェクトは、限定されないが、建造物、植物、車両、人、動物、生物、機械、データ、ビデオ、テキスト、写真、および他のユーザを含む、任意のタイプの有生または無生オブジェクトであってもよい。オブジェクトはまた、アイテム、挙動、または物理的世界に実際に存在する条件に関する情報を記憶するために、デジタル世界で定義されてもよい。エンティティ、オブジェクト、またはアイテムを表す、または定義する、あるいはその現在の状態を記憶するデータは、概して、本明細書では、オブジェクトデータと呼ばれる。このデータは、オブジェクトのインスタンスをインスタンス化し、ユーザがユーザデバイスを体験するために適切な方式でオブジェクトをレンダリングするように、サーバ110によって、あるいは実装に応じて、ゲートウェイ140またはユーザデバイス120によって処理される。
デジタル世界を開発および/または作成するプログラマが、オブジェクト、およびそれらがインスタンス化される条件を作成または定義する。しかしながら、デジタル世界は、他者がオブジェクトを作成または修正することを可能にすることができる。いったんオブジェクトがインスタンス化されると、オブジェクトの状態は、デジタル世界を体験している1人またはそれを上回るユーザによって、変更、制御、または操作されることを許可されてもよい。
例えば、一実施形態では、デジタル世界の開発、制作、および管理は、概して、1人またはそれを上回るシステム管理プログラマによって提供される。いくつかの実施形態では、これは、デジタル世界における話の筋、テーマ、および事象の開発、設計、および/または実行、ならびに、例えば、映画、デジタル、ネットワーク、移動、拡張現実、およびライブ娯楽等の種々の形態の事象およびメディアを通した、談話の配信を含んでもよい。システム管理プログラマはまた、デジタル世界およびそれと関連付けられるユーザコミュニティの技術管理、議論の管理、およびキュレーション、ならびに典型的にはネットワーク管理人員によって行われる他のタスクに対処してもよい。
ユーザは、概して、ユーザデバイス120として設計されている、何らかのタイプのローカルコンピューティングデバイスを使用して、1つまたはそれを上回るデジタル世界と相互作用する。そのようなユーザデバイスの実施例は、スマートフォン、タブレットデバイス、ヘッドアップディスプレイ(HUD)、ゲーム機、またはデータを伝達し、インターフェースまたはディスプレイをユーザに提供することが可能な任意の他のデバイス、あるいはそのようなデバイスの組み合わせを含むが、それらに限定されない。いくつかの実施形態では、ユーザデバイス120は、例えば、キーボード、マウス、ジョイスティック、ゲームコントローラ、触覚インターフェースデバイス、モーションキャプチャコントローラ、Leap Motion, Inc.から入手可能なもの、またはKinect(RTM)という商標の下でMicrosoftから入手可能なもの等の視覚的追跡デバイス、オーディオ機器、音声機器、プロジェクタシステム、3Dディスプレイ、およびホログラフィック3Dコンタクトレンズ等のローカル周辺または入力/出力構成要素を含み、またはそれらと通信してもよい。
システム100と相互作用するためのユーザデバイス120の実施例が、図2で図示されている。図2に示される例示的実施形態では、ユーザ210が、スマートフォン220を通して1つまたはそれを上回るデジタル世界と対話してもよい。ゲートウェイは、スマートフォン220上に記憶されて実行する、ソフトウェアアプリケーション230によって実装される。この特定の実施例では、データネットワーク130は、ユーザデバイス(すなわち、スマートフォン220)をコンピュータネットワーク105に接続する、無線移動ネットワークを含む。
好ましい実施形態の1つの実装では、システム100は、何らかのタイプのユーザデバイス120を使用して、同一のデジタル世界と、または複数のデジタル世界とそれぞれ対話する、多数の同時ユーザ(例えば、何百万人ものユーザ)をサポートすることが可能である。
ユーザデバイスは、他のユーザおよびユーザに提示されるオブジェクト(現実または仮想)を含む、ユーザとサーバ110によって生成されるデジタル世界との間の視覚、可聴、および/または物理的相互作用を可能にするためのインターフェースをユーザに提供する。インターフェースは、視認する、聞く、または別様に感知することができる、レンダリングされた光景、およびリアルタイムで光景と相互作用する能力をユーザに提供する。ユーザがレンダリングされた光景と相互作用する方式は、ユーザデバイスの能力によって決定付けられてもよい。例えば、ユーザデバイスがスマートフォンである場合、ユーザ相互作用は、ユーザがタッチスクリーンに接触することによって実装されてもよい。別の実施例では、ユーザデバイスがコンピュータまたはゲーム機である場合、ユーザ相互作用は、キーボードまたはゲームコントローラを使用して実装されてもよい。ユーザデバイスは、センサ等のユーザ相互作用を可能にする付加的な構成要素を含んでもよく、センサによって検出されるオブジェクトおよび情報(ジェスチャを含む)は、ユーザデバイスを使用した仮想世界とのユーザ相互作用を表す入力として提供されてもよい。
レンダリングされた光景は、例えば、2次元または3次元視覚表示(投影を含む)、音、および触覚または触知フィードバック等の種々の形式で提示することができる。レンダリングされた光景は、例えば、拡張現実、仮想現実、およびそれらの組み合わせを含む、1つまたはそれを上回るモードで、ユーザによって対話されてもよい。レンダリングされた光景の形式、ならびにインターフェースモードは、ユーザデバイス、データ処理能力、ユーザデバイス接続性、ネットワーク能力、およびシステム作業負荷のうちの1つまたはそれを上回るものによって決定付けられてもよい。デジタル世界と同時に相互作用する多数のユーザ、およびデータ交換のリアルタイム性質を有することは、コンピューティングネットワーク105、サーバ110、ゲートウェイ構成要素140(随意に)、およびユーザデバイス120によって可能にされる。
一実施例では、コンピューティングネットワーク105 ISは、高速接続(例えば、高帯域幅インターフェース115)を通して接続された単一および/またはマルチコアサーバ(すなわち、サーバ110)を有する、大規模コンピューティングシステムから成る。コンピューティングネットワーク105は、クラウドまたはグリッドネットワークを形成してもよい。サーバのそれぞれは、メモリを含み、デジタル世界のオブジェクトを作成、設計、変更、または処理するようにデータを実装するためのソフトウェアを記憶するためのコンピュータ可読メモリと連結される。これらのオブジェクトおよびそれらのインスタンス化は、動的であり、存在し、存在しなくなり、経時的に変化し、他の条件に応答して変化してもよい。オブジェクトの動的能力の実施例は、概して、種々の実施形態に関して本明細書で論議される。いくつかの実施形態では、システム100と対話する各ユーザはまた、1つまたはそれを上回るデジタル世界内で、オブジェクトおよび/またはオブジェクトの集合として表されてもよい。
コンピューティングネットワーク105内のサーバ110はまた、デジタル世界のそれぞれに対する計算状態データも記憶する。計算状態データ(本明細書では、状態データとも呼ばれる)は、オブジェクトデータの構成要素であってもよく、概して、時間における所与のインスタンスで、オブジェクトのインスタンスの状態を定義する。したがって、計算状態データは、経時的に変化してもよく、システム100を維持する1人またはそれを上回るユーザおよび/またはプログラマのアクションによる影響を受けてもよい。ユーザが計算状態データ(またはデジタル世界を含む他のデータ)に影響を与えると、ユーザは、デジタル世界を直接変更するか、または別様に操作する。デジタル世界が他のユーザと共有または対話される場合、ユーザのアクションは、デジタル世界と相互作用する他のユーザによって体験されるものに影響を及ぼしてもよい。したがって、いくつかの実施形態では、ユーザによって行われるデジタル世界への変更は、システム100と対話する他のユーザによって体験されるであろう。
コンピューティングネットワーク105内の1つまたはそれを上回るサーバ110に記憶されたデータは、一実施形態では、高速にて、かつ少ない待ち時間で、1つまたはそれを上回るユーザデバイス120および/またはゲートウェイ構成要素140に伝送または展開される。一実施形態では、サーバによって共有されるオブジェクトデータは、完全であり得るか、または圧縮され、ユーザ側で完全オブジェクトデータを再作成するための命令を含有し、ユーザのローカルコンピュータデバイス(例えば、ゲートウェイ140および/またはユーザデバイス120)によってレンダリングおよび可視化されてもよい。コンピューティングネットワーク105のサーバ110上で実行するソフトウェアは、いくつかの実施形態では、ユーザの特定のデバイスおよび帯域幅の関数として、デジタル世界内のオブジェクト(またはコンピューティングネットワーク105によって交換される任意の他のデータ)について、それが生成して特定のユーザのデバイス120に送信するデータを適合させてもよい。例えば、ユーザがユーザデバイス120を通してデジタル世界と相互作用するとき、サーバ110は、ユーザによって使用されている特定のタイプのデバイス、ユーザデバイスとサーバとの間のデバイスの接続性および/または利用可能な帯域幅を認識し、ユーザ相互作用を最適化するように、デバイスに送達されているデータのサイズを適切に決定して均衡を保ってもよい。これの実施例は、データが、低解像度ディスプレイを有する特定のユーザデバイス上で表示され得るように、伝送されたデータのサイズを低解像度品質に低減させることを含んでもよい。好ましい実施形態では、コンピューティングネットワーク105および/またはゲートウェイ構成要素140は、15フレーム/秒またはそれを上回り、かつ高解像度品質またはそれを上回るデータ分解能で動作するインターフェースを提示するのに十分な速度で、データをユーザデバイス120に送達する。
ゲートウェイ140は、1人またはそれを上回るユーザのためのコンピューティングネットワーク105へのローカル接続を提供する。いくつかの実施形態では、それは、ユーザデバイス120または図2に示されるもの等の別のローカルデバイス上で実行する、ダウンロード可能なソフトウェアアプリケーションによって実装されてもよい。他の実施形態では、それは、ユーザデバイス120と通信しているが、それとともに組み込まれない、または取り付けられないか、あるいはユーザデバイス120とともに組み込まれるかのいずれかである、ハードウェア構成要素(構成要素上に記憶された適切なソフトウェア/ファームウェアを伴う、プロセッサを有する構成要素)によって実装されてもよい。ゲートウェイ140は、データネットワーク130を介してコンピューティングネットワーク105と通信し、コンピューティングネットワーク105と1つまたはそれを上回るローカルユーザデバイス120との間のデータ交換を提供する。以下でさらに詳細に論議されるように、ゲートウェイ構成要素140は、ソフトウェア、ファームウェア、メモリ、および処理回路を含んでもよく、ネットワーク105と1つまたはそれを上回るローカルユーザデバイス120との間で伝達されるデータを処理することが可能であり得る。
いくつかの実施形態では、ゲートウェイ構成要素140は、特定のユーザデバイス120のための最適データ処理能力を可能にするように、ユーザデバイス120とコンピュータネットワーク105との間で交換されるデータの速度を監視して調節する。例えば、いくつかの実施形態では、ゲートウェイ140は、ユーザデバイスと接続されたインターフェースを通してユーザに提示される視野を越えるものでさえも、デジタル世界の静的および動的側面の両方をバッファリングおよびダウンロードする。そのような実施形態では、静的オブジェクトのインスタンス(構造化データ、ソフトウェア実装方法、または両方)は、(ゲートウェイ構成要素140、ユーザデバイス120、または両方のローカルにある)メモリに記憶されてもよく、コンピューティングネットワーク105および/またはユーザのデバイス120によって提供されるデータによって示されるように、ローカルユーザの現在の位置に対して参照される。例えば、他のユーザおよび/またはローカルユーザによって制御される知的ソフトウェアエージェントおよびオブジェクトを含み得る、動的オブジェクトのインスタンスが、高速メモリバッファに記憶される。ユーザに提示された光景内の2次元または3次元オブジェクトを表す、動的オブジェクトは、例えば、移動しているが変化してない静的形状、および変化している動的形状等の構成要素形状に分類することができる。変化している動的オブジェクトの一部は、ゲートウェイ構成要素140によって管理される、コンピューティングネットワーク105を通したサーバ110からのリアルタイムスレッド高優先順位データ流によって更新することができる。優先スレッドデータ流の一実施例として、ユーザの眼の60度視野内にあるデータには、より周辺にあるデータよりも高い優先順位が与えられてもよい。別の実施例は、背景の静的オブジェクトよりも、ユーザの視野内の動的キャラクタおよび/またはオブジェクトを優先することを含む。
コンピューティングネットワーク105とユーザデバイス120との間のデータ接続を管理することに加えて、ゲートウェイ構成要素140は、ユーザデバイス120に提示され得るデータを記憶および/または処理してもよい。例えば、ゲートウェイ構成要素140は、いくつかの実施形態では、コンピューティングネットワーク105から、例えば、ユーザによる視認のためにレンダリングされるグラフィカルオブジェクトを表す、圧縮データを受信し、コンピューティングネットワーク105からユーザデバイス120に伝送されるデータ負荷を軽減するように高度レンダリング技術を行ってもよい。ゲートウェイ140が別個のデバイスである、別の実施例では、ゲートウェイ140は、処理のためにデータをコンピューティングネットワーク105に伝達するよりもむしろ、オブジェクトのローカルインスタンスのデータを記憶および/または処理してもよい。
ここで図3も参照すると、デジタル世界は、ユーザのデバイスの能力に依存し得る種々の形式で、1人またはそれを上回るユーザによって体験されてもよい。いくつかの実施形態では、ユーザデバイス120は、例えば、スマートフォン、タブレットデバイス、ヘッドアップディスプレイ(HUD)、ゲーム機、または装着型デバイスを含んでもよい。概して、ユーザデバイスは、ディスプレイと連結される、デバイス上のメモリに記憶されたプログラムコードを実行するためのプロセッサと、通信インターフェースとを含むであろう。ユーザデバイスの例示的実施形態が、図3で図示されており、ユーザデバイスは、移動式の装着型デバイス、すなわち、頭部装着型表示システム300を備える。本開示の実施形態によれば、頭部装着型表示システム300は、ユーザインターフェース302と、ユーザ感知システム304と、環境感知システム306と、プロセッサ308とを含む。プロセッサ308は、代替実施形態では、頭部装着型システム300から分離している孤立構成要素として図3で示されるが、プロセッサ308は、頭部装着型システム300の1つまたはそれを上回る構成要素と統合されてもよく、または例えば、ゲートウェイ140等の他のシステム100構成要素に組み込まれてもよい。
ユーザデバイスは、デジタル世界と相互作用し、それを体験するためのインターフェース302をユーザに提示する。そのような相互作用は、ユーザおよびデジタル世界、システム100と対話する1人またはそれを上回る他のユーザ、およびデジタル世界内のオブジェクトを伴ってもよい。インターフェース302は、概して、画像および/または音声感覚入力(およびいくつかの実施形態では物理的感覚入力)をユーザに提供する。したがって、インターフェース302は、スピーカ(図示せず)と、いくつかの実施形態では、立体3D視認および/または人間の視覚系のより自然な特性を具現化する3D視認を有効にすることが可能な表示構成要素303とを含んでもよい。いくつかの実施形態では、表示構成要素303は、「オフ」設定であるときに、光学的ひずみまたはコンピューティングオーバーレイがほとんど皆無である、ユーザの周囲の物理的環境の光学的に正しい視界を有効にする、(透明OLED等の)透明インターフェースを備えてもよい。以下でさらに詳細に論議されるように、インターフェース302は、種々の視覚/インターフェース性能および機能性を可能にする、付加的な設定を含んでもよい。
ユーザ感知システム304は、いくつかの実施形態では、システム300を装着する個別ユーザに関係する、ある特徴、特性、または情報を検出するように動作可能である、1つまたはそれを上回るセンサ310を含んでもよい。例えば、いくつかの実施形態では、センサ310は、例えば、瞳孔収縮/拡張、各瞳孔の角度測定/位置付け、球形度、(経時的な眼形変化としての)眼形、および他の解剖学的データのうちの1つまたはそれを上回るもの等の、ユーザのリアルタイム光学的特性/測定を検出することが可能なカメラまたは光学検出/走査回路を含んでもよい。このデータは、ユーザの視認体験を最適化するために頭部装着型システム300および/またはインターフェースシステム100によって使用され得る情報(例えば、ユーザの視覚焦点)を提供してもよく、または情報を計算するために使用されてもよい。例えば、一実施形態では、センサ310はそれぞれ、ユーザの眼のそれぞれの瞳孔収縮速度を測定してもよい。このデータは、プロセッサ308に(あるいはゲートウェイ構成要素140に、またはサーバ110に)伝送されてもよく、データは、例えば、インターフェースディスプレイ303の輝度設定に対するユーザの反応を判定するために使用される。インターフェース302は、例えば、ディスプレイ303の輝度レベルが高すぎることをユーザの反応が示す場合に、ディスプレイ303を薄暗くすることによって、ユーザの反応に従って調整されてもよい。ユーザ感知システム304は、上記で論議される、または図3で図示されるもの以外の他の構成要素を含んでもよい。例えば、いくつかの実施形態では、ユーザ感知システム304は、ユーザから音声入力を受信するためのマイクロホンを含んでもよい。ユーザ感知システムはまた、1つまたはそれを上回る赤外線カメラセンサ、1つまたはそれを上回る可視スペクトルカメラセンサ、構造光エミッタおよび/またはセンサ、赤外光エミッタ、コヒーレント光エミッタおよび/またはセンサ、ジャイロ、加速度計、磁気探知器、近接センサ、GPSセンサ、超音波エミッタおよび検出器、ならびに触覚インターフェースを含んでもよい。
環境感知システム306は、ユーザの周囲の物理的環境からデータを取得するための1つまたはそれを上回るセンサ312を含む。センサによって検出されるオブジェクトまたは情報は、入力としてユーザデバイスに提供されてもよい。いくつかの実施形態では、この入力は、仮想世界とのユーザ相互作用を表してもよい。例えば、デスク上の仮想キーボードを視認するユーザは、仮想キーボードをタイプしているかのように指でジェスチャを使ってもよい。移動する指の動きは、センサ312によって捕捉され、入力としてユーザデバイスまたはシステムに提供されてもよく、入力は、仮想世界を変化させるため、または新しい仮想オブジェクトを作成するために使用されてもよい。例えば、指の動きは、タイピングとして(ソフトウェアプログラムを使用して)認識されてもよく、認識されたタイピングのジェスチャは、仮想キーボード上の仮想キーの既知の場所と組み合わせられてもよい。次いで、システムは、ユーザ(またはシステムと対話する他のユーザ)に表示される仮想モニタをレンダリングしてもよく、仮想モニタは、ユーザによってタイプされているテキストを表示する。
センサ312は、例えば、略外向きのカメラ、または例えば、連続的および/または断続的に投影された赤外構造光を通して、光景情報を解釈するためのスキャナを含んでもよい。環境感知システム306は、静的オブジェクト、動的オブジェクト、人、ジェスチャ、ならびに種々の照明、大気、および音響条件を含む、局所環境を検出して登録することによって、ユーザの周囲の物理的環境の1つまたはそれを上回る要素をマップするために使用されてもよい。したがって、いくつかの実施形態では、環境感知システム306は、ローカルコンピューティングシステム(例えば、ゲートウェイ構成要素140またはプロセッサ308)に組み込まれ、センサ312によって検出される1つまたはそれを上回るオブジェクトまたは情報をデジタルで再構築するように動作可能である、画像ベースの3D再構築ソフトウェアを含んでもよい。1つの例示的な実施形態では、環境感知システム306は、モーションキャプチャデータ(ジェスチャ認識を含む)、深度感知、顔認識、オブジェクト認識、独特オブジェクト特徴認識、音声/オーディオ認識および処理、音源局在化、雑音低減、赤外線または類似レーザ投影、ならびにモノクロおよび/またはカラーCMOSセンサ(または他の類似センサ)、視野センサ、および種々の他の光強化センサのうちの1つまたはそれを上回るものを提供する。環境感知システム306は、上記で論議される、または図3で図示されるもの以外の他の構成要素を含んでもよいことを理解されたい。例えば、いくつかの実施形態では、環境感知システム306は、局所環境から音声を受信するためのマイクロホンを含んでもよい。ユーザ感知システムはまた、1つまたはそれを上回る赤外線カメラセンサ、1つまたはそれを上回る可視スペクトルカメラセンサ、構造光エミッタおよび/またはセンサ、赤外光エミッタ、コヒーレント光エミッタおよび/またはセンサ、ジャイロ、加速度計、磁気探知器、近接センサ、GPSセンサ、超音波エミッタおよび検出器、ならびに触覚インターフェースを含んでもよい。
上述のように、プロセッサ308は、いくつかの実施形態では、頭部装着型システム300の他の構成要素と統合され、インターフェースシステム100の他の構成要素と統合されてもよく、または図3に示されるような孤立デバイス(装着型またはユーザから分離している)であってもよい。プロセッサ308は、物理的有線接続を通して、または、例えば、移動ネットワーク接続(携帯電話およびデータネットワークを含む)、Wi−Fi、またはBluetooth(登録商標)等の無線接続を通して、頭部装着型システム300の種々の構成要素および/またはインターフェースシステム100の構成要素に接続されてもよい。プロセッサ308は、メモリモジュール、統合および/または付加的なグラフィック処理ユニット、無線および/または有線インターネット接続性、およびソース(例えば、コンピューティングネットワーク105、ユーザ感知システム304、環境感知システム306、またはゲートウェイ構成要素140)からのデータを画像およびオーディオデータに変換することが可能なコーデックおよび/またはファームウェアを含んでもよく、画像/ビデオおよびオーディオは、インターフェース302を介してユーザに提示されてもよい。
プロセッサ308は、頭部装着型システム300の種々の構成要素のためのデータ処理、ならびに頭部装着型システム300とゲートウェイ構成要素140、いくつかの実施形態ではコンピューティングネットワーク105との間のデータ交換を取り扱う。例えば、プロセッサ308は、ユーザとコンピューティングネットワーク105との間のデータストリーミングをバッファリングおよび処理し、それによって、平滑、連続的、および高忠実度ユーザ体験を可能にするために使用されてもよい。いくつかの実施形態では、プロセッサ308は、320×240解像度で8フレーム/秒から高解像度(1280×720)で24フレーム/秒の間のいずれか、または60〜120フレーム/秒および4k解像度およびそれよりも高いもの(10k+解像度および50,000フレーム/秒)等のそれを上回るものを達成するのに十分な速度で、データを処理してもよい。加えて、プロセッサ308は、コンピューティングネットワーク105からリアルタイムでストリーミング配信されるよりもむしろ、ユーザに提示され得るデータを記憶および/または処理してもよい。例えば、プロセッサ308は、いくつかの実施形態では、コンピューティングネットワーク105から圧縮データを受信し、コンピューティングネットワーク105からユーザデバイス120に伝送されるデータ負荷を軽減するように、(明暗または陰影付け等の)高度レンダリング技術を行ってもよい。別の実施例では、プロセッサ308は、データをゲートウェイ構成要素140に、またはコンピューティングネットワーク105に伝送するよりもむしろ、ローカルオブジェクトデータを記憶および/または処理してもよい。
頭部装着型システム300は、いくつかの実施形態では、種々の視覚/インターフェース性能および機能性を可能にする、種々の設定またはモードを含んでもよい。モードは、ユーザによって手動で、あるいは頭部装着型システム300の構成要素またはゲートウェイ構成要素140によって自動的に選択されてもよい。前述のように、頭部装着型システム300の一実施例は、インターフェース302が実質的にいかなるデジタルまたは仮想コンテンツも提供しない、「オフ」モードを含む。オフモードでは、表示構成要素303は、透明であり得、それによって、光学的ひずみまたはコンピューティングオーバーレイがほとんど皆無である、ユーザの周囲の物理的環境の光学的に正しい視界を有効にする。
1つの例示的実施形態では、頭部装着型システム300は、インターフェース302が拡張現実インターフェースを提供する、「拡張」モードを含む。拡張モードでは、インターフェースディスプレイ303は、実質的に透明であり得、それによって、ユーザが局所物理的環境を視認することを可能にする。同時に、コンピューティングネットワーク105、プロセッサ308、および/またはゲートウェイ構成要素140によって提供される仮想オブジェクトデータは、物理的局所環境と組み合わせて、ディスプレイ303上で提示される。
図4は、インターフェース302が拡張モードで動作しているときにユーザによって視認されるオブジェクトの例示的実施形態を図示する。図4に示されるように、インターフェース302は、物理的オブジェクト402および仮想オブジェクト404を提示する。図4で図示される実施形態では、物理的オブジェクト402が、ユーザの局所環境に存在する実際の物理的オブジェクトである一方で、仮想オブジェクト404は、システム100によって作成され、ユーザインターフェース302を介して表示されるオブジェクトである。いくつかの実施形態では、仮想オブジェクト404は、物理的環境内の固定位置または場所で表示されてもよく(例えば、物理的環境内に位置する特定の道路標識の隣に立つ仮想サル)、またはユーザインターフェース/ディスプレイ303に対する位置に位置するオブジェクトとしてユーザに表示されてもよい(例えば、ディスプレイ303の左上隅で可視的な仮想時計または温度計)。
いくつかの実施形態では、仮想オブジェクトは、ユーザの視野内または外に物理的に存在するオブジェクトから合図を出され、またはそれによってトリガされてもよい。仮想オブジェクト404は、物理的オブジェクト402から合図を出され、またはそれによってトリガされる。例えば、物理的オブジェクト402は、実際にはスツールであってもよく、仮想オブジェクト404は、スツールの上に立つ仮想動物としてユーザに(いくつかの実施形態ではシステム100と対話する他のユーザに)表示されてもよい。そのような実施形態では、環境感知システム306は、物理的オブジェクト402をスツールとして識別する種々の特徴および/または形状パターン(センサ312によって捕捉される)を認識するために、例えば、プロセッサ308に記憶されたソフトウェアおよび/またはファームウェアを使用してもよい。例えば、スツールの最上部等のこれらの認識された形状パターンは、仮想オブジェクト404の配置をトリガするために使用されてもよい。他の実施例は、壁、テーブル、家具、車、建造物、人、床、植物、動物を含み、1つまたは複数のオブジェクトと何らかの関係を持って拡張現実体験をトリガするために、見ることができる任意のオブジェクトを使用することができる。
いくつかの実施形態では、トリガされる特定の仮想オブジェクト404は、ユーザによって選択され、あるいは頭部装着型システム300の他の構成要素またはインターフェースシステム100によって自動的に選択されてもよい。加えて、仮想オブジェクト404が自動的にトリガされる実施形態では、特定の仮想オブジェクト404は、仮想オブジェクト404が合図を出される、またはトリガされる、特定の物理的オブジェクト402(またはその特徴)に基づいて選択されてもよい。例えば、物理的オブジェクトがプール上に延在する飛び込み板として識別された場合、トリガされた仮想オブジェクトは、シュノーケル、水着、浮遊デバイス、または他の関連アイテムを着用した生物であってもよい。
別の例示的実施形態では、頭部装着型システム300は、インターフェース302が仮想現実インターフェースを提供する、「仮想」モードを含んでもよい。仮想モードでは、物理的環境は、ディスプレイ303から省略され、コンピューティングネットワーク105、プロセッサ308、および/またはゲートウェイ構成要素140によって提供される仮想オブジェクトデータは、ディスプレイ303上で提示される。物理的環境の省略は、(例えば、カバーを介して)視覚ディスプレイ303を物理的に遮断することによって、またはディスプレイ303が不透明設定に移行する、インターフェース302の特徴を通して、達成されてもよい。仮想モードでは、ライブおよび/または記憶された視覚および音声感覚が、インターフェース302を通してユーザに提示されてもよく、ユーザは、インターフェース302の仮想モードを通してデジタル世界(デジタルオブジェクト、他のユーザ等)を体験し、それと相互作用する。したがって、仮想モードでユーザに提供されるインターフェースは、仮想デジタル世界を含む、仮想オブジェクトデータから成る。
図5は、頭部装着型インターフェース302が仮想モードで動作しているときのユーザインターフェースの例示的実施形態を図示する。図5で示されるように、ユーザインターフェースは、デジタルオブジェクト510から成る仮想世界500を提示し、デジタルオブジェクト510は、大気、天気、地形、建造物、および人を含んでもよい。図5で図示されていないが、デジタルオブジェクトはまた、例えば、植物、車両、動物、生物、機械、人工知能、位置情報、および仮想世界500を定義する任意の他のオブジェクトまたは情報を含んでもよい。
別の例示的実施形態では、頭部装着型システム300は、「混合」モードを含んでもよく、頭部装着型システム300の種々の特徴(ならびに仮想および拡張モードの特徴)は、1つまたはそれを上回るカスタムインターフェースモードを作成するように組み合わせられてもよい。1つのカスタムインターフェースモード例では、物理的環境は、ディスプレイ303から省略され、仮想オブジェクトデータは、仮想モードに類似する方式でディスプレイ303上に提示される。しかしながら、このカスタムインターフェースモード例では、仮想オブジェクトは、完全に仮想であり得(すなわち、それらは局所物理的環境内に存在しない)、またはそれらは、物理的オブジェクトの代わりにインターフェース302の中で仮想オブジェクトとしてレンダリングされる、実際の局所物理的オブジェクトであってもよい。したがって、特定のカスタムモード(本明細書では混合仮想インターフェースモードと呼ばれる)では、ライブおよび/または記憶された視覚および音声感覚が、インターフェース302を通してユーザに提示されてもよく、ユーザが、完全仮想オブジェクトおよびレンダリングされた物理的オブジェクトを含むデジタル世界を体験し、それと相互作用する。
図6は、混合仮想インターフェースモードに従って動作するユーザインターフェースの例示的実施形態を図示する。図6に示されるように、ユーザインターフェースは、完全仮想オブジェクト610およびレンダリングされた物理的オブジェクト620(別様に光景の中で物理的に存在するオブジェクトのレンダリング)から成る仮想世界600を提示する。図6で図示される実施例によれば、レンダリングされた物理的オブジェクト620は、建造物620A、地面620B、およびプラットフォーム620Cを含み、オブジェクトがレンダリングされていることをユーザに示すように、太い輪郭630とともに示される。加えて、完全仮想オブジェクト610は、付加的なユーザ610A、雲610B、太陽610C、およびプラットフォーム620Cの上の炎610Dを含む。完全仮想オブジェクト610は、例えば、大気、天気、地形、建造物、人、植物、車両、動物、生物、機械、人工知能、位置情報、および仮想世界600を定義し、局所物理的環境内に存在するオブジェクトからレンダリングされていない任意の他のオブジェクトまたは情報を含んでもよいことを理解されたい。逆に、レンダリングされた物理的オブジェクト620は、インターフェース302の中で仮想オブジェクトとしてレンダリングされる、実際の局所物理的オブジェクトである。太い輪郭630は、レンダリングされた物理的オブジェクトをユーザに示すための一実施例を表す。そのようなものとして、レンダリングされた物理的オブジェクトは、本明細書で開示されるもの以外の方法を使用して等で示されてもよい。
いくつかの実施形態では、レンダリングされた物理的オブジェクト620は、環境感知システム306のセンサ312を使用して(あるいはモーションまたは画像キャプチャシステム等の他のデバイスを使用して)検出され、例えば、処理回路308に記憶されたソフトウェアおよび/またはファームウェアによって、デジタルオブジェクトデータに変換されてもよい。したがって、ユーザが混合仮想インターフェースモードでシステム100と相互作用すると、種々の物理的オブジェクトが、レンダリングされた物理的オブジェクトとしてユーザに表示されてもよい。これは、依然として局所物理的環境を安全にナビゲートすることが可能である一方で、ユーザがシステム100と相互作用することを可能にするために、特に有用であり得る。いくつかの実施形態では、ユーザは、レンダリングされた物理的オブジェクトを選択的に除去し、またはインターフェースディスプレイ303に追加することが可能であり得る。
別のカスタムインターフェースモード例では、インターフェースディスプレイ303は、実質的に透明であり得、それによって、種々の局所物理的オブジェクトが、レンダリングされた物理的オブジェクトとしてユーザに表示されている間に、ユーザが局所物理的環境を視認することを可能にする。このカスタムインターフェースモード例は、以前の実施例に関して上記で論議されるように、仮想オブジェクトのうちの1つまたはそれを上回るものがレンダリングされた物理的オブジェクトであってもよいことを除いて、拡張モードに類似する。
前述のカスタムインターフェースモード例は、頭部装着型システム300の混合モードによって提供されることが可能な種々のカスタムインターフェースモードのいくつかの例示的実施形態を表す。したがって、種々の他のカスタムインターフェースモードが、本開示の範囲から逸脱することなく、頭部装着型システム300の構成要素および上記で論議される種々のモードによって提供される、特徴および機能性の種々の組み合わせから作成されてもよい。
本明細書で論議される実施形態は、オフ、拡張、仮想、または混合モードで動作するインターフェースを提供するためのいくつかの実施例を説明するにすぎず、それぞれのインターフェースモードの範囲または内容、あるいは頭部装着型システム300の構成要素の機能性を限定することを目的としていない。例えば、いくつかの実施形態では、仮想オブジェクトは、ユーザに表示されるデータ(時間、温度、高度等)、システム100によって作成および/または選択されるオブジェクト、ユーザによって作成および/または選択されるオブジェクト、またはシステム100と対話する他のユーザを表すオブジェクトさえも含んでもよい。加えて、仮想オブジェクトは、物理的オブジェクトの拡張(例えば、物理的プラットフォームから成長する仮想彫像)を含んでもよく、かつ物理的オブジェクトに視覚的に接続され、またはそこから断絶されてもよい。
仮想オブジェクトはまた、動的であり得、時間とともに変化し、ユーザまたは他のユーザ、物理的オブジェクト、および他の仮想オブジェクトの間の種々の関係(例えば、位置、距離等)に従って変化し、および/または頭部装着型システム300、ゲートウェイ構成要素140、またはサーバ110のソフトウェアおよび/またはファームウェアで特定される他の変数に従って変化してもよい。例えば、ある実施形態では、仮想オブジェクトは、ユーザデバイスまたはその構成要素(例えば、仮想ボールは、触覚デバイスがそれの隣に配置されたときに移動する)、物理的または口頭ユーザ相互作用(例えば、仮想生物は、ユーザがそれに接近するときに逃げる、またはユーザがそれに話し掛けるときに話す)、椅子が仮想生物に投げつけられて生物が椅子を避けること、他の仮想オブジェクト(例えば、第1の仮想生物が第2の仮想生物を見るときに反応する)、位置、距離、温度、時間等の物理的変数、またはユーザの環境内の他の物理的オブジェクトに応答してもよい(例えば、物理的な道に立って示される仮想生物は、物理的な車が通過するときに扁平になる)。
本明細書で論議される種々のモードは、頭部装着型システム300以外のユーザデバイスに適用されてもよい。例えば、拡張現実インターフェースが、携帯電話またはタブレットデバイスを介して提供されてもよい。そのような実施形態では、電話またはタブレットは、ユーザの周囲の物理的環境を捕捉するためにカメラを使用してもよく、仮想オブジェクトは、電話/タブレットディスプレイ画面上でオーバーレイされてもよい。加えて、仮想モードは、電話/タブレットのディスプレイ画面上でデジタル世界を表示することによって提供されてもよい。したがって、これらのモードは、本明細書で論議される電話/タブレットの構成要素、ならびにユーザデバイスに接続される、またはユーザデバイスと組み合わせて使用される他の構成要素を使用して、上記で説明されるような種々のカスタムインターフェースモードを作成するように混合されてもよい。例えば、混合仮想インターフェースモードは、モーションまたは画像キャプチャシステムと組み合わせて動作する、コンピュータモニタ、テレビ画面、またはカメラが欠けているデバイスによって提供されてもよい。この例示的実施形態では、仮想世界は、モニタ/画面から視認されてもよく、オブジェクト検出およびレンダリングは、モーションまたは画像キャプチャシステムによって行われてもよい。
図7は、異なる地理的位置に位置する2人のユーザがそれぞれ、それぞれのユーザデバイスを通して、他方のユーザおよび共通仮想世界と相互作用する、本発明の例示的実施形態を図示する。この実施形態では、2人のユーザ701および702が、仮想ボール703(あるタイプの仮想オブジェクト)を前後に投げており、各ユーザは、仮想世界への他方のユーザの影響を観察することが可能である(例えば、各ユーザは、仮想ボールが方向を変えること、他方のユーザによって捕らえられること等を観察する)。仮想オブジェクト(すなわち、仮想ボール703)の移動および位置がコンピューティングネットワーク105内のサーバ110によって追跡されるため、システム100は、いくつかの実施形態では、各ユーザに対するボール703の到着の正確な位置およびタイミングをユーザ701および702に伝達してもよい。例えば、第1のユーザ701がロンドンに位置する場合、ユーザ701は、システム100によって計算される速度で、ロサンゼルスに位置する第2のユーザ702にボール703を投げてもよい。したがって、システム100は、ボールの到着の正確な時間および位置を(例えば、Eメール、テキストメッセージ、インスタントメッセージ等を介して)第2のユーザ702に伝達してもよい。そのようなものとして、第2のユーザ702は、ボール703が特定の時間および位置に到着することを見るために、自分のデバイスを使用してもよい。1人またはそれを上回るユーザはまた、地球を仮想的に旅するにつれて、1つまたはそれを上回る仮想オブジェクトを追跡するために、地理位置情報マッピングソフトウェア(または類似物)を使用してもよい。これの実施例は、空を見上げ、実世界に重ね合わされた、頭上を飛ぶ仮想飛行機を見ている、3D頭部装着型ディスプレイを装着したユーザであってもよい。仮想飛行機は、ユーザによって、知能ソフトウェアエージェント(ユーザデバイスまたはゲートウェイ上で実行するソフトウェア)、局所および/または遠隔に存在し得る他のユーザ、および/またはこれらの組み合わせのうちのいずれかによって飛ばされてもよい。
前述のように、ユーザデバイスは、触覚インターフェースデバイスを含んでもよく、触覚インターフェースデバイスは、触覚デバイスが、仮想オブジェクトに対して物理的空間位置に位置することがシステム100によって判定されるときに、フィードバック(例えば、抵抗、振動、光、音等)をユーザに提供する。例えば、図7に関して上記で説明される実施形態は、図8に示されるように、触覚デバイス802の使用を含むように拡張されてもよい。
この例示的実施形態では、触覚デバイス802は、野球のバットとして仮想世界で表示されてもよい。ボール703が到着するとき、ユーザ702は、仮想ボール703に向かって触覚デバイス802を振ってもよい。触覚デバイス802によって提供される仮想バットがボール703と「接触」したことをシステム100が判定した場合には、触覚デバイス802が、振動し、または他のフィードバックをユーザ702に提供してもよく、仮想ボール703は、ボールとバットとの接触の検出された速度、方向、およびタイミングに従って、システム100によって計算される方向に仮想バットを跳ね返してもよい。
開示されたシステム100は、いくつかの実施形態では、混合モード対話を促進してもよく、複数のユーザが、異なるインターフェースモード(例えば、拡張、仮想、混合等)を使用して、共通仮想世界(およびその中に含有される仮想オブジェクト)と対話してもよい。例えば、仮想インターフェースモードで特定の仮想世界と対話する第1のユーザは、拡張現実モードで同一の仮想世界と対話する第2のユーザと相互作用してもよい。
図9Aは、第1のユーザ901(混合仮想インターフェースモードでシステム100のデジタル世界と対話する)および第1のオブジェクト902が、完全仮想現実モードでシステム100の同一のデジタル世界と対話する第2のユーザ922にとって、仮想オブジェクトとして現れる、実施例を図示する。上記で説明されるように、混合仮想インターフェースモードを介してデジタル世界と対話するとき、局所物理的オブジェクト(例えば、第1のユーザ901および第1のオブジェクト902)が、走査され、仮想世界で仮想オブジェクトとしてレンダリングされてもよい。第1のユーザ901は、例えば、モーションキャプチャシステムまたは類似デバイスによって走査され、第1のレンダリングされた物理的オブジェクト931として、(モーションキャプチャシステム、ゲートウェイ構成要素140、ユーザデバイス120、システムサーバ110、または他のデバイスに記憶されたソフトウェア/ファームウェアによって)仮想世界でレンダリングされてもよい。同様に、第1のオブジェクト902は、例えば、頭部装着型インターフェース300の環境感知システム306によって走査され、第2のレンダリングされた物理的オブジェクト932として、(プロセッサ308、ゲートウェイ構成要素140、システムサーバ110、または他のデバイスに記憶されたソフトウェア/ファームウェアによって)仮想世界でレンダリングされてもよい。第1のユーザ901および第1のオブジェクト902は、物理的世界で物理的オブジェクトとして、図9Aの第1の部分910で示される。図9Aの第2の部分920では、第1のユーザ901および第1のオブジェクト902は、完全仮想現実モードでシステム100の同一のデジタル世界と対話する第2のユーザ922に現れる際に、第1のレンダリングされた物理的オブジェクト931および第2のレンダリングされた物理的オブジェクト932として示される。
図9Bは、第1のユーザ901が、上記で論議されるように、混合仮想インターフェースモードでデジタル世界と対話しており、第2のユーザ922が、拡張現実モードで同一のデジタル世界(および第2のユーザの物理的局所環境925)と対話している、混合モード対話の別の例示的実施形態を図示する。図9Bの実施形態では、第1のユーザ901および第1のオブジェクト902は、第1の物理的位置915に位置し、第2のユーザ922は、第1の位置915からいくらかの距離によって分離された、異なる第2の物理的位置925に位置する。この実施形態では、仮想オブジェクト931および932は、第2の位置925に対応する仮想世界内の位置までリアルタイム(または近リアルタイム)で転置されてもよい。したがって、第2のユーザ922は、第2のユーザの物理的局所環境925で、それぞれ第1のユーザ901および第1のオブジェクト902を表す、レンダリングされた物理的オブジェクト931および932を観察し、それらと相互作用してもよい。
図10は、拡張現実モードでシステム100と対話するときのユーザの視界の説明図例を図示する。図10に示されるように、ユーザは、局所物理的環境(すなわち、複数の建造物を有する都市)ならびに仮想キャラクタ1010(すなわち、仮想オブジェクト)を見る。仮想キャラクタ1010の位置は、2D視覚標的(例えば、看板、はがき、または雑誌)および/または建造物、車、人、動物、飛行機、建造物の部分、および/または3D物理的オブジェクト、仮想オブジェクト、および/またはそれらの組み合わせ等の1つまたはそれを上回る3D基準座標系によってトリガされてもよい。図10で図示される実施例では、都市の中の建造物の既知の位置が、仮想キャラクタ1010をレンダリングするための位置合わせ基準および/または情報および主要な特徴を提供してもよい。加えて、建造物に対するユーザの地理空間的位置(例えば、GPS、姿勢/位置センサ等によって提供される)または移動位置は、仮想キャラクタ1010を表示するために使用されるデータの伝送をトリガするように、コンピューティングネットワーク105によって使用されるデータを含んでもよい。いくつかの実施形態では、仮想キャラクタ1010を表示するために使用されるデータは、レンダリングされたキャラクタ1010および/または仮想キャラクタ1010またはその部分をレンダリングするための命令(ゲートウェイ構成要素140および/またはユーザデバイス120によって実行される)を含んでもよい。いくつかの実施形態では、ユーザの地理空間的位置が利用不可能または不明である場合、サーバ110、ゲートウェイ構成要素140、および/またはユーザデバイス120は、時間および/または他のパラメータの関数としてユーザの最後の既知の位置を使用して、特定の仮想オブジェクトおよび/または物理的オブジェクトが位置し得る場所を推定する、推定アルゴリズムを使用して、仮想オブジェクト1010を依然として表示してもよい。これはまた、ユーザのセンサが閉塞した、および/または他の誤動作を体験した場合に、任意の仮想オブジェクトの位置を判定するために使用されてもよい。
いくつかの実施形態では、仮想キャラクタまたは仮想オブジェクトは、仮想彫像を備えてもよく、仮想彫像のレンダリングは、物理的オブジェクトによってトリガされる。例えば、ここで図11を参照すると、仮想彫像1110は、実際の物理的プラットフォーム1120によってトリガされてもよい。彫像1110のトリガは、ユーザデバイスまたはシステム100の他の構成要素によって検出される視覚オブジェクトまたは特徴(例えば、基準、設計特徴、幾何学形状、パターン、物理的位置、高度等)に応答してもよい。ユーザがユーザデバイスを用いることなくプラットフォーム1120を視認するとき、ユーザは、彫像1110がないプラットフォーム1120を見る。しかしながら、ユーザがユーザデバイスを通してプラットフォーム1120を視認するとき、ユーザは、図11に示されるように、プラットフォーム1120上の彫像1110を見る。彫像1110は、仮想オブジェクトであり、したがって、静止し、活動し、経時的に、またはユーザの視認位置に対して変化し、あるいはさらに、どの特定のユーザが彫像1110を視認しているかに応じて変化してもよい。例えば、ユーザが小さい子供である場合、彫像は犬であってもよく、その上、視聴者が成人男性である場合、彫像は、図11に示されるような大きなロボットであってもよい。これらは、ユーザ依存性および状態依存性体験の実施例である。これは、1人またはそれを上回るユーザが、単独で、および/または物理的オブジェクトと組み合わせて、1つまたはそれを上回る仮想オブジェクトを知覚し、仮想オブジェクトのカスタマイズおよび個人化されたバージョンを体験することを可能にするであろう。彫像1110(またはその部分)は、例えば、ユーザデバイス上にインストールされたソフトウェア/ファームウェアを含む、システムの種々の構成要素によってレンダリングされてもよい。仮想オブジェクト(すなわち、彫像1110)の位置合わせ特徴と組み合わせて、ユーザデバイスの位置および姿勢を示すデータを使用して、仮想オブジェクト(すなわち、彫像1110)は、物理的オブジェクト(すなわち、プラットフォーム1120)との関係を形成する。例えば、1つまたはそれを上回る仮想オブジェクトと1つまたはそれを上回る物理的オブジェクトとの間の関係は、距離、位置付け、時間、地理位置情報、1つまたはそれを上回る他の仮想オブジェクトへの近接性、および/または任意の種類の仮想および/または物理的データを含む任意の他の機能的関係の関数であってもよい。いくつかの実施形態では、ユーザデバイスの中の画像認識ソフトウェアが、デジタルと物理的オブジェクトの関係をさらに強化してもよい。
開示されたシステムおよび方法によって提供される双方向インターフェースは、例えば、1つまたはそれを上回る仮想環境およびオブジェクトと相互作用すること、他のユーザと相互作用すること、ならびに広告、音楽のコンサート、および映画を含む種々の形態のメディアコンテンツを体験すること等の種々のアクティビティを促進するように実装されてもよい。しかしながら、開示されたシステムは、ユーザが、メディアコンテンツを視聴する、または聴くだけでなく、むしろ、メディアコンテンツに能動的に参加して体験するように、ユーザ相互作用を促進する。いくつかの実施形態では、ユーザ参加は、既存のコンテンツを変更すること、または1つまたはそれを上回る仮想世界でレンダリングされる新しいコンテンツを作成することを含んでもよい。いくつかの実施形態では、メディアコンテンツ、および/またはコンテンツを作成するユーザは、1つまたはそれを上回る仮想世界の創造をテーマにしてもよい。
一実施例では、音楽家(または他のユーザ)が、特定の仮想世界と相互作用するユーザにレンダリングされる音楽コンテンツを作成してもよい。音楽コンテンツは、例えば、種々のシングル、EP、アルバム、ビデオ、短編映画、およびコンサートの演奏を含んでもよい。一実施例では、多数のユーザが、音楽家によって演奏された仮想コンサートを同時に体験するように、システム100と対話してもよい。
いくつかの実施形態では、制作されるメディアは、特定のエンティティ(例えば、バンド、アーティスト、ユーザ等)と関連付けられる一意の識別子コードを含有してもよい。コードは、一式の英数字、UPCコード、QRコード(登録商標)、2D画像トリガ、3D物理的オブジェクト特徴トリガ、または他のデジタルマーク、ならびに音、画像、および/または両方の形態であってもよい。いくつかの実施形態では、コードはまた、システム100を使用して対話され得る、デジタルメディアに埋め込まれてもよい。ユーザは、(例えば、料金の支払を介して)コードを取得し、識別子コードと関連付けられるエンティティによって制作されたメディアコンテンツにアクセスするようにコードを引き換えてもよい。メディアコンテンツは、追加され、またはユーザのインターフェースから除去されてもよい。
一実施形態では、クラウドコンピューティングシステムからユーザに連結されたローカルプロセッサへ等、少ない待ち時間で1つのコンピューティングシステムから別のコンピューティングシステムへリアルタイムまたは近リアルタイムビデオデータを渡すことの計算および帯域幅制限を回避するために、種々の形状および幾何学形状に関するパラメータ情報が転送され、表面を画定するために利用されてもよい一方で、テクスチャが転送され、パラメータ的に再現された顔の幾何学形状の上にマップされた個人の顔のビットマップベースのビデオ詳細等の静的または動的詳細をもたらすようにこれらの表面に追加されてもよい。別の実施例として、システムが個人の顔を認識するように構成され、個人のアバターが拡張世界に位置することを把握している場合、本システムは、1つの比較的大型の設定転送で関連世界情報および個人のアバター情報を渡すように構成されてもよく、その後、ローカルレンダリングのための図1で描写される308等のローカルコンピューティングシステムへの残りの転送は、初期設定転送またはリアルタイムビデオの受け渡しに対してはるかに小さい帯域幅で、個人の骨格構造の動きパラメータおよび個人の顔の移動ビットマップ等のパラメータおよびテクスチャ更新に限定されてもよい。したがって、クラウドが比較的少ない待ち時間を必要としない計算を取り扱い、ローカル処理アセットがタスクを取り扱う、統合様式で、クラウドベースおよびローカルコンピューティングアセットが使用されてもよく、少ない待ち時間が重視され、そのような場合において、ローカルシステムに転送されるデータの形態は、好ましくは、ある量のそのようなデータの形態(すなわち、全てのリアルタイムビデオと対比したパラメータ情報、テクスチャ等)により、比較的低い帯域幅で渡される。
先に図15を参照すると、略図がクラウドコンピューティングアセット(46)とローカル処理アセット(308、120)との間の協調を図示する。一実施形態では、クラウド(46)アセットは、有線または無線ネットワーキング(無線が移動性のために好まれ、有線が、所望され得る、ある高帯域幅または大データ容量転送に好まれる)を介して、ユーザの頭部(120)またはベルト(308)に連結されるように構成される構造に収納され得るプロセッサおよびメモリ構成等のローカルコンピューティングアセット(120、308)の一方または両方に直接的に(40、42)等、動作可能に連結される。ユーザにローカルである、これらのコンピューティングアセットは、有線および/または無線接続構成(44)を介して、同様に相互に動作可能に連結されてもよい。一実施形態では、低慣性および小型頭部装着型サブシステム(120)を維持するために、ユーザとクラウド(46)との間の一次転送は、ベルトベースのサブシステム(308)とクラウドとの間のリンクを介してもよく、頭部装着型サブシステム(120)は主に、例えば、パーソナルコンピューティング周辺接続用途で現在採用されているような超広帯域(「UWB」)接続等の無線接続を使用して、ベルトベースのサブシステム(308)にデータ繋留される。
効率的なローカルおよび遠隔処理協調、ならびに図3で特色とされるユーザインターフェース302またはユーザ「表示デバイス」、図14を参照して以下で説明される表示ディスプレイ14、またはその変形例等のユーザ用の適切な表示デバイスを用いて、ユーザの現在の実際または仮想位置に関連する1つの世界の側面が、ユーザに転送されるか、または「渡され」、効率的に更新されてもよい。実際に、一実施形態では、1人の個人が拡張現実モードで仮想現実システム(「VRS」)を利用し、別の個人が第1の個人にローカルである同一の世界を探索するために完全仮想モードでVRSを利用すると、2人のユーザは、種々の様式でその世界を相互に体験してもよい。例えば、図12を参照すると、完全仮想現実シナリオから描写した拡張現実世界を通して飛んでいる第2のユーザのアバター2の可視化を追加した、図11を参照して説明されるものに類似するシナリオが描写されている。換言すれば、図12で描写される光景は、第1の個人にとって体験され、拡張現実で表示されてもよく、地面、背景の建造物、彫像プラットフォーム1120等の光景内のローカル世界の周囲の実際の物理的要素に加えて、2つの拡張現実要素(彫像1110および第2の個人の飛んでいるマルハナバチアバター2)が表示されている。アバター2が第1の個人にローカルである世界を通して飛ぶにつれて、第1の個人が第2の個人のアバター2の進展を可視化することを可能にするために、動的更新が利用されてもよい。
再度、クラウドコンピューティングリソース上に存在し、そこから配信することができる、1つの世界モデルがある、上記で説明されるような構成を用いると、そのような世界は、リアルタイムビデオデータまたは同等物を回そうとすることに好ましい比較的低い帯域幅形式で1人またはそれを上回るユーザに「渡すことが可能」であり得る。彫像の付近に立っている(すなわち、図12に示されるような)個人の拡張体験は、クラウドベースの世界モデルによって知らされてもよく、そのサブセットは、視界を完成するように、それらおよびそれらのローカル表示デバイスまで渡されてもよい。机の上に位置するパーソナルコンピュータと同じくらい単純であり得る、遠隔表示デバイスに向かって座っている個人は、クラウドから情報の同一のセクションを効率的にダウンロードし、それをそれらのディスプレイ上でレンダリングさせることができる。実際に、彫像の付近で公園内に実際に存在する1人の個人が、その公園内で散歩するために遠隔に位置する友達を連れてもよく、友達は仮想および拡張現実を通して参加する。本システムは、どこに道があるか、どこに木があるか、どこに彫像があるかを把握する必要があるであろうが、クラウド上にその情報があると、参加する友達がシナリオのクラウド側面からダウンロードし、次いで、実際に公園にいる個人に対してローカルである拡張現実として、一緒に歩き始めることができる。
図13を参照すると、図3で特色とされるユーザインターフェース302またはユーザ表示デバイス、図14を参照して以下で説明される表示デバイス14、またはそれらの変形例等の仮想および/または拡張現実インターフェースに関与している個人が、システムを利用しており(4)、1杯のコーヒーを注文するためにコーヒー店に入る(6)、時間および/または偶発性パラメータベースの実施形態が描写されている。VRSは、コーヒー店のドアの強調表示された場所、または関連コーヒーメニューのバブルウィンドウ等の個人のための拡張および/または仮想現実での表示増進を提供するために、ローカルおよび/または遠隔で感知およびデータ収集能力を利用するように構成されてもよい(8)。個人が注文した1杯のコーヒーを受け取るとき、または本システムによる何らかの他の関連パラメータの検出時に、本システムは、静的または動的のいずれか一方である、ジャングルの音声および他の効果を伴って、または伴わずに、壁および天井からマダガスカルのジャングルの光景等の局所環境内の1つまたはそれを上回る時間ベースの拡張または仮想現実画像、ビデオ、および/または音声を、表示デバイスを用いて表示するように構成されてもよい(10)。ユーザへのそのような提示は、タイミングパラメータ(すなわち、満杯のコーヒーカップが認識されてユーザに手渡された5分後、本システムが店のフロントドアを通って歩くユーザを認識した10分後等)、またはユーザがカップからコーヒーの最後の一口を摂取するとコーヒーカップの逆さまの配向に注目することによる、ユーザがコーヒーを飲み終わったという本システムによる認識、またはユーザが店のフロントドアから出たという本システムによる認識等の他のパラメータに基づいて中断されてもよい(12)。
図14を参照すると、筐体またはフレーム(84)によってユーザの頭部または眼に載置され得る、表示レンズ(82)を備える、好適なユーザ表示デバイス(14)の一実施形態が示されている。表示レンズ(82)は、ユーザの眼(20)の前で筐体(84)によって位置付けられる1つまたはそれを上回る透明な鏡を備え、拡張現実構成で局所環境から少なくともいくらかの光の透過も可能にしながら、眼(20)の中へ投影光(38)を跳ね返してビーム成形を促進するように構成されてもよい(仮想現実構成では、表示システム14が、暗色化されたバイザ、遮断カーテン、完全黒色LCDパネルモード、または同等物等によって、局所環境から実質的に全ての光を遮断することが可能であることが望ましくあり得る)。描写した実施形態では、2つの広視野機械視覚カメラ(16)が、ユーザの周囲の環境を撮像するように筐体(84)に連結される。一実施形態では、これらのカメラ(16)は、デュアルキャプチャ可視光/赤外光カメラである。描写した実施形態はまた、示されるように、眼(20)の中へ光(38)を投影するように構成される表示鏡および光学部とともに、一対の走査レーザ形状波面(すなわち、深度のための)投光器モジュールも備える。描写した実施形態はまた、ユーザの眼(20)を追跡してレンダリングおよびユーザ入力を支援することができるように構成される、赤外光光源(発光ダイオード「LED」等の26)と対合された2つの小型赤外線カメラ(24)も備える。システム(14)はさらに、X、Y、およびZ軸加速度計能力、ならびに磁気コンパスと、X、Y、およびZ軸ジャイロ能力とを備え、好ましくは、200Hz等の比較的高い周波数でデータを提供し得る、センサアセンブリ(39)を特色とする。描写したシステム(14)はまた、キャプチャデバイス(16)から出力される広視野画像情報からリアルまたは近リアルタイムユーザ頭部姿勢を計算するように構成され得る、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、および/またはARMプロセッサ(高度縮小命令セットマシン)等の頭部姿勢プロセッサ(36)も備える。また、デジタルおよび/またはアナログ処理を実行して、センサアセンブリ(39)からのジャイロ、コンパス、および/または加速度計データから姿勢を導出するように構成される、別のプロセッサ(32)も示されている。描写した実施例はまた、姿勢および位置付けを支援するGPS(37、全地球測位衛星)サブシステムも特色とする。最終的に、描写した実施形態は、ユーザにローカルであるレンダリング情報を提供して、ユーザの世界の視野のためにスキャナの動作およびユーザの眼の中への撮像を促進するように構成される、ソフトウェアプログラムを実行するハードウェアを特色とし得る、レンダリングエンジン(34)を備える。レンダリングエンジン(34)は、レンダリングされた拡張および/または仮想現実オブジェクトの光が、網膜走査ディスプレイと同様に走査レーザ配列(18)を使用して投影されるように、センサ姿勢プロセッサ(32)、画像姿勢プロセッサ(36)、視線追跡カメラ(24)、および投影サブシステム(18)に動作可能に連結される(81、70、76/78、80、すなわち、有線または無線接続を介して)。投影された光線(38)の波形は、拡張および/または仮想現実オブジェクトの所望の焦点距離と一致するように屈曲または集束されてもよい。ミニ赤外線カメラ(24)が、眼を追跡してレンダリングおよびユーザ入力(すなわち、ユーザがどこを見ているか、どの深度でユーザが焦点を合わせているか、以下で論議されるように、焦点深度を推定するために眼の縁が利用されてもよい)を支援するために利用されてもよい。GPS(37)、ジャイロ、コンパス、および加速度計(39)は、進路および/または高速姿勢推定値を提供するために利用されてもよい。カメラ(16)の画像および姿勢は、関連クラウドコンピューティングリソースからのデータと併せて、局所世界をマップし、ユーザ視野を仮想または拡張現実コミュニティと共有するために利用されてもよい。図14で特色とされる表示システム(14)内のハードウェアの大部分は、ディスプレイ(82)およびユーザの眼(20)に隣接する筐体(84)に直接連結されて描写されているが、描写されるハードウェア構成要素は、例えば、図3に示されるように、ベルト載置構成要素等の他の構成要素に載置されるか、または他の構成要素内に収納されてもよい。一実施形態では、図14で特色とされるシステム(14)の構成要素の全ては、画像姿勢プロセッサ(36)、センサ姿勢プロセッサ(32)、およびレンダリングエンジン(34)を除いて、ディスプレイ筐体(84)に直接連結され、後者の3つとシステム(14)の残りの構成要素との間の通信は、超広帯域等の無線通信または有線通信によるものであってもよい。描写した筐体(84)は、好ましくは、頭部装着型であり、ユーザによって装着可能である。それはまた、ユーザの耳に挿入され、図13を参照して参照されるジャングルの音声等の拡張または仮想現実体験に関連し得る音声をユーザに提供するために利用され得るもの等のスピーカ、およびユーザにローカルである音声を捕捉するために利用され得るマイクロホンを特色としてもよい。
ユーザの眼(20)の中への光(38)の投影に関して、一実施形態では、ミニカメラ(24)は、一般に、眼(20)の焦点の位置、または「焦点深度」と一致する、ユーザの眼(20)の中心が幾何学的に接した場所を測定するために利用されてもよい。眼が接する全ての点の3次元表面は、「ホロプタ」と呼ばれる。焦点距離は、有限数の深度を帯びてもよく、または無限に変化してもよい。輻輳距離から投影される光が、対象の眼(20)に焦点を合わせられると考えられる一方で、輻輳距離の前または後ろの光は、ぼやけている。さらに、眼が焦点を合わせる場所にかかわらず、約0.7ミリメートル未満のビーム直径を伴う空間的コヒーレント光が、人間の眼によって正しく分解されることが発見されている。この理解を考慮して、適正な焦点深度の幻想を作成するために、眼の輻輳が、ミニカメラ(24)を用いて追跡されてもよく、レンダリングエンジン(34)および投影サブシステム(18)が、焦点の合ったホロプタ上またはその近くの全てのオブジェクト、および種々の程度に焦点がずれた(すなわち、意図的に作成されたぼやけを使用した)全ての他のオブジェクトをレンダリングするために使用されてもよい。眼の中へコヒーレント光を投影するように構成される、透視光誘導光学要素が、Lumus, Inc.等の供給業者によって提供されてもよい。好ましくは、システム(14)は、毎秒約60フレームまたはそれを上回るフレームレートでユーザにレンダリングする。上記で説明されるように、好ましくは、ミニカメラ(24)は、視線追跡に利用されてもよく、ソフトウェアは、複数の幾何学形状だけでなく、ユーザ入力としての機能を果たす焦点位置のキューも取り上げるように構成されてもよい。好ましくは、そのようなシステムは、日中または夜間の使用に好適な輝度およびコントラストで構成される。一実施形態では、そのようなシステムは、好ましくは、視覚オブジェクト整合のための約20ミリ秒未満の待ち時間、約0.1度未満の角度整合、およびほぼ人間の眼の限界である約1分の分解能を有する。表示システム(14)は、位置および姿勢判定を支援するように、GPS要素、視線追跡、コンパス、加速度計、および/または他のデータソースを伴い得る、局在化システムと統合されてもよく、局在化情報は、ユーザの関連世界の視野内で正確なレンダリングを促進するために利用されてもよい(すなわち、そのような情報は、実世界に対してどこにあるかを眼鏡が把握することを促進するであろう)。
他の好適な表示デバイスは、デスクトップおよびモバイルコンピュータ、スマートフォン、3D視点視覚を促進またはシミュレートする付加的なソフトウェアおよびハードウェア特徴を伴って拡張され得るスマートフォン(例えば、一実施形態では、フレームがスマートフォンに除去可能に連結されてもよく、フレームは、図14で特色とされる構成の機能性のうちのいくつかをシミュレートするように、200Hzジャイロおよび加速度計センササブセット、広視野レンズを伴う2つの小型機械視覚カメラ、およびARMプロセッサを特色とする)、タブレットコンピュータ、スマートフォンについて上記で説明されるように拡張され得るタブレットコンピュータ、付加的な処理および感知ハードウェアを伴って拡張されたタブレットコンピュータ、拡張および仮想視点を表示するためにスマートフォンおよび/またはタブレットを使用する頭部装着型システム(拡大光学部、鏡、コンタクトレンズ、または光構造化要素を介した視覚順応)、発光要素(LCD、OLED、垂直キャビティ面発光レーザ、操作されたレーザビーム等)の非透視ディスプレイ、人間が自然な世界および人工的に生成された画像を見ることを同時に可能にする透視ディスプレイ(例えば、光誘導光学要素、接近焦点コンタクトレンズの中へ差し込む透明および偏光OLED、操作されたレーザビーム等)、発光要素を伴うコンタクトレンズ(Ioptik RTMという商標の下でInnovega, Inc(Bellevue, WA)から入手可能なもの等、それらは、特殊な相補的眼鏡構成要素と組み合わせられてもよい)、発光要素を伴う埋込型デバイス、および人間の脳の光受容体をシミュレートする埋込型デバイスを含むが、それらに限定されない。
図3および14で描写されるもの等のシステムを用いると、3D点が環境から捕捉されてもよく、これらの画像または点を捕捉するカメラの姿勢(すなわち、世界に対するベクトルおよび/または原点位置情報)が判定されてもよいため、これらの点または画像は、この姿勢情報と「タグ付け」されるか、または関連付けられてもよい。次いで、第2のカメラによって捕捉される点は、第2のカメラの姿勢を判定するために利用されてもよい。換言すれば、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを配向し、および/または限局することができる。次いで、この知識は、(位置合わせされる2つのカメラが周囲にあるため)テクスチャを抽出し、マップを作製し、実世界の仮想コピーを作成するために利用されてもよい。よって、基礎レベルで、一実施形態では、3D点および点を生成した2D画像の両方を捕捉するために利用することができる、個人装着システムを有し、これらの点および画像は、クラウド記憶および処理リソースに送り出されてもよい。それらはまた、組み込まれた姿勢情報とともにローカルにキャッシュ格納されてもよく(すなわち、タグ付けされた画像をキャッシュ格納する)、よって、クラウドは、3D点とともに準備ができている(すなわち、利用可能なキャッシュ内にある)タグ付けされた2D画像(すなわち、3D姿勢でタグ付けされた)を有してもよい。ユーザが動的なものを観察している場合、動きに関連するクラウドまで付加的な情報を送信してもよい(例えば、別の個人の顔を見る場合、ユーザは、顔のテクスチャマップを取り、たとえ周辺世界が別様に基本的に静的であっても、それを最適化された周波数まで押し上げることができる)。
クラウドシステムは、姿勢のみの基準としていくつかの点を保存し、全体的な視線追跡計算を低減させるように構成されてもよい。概して、ユーザが部屋を動き回るにつれて、壁、テーブル等のユーザの環境内の主要なアイテムを追跡することが可能となるように、いくつかの輪郭特徴を有することが望ましくあり得、ユーザは、世界を「共有」し、その部屋の中へ他のユーザを入らせ、また、これらの点を見せることを希望し得る。そのような有用かつ主要な点は、固着点として極めて有用であるため、「基準」として称され得る。それらは、機械視覚で認識され得る、およびユーザハードウェアの異なる部品上で世界から一貫して繰り返し抽出することができる、特徴に関係する。したがって、これらの基準は、好ましくは、さらなる使用のためにクラウドに保存されてもよい。
一実施形態では、カメラが位置を認識するために容易に使用することができるアイテムの種類であるため、関連世界の全体を通した基準の比較的均等な分布を有することが好ましい。
一実施形態では、関連クラウドコンピューティング構成は、3D点のデータベースおよび任意の関連メタデータを周期的に整えて、基準の精緻化および世界の作成の両方に種々のユーザからの最良データを使用するように構成されてもよい。言い換えれば、本システムは、関連世界を見てその中で機能する種々のユーザからの入力を使用することによって、最良データセットを得るように構成されてもよい。一実施形態では、データベースは、本質的にフラクタルであり、ユーザがオブジェクトに近づくにつれて、クラウドがより高い分解能の情報をそのようなユーザに渡す。ユーザがより密接にオブジェクトをマップすると、そのデータがクラウドに送信され、クラウドは、データベースに以前に記憶されたものよりも良好であれば、新しい3D点および画像ベースのテクスチャマップをデータベースに追加することができる。この全ては、多くのユーザから同時に起こるように構成されてもよい。
上記で説明されるように、拡張または仮想現実体験は、ある種類のオブジェクトを認識することに基づいてもよい。例えば、特定のオブジェクトを認識および理解するために、そのようなオブジェクトが深度を有すると理解することが重要であり得る。認識装置ソフトウェアオブジェクト(「認識装置」)は、ユーザが世界内でデータをナビゲートするにつれて、いずれか一方または両方のプラットフォーム上の種々のオブジェクトの認識を特異的に支援するように、クラウドまたはローカルリソース上に展開されてもよい。例えば、システムが、3D点クラウドおよび姿勢タグ付け画像を備える世界モデルのデータを有し、その上に多数の点を伴う机、ならびに机の画像がある場合、人間がそれを把握するであろうため、観察されているものが実際に机であるという判定がなくてもよい。言い換えれば、空間内のいくつかの3D点、および机の大部分を示す空間内のどこかからの画像は、机が観察されていると瞬時に認識するために十分ではない場合がある。この識別を支援するために、未加工3D点クラウドの中へ入り、点集合をセグメント化し、例えば、机の上面を抽出するであろう、特定のオブジェクト認識装置が作成されてもよい。同様に、ユーザが仮想または拡張現実において壁紙を変更するか、または壁の一部を除去し、実世界では実際にそこにない別の部屋への入口を有することができるように、3D点から壁をセグメント化するように認識装置が作成されてもよい。そのような認識装置は、世界モデルのデータ内で動作し、世界モデルをクローリングし、その世界モデルに意味情報、または空間内の点の間に存在すると考えられるものに関する存在論を植え付ける、ソフトウェア「ロボット」と考えられてもよい。そのような認識装置またはソフトウェアロボットは、それらの存在全体が、関連世界のデータを周回すること、および壁、または椅子、あるいは他のアイテムであると考えられるものを見つけることであるように構成されてもよい。それらは、「この点集合が壁に属する」という機能的同等物で点集合をタグ付けするように構成されてもよく、点の中にあるものに関してシステムに手動で知らせるために、点ベースのアルゴリズムおよび姿勢タグ付け画像分析の組み合わせを備えてもよい。
オブジェクト認識装置は、視点に応じて、様々な有用性の多くの目的で作成されてもよい。例えば、一実施形態では、Starbucks等のコーヒー専門店が、データの関連世界内でStarbucksのコーヒーカップの正確な認識装置を作成することに投資してもよい。そのような認識装置は、Starbucksのコーヒーカップの大量および少量データ検索の世界をクロールするように構成され得るため、関連近傍空間内で動作するときに(すなわち、おそらく、ユーザがある期間にわたってStarbucksのコーヒーカップを見たときに、すぐ近くのStarbucks直販店でユーザにコーヒーを提供するように)セグメント化され、ユーザに識別されてもよい。カップがセグメント化されると、ユーザがそれを自分の机の上に移動させたときに迅速に認識されてもよい。そのような認識装置は、クラウドコンピューティングリソースおよびデータだけでなく、利用可能な計算リソースに応じて、ローカルリソースおよびデータ、またはクラウドおよびローカルの両方で、作動または動作するように構成されてもよい。一実施形態では、何百人ものユーザがグローバルモデルに寄与している、クラウド上の世界モデルのグローバルコピーがあるが、特定の町の特定の個人のオフィスのようなより小さい世界または下位世界については、世界の大部分が、そのオフィスがどのような外観であるかを気にしないであろうため、本システムは、データを整え、所与のユーザに最もローカルに関連すると考えられるローカルキャッシュ情報に移動するように構成されてもよい。
一実施形態では、例えば、ユーザが机に歩み寄るときに、机の上のカップ等のしばしば移動するものとして識別されるオブジェクトが、クラウドとローカルリソースとの間でクラウドモデルおよび伝送負担を負う必要がないため、関連情報(机の上の特定のカップのセグメント化等)は、クラウドではなく、ローカルコンピューティングリソースのみの上に存在するように構成されてもよい。したがって、クラウドコンピューティングリソースは、3D点および画像をセグメント化し、したがって、移動可能なものから永久的(すなわち、概して、移動していない)オブジェクトを分解するように構成されてもよく、これは、関連データが残存する場所、それが処理される場所に影響を及ぼし、より永久的なオブジェクトに関連するあるデータについて、装着型/ローカルシステムから処理負担を除去し、次いで、無限の他のユーザと共有される位置の一回限りの処理を可能にし、複数のデータ源が特定の物理的位置で固定および可動オブジェクトのデータベースを同時に構築することを可能にし、オブジェクト特有の基準およびテクスチャマップを作成するように背景からオブジェクトをセグメント化してもよい。
一実施形態では、ユーザが本システムを訓練し、本システムが意味情報を実世界内のオブジェクトと関連付けることを可能にし得るように、本システムは、あるオブジェクトの識別に関する入力についてユーザに問い合わせを行うように構成されてもよい(例えば、本システムは、「それはStarbucksのコーヒーカップですか?」等の質問をユーザに提示してもよい)。存在論は、世界からセグメント化されたオブジェクトが何を行うことができるか、それらがどのようにして挙動するか等に関する指針を提供してもよい。一実施形態では、本システムは、本システムへのあるユーザ入力を促進するように、無線接続されたキーパッド、スマートフォンのキーパッドへの接続性、または同等物等の仮想または実際のキーパッドを特色としてもよい。
本システムは、基本要素(壁、窓、机の幾何学形状等)を、仮想または拡張現実において部屋に入る任意のユーザと共有するように構成されてもよく、一実施形態では、その個人のシステムは、特定の視点から画像を撮影し、それらをクラウドにアップロードするように構成されるであろう。次いで、クラウドは、古いおよび新しい一式のデータが投入され、最適化ルーチンを実行し、個々のオブジェクト上に存在する基準を確立することができる。
GPSおよび他の局在化情報が、そのような処理への入力として利用されてもよい。さらに、個人のオンラインカレンダーまたはFaceBookRTMアカウント情報等の他のコンピューティングシステムおよびデータが、入力として利用されてもよい(例えば、一実施形態では、経時的に、所与の目的地におけるユーザの到着時間に対して準備ができるよう、情報がクラウドからユーザのローカルシステムに移動させられ得るように、クラウドおよび/またはローカルシステムは、航空券、日付、および目的地についてユーザのカレンダーの内容を分析するように構成されてもよい)。
一実施形態では、非統計的姿勢計算、セキュリティ/アクセス制御、特別な情報の伝達、空間的メッセージング、非統計的オブジェクト認識等とともに使用するために、QRコード(登録商標)および同等物等のタグが、世界に挿入されてもよい。
一実施形態では、クラウドリソースは、「渡すことが可能な世界」を参照して上記で説明されるように、ユーザ間で実世界および仮想世界のデジタルモデルを渡すように構成されてもよく、モデルは、パラメータおよびテクスチャに基づいて個々のユーザによってレンダリングされる。これは、リアルタイムビデオの通過に対して帯域幅を縮小し、光景の仮想視点のレンダリングを可能にし、視界がローカルコンピューティングリソースによってレンダリングされるため、(ビデオ等の)見る必要があるデータのそれぞれを送信することなく、何百万人またはそれを上回るユーザが1つの仮想集会に参加することを可能にする。
仮想現実システム(「VRS」)は、カメラを使用したリアルタイムメトリックコンピュータ視覚、同時局在化およびマッピング技法、マップ、およびジャイロ、加速度計、コンパス、気圧計、GPS等のセンサからのデータ、無線信号強度三角測量、飛行分析の信号時間、LIDAR測距、RADAR測距、走行距離計測法、およびソーナー測距のうちの1つまたはそれを上回るものを通して、ユーザ位置および視野(ともに「姿勢」として知られている)を登録するように構成されてもよい。装着型デバイスシステムは、同時にマップして配向するように構成されてもよい。例えば、未知の環境では、VRSは、環境に関する情報を収集し、ユーザ姿勢計算に好適な基準点、世界モデリングのための他の点、世界のテクスチャマップを提供するための画像を確認するように構成されてもよい。基準点は、姿勢を光学的に計算するために使用されてもよい。世界がさらなる詳細でマップされるにつれて、より多くのオブジェクトがセグメント化され、各自のテクスチャマップを与えられてもよいが、世界は、依然として好ましくは、低分解能テクスチャマップを用いた単純な多角形で低い空間分解能にて表現可能である。上記で論議されるもの等の他のセンサが、このモデリング努力を支援するために利用されてもよい。世界は、(視点、「監視」モード、ズーミング等を通して)移動すること、または別様により良好な視界を求めることが、クラウドリソースから高分解能情報を要求するという点で、本質的にフラクタルであり得る。オブジェクトに近づくことにより、より高い分解能のデータを捕捉し、これは、新しいデータを計算し、および/または世界モデル内の格子間部位で挿入し得る、クラウドに送信されてもよい。
図16を参照すると、装着型システムは、画像情報を捕捉し、基準および認識された点(52)を抽出するように構成されてもよい。装着型ローカルシステムは、以下で記述される姿勢計算技法のうちの1つを使用して、姿勢を計算してもよい。クラウド(54)は、より静的な3D背景から3Dオブジェクトをセグメント化するために画像および基準を使用するように構成されてもよく、画像は、オブジェクトおよび世界のテクスチャマップを提供する(テクスチャはリアルタイムビデオであってもよい)。クラウドリソース(56)は、世界の位置合わせのために静的な基準およびテクスチャを記憶し、利用可能にするように構成されてもよい。クラウドリソースは、位置合わせのための最適な点密度のために、点群を整えるように構成されてもよい。クラウドリソース(60)は、オブジェクトの位置合わせおよび操作のためにオブジェクト基準およびテクスチャを記憶し、利用可能にするように構成されてもよく、クラウドは、位置合わせのための最適な密度のために、点群を整えてもよい。クラウドリソースは、オブジェクトのフラクタルソリッドモデルを生成するために全ての有効な点およびテクスチャを使用するように構成されてもよく(62)、クラウドは、最適な基準密度のために、点群情報を整えてもよい。クラウドリソース(64)は、セグメント化されたオブジェクトおよび世界の識別に関する訓練についてユーザに問い合わせるように構成されてもよく、存在論データベースが、オブジェクトおよび世界に実施可能な性質を植え付けるために回答を使用してもよい。
以下の特定の位置合わせおよびマッピングモードは、光学またはカメラシステムから判定される姿勢を表す用語「O姿勢」、センサ(すなわち、上記で論議されるように、GPS、ジャイロ、コンパス、加速度計等のデータの組み合わせ等)から判定される姿勢を表す「s姿勢」、ならびにクラウドコンピューティングおよびデータ管理リソースを表す「MLC」を特色とする。
「配向」モードは、新しい環境の基本マップを作製、その目的は、新しい環境がマップされていない、または(同等物)MLCに接続されていない場合に、ユーザの姿勢を確立することである。配向モードでは、装着型システムは、画像から点を抽出し、フレームからフレームへ追跡し、S姿勢を使用して基準を三角測量する(画像から抽出される基準がないため)。装着型システムはまた、ユーザの持続性に基づいて不良な基準を除外してもよい。配向モードは、位置合わせおよびマッピングの最も基本モードであって、常時、低精度姿勢にさえ有効であろうことを理解されたい。しかしながら、装着型システムが、少なくともわずかな時間の間、相対の動きにおいて使用された後、最小基準セットが、装着型システムが、O姿勢を使用して、オブジェクトを認識し、環境をマップするために設定されるように確立されるであろう。O姿勢が確実となるとすぐに(最小基準セットを用いて)、装着型セットは、配向モードから抜け出すように構成される。「マップおよびO姿勢」モードは、環境をマップするために使用される。マップおよびO姿勢モードの目的は、高精度S姿勢を確立し、環境をマップし、マップおよび画像をMLCに提供することである。本モードでは、O姿勢は、MLCからダウンロードされ、および/またはローカルで判定された成熟世界基準から計算される。しかしながら、S姿勢は、計算されたO姿勢のチェックとして使用されてもよく、また、O姿勢の計算を加速させるために使用されてもよいことを理解されたい。前述と同様に、装着型システムは、画像から点を抽出し、フレームからフレームへ追跡し、O姿勢を使用して基準を三角測量し、持続性に基づいて不良な基準を除外する。残りの基準および姿勢タグ付け画像は、次いで、MLCクラウドに提供される。これらの機能(点の抽出、不良基準の除外、ならびに基準および姿勢タグ付け画像の提供)は、リアルタイムで行われる必要はなく、帯域幅を保持するために、後の時間に行われてもよいことを理解されたい。
O姿勢は、ユーザの姿勢(ユーザ場所および視野)を判定するために使用される。O姿勢の目的は、最小処理能力を使用して、すでにマップされた環境内で高精度の姿勢を確立することである。O姿勢の計算は、いくつかのステップを伴う。nでの姿勢を推定するために、装着型システムは、S姿勢およびO姿勢(n−1、n−2、n−3等)から収集された履歴データを使用するように構成される。nでの姿勢は、次いで、基準をnで捕捉される画像に投影し、投影から画像マスクを作成するために使用される。装着型システムは、マスクされた領域から点を抽出し、抽出された点および成熟世界基準からO姿勢を計算する。処理負荷は、特定の画像のマスクされたサブセットから点を検索/抽出することによってのみ大幅に軽減されることを理解されたい。さらに1ステップ進むと、nで計算されたO姿勢の、およびnでのS姿勢は、n+1での姿勢を推定するために使用されてもよい。姿勢タグ付け画像および/またはビデオは、MLCクラウドに伝送されてもよい。
「超分解能」モードは、超分解能画像および基準を作成するために使用されてもよい。複合姿勢タグ付け画像が、超分解能画像を作成するために使用されてもよく、これは、順に、基準位置推定を向上させるために使用されてもよい。超分解能基準および画像からのO姿勢推定を反復することを理解されたい。前述のステップは、装着型デバイス上でリアルタイムで行われてもよく、またはMLCクラウドに伝送され、後の時間に行われてもよい。
一実施形態では、VRSシステムは、ある基礎機能性、ならびにある特殊機能性を提供するようにVRSを通して配信され得る「アプリ」またはアプリケーションによって促進される機能性を有するように構成されてもよい。例えば、以下のアプリが、特殊機能性を提供するように対象VRSにインストールされてもよい。
「絵画調レンダリング」アプリは、アーティストによって、彼らが見ている世界を表す画像変換を作成するために使用されてもよい。ユーザは、次いで、「アーティストの眼を通して」世界を視認することができるように、これらの変換をそのユーザデバイス上で有効にしてもよい。「卓上モデリング」アプリは、ユーザが、テーブルの上に置かれた物理的オブジェクトからオブジェクトを構築することを可能にし得る。「仮想存在」アプリは、別のユーザに空間の仮想モデルを渡し、そのユーザは、次いで、仮想アバターを使用して、その空間を動き回り得るために使用されてもよい。
「アバター感情」アプリは、微妙な声の抑揚、軽微な頭部の動き、体温、心拍数等の側面を測定し、仮想存在アバターへの微妙な効果を動画化するために使用されてもよい。人間の状態情報をデジタル化し、それを遠隔アバターに渡すことは、ビデオよりも小さい帯域幅を使用する。加えて、そのようなデータは、感情が可能な人間ではないアバターにマップ可能である。例えば、犬のアバターが、興奮した声の抑揚に基づいて、尾を振ることによって興奮を示すことができる。
効率的なメッシュ型ネットワークが、全てをサーバに返送することとは対照的に、データを移動させるために望ましくあり得る。しかしながら、多くのメッシュネットワークは、位置情報およびトポロジーが良好に特徴付けられていないため、準最適な性能を有する。一実施形態では、本システムは、比較的高い精度で全てのユーザの位置を判定するために利用されてもよく、したがって、メッシュネットワーク構成が、高い性能のために利用されてもよい。
一実施形態では、本システムは、検索に利用されてもよい。拡張現実を用いると、例えば、ユーザは、物理的世界の多くの側面に関係するコンテンツを生成して残すであろう。このコンテンツの大部分はテキストではなく、したがって、典型的な方法によって容易に検索されない。本システムは、検索および参照目的でパーソナルおよびソーシャルネットワークコンテンツを追跡するための設備を提供するように構成されてもよい。
一実施形態では、表示デバイスが連続フレームを通して2D点を追跡し、次いで、ベクトル値関数をこれらの点の時間発展に適合する場合、任意時点で(例えば、フレーム間で)、または(先にベクトル値関数を投影することによって)近未来の何らかの点で、ベクトル値関数をサンプリングすることが可能である。これは、高分解能後処理の作成、および次の画像が実際に捕捉される前に将来の姿勢の予測を可能にする(例えば、カメラフレームレートを2倍にすることなく、位置合わせ速度を2倍にすることが可能である)。
(頭部が固定された、または世界が固定されたレンダリングとは対照的に)身体が固定されたレンダリングについては、身体の正確な表示が望ましい。身体を測定するよりもむしろ、一実施形態では、ユーザの頭部の平均位置を通して、その場所を導出することが可能である。ユーザの顔がほとんどの時間に前方を向く場合、頭部位置の複数日平均が、その方向を明らかにするであろう。重力ベクトルと併せて、これは、身体が固定されたレンダリングのための合理的に安定した座標フレームを提供する。この長期座標フレームに対する頭部位置の現在の尺度を使用することにより、余分な器具類を用いることなく、ユーザの身体の上/周囲でオブジェクトの一貫したレンダリングを可能にする。この実施形態の実装のために、頭部方向ベクトルの単一登録平均が開始されてもよく、デルタtによって分割されるデータの現行合計が、現在の平均頭部位置を生じるであろう。n−5日目、n−4日目、n−3日目、n−2日目、n−1日目に始まった、およそ5つの登録を保つことにより、過去の「n」日だけの継続平均の使用を可能にする。
一実施形態では、光景が縮小され、実際よりも小さい空間内でユーザに提示されてもよい。例えば、巨大な空間(すなわち、サッカースタジアム等)でレンダリングされなければならない光景がある状況では、同等の巨大な空間が存在しない場合があり、またはそのような広い空間がユーザにとって不便であり得る。一実施形態では、本システムは、ユーザが光景を縮図で観察し得るように、光景の尺度を縮小するように構成されてもよい。例えば、個人が、神の視点からのビデオゲーム、または世界チャンピオンシップサッカーの試合を有し、それを縮尺されていない競技場、または縮尺されてリビングルームの床に提示される競技場で再生することができる。本システムは、視点、尺度、および関連適応距離を単純に偏移するように構成されてもよい。
本システムはまた、仮想または拡張現実オブジェクトの焦点を操作することによって、それらを強調表示し、コントラスト、輝度、尺度等を変更することによって、提示される光景内の特定のアイテムへユーザの注意を引くように構成されてもよい。
好ましくは、本システムは、以下のモードを達成するように構成されてもよい。
開放空間レンダリングモードでは、本システムは、構造化環境から主要点を捉え、レンダリングを用いて間の空間を充填するように構成される。本モードは、ステージ、出力空間、広い屋内空間等の潜在的な施設を作成するために使用されてもよい。
オブジェクトラッピングモードでは、本システムは、実世界での3Dオブジェクトを認識し、次いで、それらを拡張するように構成される。本文脈における「認識」は、画像を3Dオブジェクトに結び付ける十分高い精度で3Dオブジェクトを識別することを意味し得る。認識は、本文脈では、オブジェクトのタイプ(例えば、個人の顔)を分類し、および/またはオブジェクトの特定のインスタンス(例えば、Joe、個人)を分類することのいずれかを意味し得ることを理解されたい。これらの原理を念頭において、認識装置ソフトウェアは、壁、天井、床、顔、道路、空、超高層ビル、ランチハウス、テーブル、椅子、車、道路標識、看板、ドア、窓、本棚等の種々のものを認識するために使用されることができる。いくつかの認識装置ソフトウェアプログラムは、I型であり、一般機能性を有し得る(例えば、「私のビデオをその壁に置いてください」、「あれは犬です」等)一方、他の認識装置ソフトウェアプログラムは、II型であり、具体的機能性(「私のTVは天井から3.2フィート離れたリビングルームの壁の上にある」、「あれはFidoです」等)を有し得る。
身体を中心としたレンダリングでは、任意のレンダリングされる仮想オブジェクトは、ユーザの身体に固定される。例えば、いくつかのオブジェクトは、ユーザの身体(例えば、ユーザのベルト)の周囲に浮遊してもよい。これを達成することは、頭部のみではなく、身体の位置を把握することを要求する。しかしながら、身体の位置は、頭部の位置によって推定されてもよい。例えば、頭部は、通常、地面と平行に前方を向く。また、身体の位置は、ユーザの頭部位置の長期平均によって取得されたデータを使用することによって、時間に伴って、より正確になってもよい。
II型認識オブジェクト(具体的機能性)については、オブジェクトの断面図が、典型的には、示される。さらに、II型認識オブジェクトは、種々の3Dモデルのオンラインデータベースにリンクされてもよい。認識プロセスを開始するとき、車または公共設備等の一般に利用可能な3Dモデルを有するオブジェクトから開始することが理想的である。
本システムはまた、仮想存在のために使用されてもよい、すなわち、ユーザが、遠隔人物のアバターを特定の開放空間の中に描くことを可能にする。これは、前述の「開放空間レンダリング」のサブセットと見なされ得る。ユーザは、ローカル環境の大まかな幾何学形状を作成し、幾何学形状およびテクスチャマップの両方を他者に反復的に送信してもよい。しかしながら、ユーザは、他者が、その環境に入るための許可を与えなければならない。微妙な音声のキュー、手の追跡、および頭部の動きが、遠隔アバターに送信されてもよい。前述の情報に基づいて、アバターは、動画化されてもよい。仮想存在の作成は、帯域幅を最小限にし、節約して使用され得ることを理解されたい。
本システムはまた、別の部屋へのオブジェクト「入口」を作製するために構成されてもよい。言い換えると、ローカルの部屋の中でアバターを示す代わりに、認識されたオブジェクト(例えば、壁)が、別のユーザの環境への入口として使用されてもよい。したがって、複数のユーザが、その各自の部屋の中に座り、壁「を通して」他のユーザの環境を覗いてもよい。
本システムはまた、一群のカメラ(人々)が異なる視点から光景を視認するときに、エリアの高密度デジタルモデルを作成するために構成されてもよい。本モデルは、エリアが少なくとも1つのカメラを通して視認される限り、任意の見晴らしの利く点からレンダリング可能であってもよい。例えば、結婚式の光景が、複数のユーザの見晴らしの利く点を通してレンダリングされてもよい。認識装置は、移動オブジェクトとは異なって、静止オブジェクトを区別およびマップし得ることを理解されたい(例えば、壁は安定したテクスチャマップを有し、人々はより高い周波数の移動テクスチャマップを有する)。
豊富なデジタルモデルがリアルタイムで更新されると、光景は任意の視点からレンダリングされ得る。結婚式の実施例に戻ると、後方の出席者は、より良い視界のために前列まで空中を飛んでもよい。または、会場外出席者は、アバターを用いて、または主催者が許可すれば不可視的に、「席」を見つけることができる。出席者は、その移動するアバターを示すことができる、または隠してもよい。本側面は、極めて高い帯域幅を要求する可能性が高いことを理解されたい。高周波数データは、高速ローカルワイヤレス接続上のクラウドを通してストリーミングされ得る一方、低周波数データは、MLCクラウドに由来し得る。前述の実施例では、結婚式の全出席者が高精度位置情報を有するため、ローカルネットワーキングのための最適なルーティング経路を作製することは自明であり得る。
本システムへまたはユーザ間の通信のために、単純無音メッセージングが、多くの場合、望ましい。例えば、指コーディングキーボードが、使用されてもよい。随意の実施形態では、触覚手袋ソリューションが、向上した性能をもたらし得る。
完全仮想現実体験をユーザに与えるために、視覚システムは、暗くされ、ユーザは、実世界に重なり合わない視界が示される。本モードでも、位置合わせシステムは、依然として、ユーザの頭部位置を追跡するために必要であり得る。完全仮想現実を体験するために使用され得る、いくつかのモードが存在してもよい。例えば、「カウチ」モードでは、ユーザは、飛ぶことが可能にあってもよい。「歩行」モードでは、実世界のオブジェクトは、ユーザが実世界と衝突しないように、仮想オブジェクトとして再レンダリングされてもよい。
一般的ルールとして、身体部分をレンダリングすることは、仮想世界を通してナビゲートする際、ユーザの不信の一時的停止に不可欠である。これは、ユーザの視野(FOV)内の身体部分を追跡し、レンダリングするための方法を有することを要求する。例えば、不透明バイザは、多くの画像向上可能性を伴う、仮想現実の形態であってもよい。別の実施例では、広視野は、ユーザに背面視界を与えてもよい。さらに別の実施例では、本システムは、望遠鏡、透視、赤外線、神の視点等の種々の形態の「超視界」を含んでもよい。
一実施形態では、仮想および/または拡張ユーザ体験のためのシステムは、少なくとも部分的に、関連ソフトウェアモジュールによって行われるような声の抑揚分析および顔認識分析等のソースからの入力を伴う装着型デバイス上のデータに基づいて、ユーザと関連付けられる遠隔アバターが動画化され得るように、構成される。例えば、再び図12を参照すると、ハチのアバター(2)は、ユーザからローカルで音声サンプルを捕捉し得る、マイクロホンへの音声入力を分析するように構成されるソフトウェアによって判定されるような、ユーザの顔の笑顔の顔認識に基づいて、または親しみやすい声の調子あるいは口調に基づいて、親しみやすい笑顔を有するように動画化されてもよい。さらに、アバターキャラクタは、アバターがある感情を表現する可能性が高い様式で動画化されてもよい。例えば、アバターが犬である実施形態では、人間のユーザにローカルであるシステムによって検出される幸せそうな笑顔または口調は、犬のアバターが尾を振ることとしてアバターで表現されてもよい。
図17−22を参照すると、複合ゲーム用実施形態の種々の側面が、商標名「James Bond 007」(RTM)の下で宣伝される登場人物に関連して提示されるスパイテーマのうちのいくつかとともにテーマ別に配向され得る、スパイタイプのゲームの文脈において図示される。図17を参照すると、家族(84)の例証が、商標名「PlayStation」(RTM)下で市販されるもの等のパーソナルコンピュータまたは専用ゲーム用システムに基づくもの等、ゲーム用コンピュータまたはコンソール(86)に動作可能に連結される、ゲーム用ジョイスティックまたはコントローラ等の入力デバイス(88)を動作させることによって、ゲーム内で登場人物を操縦する家族(85)の一員とともに描写される。ゲーム用コンソール(86)は、ユーザインターフェースビュー(92)を操縦士/オペレータ(85)および近傍に存在し得る他者に示すように構成される、ディスプレイ(92)に動作可能に連結される。図18は、そのようなユーザインターフェースビュー(92)の一実施例を図示し、主題ゲームは、英国の都市London内の橋の上またはその近傍で実施されている。本特定のプレーヤ(85)のためのユーザインターフェースビュー(92)は、表示されるユーザインターフェースの全要素が、実際には、プレーヤ(85)のリビングルームに存在しない、すなわち、モニタまたはディスプレイ(図17内の要素90)を使用して表示される仮想要素であるという点において、純粋な仮想現実である。再び、図18を参照すると、描写される仮想現実ビュー(92)は、図18のユーザインターフェースビュー(92)に示されるような斜視ビューから、主題プレーヤ(85)によって動作されるゲーム用登場人物(118−本例証的実施例では、「エージェント009」とも称される)の描写とともに、橋(102)および種々の建物(98)ならびに他の建築特徴を特徴とする、Londonの都市のビューを特徴とする。また、プレーヤ(85)から表示されるのは、通信ディスプレイ(96)、コンパスインジケータ(94)、登場人物ステータスインジケータ(114)、ニュースツールユーザインターフェース(104)、ソーシャルネットワーキングツールユーザインターフェース(132)、およびメッセージングユーザインターフェース(112)である。さらに示されるのは、ゲーム内の別の登場人物(122−本例証的実施例では、「エージェント006」とも称される)の代表である。ユーザインターフェースビュー(92)に示されるように、システムは、メッセージングインターフェース(112)を通して、エージェント006登場人物の周囲に視覚的に提示されるハイライトとともに、エージェント006が接近していることのメッセージ等、提示される光景に関連すると見なされる情報を提示するように構成されてもよい。システムは、オペレータ(85)が、随時、利用している視点を変更し得るように構成されてもよい。例えば、プレーヤ自身の登場人物(118)が上下に示される、図18(92)に示されるヘリコプター状斜視ビューではなく、プレーヤは、そのような登場人物の眼の視点からのビュー、または計算および提示され得る、多くの他の可能性として考えられるビューのうちの1つを選択するように決定してもよい。
図19を参照すると、別の例証的ビュー(144)は、頭部搭載型ディスプレイシステム(300)を装着している登場人物「エージェント006」(140)として動作する、実際のヒトプレーヤと、関連付けられたローカル処理システム(308)とを示し、彼は、自宅のリビングルームに居るオペレータ(例えば、図17におけるプレーヤ85)によってプレイされている、同一ゲームに参加しており、混合または拡張現実体験のために、実際に、実在のLondonの都市を歩いている。描写される実施形態では、プレーヤ(140)が、その拡張現実頭部搭載型ディスプレイ(300)を装着して橋に沿って歩いている間、そのローカル処理システム(308)は、そのディスプレイに、描写される通りに、種々の仮想現実要素をフィードし、実際の現実のビュー(すなわち、London138の実際の地平線および構造等)にオーバーレイされる。彼は、1つまたはそれを上回る実際の文書(142)をその手に携行しており、これは、一実施形態では、プリントアウトし、ゲーム用シナリオにおいて使用するために、彼に事前に電子通信されたものである。図20は、実際のLondonの地平線(138)を見るためにその実際の文書(142)を眺めている一方、また、その頭部搭載型ディスプレイ(300)を通して拡張現実ビューのための種々の仮想要素が提示されている、プレーヤ(140)の眼の視点からのビュー(146)の例証を示す。仮想要素は、例えば、通信ディスプレイ(126)、ニュースディスプレイ(128)、1つまたはそれを上回る電子通信またはソーシャルネットワーキングツールディスプレイ(132)、1つまたはそれを上回るプレーヤステータスインジケータ(134)、メッセージングインターフェース(136)、コンパス配向インジケータ(124)、およびプレーヤ(140)によって携行される実際の文書(142)内に特徴付けられる、テキストまたは写真等の他の表示または捕捉された情報に従って読み出され、提示され得る、テキスト、オーディオ、またはビデオコンテンツ等のコンテンツの1つまたはそれを上回るディスプレイ(148)を含んでもよい。仮想現実にのみ存在する、近傍の他の登場人物「エージェント009」は、登場人物「エージェント006」として動作するプレーヤ(140)の拡張現実ビュー(146)の中に提示され、図20に示されるように、容易な識別のために、ユーザインターフェース内にそのように標識化され得る。
図21を参照すると、同様に、実際に、London(138)に偶然に存在し、「エージェント006」プレーヤ(140)に向かって、同一の橋を渡って歩いているが、拡張現実頭部搭載型ディスプレイ(例えば、図19の要素300)を伴わない、別のプレーヤ(150)のプレーヤの眼のビュー(152)が、提示される。本プレーヤ(150)は、頭部搭載型拡張現実ディスプレイを有していなくてもよいが、本実施形態では、より大きいシステムとワイヤレスで接続され、主題ゲームの拡張現実世界の中への「ウィンドウ」として利用され、限定されたユーザインターフェース(156)に、警告または登場人物情報等の他の拡張現実ディスプレイ情報(162)とともに、実際に存在する(158)または仮想(160)であり得る、1人または2人の他の近傍プレーヤに関するデバイス拡張現実情報を提示するように構成され得る、タブレットまたはスマートフォン等のモバイル通信デバイス(154)を携行している。
図22を参照すると、「鳥の眼」あるいは有人または無人航空機(または、「UAV」)ビューが、提示される(164)。一実施形態では、ビュー(164)は、別のプレーヤ、すなわち、前述のプレーヤのうちの1人によって動作される、仮想UAVに基づいてもよい。描写されるビュー(164)は、完全仮想モードにおいて、例えば、大型コンピュータディスプレイ(90)または頭部搭載型ディスプレイ(300)を伴って、自宅のソファに着座し得る、プレーヤに提示されてもよい。代替として、そのようなビューは、拡張現実ビューとして、偶然、飛行機または他の飛翔体に居るプレーヤに提示されてもよい(すなわち、そのような位置にいる人物にとって、ビューの少なくとも一部は実際の現実となるであろうため、「拡張」または混合)。図示されるビュー(164)は、ビュー内で特定され、識別された相手に関する情報等、関連情報を特徴とする、情報ダッシュボード(170)のためのインターフェースエリアを含有する。描写されるビュー(164)はまた、情報の着目現場(168)、他のプレーヤまたは登場人物の場所および/またはステータス(166)、および/または他の情報提示(167)等の仮想ハイライト情報を特徴とする。
図23を参照すると、例証目的のために、別の拡張現実シナリオが、部屋の構造物(174)、コーヒーテーブル(180)、DJテーブル(178)、およびそれぞれ、実際の人々(188)のうちの1人に対する仮想現実上の漫画の登場人物(198)、仮想現実上のスペイン人ダンサー登場人物(196)、突撃隊員登場人物(194)、および丸いウサギ耳の付いた頭部の被り物(192)等、その周囲のもののその独自の拡張現実ビューを体験し得るように、頭部搭載型拡張現実インターフェースハードウェア(300)を装着している、5人の実際の人々(176、188、182、184、186)等、ある実際の現実要素を特徴とする、ビュー(172)とともに提示される。拡張現実インターフェースハードウェアを伴わない場合、部屋は、家具、DJテーブルがあって、変わったものが何もない、部屋のように、5人の実際の人々に対面するであろう。拡張現実インターフェースハードウェアを伴う場合、システムは、関与するプレーヤまたは参加者が、事実上、突撃隊員として現れることを決定した人物、事実上、スペイン人ダンサーとして現れることを決定した人物、事実上、漫画の登場人物として現れることを決定した人物、および実際には、通常の衣服を着ているように現れることを決定したが、その頭部が丸いウサギ耳の付いた頭部の被り物(192)とともに可視化されることを所望するように決定した人物を体験し得るように構成される。システムはまた、その拡張現実インターフェースハードウェア(300)を通してDJ(176)のみに可視となり得る、仮想上の音楽の楽譜(190)、またはその拡張現実インターフェースハードウェア(300)を使用して、回りの人物に可視となり得る、DJテーブル照明特徴等、実際のDJテーブル(178)と関連付けられたある仮想特徴を示すように構成されてもよい。
図24Aおよび24Bを参照すると、タブレットコンピュータまたはスマートフォン等のモバイル通信デバイスの適応が、主題システムを使用して作成された主題ゲームまたは体験の拡張現実世界の中への修正された「ウィンドウ」として、拡張現実を体験するために利用されてもよい。図24Aを参照すると、典型的スマートフォンまたはタブレットコンピューティングシステムモバイルデバイス(154)は、比較的に単純な視覚的ユーザインターフェース(156)を特徴とし、典型的には、単純カメラまたは2つのカメラを有する。図24Bを参照すると、モバイルコンピューティングデバイスは、モバイルコンピューティングデバイスの拡張現実参加能力を増加させるように構成される、拡張用コンソール(218)に可撤性かつ動作可能に連結される。例えば、描写される実施形態は、眼の追跡のために利用され得る、2つのプレーヤに配向されたカメラ(202)、単純高品質オーディオおよび/または指向性音成形のために利用され得る、4つのスピーカ(200)、機械視覚、位置合わせ、および/または位置特定のために2つの前方に配向されたカメラ(204)、追加バッテリまたは電力供給源能力(212)、プレーヤが連結されたシステムを把持することによる容易な利用のために位置付けられ得る、1つまたはそれを上回る入力インターフェース(214、216)、フィードバックを連結されたシステムを把持するユーザに提供するための触覚フィードバックデバイス(222)(一実施形態では、触覚フィードバックデバイスは、軸毎に+または−方向に2軸フィードバックを提供し、指向性フィードバックを提供するように構成されてもよい。そのような構成は、利用される、例えば、オペレータが、システムを特定の着目標的に照準して保つことを補助するため等に利用されてもよい)、1つまたはそれを上回るGPSまたは位置特定センサ(206)、および/または1つまたはそれを上回る加速度計、慣性測定ユニット、および/またはジャイロ(208)を特徴とする。
図25を参照すると、一実施形態では、図24Bに描写されるもの等のシステムは、GPSセンサおよび/またはワイヤレス三角測量を使用して、XおよびY(緯度および経度の地球の座標に類似する)デカルト方向において、参加者を大まかに特定するために利用されてもよい(232)。大まかな配向は、コンパスおよび/またはワイヤレス配向技法を使用して達成されてもよい(234)。大まかな位置特定および配向が判定されると、分散システムは、ローカル特徴マッピング情報をローカルデバイス(すなわち、相互連結されたモバイル通信システム154および拡張用コンソール218等)にロードする(すなわち、ワイヤレス通信を介して)ように構成されてもよい。そのような情報は、例えば、地平線幾何学形状、建築幾何学形状、水路/平面要素幾何学形状、風景幾何学形状、および同等物等の幾何学的情報を備えてもよい(236)。ローカルおよび分散システムは、大まかな位置特定、大まかな配向、およびローカル特徴マップ情報の組み合わせを利用して、細かい位置特定および配向特性を判定してもよく(X、Y、およびZ{高度に類似する}座標および3−D配向等)(238)、これは、分散システムに、細かいピッチのローカル特徴マッピング情報をローカルシステム(すなわち、相互連結されたモバイル通信システム154および拡張用コンソール218等)にロードさせ、ユーザ体験および動作を向上させるために利用されてもよい。異なる配向および場所への移動は、大まかな位置特定および配向ツール、ならびに参加者によって携行され得る、タブレットまたは携帯電話等のモバイルコンピューティングシステムに連結され得る、慣性測定ユニット、ジャイロ、および加速度計等のローカルに展開されたデバイスを利用して追跡されてもよい(242)。
種々の前述の実施形態における頭部搭載型ディスプレイ構成要素は、単眼または双眼ディスプレイ技術の透明ビデオ構成を備えてもよい。さらに、そのような構成要素は、画像がユーザの網膜に投影され、焦点深度情報がボクセルおよび/またはフレームあたりで提供される、レーザ投影システムを含む、単眼または双眼形態における、装着型または頭部搭載型明視野ディスプレイシステムを備えてもよい。深度平面数は、好ましくは、2〜無限または非常に多数までに及び得る。一実施形態では、4〜36の深度平面が、3−D効果のために提供されてもよい。
図23に特徴付けられる、DJテーブル(178)等の実際のオブジェクトは、仮想現実表面、形状、および/または機能性とともに拡張されてもよい。例えば、一実施形態では、そのようなデバイス上の実際のボタンは、実際のデバイスおよび/または他のデバイス、人々、またはオブジェクトと相互作用するように構成される、仮想パネルを開くように構成されてもよい。
図23に描写されるパーティルーム等の部屋(174)は、任意の部屋または空間であるように外挿されてもよい。システムは、いくつかの既知のデータ(部屋の他の関連付けられた構造またはものに関する既存の2または3次元データ等)から任意の場所を有してもよく、または新しいゼロデータを有してもよく、図24Bのコントローラコンソール(218)に搭載されるもの等のカメラ(204)を利用する機械視覚構成は、付加的データを捕捉するために利用されることができる。さらに、システムは、人々の群が、使用可能な2または3次元マップ情報源を収集し得るように構成されてもよい。
Londonの都市の3次元マップデータ等の既存のマップ情報が利用可能な構成では、頭部搭載型ディスプレイまたは「感覚製品」構成(300)を装着するユーザは、GPS、コンパス、および/または他の手段(付加的固定追跡カメラ、他のプレーヤに連結されるデバイス等)を使用して、大まかに位置してもよい。細かい位置合わせは、次いで、そのような位置合わせのための基準として、物理的場所の既知の幾何学形状を使用して、ユーザのセンサから達成されてもよい。例えば、距離Xにおいて見たとき、London固有の建物において、システムが、GPS情報から、Yフィート内であって、かつコンパスおよびマップMから、方向Cにユーザを特定すると、システムは、位置合わせアルゴリズム(幾分、ロボットまたはコンピュータ支援外科手術において利用される技法に類似する)を実装し、ユーザの3次元場所をある程度の誤差E内に「ロックイン」するように構成されてもよい。
固定カメラはまた、頭部搭載型または感覚製品システムとともに利用されてもよい。例えば、図23に描写されるもの等のパーティルームでは、部屋のある側面(174)に搭載された固定カメラは、部屋および動く人々のライブの進行中ビューを提供し、仮想および部屋内の物理的人々の両方とのそのソーシャル相互作用が、はるかに豊かになるように、遠隔参加者に、部屋全体の「ライブ」デジタル遠隔存在ビューを与えるように構成されてもよい。そのような実施形態では、いくつかの部屋が、相互にマップされてもよい。すなわち、物理的部屋および仮想部屋幾何学形状が、相互にマップされてもよい。付加的拡張または視覚が、物理的および仮想「メタ」部屋の両方を通して行き来するオブジェクトとともに、それを物理的部屋と等しく、それ未満、またはより大きくマップするように作成されてもよく、次いで、視覚的にカスタマイズまたは「スキニング」されたバージョンの部屋は、各ユーザまたは参加者に利用可能になってもよい(すなわち、正確に同一の物理的または仮想部屋内に存在し得る間、システムは、ユーザによるカスタムビューを可能にしてもよい。例えば、図23の仮想突撃隊員(194)は、パーティに居るが、「Death Star」モチーフまたはスキンでマップされた環境を有することができる一方、DJ(176)は、パーティ環境とともに図23に示されるようなスキニングされた部屋を有してもよい。したがって、「共有の映画的現実」の概念において、各ユーザは、部屋のいくつかの側面の一致するビューを有するが、また、全員、同時に、ある変動(色、形状等)をその個人的好みに合わせて修正することができる。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの実施例が参照される。それらは、本発明のより広くて紀要可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物が置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、離散構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる請求項の範囲内にあることを目的としている。
本発明は、対象デバイスを使用して行われ得る方法を含む。本方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、単に、エンドユーザが、対象方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は、論理的に可能である記載された事象の任意の順番で、ならびに事象の記載された順番で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および出版物と関連して理解されるとともに、概して、当業者によって公知または理解され得る。一般的または論理的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を随意的に組み込むいくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して考慮されるような、説明および指示されるものに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)が置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つまたはそれを上回るものと組み合わせて、記載および請求されてもよいことが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる請求項で使用されるように、「1つの」(「a」、「an」)、「the(said)」、および該(「the」)という単数形は、特に規定がない限り、複数形の指示対象を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示と関連付けられる請求項において、対象アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、請求項の要素の記載と関連して、「単に」、「のみ」、および同等物等の排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる請求項での「備える」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の付加的な要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および化学用語は、請求項の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の幅は、提供される実施例および/または対象の明細書に限定されるものではなく、むしろ、本開示と関連付けられる請求項の言葉の範囲のみによって限定されるものである。

Claims (1)

  1. 本明細書に記載の発明。
JP2019046952A 2013-03-11 2019-03-14 拡張現実および仮想現実のためのシステムおよび方法 Withdrawn JP2019139781A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361776771P 2013-03-11 2013-03-11
US61/776,771 2013-03-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016501326A Division JP6499154B2 (ja) 2013-03-11 2014-03-11 拡張現実および仮想現実のためのシステムおよび方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021006458A Division JP7002684B2 (ja) 2013-03-11 2021-01-19 拡張現実および仮想現実のためのシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2019139781A true JP2019139781A (ja) 2019-08-22

Family

ID=51659005

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2016501326A Active JP6499154B2 (ja) 2013-03-11 2014-03-11 拡張現実および仮想現実のためのシステムおよび方法
JP2017046806A Active JP6556776B2 (ja) 2013-03-11 2017-03-10 拡張現実および仮想現実のためのシステムおよび方法
JP2019046952A Withdrawn JP2019139781A (ja) 2013-03-11 2019-03-14 拡張現実および仮想現実のためのシステムおよび方法
JP2021006458A Active JP7002684B2 (ja) 2013-03-11 2021-01-19 拡張現実および仮想現実のためのシステムおよび方法
JP2021212164A Pending JP2022036160A (ja) 2013-03-11 2021-12-27 拡張現実および仮想現実のためのシステムおよび方法
JP2024000139A Pending JP2024028376A (ja) 2013-03-11 2024-01-04 拡張現実および仮想現実のためのシステムおよび方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016501326A Active JP6499154B2 (ja) 2013-03-11 2014-03-11 拡張現実および仮想現実のためのシステムおよび方法
JP2017046806A Active JP6556776B2 (ja) 2013-03-11 2017-03-10 拡張現実および仮想現実のためのシステムおよび方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021006458A Active JP7002684B2 (ja) 2013-03-11 2021-01-19 拡張現実および仮想現実のためのシステムおよび方法
JP2021212164A Pending JP2022036160A (ja) 2013-03-11 2021-12-27 拡張現実および仮想現実のためのシステムおよび方法
JP2024000139A Pending JP2024028376A (ja) 2013-03-11 2024-01-04 拡張現実および仮想現実のためのシステムおよび方法

Country Status (9)

Country Link
US (11) US10629003B2 (ja)
EP (2) EP2967322A4 (ja)
JP (6) JP6499154B2 (ja)
KR (5) KR102270699B1 (ja)
CN (1) CN105188516B (ja)
AU (6) AU2014248874B2 (ja)
CA (2) CA3157218A1 (ja)
IL (6) IL308285A (ja)
WO (1) WO2014164901A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017890A1 (ko) * 2021-08-11 2023-02-16 한국전자기술연구원 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템

Families Citing this family (737)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0522968D0 (en) 2005-11-11 2005-12-21 Popovich Milan M Holographic illumination device
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US9892546B2 (en) * 2010-06-30 2018-02-13 Primal Space Systems, Inc. Pursuit path camera model method and system
US9274349B2 (en) 2011-04-07 2016-03-01 Digilens Inc. Laser despeckler based on angular diversity
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
WO2013027004A1 (en) 2011-08-24 2013-02-28 Milan Momcilo Popovich Wearable data display
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
US20150010265A1 (en) 2012-01-06 2015-01-08 Milan, Momcilo POPOVICH Contact image sensor using switchable bragg gratings
WO2013163347A1 (en) 2012-04-25 2013-10-31 Rockwell Collins, Inc. Holographic wide angle display
US20130293580A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for selecting targets in an augmented reality environment
US9456744B2 (en) 2012-05-11 2016-10-04 Digilens, Inc. Apparatus for eye tracking
US9934614B2 (en) 2012-05-31 2018-04-03 Microsoft Technology Licensing, Llc Fixed size augmented reality objects
US9933684B2 (en) 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
KR102270699B1 (ko) * 2013-03-11 2021-06-28 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9288683B2 (en) 2013-03-15 2016-03-15 DGS Global Systems, Inc. Systems, methods, and devices for electronic spectrum management
WO2014144526A2 (en) 2013-03-15 2014-09-18 Magic Leap, Inc. Display system and method
US10237770B2 (en) 2013-03-15 2019-03-19 DGS Global Systems, Inc. Systems, methods, and devices having databases and automated reports for electronic spectrum management
US10231206B2 (en) 2013-03-15 2019-03-12 DGS Global Systems, Inc. Systems, methods, and devices for electronic spectrum management for identifying signal-emitting devices
US11646918B2 (en) 2013-03-15 2023-05-09 Digital Global Systems, Inc. Systems, methods, and devices for electronic spectrum management for identifying open space
US10271233B2 (en) 2013-03-15 2019-04-23 DGS Global Systems, Inc. Systems, methods, and devices for automatic signal detection with temporal feature extraction within a spectrum
US10257727B2 (en) 2013-03-15 2019-04-09 DGS Global Systems, Inc. Systems methods, and devices having databases and automated reports for electronic spectrum management
US10209517B2 (en) 2013-05-20 2019-02-19 Digilens, Inc. Holographic waveguide eye tracker
US9977256B2 (en) * 2013-05-30 2018-05-22 Johnson & Johnson Vision Care, Inc. Methods for manufacturing and programming an energizable ophthalmic lens with a programmable media insert
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10228242B2 (en) 2013-07-12 2019-03-12 Magic Leap, Inc. Method and system for determining user input based on gesture
US9727772B2 (en) 2013-07-31 2017-08-08 Digilens, Inc. Method and apparatus for contact image sensing
US11019258B2 (en) 2013-08-21 2021-05-25 Verizon Patent And Licensing Inc. Aggregating images and audio data to generate content
US9451162B2 (en) 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US20160048019A1 (en) * 2014-08-12 2016-02-18 Osterhout Group, Inc. Content presentation in head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9811159B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9746676B2 (en) 2014-01-21 2017-08-29 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9615742B2 (en) 2014-01-21 2017-04-11 Osterhout Group, Inc. Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
NZ722904A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US20150241964A1 (en) 2014-02-11 2015-08-27 Osterhout Group, Inc. Eye imaging in head worn computing
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
JP6264087B2 (ja) * 2014-02-21 2018-01-24 ソニー株式会社 表示制御装置、表示装置および表示制御システム
US10430985B2 (en) 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
US9830679B2 (en) * 2014-03-25 2017-11-28 Google Llc Shared virtual reality
US11137601B2 (en) 2014-03-26 2021-10-05 Mark D. Wieczorek System and method for distanced interactive experiences
US10725298B2 (en) 2014-03-26 2020-07-28 Mark D. Wieczorek, P.C. Virtual reality devices and accessories
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9895057B2 (en) * 2014-04-24 2018-02-20 Carl Zeiss Meditec, Inc. Functional vision testing using light field displays
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US9934613B2 (en) * 2014-04-29 2018-04-03 The Florida International University Board Of Trustees Systems for controlling a movable object
US20160027414A1 (en) * 2014-07-22 2016-01-28 Osterhout Group, Inc. External user interface for head worn computing
KR101671837B1 (ko) * 2014-05-20 2016-11-16 주식회사 비주얼캠프 시선 추적형 입력 장치
KR102219464B1 (ko) * 2014-05-23 2021-02-25 삼성전자주식회사 보안 운용 방법 및 이를 지원하는 전자 장치
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
US9911454B2 (en) 2014-05-29 2018-03-06 Jaunt Inc. Camera array including camera modules
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
KR101888566B1 (ko) * 2014-06-03 2018-08-16 애플 인크. 실제 물체와 관련된 디지털 정보를 제시하기 위한 방법 및 시스템
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150362733A1 (en) * 2014-06-13 2015-12-17 Zambala Lllp Wearable head-mounted display and camera system with multiple modes
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US11108971B2 (en) 2014-07-25 2021-08-31 Verzon Patent and Licensing Ine. Camera array removing lens distortion
US10368011B2 (en) 2014-07-25 2019-07-30 Jaunt Inc. Camera array removing lens distortion
US9363569B1 (en) 2014-07-28 2016-06-07 Jaunt Inc. Virtual reality system including social graph
US10186301B1 (en) 2014-07-28 2019-01-22 Jaunt Inc. Camera array including camera modules
US9774887B1 (en) 2016-09-19 2017-09-26 Jaunt Inc. Behavioral directional encoding of three-dimensional video
US10440398B2 (en) 2014-07-28 2019-10-08 Jaunt, Inc. Probabilistic model to compress images for three-dimensional video
US10701426B1 (en) 2014-07-28 2020-06-30 Verizon Patent And Licensing Inc. Virtual reality system including social graph
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
US9779633B2 (en) 2014-08-08 2017-10-03 Greg Van Curen Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US10359736B2 (en) 2014-08-08 2019-07-23 Digilens Inc. Method for holographic mastering and replication
US10241330B2 (en) 2014-09-19 2019-03-26 Digilens, Inc. Method and apparatus for generating input images for holographic waveguide displays
WO2016046514A1 (en) 2014-09-26 2016-03-31 LOKOVIC, Kimberly, Sun Holographic waveguide opticaltracker
WO2016054092A1 (en) 2014-09-29 2016-04-07 Magic Leap, Inc. Architectures and methods for outputting different wavelength light out of waveguides
KR102358548B1 (ko) 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
US10256859B2 (en) 2014-10-24 2019-04-09 Usens, Inc. System and method for immersive and interactive multimedia generation
KR101930657B1 (ko) 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US20160125652A1 (en) * 2014-11-03 2016-05-05 Avaya Inc. Augmented reality supervisor display
US10007333B2 (en) 2014-11-07 2018-06-26 Eye Labs, LLC High resolution perception of content in a wide field of view of a head-mounted display
US10495726B2 (en) 2014-11-13 2019-12-03 WorldViz, Inc. Methods and systems for an immersive virtual reality system using multiple active markers
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
GB2532465B (en) * 2014-11-19 2021-08-11 Bae Systems Plc Interactive control station
US10176639B2 (en) 2014-11-27 2019-01-08 Magic Leap, Inc. Virtual/augmented reality system having dynamic region resolution
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US10498976B2 (en) * 2014-12-05 2019-12-03 Microsoft Technology Licensing, Llc Virtual focus feedback
CN104597971B (zh) * 2014-12-06 2018-04-03 许昌学院 一种可穿戴式计算机
US9633622B2 (en) * 2014-12-18 2017-04-25 Intel Corporation Multi-user sensor-based interactions
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
WO2016113533A2 (en) 2015-01-12 2016-07-21 Milan Momcilo Popovich Holographic waveguide light field displays
US10437064B2 (en) 2015-01-12 2019-10-08 Digilens Inc. Environmentally isolated waveguide display
USD767509S1 (en) * 2015-01-20 2016-09-27 My Core Control Development, Llc Controller device for heating kit
WO2016116733A1 (en) 2015-01-20 2016-07-28 Milan Momcilo Popovich Holographic waveguide lidar
US10726625B2 (en) * 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
JP6828235B2 (ja) * 2015-12-07 2021-02-10 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
CN104615252B (zh) * 2015-02-16 2019-02-05 联想(北京)有限公司 控制方法、控制装置、穿戴式电子设备及电子设备
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
JP6565212B2 (ja) * 2015-02-24 2019-08-28 セイコーエプソン株式会社 表示装置、表示方法およびプログラム
TWI567670B (zh) * 2015-02-26 2017-01-21 宅妝股份有限公司 切換虛擬實境模式與擴增實境模式的管理方法以及系統
US9911232B2 (en) 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
AU2016225963B2 (en) 2015-03-05 2021-05-13 Magic Leap, Inc. Systems and methods for augmented reality
NZ773815A (en) 2015-03-16 2022-07-01 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
US11628038B2 (en) 2020-02-21 2023-04-18 Raytrx, Llc Multi-option all-digital 3D surgery visualization system and control
US11956414B2 (en) 2015-03-17 2024-04-09 Raytrx, Llc Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing
WO2016156776A1 (en) 2015-03-31 2016-10-06 Milan Momcilo Popovich Method and apparatus for contact image sensing
US10142609B2 (en) * 2015-04-29 2018-11-27 Northrop Grumman Systems Corporation Dynamically adjustable situational awareness interface for control of unmanned vehicles
US20170132706A1 (en) * 2015-05-13 2017-05-11 Capital Preferences, Ltd. Preference Based Financial Tool System and Method
WO2016183401A1 (en) * 2015-05-13 2016-11-17 Capital Preferences, Ltd. Human capital management system and method
CN112882233B (zh) 2015-05-19 2023-08-01 奇跃公司 双复合光场装置
EP3298444B1 (en) * 2015-05-19 2020-06-03 Magic Leap, Inc. Illuminator
KR102336879B1 (ko) 2015-05-20 2021-12-08 삼성전자주식회사 화면을 표시하는 전자 장치, 그 제어 방법
US9836117B2 (en) * 2015-05-28 2017-12-05 Microsoft Technology Licensing, Llc Autonomous drones for tactile feedback in immersive virtual reality
US9898864B2 (en) 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US10721280B1 (en) * 2015-05-29 2020-07-21 Sprint Communications Company L.P. Extended mixed multimedia reality platform
US10802577B2 (en) 2015-06-04 2020-10-13 Microsoft Technology Licensing, Llc Establishing voice communication channel
USD772821S1 (en) 2015-06-11 2016-11-29 Oculus Vr, Llc Remote control unit
CN107924085B (zh) 2015-06-15 2022-09-02 奇跃公司 虚拟和增强现实系统以及方法
JP6002286B1 (ja) * 2015-07-14 2016-10-05 株式会社コロプラ ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
US10176642B2 (en) 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US10335572B1 (en) * 2015-07-17 2019-07-02 Naveen Kumar Systems and methods for computer assisted operation
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
US10685488B1 (en) 2015-07-17 2020-06-16 Naveen Kumar Systems and methods for computer assisted operation
US10492981B1 (en) 2015-07-17 2019-12-03 Bao Tran Systems and methods for computer assisted operation
US10149958B1 (en) * 2015-07-17 2018-12-11 Bao Tran Systems and methods for computer assisted operation
WO2017015302A1 (en) 2015-07-20 2017-01-26 Magic Leap, Inc. Collimating fiber scanner design with inward pointing angles in virtual/augmented reality system
CA2995978A1 (en) * 2015-08-18 2017-02-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10146997B2 (en) 2015-08-21 2018-12-04 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
IL283014B (en) 2015-08-21 2022-07-01 Magic Leap Inc Assessment of eyelid shape
US20170228929A1 (en) * 2015-09-01 2017-08-10 Patrick Dengler System and Method by which combining computer hardware device sensor readings and a camera, provides the best, unencumbered Augmented Reality experience that enables real world objects to be transferred into any digital space, with context, and with contextual relationships.
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
KR102389807B1 (ko) 2015-09-16 2022-04-21 매직 립, 인코포레이티드 오디오 파일들의 헤드 포즈 혼합
EP3352467A4 (en) * 2015-09-18 2019-05-15 Sharp Kabushiki Kaisha RECEIVING DEVICE, RECEIVING METHOD AND PROGRAM
KR102413074B1 (ko) * 2015-09-21 2022-06-24 삼성전자주식회사 사용자 단말, 전자 장치 및 이들의 제어 방법
US10466478B2 (en) 2015-09-23 2019-11-05 Magic Leap, Inc. Eye imaging with an off-axis imager
US10025375B2 (en) 2015-10-01 2018-07-17 Disney Enterprises, Inc. Augmented reality controls for user interactions with a virtual world
NZ741830A (en) 2015-10-05 2022-02-25 Magic Leap Inc Microlens collimator for scanning optical fiber in virtual/augmented reality system
CN113759555A (zh) 2015-10-05 2021-12-07 迪吉伦斯公司 波导显示器
KR102608802B1 (ko) 2015-10-06 2023-11-30 매직 립, 인코포레이티드 역각 회절 격자를 가진 가상/증강 현실 시스템
US9875575B2 (en) * 2015-10-07 2018-01-23 Google Llc Smoothing 3D models of objects to mitigate artifacts
US10511895B2 (en) * 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
KR101763636B1 (ko) * 2015-10-15 2017-08-02 한국과학기술원 헤드 마운트 디스플레이를 이용한 협업 방법
JP6885935B2 (ja) 2015-10-16 2021-06-16 マジック リープ, インコーポレイテッドMagic Leap,Inc. 眼の特徴を用いる眼ポーズ識別
US10152825B2 (en) * 2015-10-16 2018-12-11 Fyusion, Inc. Augmenting multi-view image data with synthetic objects using IMU and image data
CN113220116A (zh) * 2015-10-20 2021-08-06 奇跃公司 改变可穿戴设备用户输入模式的系统和方法及可穿戴系统
KR20240055844A (ko) 2015-11-04 2024-04-29 매직 립, 인코포레이티드 광 필드 디스플레이 계측
US9801295B2 (en) 2015-11-05 2017-10-24 Oculus Vr, Llc Remote control unit with lanyard attachment mechanism
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US9763348B2 (en) 2015-11-06 2017-09-12 Oculus Vr, Llc Remote control unit with battery retention mechanism
US11231544B2 (en) 2015-11-06 2022-01-25 Magic Leap, Inc. Metasurfaces for redirecting light and methods for fabricating
EP3384468A4 (en) 2015-12-04 2019-01-30 Magic Leap, Inc. RELOCALIZATION SYSTEMS AND METHODS
US9722235B2 (en) 2015-12-11 2017-08-01 Oculus Vr, Llc Remote control unit with battery isolation tab
US9990689B2 (en) * 2015-12-16 2018-06-05 WorldViz, Inc. Multi-user virtual reality processing
US10095928B2 (en) 2015-12-22 2018-10-09 WorldViz, Inc. Methods and systems for marker identification
TWI735501B (zh) 2015-12-30 2021-08-11 美商艾倫神火公司 光學窄播
IL260280B2 (en) 2016-01-07 2023-09-01 Magic Leap Inc Virtual and augmented reality systems and methods with an unequal number of color component images spread across depth planes
US10831264B2 (en) 2016-01-19 2020-11-10 Magic Leap, Inc. Eye image combination
JP6952713B2 (ja) 2016-01-19 2021-10-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
US10684483B2 (en) * 2016-01-20 2020-06-16 Newtonoid Technologies, L.L.C. Item of headwear
CN105554392A (zh) * 2016-01-20 2016-05-04 京东方科技集团股份有限公司 显示切换装置及其切换方法、穿戴显示装置及其显示方法
CN113406801B (zh) 2016-01-20 2023-05-30 奇跃公司 虚拟/增强现实系统中的偏振保持光纤
US10397320B2 (en) * 2016-01-20 2019-08-27 International Business Machines Corporation Location based synchronized augmented reality streaming
CN105894581B (zh) * 2016-01-22 2020-05-19 上海肇观电子科技有限公司 一种呈现多媒体信息的方法及装置
CN105893452B (zh) * 2016-01-22 2020-04-17 上海肇观电子科技有限公司 一种呈现多媒体信息的方法及装置
JP6680886B2 (ja) * 2016-01-22 2020-04-15 上海肇觀電子科技有限公司NextVPU (Shanghai) Co., Ltd. マルチメディア情報を表示する方法及び装置
CN105894571B (zh) * 2016-01-22 2020-05-19 上海肇观电子科技有限公司 一种处理多媒体信息的方法及装置
AU2017211032B2 (en) 2016-01-29 2021-11-04 Magic Leap, Inc. Display for three-dimensional image
US10983340B2 (en) 2016-02-04 2021-04-20 Digilens Inc. Holographic waveguide optical tracker
BR112018016726B1 (pt) 2016-02-18 2023-03-14 Apple Inc Método de processamento de imagem para realidade mista e dispositivo usado na cabeça
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
JP6668811B2 (ja) 2016-02-23 2020-03-18 セイコーエプソン株式会社 訓練装置、訓練方法、プログラム
CA3014496A1 (en) 2016-02-24 2017-08-31 Magic Leap, Inc. Polarizing beam splitter with low light leakage
NZ745229A (en) 2016-02-24 2019-12-20 Magic Leap Inc Low profile interconnect for light emitter
JP7470063B2 (ja) * 2016-02-25 2024-04-17 株式会社コロプラ ディスプレイとネットワークを介して接続される複数のコントローラとを連動させて画面操作するシステム、及びプログラム
IL295839A (en) 2016-02-26 2022-10-01 Magic Leap Inc A display system with a large number of light pipes for a large number of light emitters
WO2017147520A1 (en) 2016-02-26 2017-08-31 Magic Leap, Inc. Light output system with reflector and lens for highly spatially uniform light output
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
US10788672B2 (en) * 2016-03-01 2020-09-29 Mirus Llc Augmented visualization during surgery
US10571693B2 (en) 2016-03-01 2020-02-25 Magic Leap, Inc. Reflective switching device for inputting different wavelengths of light into waveguides
US10477157B1 (en) * 2016-03-02 2019-11-12 Meta View, Inc. Apparatuses, methods and systems for a sensor array adapted for vision computing
KR20230109789A (ko) 2016-03-04 2023-07-20 매직 립, 인코포레이티드 Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소
CA3016189A1 (en) 2016-03-07 2017-09-14 Magic Leap, Inc. Blue light adjustment for biometric security
CN105807922B (zh) * 2016-03-07 2018-10-02 湖南大学 一种虚拟现实娱乐驾驶的实现方法、装置及系统
GB2548154A (en) 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
US10317989B2 (en) 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
WO2017165231A1 (en) 2016-03-22 2017-09-28 Magic Leap, Inc. Head mounted display system configured to exchange biometric information
EP3433659A1 (en) 2016-03-24 2019-01-30 DigiLens, Inc. Method and apparatus for providing a polarization selective holographic waveguide device
KR102550587B1 (ko) 2016-03-25 2023-06-30 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
US10099122B2 (en) * 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
KR101822806B1 (ko) * 2016-03-31 2018-01-29 한국과학기술원 가상현실 기반 원거리 협업 기능과 데이터베이스를 제공하는 하이브리드 나노물질 및 나노소자의 재료 설계 장치
KR102551198B1 (ko) 2016-03-31 2023-07-03 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들
EP3424039A4 (en) * 2016-04-01 2019-11-06 Incontext Solutions, Inc. VIRTUAL REALITY PLATFORM FOR RETAIL LEVEL SIMULATION
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
IL299497B2 (en) 2016-04-08 2024-02-01 Magic Leap Inc Augmented reality systems and methods with variable focus lens elements
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10890707B2 (en) 2016-04-11 2021-01-12 Digilens Inc. Holographic waveguide apparatus for structured light projection
US10380800B2 (en) * 2016-04-18 2019-08-13 Disney Enterprises, Inc. System and method for linking and interacting between augmented reality and virtual reality environments
CA3021079A1 (en) 2016-04-21 2017-10-26 Magic Leap, Inc. Visual aura around field of view
EP3236336B1 (en) * 2016-04-21 2019-03-27 Nokia Technologies Oy Virtual reality causal summary content
JP7027336B2 (ja) 2016-04-26 2022-03-01 マジック リープ, インコーポレイテッド 拡張現実システムを用いた電磁追跡
EP3449340A1 (fr) * 2016-04-27 2019-03-06 Immersion Dispositif et procede de partage d'immersion dans un environnement virtuel
GB2551473A (en) * 2016-04-29 2017-12-27 String Labs Ltd Augmented media
EP3452991A4 (en) * 2016-05-02 2020-01-08 Warner Bros. Entertainment Inc. GEOMETRY ADJUSTMENT IN VIRTUAL REALITY AND EXTENDED REALITY
US10046229B2 (en) 2016-05-02 2018-08-14 Bao Tran Smart device
US10242501B1 (en) 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
KR102603675B1 (ko) 2016-05-06 2023-11-16 매직 립, 인코포레이티드 광을 재지향시키기 위한 비대칭 격자들을 가진 메타표면들 및 제조를 위한 방법들
CN105997247A (zh) * 2016-05-06 2016-10-12 京东方科技集团股份有限公司 一种应用于远程手术的控制端、手术设备端、方法及系统
KR102450362B1 (ko) 2016-05-09 2022-10-04 매직 립, 인코포레이티드 사용자 건강 분석을 위한 증강 현실 시스템들 및 방법들
WO2017196999A1 (en) 2016-05-12 2017-11-16 Magic Leap, Inc. Wavelength multiplexing in waveguides
US10496156B2 (en) * 2016-05-17 2019-12-03 Google Llc Techniques to change location of objects in a virtual/augmented reality system
CN109496331B (zh) 2016-05-20 2022-06-21 奇跃公司 用户界面菜单的情景感知
WO2017201569A1 (en) 2016-05-23 2017-11-30 tagSpace Pty Ltd Fine-grain placement and viewing of virtual objects in wide-area augmented reality environments
WO2017205351A1 (en) * 2016-05-23 2017-11-30 Mako Surgical Corp. Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
US10089788B2 (en) * 2016-05-25 2018-10-02 Google Llc Light-field viewpoint and pixel culling for a head mounted display device
US10435176B2 (en) 2016-05-25 2019-10-08 Skydio, Inc. Perimeter structure for unmanned aerial vehicle
CA3025936A1 (en) 2016-06-03 2017-12-07 Magic Leap, Inc. Augmented reality identity verification
KR20190015332A (ko) * 2016-06-06 2019-02-13 데바 엔터테인먼트 리미티드 증강 현실의 가상 객체들에 영향을 미치는 장치
WO2017214040A1 (en) * 2016-06-06 2017-12-14 Warner Bros. Entertainment Inc. Mixed reality system
KR102346068B1 (ko) 2016-06-10 2021-12-30 매직 립, 인코포레이티드 텍스처 투사 전구용 적분 점광원
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10126553B2 (en) * 2016-06-16 2018-11-13 Microsoft Technology Licensing, Llc Control device with holographic element
KR102355455B1 (ko) 2016-06-20 2022-01-24 매직 립, 인코포레이티드 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템
KR20210107185A (ko) 2016-06-30 2021-08-31 매직 립, 인코포레이티드 3d 공간에서의 포즈 추정
US10620717B2 (en) 2016-06-30 2020-04-14 Microsoft Technology Licensing, Llc Position-determining input device
US10019839B2 (en) * 2016-06-30 2018-07-10 Microsoft Technology Licensing, Llc Three-dimensional object scanning feedback
EP3484343B1 (en) 2016-07-14 2024-01-10 Magic Leap, Inc. Iris boundary estimation using cornea curvature
CN106484116B (zh) * 2016-10-19 2019-01-08 腾讯科技(深圳)有限公司 媒体文件的处理方法和装置
KR102648770B1 (ko) 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
KR101696243B1 (ko) * 2016-07-22 2017-01-13 김계현 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법
EP3488284B1 (en) 2016-07-25 2023-06-28 Magic Leap, Inc. Light field processor system and method
KR20230133940A (ko) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
US10403044B2 (en) 2016-07-26 2019-09-03 tagSpace Pty Ltd Telelocation: location sharing for users in augmented and virtual reality environments
IL280982B (en) 2016-07-29 2022-08-01 Magic Leap Inc Secure exchange of cryptographically signed records
AU2017305227B2 (en) 2016-08-02 2021-12-16 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US11238610B2 (en) * 2016-08-10 2022-02-01 Disney Enterprises, Inc. Placing large objects and objects separated by large distances in augmented reality
KR102174465B1 (ko) * 2016-08-10 2020-11-04 주식회사 케이티 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법 및 장치
IL292911B2 (en) 2016-08-11 2023-11-01 Magic Leap Inc Automatic positioning of a virtual object in three-dimensional space
US10520943B2 (en) 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
US10607609B2 (en) 2016-08-12 2020-03-31 Magic Leap, Inc. Word flow annotation
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
KR102439771B1 (ko) 2016-08-22 2022-09-02 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
NZ750551A (en) 2016-08-22 2023-05-26 Magic Leap Inc Multi-layer diffractive eyepiece
CN111710050A (zh) * 2016-08-24 2020-09-25 赵成智 一种用于虚拟现实设备的图像处理方法及装置
CN106293100A (zh) * 2016-08-24 2017-01-04 上海与德通讯技术有限公司 虚拟现实设备中视线焦点的确定方法及虚拟现实设备
US10831334B2 (en) * 2016-08-26 2020-11-10 tagSpace Pty Ltd Teleportation links for mixed reality environments
US20180063205A1 (en) * 2016-08-30 2018-03-01 Augre Mixed Reality Technologies, Llc Mixed reality collaboration
KR102576135B1 (ko) 2016-09-13 2023-09-06 매직 립, 인코포레이티드 감각 안경류
US10681341B2 (en) 2016-09-19 2020-06-09 Verizon Patent And Licensing Inc. Using a sphere to reorient a location of a user in a three-dimensional virtual reality video
US11032535B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview of a three-dimensional video
US11032536B2 (en) 2016-09-19 2021-06-08 Verizon Patent And Licensing Inc. Generating a three-dimensional preview from a two-dimensional selectable icon of a three-dimensional reality video
IL265443B (en) 2016-09-21 2022-07-01 Magic Leap Inc Systems and methods for optical systems with a dilator port
CN116649967A (zh) 2016-09-22 2023-08-29 奇跃公司 可穿戴光谱检查系统
EP3516485A4 (en) 2016-09-26 2020-06-03 Magic Leap, Inc. CALIBRATION OF MAGNETIC AND OPTICAL SENSORS IN A DISPLAY SYSTEM WITH VIRTUAL REALITY OR ADVANCED REALITY
EP3519878B1 (en) 2016-09-28 2023-04-19 Magic Leap, Inc. Face model capture by a wearable device
CN106572344A (zh) * 2016-09-29 2017-04-19 宇龙计算机通信科技(深圳)有限公司 虚拟现实直播方法、系统以及云服务器
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
AU2017338783B2 (en) 2016-10-04 2022-02-10 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
KR102269065B1 (ko) 2016-10-05 2021-06-24 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US10896544B2 (en) * 2016-10-07 2021-01-19 Htc Corporation System and method for providing simulated environment
US10514769B2 (en) * 2016-10-16 2019-12-24 Dell Products, L.P. Volumetric tracking for orthogonal displays in an electronic collaboration setting
GB2555378B (en) 2016-10-18 2021-06-09 Virtually Live Switzerland Gmbh HMD delivery system and method
CN107957774B (zh) * 2016-10-18 2021-08-31 阿里巴巴集团控股有限公司 虚拟现实空间环境中的交互方法及装置
IL311451A (en) 2016-10-21 2024-05-01 Magic Leap Inc System and method for displaying image content on multiple depth planes by providing multiple intrapupillary parallax fields of view
US10593116B2 (en) 2016-10-24 2020-03-17 Snap Inc. Augmented reality object manipulation
US10192362B2 (en) * 2016-10-27 2019-01-29 Gopro, Inc. Generating virtual reality and augmented reality content for a live event
CN106534125B (zh) * 2016-11-11 2021-05-04 厦门汇鑫元软件有限公司 一种基于局域网实现vr多人交互系统的方法
IL296031A (en) 2016-11-11 2022-10-01 Magic Leap Inc Peripheral assembly and audio of a full facial image
EP4155867A1 (en) * 2016-11-14 2023-03-29 Logitech Europe S.A. A system for importing user interface devices into virtual/augmented reality
US10754417B2 (en) 2016-11-14 2020-08-25 Logitech Europe S.A. Systems and methods for operating an input device in an augmented/virtual reality environment
JP6854344B2 (ja) 2016-11-15 2021-04-07 マジック リープ, インコーポレイテッドMagic Leap,Inc. 直方体検出のための深層機械学習システム
EP3933547B1 (en) 2016-11-16 2023-12-27 Magic Leap, Inc. Thermal management systems for wearable components
JP2018082308A (ja) * 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
CN110199220B (zh) 2016-11-18 2022-11-01 奇跃公司 使用交叉光栅的波导光复用器
US11067860B2 (en) 2016-11-18 2021-07-20 Magic Leap, Inc. Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same
EP3542215B1 (en) 2016-11-18 2022-11-02 Magic Leap, Inc. Spatially variable liquid crystal diffraction gratings
AU2017363081B2 (en) 2016-11-18 2022-01-13 Magic Leap, Inc. Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges
US10373452B2 (en) * 2016-11-29 2019-08-06 Immersion Corporation Targeted haptic projection
KR102609494B1 (ko) * 2016-11-29 2023-12-01 엘지디스플레이 주식회사 외부 보상용 표시장치와 그 구동방법
WO2018100906A1 (ja) * 2016-11-30 2018-06-07 グリー株式会社 アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
US11295458B2 (en) * 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
WO2018102834A2 (en) 2016-12-02 2018-06-07 Digilens, Inc. Waveguide device with uniform output illumination
CN114236837A (zh) * 2016-12-05 2022-03-25 凯斯西储大学 用于显示交互式增强现实展示的系统、方法和介质
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
EP4220572A1 (en) 2016-12-05 2023-08-02 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
CA3045663A1 (en) 2016-12-08 2018-06-14 Magic Leap, Inc. Diffractive devices based on cholesteric liquid crystal
US20180164885A1 (en) * 2016-12-09 2018-06-14 Immersion Corporation Systems and Methods For Compliance Illusions With Haptics
EP4148402A1 (en) 2016-12-13 2023-03-15 Magic Leap, Inc. Augmented and virtual reality eyewear, systems, and methods for delivering polarized light and determining glucose levels
CN106888203B (zh) * 2016-12-13 2020-03-24 阿里巴巴集团控股有限公司 基于增强现实的虚拟对象分配方法及装置
AU2017375951B2 (en) 2016-12-13 2022-02-10 Magic Leap, Inc. 3D object rendering using detected features
US10373385B2 (en) * 2016-12-14 2019-08-06 Microsoft Technology Licensing, Llc Subtractive rendering for augmented and virtual reality systems
US10895784B2 (en) 2016-12-14 2021-01-19 Magic Leap, Inc. Patterning of liquid crystals using soft-imprint replication of surface alignment patterns
WO2018116377A1 (ja) * 2016-12-20 2018-06-28 株式会社キッズプレート 現実空間を撮像した映像にオブジェクトを重畳させる処理を行う処理装置、方法、プログラム、および処理システム
CN107741809B (zh) * 2016-12-21 2020-05-12 腾讯科技(深圳)有限公司 一种虚拟形象之间的互动方法、终端、服务器及系统
US10371896B2 (en) * 2016-12-22 2019-08-06 Magic Leap, Inc. Color separation in planar waveguides using dichroic filters
CN114675420A (zh) 2016-12-22 2022-06-28 奇跃公司 用于操纵来自环境光源的光的系统和方法
GB2558284B (en) * 2016-12-23 2021-12-08 Sony Interactive Entertainment Inc Virtual reality
TWI603227B (zh) * 2016-12-23 2017-10-21 李雨暹 移動物件的虛擬訊息遠距管理方法與應用系統
US10746999B2 (en) 2016-12-28 2020-08-18 Magic Leap, Inc. Dual depth exit pupil expander
WO2018125428A1 (en) 2016-12-29 2018-07-05 Magic Leap, Inc. Automatic control of wearable display device based on external conditions
US10262464B2 (en) * 2016-12-30 2019-04-16 Intel Corporation Dynamic, local augmented reality landmarks
CN106823408B (zh) * 2016-12-30 2019-05-07 武汉市马里欧网络有限公司 基于ar的儿童积木搭建系统及方法
US10621773B2 (en) * 2016-12-30 2020-04-14 Google Llc Rendering content in a 3D environment
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
CN117447088A (zh) 2017-01-05 2024-01-26 奇跃公司 通过等离子体蚀刻的高折射率玻璃的图案化
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
US10242503B2 (en) * 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US20200035030A1 (en) * 2017-01-17 2020-01-30 Aaron Schradin Augmented/virtual mapping system
JP6227177B1 (ja) * 2017-01-20 2017-11-08 株式会社Qdレーザ 画像投影装置
IL307783A (en) 2017-01-23 2023-12-01 Magic Leap Inc Eyepiece for virtual, augmented or mixed reality systems
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US10459020B2 (en) 2017-01-23 2019-10-29 DGS Global Systems, Inc. Systems, methods, and devices for automatic signal detection based on power distribution by frequency over time within a spectrum
US10700794B2 (en) 2017-01-23 2020-06-30 Digital Global Systems, Inc. Systems, methods, and devices for automatic signal detection based on power distribution by frequency over time within an electromagnetic spectrum
US10498951B2 (en) 2017-01-23 2019-12-03 Digital Global Systems, Inc. Systems, methods, and devices for unmanned vehicle detection
US10529241B2 (en) 2017-01-23 2020-01-07 Digital Global Systems, Inc. Unmanned vehicle recognition and threat management
US10841724B1 (en) 2017-01-24 2020-11-17 Ha Tran Enhanced hearing system
CN106791748A (zh) * 2017-01-25 2017-05-31 触景无限科技(北京)有限公司 一种台灯的投影处理方法及装置
EP3574350A4 (en) 2017-01-27 2020-12-09 Magic Leap, Inc. ANTIREFLEX COATING FOR META SURFACES
JP7142015B2 (ja) 2017-01-27 2022-09-26 マジック リープ, インコーポレイテッド 異なって向けられたナノビームを有するメタ表面によって形成された回折格子
JP6244593B1 (ja) * 2017-01-30 2017-12-13 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11347054B2 (en) 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
WO2018152455A1 (en) * 2017-02-20 2018-08-23 Vspatial, Inc. System and method for creating a collaborative virtual session
KR102601052B1 (ko) 2017-02-23 2023-11-09 매직 립, 인코포레이티드 가변 파워 반사기를 갖는 디스플레이 시스템
KR20240000632A (ko) * 2017-02-28 2024-01-02 매직 립, 인코포레이티드 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩
US20180255285A1 (en) * 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
CN106919259A (zh) * 2017-03-06 2017-07-04 北京小米移动软件有限公司 基于vr设备的形象处理方法和装置
US10672171B2 (en) * 2017-03-07 2020-06-02 Lamplight Forest Holdings Pty Ltd System and method for dynamic content generation in a virtual space
US10043406B1 (en) 2017-03-10 2018-08-07 Intel Corporation Augmented emotion display for austistic persons
CN110402350B (zh) 2017-03-14 2022-05-24 奇跃公司 具有光吸收膜的波导及其形成方法
AU2018236433B2 (en) 2017-03-17 2022-03-03 Magic Leap, Inc. Room layout estimation methods and techniques
IL298822A (en) 2017-03-17 2023-02-01 Magic Leap Inc A mixed reality system with color virtual content distortion and a method for creating virtual content using it
JP7009495B2 (ja) 2017-03-17 2022-01-25 マジック リープ, インコーポレイテッド 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
KR101963244B1 (ko) * 2017-03-20 2019-03-28 ㈜라이커스게임 현실 음향을 반영한 증강 현실 3차원 음향 구현 시스템 및 프로그램
CN110446965B (zh) * 2017-03-21 2022-05-03 奇跃公司 用于结合光扫描投影仪跟踪眼睛运动的方法和系统
KR20240064054A (ko) 2017-03-21 2024-05-10 매직 립, 인코포레이티드 회절 광학 엘리먼트들을 이용한 눈-이미징 장치
AU2018237168A1 (en) 2017-03-21 2019-10-10 Magic Leap, Inc. Display system with spatial light modulator illumination for divided pupils
WO2018175344A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Depth sensing techniques for virtual, augmented, and mixed reality systems
WO2018175488A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Stacked waveguides having different diffraction gratings for combined field of view
WO2018175627A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Low-profile beam splitter
CN117075345A (zh) 2017-03-21 2023-11-17 奇跃公司 用于照射空间光调制器的方法、设备和系统
EP3603058A4 (en) 2017-03-22 2020-12-30 Magic Leap, Inc. DEPTH-BASED FOVEA REPRESENTATION FOR DISPLAY SYSTEMS
CN106913449A (zh) * 2017-03-23 2017-07-04 郑州诚优成电子科技有限公司 互动式增强现实视力康复装置
EP3602252A4 (en) * 2017-03-28 2020-12-16 Magic Leap, Inc. SYSTEM OF EXTENDED REALITY WITH SPACIOUS AUDIO TIED TO A USER MANIPULATED VIRTUAL OBJECT
US10369472B1 (en) 2017-03-30 2019-08-06 Electronic Arts Inc. Virtual environment mapping system
CN108668050B (zh) * 2017-03-31 2021-04-27 深圳市掌网科技股份有限公司 基于虚拟现实的视频拍摄方法和装置
ES2640790A1 (es) * 2017-04-04 2017-11-06 Stanislas Louis ALEXANDRE KARNKOWSKI Procedimiento para la detección y representación virtual de actividades de acción
EP3385912B1 (en) * 2017-04-06 2022-08-24 Hexagon Technology Center GmbH Near field manoeuvring for ar-devices using image tracking
US10403050B1 (en) * 2017-04-10 2019-09-03 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
US10489651B2 (en) * 2017-04-14 2019-11-26 Microsoft Technology Licensing, Llc Identifying a position of a marker in an environment
KR20240011891A (ko) 2017-04-18 2024-01-26 매직 립, 인코포레이티드 반사 유동성 재료들에 의해 형성된 반사 층들을 갖는 도파관들
AU2018256365A1 (en) 2017-04-19 2019-10-31 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
CN110770636B (zh) * 2017-04-25 2024-04-05 雷特克斯有限公司 具有矫正视力缺陷、增强视力和感知能力的可穿戴图像处理和控制系统
CN110573992B (zh) * 2017-04-27 2023-07-18 西门子股份公司 使用增强现实和虚拟现实编辑增强现实体验
CN117311494A (zh) 2017-04-27 2023-12-29 奇跃公司 发光用户输入设备
CN111133365B (zh) 2017-05-01 2023-03-31 奇跃公司 内容到空间3d环境的匹配
US10650541B2 (en) * 2017-05-10 2020-05-12 Microsoft Technology Licensing, Llc Presenting applications within virtual environments
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10078909B1 (en) 2017-05-16 2018-09-18 Facebook, Inc. Video stream customization using graphics
CA3061332A1 (en) 2017-05-19 2018-11-22 Magic Leap, Inc. Keyboards for virtual, augmented, and mixed reality display systems
EP3631734B1 (en) 2017-05-22 2021-08-18 Magic Leap, Inc. Pairing with companion device
IL311011A (en) 2017-05-30 2024-04-01 Magic Leap Inc Power supply assembly with fan assembly for an electronic device
EP4123425A1 (en) 2017-05-31 2023-01-25 Magic Leap, Inc. Eye tracking calibration techniques
US9853740B1 (en) 2017-06-06 2017-12-26 Surefire Llc Adaptive communications focal plane array
US20180357826A1 (en) * 2017-06-10 2018-12-13 Tsunami VR, Inc. Systems and methods for using hierarchical relationships of different virtual content to determine sets of virtual content to generate and display
WO2018231784A1 (en) 2017-06-12 2018-12-20 Magic Leap, Inc. Augmented reality display having multi-element adaptive lens for changing depth planes
US10304251B2 (en) * 2017-06-15 2019-05-28 Microsoft Technology Licensing, Llc Virtually representing spaces and objects while maintaining physical properties
WO2018236499A1 (en) * 2017-06-19 2018-12-27 Apple Inc. AUGMENTED REALITY INTERFACE FOR INTERACTING WITH DISPLAYED CARDS
JP6509955B2 (ja) * 2017-06-28 2019-05-08 株式会社コロプラ 情報処理方法、プログラム及び情報処理装置
US10449440B2 (en) * 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10562181B2 (en) 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions
US11106967B2 (en) 2017-07-03 2021-08-31 X Development Llc Update of local features model based on correction to robot action
US10754399B2 (en) * 2017-07-10 2020-08-25 Magic Leap, Inc. Method and system for integration of electronic sensors with thermal cooling system
US10908680B1 (en) 2017-07-12 2021-02-02 Magic Leap, Inc. Pose estimation using electromagnetic tracking
WO2019012315A1 (ru) * 2017-07-13 2019-01-17 Девар Энтертеймент Лимитед Способ формирования среды дополненной реальности
CA3068448A1 (en) 2017-07-26 2019-01-31 Magic Leap, Inc. Training a neural network with representations of user interface devices
CN110998099A (zh) 2017-07-28 2020-04-10 奇跃公司 用于显示图像的风扇组件
CN109389677B (zh) * 2017-08-02 2022-10-18 珊口(上海)智能科技有限公司 房屋三维实景地图的实时构建方法、系统、装置及存储介质
CN107277494A (zh) * 2017-08-11 2017-10-20 北京铂石空间科技有限公司 立体显示系统及方法
US10613703B2 (en) * 2017-08-18 2020-04-07 Adobe Inc. Collaborative interaction with virtual reality video
US10152141B1 (en) 2017-08-18 2018-12-11 Osterhout Group, Inc. Controller movement tracking with light emitters
CN107564099A (zh) * 2017-08-29 2018-01-09 上海爱优威软件开发有限公司 一种3d空间模型的构建方法及系统
CN109420336A (zh) * 2017-08-30 2019-03-05 深圳市掌网科技股份有限公司 基于增强现实的游戏实现方法和装置
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
WO2019043597A1 (en) * 2017-09-04 2019-03-07 Aggarwal Abhinav SYSTEMS AND METHODS FOR MIXED REALITY INTERACTIONS WITH AVATAR
CA3068481A1 (en) 2017-09-20 2019-03-28 Magic Leap, Inc. Personalized neural network for eye tracking
IL273397B1 (en) 2017-09-21 2024-05-01 Magic Leap Inc An augmented reality display with a waveguide configured to capture images of an eye and/or environment
CN107608517B (zh) * 2017-09-25 2020-06-19 艾亚(北京)科技有限公司 一种基于地理位置的场景互动交友系统及方法
IL307639A (en) 2017-09-27 2023-12-01 Magic Leap Inc Near-eye 3D display with separate phase and amplitude modulators
US10482575B2 (en) * 2017-09-28 2019-11-19 Intel Corporation Super-resolution apparatus and method for virtual and mixed reality
US10803666B1 (en) * 2017-09-28 2020-10-13 Apple Inc. Method and device for synchronizing augmented reality coordinate systems
US10777007B2 (en) 2017-09-29 2020-09-15 Apple Inc. Cooperative augmented reality map interface
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
WO2019074169A1 (ko) * 2017-10-11 2019-04-18 주식회사 카이비전 움직임감지 증강현실 글라스
AU2018348229A1 (en) 2017-10-11 2020-04-23 Magic Leap, Inc. Augmented reality display comprising eyepiece having a transparent emissive display
KR102133219B1 (ko) * 2017-10-11 2020-07-14 주식회사 카이비전 움직임감지 증강현실 글라스
JP7399084B2 (ja) 2017-10-16 2023-12-15 ディジレンズ インコーポレイテッド ピクセル化されたディスプレイの画像分解能を倍増させるためのシステムおよび方法
KR102022971B1 (ko) * 2017-10-18 2019-09-19 한국전자통신연구원 영상의 객체 처리 방법 및 장치
US10890769B2 (en) 2017-10-26 2021-01-12 Magic Leap, Inc. Augmented reality display having liquid crystal variable focus element and roll-to-roll method and apparatus for forming the same
AU2018355446A1 (en) 2017-10-26 2020-05-14 Magic Leap, Inc. Broadband adaptive lens assembly for augmented reality display
US11537895B2 (en) 2017-10-26 2022-12-27 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
EP3701497A4 (en) 2017-10-27 2021-07-28 Magic Leap, Inc. VIRTUAL RETICLE FOR AUGMENTED REALITY SYSTEMS
US10816807B2 (en) 2017-11-01 2020-10-27 Vrgineers, Inc. Interactive augmented or virtual reality devices
DE102017219790A1 (de) * 2017-11-07 2019-05-09 Volkswagen Aktiengesellschaft System und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille, System und Verfahren zum Einmessen einer Augmented-Reality-Brille, Verfahren zum Unterstützen einer Posenbestimmung einer Augmented-Reality-Brille und für das Verfahren geeignetes Kraftfahrzeug
WO2019092590A1 (ru) * 2017-11-09 2019-05-16 ГИОРГАДЗЕ, Анико Тенгизовна Взаимодействие пользователей в коммуникационной системе при помощи множественного потокового вещания данных дополненной реальности
KR102434580B1 (ko) * 2017-11-09 2022-08-22 삼성전자주식회사 가상 경로를 디스플레이하는 방법 및 장치
US11048978B2 (en) 2017-11-14 2021-06-29 Magic Leap, Inc. Meta-learning for multi-task learning for neural networks
US10553031B2 (en) 2017-12-06 2020-02-04 Microsoft Technology Licensing, Llc Digital project file presentation
EP3724712A4 (en) 2017-12-11 2021-08-04 Magic Leap, Inc. WAVE GUIDE LIGHTING
US11380039B2 (en) 2017-12-14 2022-07-05 Magic Leap, Inc. Contextual-based rendering of virtual avatars
WO2019118886A1 (en) 2017-12-15 2019-06-20 Magic Leap, Inc. Enhanced pose determination for display device
CN111683584A (zh) 2017-12-15 2020-09-18 奇跃公司 用于增强现实显示系统的目镜
CN111684495A (zh) 2017-12-22 2020-09-18 奇跃公司 用于在混合现实系统中管理和显示虚拟内容的方法和系统
WO2019132521A1 (ko) * 2017-12-26 2019-07-04 스코넥엔터테인먼트주식회사 가상 환경 제어 시스템
KR102092464B1 (ko) 2017-12-26 2020-03-23 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
KR20200100046A (ko) * 2017-12-28 2020-08-25 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US20190204599A1 (en) * 2017-12-28 2019-07-04 Microsoft Technology Licensing, Llc Head-mounted display device with electromagnetic sensor
US10916060B2 (en) 2018-01-04 2021-02-09 Magic Leap, Inc. Optical elements based on polymeric structures incorporating inorganic materials
KR102547943B1 (ko) 2018-01-05 2023-06-26 삼성디스플레이 주식회사 헤드 마운트 표시 장치
US10473439B2 (en) 2018-01-05 2019-11-12 Aron Surefire, Llc Gaming systems and methods using optical narrowcasting
US10236986B1 (en) 2018-01-05 2019-03-19 Aron Surefire, Llc Systems and methods for tiling free space optical transmissions
US10250948B1 (en) 2018-01-05 2019-04-02 Aron Surefire, Llc Social media with optical narrowcasting
KR20200108030A (ko) 2018-01-08 2020-09-16 디지렌즈 인코포레이티드. 도파관 셀 내의 홀로그래픽 격자의 높은 처리능력의 레코딩을 위한 시스템 및 방법
WO2019136476A1 (en) 2018-01-08 2019-07-11 Digilens, Inc. Waveguide architectures and related methods of manufacturing
CA3088116A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
EP4354207A2 (en) 2018-01-17 2024-04-17 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
US10634913B2 (en) * 2018-01-22 2020-04-28 Symbol Technologies, Llc Systems and methods for task-based adjustable focal distance for heads-up displays
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US20210058611A1 (en) * 2018-02-02 2021-02-25 Interdigital Ce Patent Holdings Multiviewing virtual reality user interface
US11442682B2 (en) * 2018-02-05 2022-09-13 Sony Interactive Entertainment Inc. Entertainment apparatus, display controlling method, and display controlling program
CN111712780A (zh) 2018-02-06 2020-09-25 奇跃公司 用于增强现实的系统和方法
CN108399638B (zh) * 2018-02-08 2021-07-20 重庆爱奇艺智能科技有限公司 一种基于标记的增强现实交互方法、装置及电子设备
TWI658404B (zh) * 2018-02-09 2019-05-01 宏碁股份有限公司 語音辨識系統及其方法
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
US11036364B2 (en) 2018-02-22 2021-06-15 Magic Leap, Inc. Browser for mixed reality systems
WO2019165044A1 (en) 2018-02-22 2019-08-29 Magic Leap, Inc. Object creation with physical manipulation
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
US11074748B2 (en) 2018-02-27 2021-07-27 Magic Leap, Inc. Matching meshes for virtual avatars
CN111936912A (zh) 2018-02-28 2020-11-13 奇跃公司 使用眼部配准的头部扫描对准
JP2019152899A (ja) * 2018-02-28 2019-09-12 株式会社バンダイナムコスタジオ シミュレーションシステム及びプログラム
WO2019173079A1 (en) 2018-03-06 2019-09-12 Texas State University Augmented reality/virtual reality platform for a network analyzer
CA3059064C (en) 2018-03-07 2022-01-04 Magic Leap, Inc. Visual tracking of peripheral devices
WO2019173808A1 (en) * 2018-03-09 2019-09-12 Ventana 3D, Llc Real-time quality control during manufacturing using augmented reality
CN111886533A (zh) 2018-03-12 2020-11-03 奇跃公司 基于倾斜阵列的显示器
CN108196686B (zh) * 2018-03-13 2024-01-26 北京无远弗届科技有限公司 一种手部动作姿态捕捉设备、方法及虚拟现实交互系统
EP3765890A4 (en) 2018-03-14 2022-01-12 Magic Leap, Inc. DISPLAY SYSTEMS AND CONTENT CROPPING METHODS TO INCREASE VIEWING COMFORT
JP7381482B2 (ja) 2018-03-16 2023-11-15 マジック リープ, インコーポレイテッド ディスプレイシステムのための深度ベースの中心窩化レンダリング
JP7344894B2 (ja) 2018-03-16 2023-09-14 マジック リープ, インコーポレイテッド 眼追跡カメラからの顔の表情
WO2019178614A1 (en) 2018-03-16 2019-09-19 Digilens Inc. Holographic waveguides incorporating birefringence control and methods for their fabrication
USD868108S1 (en) * 2018-03-16 2019-11-26 Magic Leap, Inc. Display panel or portion thereof with graphical user interface
US20200380486A1 (en) * 2018-03-20 2020-12-03 Rocky Jerome Wright Augmented reality and messaging
US11182962B2 (en) * 2018-03-20 2021-11-23 Logitech Europe S.A. Method and system for object segmentation in a mixed reality environment
WO2019183399A1 (en) 2018-03-21 2019-09-26 Magic Leap, Inc. Augmented reality system and method for spectroscopic analysis
WO2019204164A1 (en) 2018-04-16 2019-10-24 Magic Leap, Inc. Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
US11067805B2 (en) 2018-04-19 2021-07-20 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
US20190324538A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Haptic-enabled wearable device for generating a haptic effect in an immersive reality environment
US10789753B2 (en) 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
KR102575649B1 (ko) 2018-04-24 2023-09-06 삼성전자주식회사 투시형 디스플레이 장치
US11210832B2 (en) 2018-04-24 2021-12-28 Hewlett-Packard Development Company, L.P. Animated gazes on head mounted displays
US11436932B2 (en) 2018-04-27 2022-09-06 Red Six Aerospace Inc. Methods and systems to allow real pilots in real aircraft using augmented and virtual reality to meet in a virtual piece of airspace
US11869388B2 (en) 2018-04-27 2024-01-09 Red Six Aerospace Inc. Augmented reality for vehicle operations
US11508255B2 (en) 2018-04-27 2022-11-22 Red Six Aerospace Inc. Methods, systems, apparatuses and devices for facilitating provisioning of a virtual experience
US11887495B2 (en) 2018-04-27 2024-01-30 Red Six Aerospace Inc. Augmented reality for vehicle operations
KR102068215B1 (ko) * 2018-04-30 2020-01-20 주식회사 북트랩스 증강현실/가상현실을 적용한 스토리 기반의 콘텐츠 제공 방법 및 시스템
US10504289B2 (en) 2018-05-01 2019-12-10 Dell Products, Lp Method and apparatus for securely displaying private information using an augmented reality headset
WO2019213220A1 (en) 2018-05-03 2019-11-07 Magic Leap, Inc. Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character
EP3788457A1 (en) * 2018-05-03 2021-03-10 PCMS Holdings, Inc. Systems and methods for physical proximity and/or gesture-based chaining of vr experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
WO2019226554A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Skeletal systems for animating virtual avatars
WO2019226691A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Transmodal input fusion for a wearable system
CN110531846B (zh) * 2018-05-24 2023-05-23 卡兰控股有限公司 在实时3d虚拟世界代表真实世界的范围内的实时3d虚拟对象的双向实时3d交互操作
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US11651555B2 (en) * 2018-05-31 2023-05-16 Microsoft Technology Licensing, Llc Re-creation of virtual environment through a video call
US11885871B2 (en) * 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
US11749124B2 (en) * 2018-06-12 2023-09-05 Skydio, Inc. User interaction with an autonomous unmanned aerial vehicle
CN112567287A (zh) 2018-06-18 2021-03-26 奇跃公司 具有帧调制功能的增强现实显示
CN109102533A (zh) * 2018-06-19 2018-12-28 黑龙江拓盟科技有限公司 一种基于混合现实的特征点定位方法
CN108769802A (zh) * 2018-06-21 2018-11-06 北京密境和风科技有限公司 网络表演的实现方法、装置和系统
US11151793B2 (en) 2018-06-26 2021-10-19 Magic Leap, Inc. Waypoint creation in map detection
JP7437327B2 (ja) 2018-07-02 2024-02-22 マジック リープ, インコーポレイテッド 異種入力の補間のための方法およびシステム
CN109035415B (zh) * 2018-07-03 2023-05-16 百度在线网络技术(北京)有限公司 虚拟模型的处理方法、装置、设备和计算机可读存储介质
US11106033B2 (en) 2018-07-05 2021-08-31 Magic Leap, Inc. Waveguide-based illumination for head mounted display system
US10635939B2 (en) 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
US11474978B2 (en) 2018-07-06 2022-10-18 Capital One Services, Llc Systems and methods for a data search engine based on data profiles
US10863812B2 (en) * 2018-07-18 2020-12-15 L'oreal Makeup compact with eye tracking for guidance of makeup application
US11966055B2 (en) 2018-07-19 2024-04-23 Magic Leap, Inc. Content interaction driven by eye metrics
EP3827300A4 (en) 2018-07-23 2021-09-15 Magic Leap, Inc. METHOD AND SYSTEM FOR RESOLVING A HEMISPHERIC AMBUILITY USING A LOCATION VECTOR
JP7413345B2 (ja) 2018-07-23 2024-01-15 マジック リープ, インコーポレイテッド フィールド順次ディスプレイにおけるフィールド内サブコードタイミング
WO2020023383A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
EP3827302A4 (en) 2018-07-24 2021-08-18 Magic Leap, Inc. METHODS AND DEVICES FOR DETERMINING AND / OR EVALUATING LOCALIZATION MAPS OF IMAGE DISPLAY DEVICES
US10921596B2 (en) * 2018-07-24 2021-02-16 Disney Enterprises, Inc. Adaptive luminance/color correction for displays
WO2020023404A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Flicker mitigation when toggling eyepiece display illumination in augmented reality systems
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
JP7418400B2 (ja) 2018-07-24 2024-01-19 マジック リープ, インコーポレイテッド 再バウンス誘発光損失の軽減を伴う回折光学要素および関連システムおよび方法
US11402801B2 (en) 2018-07-25 2022-08-02 Digilens Inc. Systems and methods for fabricating a multilayer optical structure
US10835828B1 (en) * 2018-07-25 2020-11-17 Facebook, Inc. Augmented-reality game overlays in video communications
US10950024B2 (en) 2018-07-27 2021-03-16 Magic Leap, Inc. Pose space dimensionality reduction for pose space deformation of a virtual character
CN112805659A (zh) 2018-08-03 2021-05-14 奇跃公司 通过用户分类为多深度平面显示系统选择深度平面
CN109308741B (zh) * 2018-08-08 2023-04-07 长春理工大学 一种基于Meta2的自然交互工艺品创意设计系统
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
CN112805750A (zh) 2018-08-13 2021-05-14 奇跃公司 跨现实系统
US10832481B2 (en) * 2018-08-21 2020-11-10 Disney Enterprises, Inc. Multi-screen interactions in virtual and augmented reality
US10943461B2 (en) 2018-08-24 2021-03-09 Digital Global Systems, Inc. Systems, methods, and devices for automatic signal detection based on power distribution by frequency over time
US11030813B2 (en) 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
WO2020054954A1 (en) 2018-09-11 2020-03-19 Samsung Electronics Co., Ltd. Method and system for providing real-time virtual feedback
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
US10679410B2 (en) * 2018-09-14 2020-06-09 Facebook Technologies, Llc Display opacity control for preventing view occlusion in artificial reality
USD934873S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD934872S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD955396S1 (en) 2018-09-18 2022-06-21 Magic Leap, Inc. Mobile computing support system having an illumination region
USD950567S1 (en) 2018-09-18 2022-05-03 Magic Leap, Inc. Mobile computing support system having an illumination region
US11094127B2 (en) 2018-09-25 2021-08-17 Magic Leap, Inc. Systems and methods for presenting perspective views of augmented reality virtual object
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
EP3861387A4 (en) * 2018-10-05 2022-05-25 Magic Leap, Inc. RENDERING LOCATION-SPECIFIC VIRTUAL CONTENT IN ANY LOCATION
FR3087284B1 (fr) * 2018-10-15 2021-11-05 Amadeus Sas Procede et systeme de realite augmentee
CN109513157B (zh) * 2018-10-16 2020-09-11 广州嘉影软件有限公司 基于Kinect体感的灭火演练交互方法与系统
US10937244B2 (en) 2018-10-23 2021-03-02 Microsoft Technology Licensing, Llc Efficiency enhancements to construction of virtual reality environments
JP7455121B2 (ja) 2018-10-26 2024-03-25 マジック リープ, インコーポレイテッド 電磁追跡のための周囲電磁歪み補正
KR20210073603A (ko) * 2018-11-09 2021-06-18 베크만 컬터, 인코포레이티드 선택적 데이터 제공을 갖는 서비스 안경
US10914945B2 (en) 2018-11-09 2021-02-09 Facebook Technologies, Llc Inconspicuous near-eye electrical circuits
WO2020106824A1 (en) 2018-11-20 2020-05-28 Magic Leap, Inc. Eyepieces for augmented reality display system
US11176737B2 (en) 2018-11-27 2021-11-16 Snap Inc. Textured mesh building
US11182043B2 (en) 2018-11-27 2021-11-23 Anduril Industries Inc. Interactive virtual interface
WO2020112561A1 (en) 2018-11-30 2020-06-04 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement
CN113168732A (zh) * 2018-12-03 2021-07-23 麦克赛尔株式会社 增强现实显示装置和增强现实显示方法
KR102191096B1 (ko) * 2018-12-07 2020-12-15 한국전자기술연구원 시야창이 확장된 증강현실 근안 디스플레이
EP3663941B1 (en) * 2018-12-07 2022-07-13 Volvo Car Corporation Evaluation of a simulated vehicle-related feature
US10970547B2 (en) * 2018-12-07 2021-04-06 Microsoft Technology Licensing, Llc Intelligent agents for managing data associated with three-dimensional objects
US10694167B1 (en) 2018-12-12 2020-06-23 Verizon Patent And Licensing Inc. Camera array including camera modules
WO2020124046A2 (en) * 2018-12-14 2020-06-18 Vulcan Inc. Virtual and physical reality integration
CN113330484A (zh) 2018-12-20 2021-08-31 斯纳普公司 虚拟表面修改
KR102648993B1 (ko) * 2018-12-21 2024-03-20 삼성전자주식회사 사용자의 감정 상태에 기반하여 아바타를 제공하기 위한 전자 장치 및 그에 관한 방법
US11022794B2 (en) 2018-12-27 2021-06-01 Facebook Technologies, Llc Visual indicators of user attention in AR/VR environment
US10990171B2 (en) * 2018-12-27 2021-04-27 Facebook Technologies, Llc Audio indicators of user attention in AR/VR environment
US11061254B2 (en) 2019-01-24 2021-07-13 International Business Machines Corporation Adjusting contact lens prescription while wearing lens
US11099406B2 (en) 2019-01-24 2021-08-24 International Business Machines Corporation Delivering augmented reality via embedded contact lens
EP3914997A4 (en) 2019-01-25 2022-10-12 Magic Leap, Inc. OCULOMETRY USING IMAGES WITH DIFFERENT EXPOSURE TIMES
FR3092416B1 (fr) * 2019-01-31 2022-02-25 Univ Grenoble Alpes Système et procédé d’interaction avec des robots dans des applications de réalité mixte
US11403823B2 (en) 2019-02-14 2022-08-02 Lego A/S Toy system for asymmetric multiplayer game play
US11090561B2 (en) * 2019-02-15 2021-08-17 Microsoft Technology Licensing, Llc Aligning location for a shared augmented reality experience
CN113692544A (zh) 2019-02-15 2021-11-23 迪吉伦斯公司 使用集成光栅提供全息波导显示的方法和装置
US20200285784A1 (en) * 2019-02-27 2020-09-10 Simulation Engineering, LLC Systems and methods for generating a simulated environment
US11287657B2 (en) 2019-02-28 2022-03-29 Magic Leap, Inc. Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays
EP3939030A4 (en) * 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
WO2020186113A1 (en) 2019-03-12 2020-09-17 Digilens Inc. Holographic waveguide backlight and related methods of manufacturing
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US20200302501A1 (en) * 2019-03-22 2020-09-24 Microsoft Technology Licensing, Llc Virtualized product configuration and quotation system
US11620800B2 (en) * 2019-03-27 2023-04-04 Electronic Arts Inc. Three dimensional reconstruction of objects based on geolocation and image data
US10818070B2 (en) 2019-03-27 2020-10-27 Electronic Arts Inc. Artificial intelligence based virtual object aging
WO2020203832A1 (ja) * 2019-03-29 2020-10-08 株式会社ソニー・インタラクティブエンタテインメント 境界表示制御装置、境界表示制御方法及びプログラム
JP7280495B2 (ja) * 2019-04-01 2023-05-24 日本電信電話株式会社 情報処理システム、コンテンツ生成装置、コンテンツ提示装置、コンテンツ生成方法、コンテンツ提示方法およびプログラム
EP3948747A4 (en) 2019-04-03 2022-07-20 Magic Leap, Inc. MANAGEMENT AND DISPLAY OF WEB PAGES IN A VIRTUAL THREE-DIMENSIONAL SPACE USING A MIXED REALITY SYSTEM
JP2022529245A (ja) 2019-04-15 2022-06-20 マジック リープ, インコーポレイテッド 電磁追跡のためのセンサ融合
WO2020214897A1 (en) 2019-04-18 2020-10-22 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
CN115755397A (zh) 2019-04-26 2023-03-07 苹果公司 具有低光操作的头戴式显示器
JP6776400B1 (ja) * 2019-04-26 2020-10-28 株式会社コロプラ プログラム、方法、および情報端末装置
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
TWI720480B (zh) * 2019-05-14 2021-03-01 真美滿有限公司 模擬展示系統
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
WO2020243012A1 (en) 2019-05-24 2020-12-03 Magic Leap, Inc. Variable focus assemblies
USD962981S1 (en) 2019-05-29 2022-09-06 Magic Leap, Inc. Display screen or portion thereof with animated scrollbar graphical user interface
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
EP3980825A4 (en) 2019-06-07 2023-05-03 Digilens Inc. WAVEGUIDES INCORPORATING TRANSPARENT AND REFLECTIVE GRATINGS AND METHODS OF MAKING THEREOF
US11202036B2 (en) * 2019-06-18 2021-12-14 The Calany Holding S. À R.L. Merged reality system and method
US11650423B2 (en) 2019-06-20 2023-05-16 Magic Leap, Inc. Eyepieces for augmented reality display system
US11030459B2 (en) * 2019-06-27 2021-06-08 Intel Corporation Methods and apparatus for projecting augmented reality enhancements to real objects in response to user gestures detected in a real environment
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
US11029805B2 (en) 2019-07-10 2021-06-08 Magic Leap, Inc. Real-time preview of connectable objects in a physically-modeled virtual space
US11868525B2 (en) 2019-07-16 2024-01-09 Magic Leap, Inc. Eye center of rotation determination with one or more eye tracking cameras
US11887253B2 (en) 2019-07-24 2024-01-30 Electronic Arts Inc. Terrain generation and population system
JP2022543571A (ja) 2019-07-29 2022-10-13 ディジレンズ インコーポレイテッド 画素化されたディスプレイの画像解像度および視野を乗算するための方法および装置
CN114222942A (zh) 2019-08-12 2022-03-22 奇跃公司 用于虚拟和增强现实的系统和方法
EP4022370A4 (en) 2019-08-29 2023-08-30 Digilens Inc. VACUUM BRAGG GRATINGS AND METHODS OF MANUFACTURING
KR102329027B1 (ko) * 2019-09-02 2021-11-19 주식회사 인터포 증강현실 및 빅데이터를 이용한 가상객체 관리 방법 및 그를 수행하는 모바일 단말
US10997785B2 (en) * 2019-09-26 2021-05-04 Vgis Inc. System and method for collecting geospatial object data with mediated reality
JP2022551733A (ja) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド 位置特定サービスを伴うクロスリアリティシステム
JP2022551735A (ja) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド 無線フィンガプリントを用いたクロスリアリティシステム
WO2021096931A1 (en) 2019-11-12 2021-05-20 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
WO2021101844A1 (en) 2019-11-18 2021-05-27 Magic Leap, Inc. Mapping and localization of a passable world
USD940748S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
EP4073763A4 (en) 2019-12-09 2023-12-27 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH SIMPLIFIED PROGRAMMING OF VIRTUAL CONTENT
USD940189S1 (en) 2019-12-09 2022-01-04 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940749S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD941307S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with graphical user interface for guiding graphics
USD941353S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11151795B2 (en) * 2019-12-10 2021-10-19 Wormhole Labs, Inc. Systems and methods of creating virtual pop-up spaces
US11227442B1 (en) 2019-12-19 2022-01-18 Snap Inc. 3D captions with semantic graphical elements
TWI722738B (zh) * 2019-12-25 2021-03-21 亞達科技股份有限公司 擴增實境裝置與定位方法
US11386652B2 (en) * 2019-12-26 2022-07-12 Paypal, Inc. Tagging objects in augmented reality to track object data
CN111190488A (zh) * 2019-12-30 2020-05-22 华为技术有限公司 设备控制方法、通信装置及存储介质
KR102262019B1 (ko) * 2019-12-30 2021-06-08 주식회사 버넥트 네트워크 속도 반응형 확장현실(xr) 커뮤니케이션 방법 및 시스템
US11410387B1 (en) 2020-01-17 2022-08-09 Facebook Technologies, Llc. Systems, methods, and media for generating visualization of physical environment in artificial reality
AU2021210962A1 (en) 2020-01-22 2022-08-04 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
US11113891B2 (en) 2020-01-27 2021-09-07 Facebook Technologies, Llc Systems, methods, and media for displaying real-time visualization of physical environment in artificial reality
US11200745B2 (en) 2020-01-27 2021-12-14 Facebook Technologies, Llc. Systems, methods, and media for automatically triggering real-time visualization of physical environment in artificial reality
US11210860B2 (en) * 2020-01-27 2021-12-28 Facebook Technologies, Llc. Systems, methods, and media for visualizing occluded physical objects reconstructed in artificial reality
CN115004235A (zh) * 2020-01-27 2022-09-02 奇跃公司 基于锚的交叉现实应用的增强状态控制
US10950034B1 (en) 2020-01-27 2021-03-16 Facebook Technologies, Llc Systems, methods, and media for generating visualization of physical environment in artificial reality
US11709363B1 (en) 2020-02-10 2023-07-25 Avegant Corp. Waveguide illumination of a spatial light modulator
US11451758B1 (en) 2020-02-12 2022-09-20 Meta Platforms Technologies, Llc Systems, methods, and media for colorizing grayscale images
US11830149B2 (en) 2020-02-13 2023-11-28 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
US11410395B2 (en) 2020-02-13 2022-08-09 Magic Leap, Inc. Cross reality system with accurate shared maps
JP2023514208A (ja) 2020-02-13 2023-04-05 マジック リープ, インコーポレイテッド マルチ分解能フレーム記述子を使用したマップ処理を伴うクロスリアリティシステム
EP4111425A4 (en) 2020-02-26 2024-03-13 Magic Leap Inc MIXED REALITY SYSTEM WITH QUICK LOCATION
CN111488823B (zh) * 2020-04-09 2022-07-08 福州大学 基于二维激光雷达的增维手势识别与交互系统及方法
JP2023524446A (ja) 2020-04-29 2023-06-12 マジック リープ, インコーポレイテッド 大規模環境のためのクロスリアリティシステム
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11641403B2 (en) * 2020-06-29 2023-05-02 Snap Inc. Analyzing augmented reality content usage data
GB2596588B (en) * 2020-07-03 2022-10-26 Sony Interactive Entertainment Inc Data processing apparatus and method
US11690435B2 (en) 2020-07-07 2023-07-04 Perfect Mobile Corp. System and method for navigating user interfaces using a hybrid touchless control mechanism
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11393171B2 (en) * 2020-07-21 2022-07-19 International Business Machines Corporation Mobile device based VR content control
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11662511B2 (en) 2020-07-22 2023-05-30 Samsung Electronics Co., Ltd. Beam expander and method of operating the same
EP4193215A1 (en) 2020-08-07 2023-06-14 Magic Leap, Inc. Tunable cylindrical lenses and head-mounted display including the same
KR102358997B1 (ko) * 2020-08-10 2022-02-08 주식회사 토즈 다자간 확장현실 체험을 위한 서비스 플랫폼
US11756225B2 (en) 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US11907412B2 (en) * 2020-09-28 2024-02-20 International Business Machines Corporation Contextual spectator inclusion in a virtual reality experience
US11860366B2 (en) 2020-09-29 2024-01-02 Avegant Corp. Architecture to illuminate a display panel
US20220101002A1 (en) * 2020-09-30 2022-03-31 Kyndryl, Inc. Real-world object inclusion in a virtual reality experience
US11335058B2 (en) 2020-10-13 2022-05-17 Electronic Arts Inc. Spatial partitioning for graphics rendering
US11522945B2 (en) * 2020-10-20 2022-12-06 Iris Tech Inc. System for providing synchronized sharing of augmented reality content in real time across multiple devices
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
KR20220060103A (ko) * 2020-11-04 2022-05-11 삼성전자주식회사 전자 장치, ar 장치 및 그들의 데이터 전송 주기 제어 방법
TWI756944B (zh) * 2020-11-27 2022-03-01 國立臺北科技大學 融合混增實境及虛擬實境之教學系統及其方法
KR20220083346A (ko) 2020-12-11 2022-06-20 삼성전자주식회사 영상 표시 장치의 위치를 추정하는 방법 및 장치
US20210140793A1 (en) * 2020-12-18 2021-05-13 Intel Corporation Map representation system and method for operating an autonomous agent
KR102420166B1 (ko) * 2020-12-30 2022-07-12 주식회사 버넥트 맞춤형 네트워크 전송 정보 퀄리티 조정 방법 및 시스템
KR20230128063A (ko) 2020-12-31 2023-09-01 스냅 인코포레이티드 햅틱 피드백을 갖는 실시간 비디오 통신 인터페이스
EP4272063A1 (en) 2020-12-31 2023-11-08 Snap Inc. Media content items with haptic feedback augmentations
WO2022147449A1 (en) 2020-12-31 2022-07-07 Snap Inc. Electronic communication interface with haptic feedback response
US11568988B2 (en) 2021-01-12 2023-01-31 Emed Labs, Llc Health testing and diagnostics platform
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
KR20230161516A (ko) * 2021-03-31 2023-11-27 스냅 인코포레이티드 햅틱 피드백 응답을 갖는 가상 현실 인터페이스
FR3122327A1 (fr) * 2021-04-29 2022-11-04 Clubdes3 Zones de vision croisées
US11980813B2 (en) 2021-05-04 2024-05-14 Ztag, Inc. System and method of using a virtual focal point in real physical game
WO2022242856A1 (en) * 2021-05-19 2022-11-24 Telefonaktiebolaget Lm Ericsson (Publ) Communication devices, adapting entity and methods for augmented/mixed reality communication
EP4341778A1 (en) * 2021-05-19 2024-03-27 Telefonaktiebolaget LM Ericsson (publ) Communication of semantic information between augmented reality communication devices
US11369454B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11354845B1 (en) * 2021-06-01 2022-06-07 Royal Caribbean Cruises Ltd. Multi-location disc jockey
CN113313840A (zh) * 2021-06-15 2021-08-27 周永奇 实时虚拟系统及实时虚拟交互方法
WO2022271668A1 (en) 2021-06-22 2022-12-29 Emed Labs, Llc Systems, methods, and devices for non-human readable diagnostic tests
CN113194299B (zh) * 2021-07-01 2021-08-31 深圳市修远文化创意有限公司 一种智能医疗场景下的口腔治疗实时画面分享方法
US20230086621A1 (en) * 2021-09-23 2023-03-23 At&T Intellectual Property I, L.P. Experience and transitioning between virtual reality and augmented reality environments using a virtual assistant
KR102561198B1 (ko) * 2021-09-24 2023-07-31 주식회사 더에스 컨텐츠 활용 플랫폼 시스템, 증강현실 기반의 이미지 출력물 제작방법
KR102505537B1 (ko) * 2021-09-28 2023-03-03 성균관대학교산학협력단 Ar 공유 시스템
US20230138204A1 (en) * 2021-11-02 2023-05-04 International Business Machines Corporation Augmented reality object interaction and notification
WO2023086752A1 (en) * 2021-11-09 2023-05-19 Campfire 3D, Inc. Augmented reality collaboration system with annotation capability
USD1027978S1 (en) * 2021-11-24 2024-05-21 Nike, Inc. Display screen with icon
US11799967B1 (en) * 2021-12-22 2023-10-24 Meta Platforms, Inc. Ultra-wide band communication system for augmented reality
USD1029076S1 (en) 2022-03-10 2024-05-28 Campfire 3D, Inc. Augmented reality pack
US11894941B1 (en) 2022-03-18 2024-02-06 Grammarly, Inc. Real-time tone feedback in video conferencing
NO20220341A1 (en) * 2022-03-21 2023-09-22 Pictorytale As Multilocation augmented reality
WO2023182667A1 (ko) * 2022-03-21 2023-09-28 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11960653B2 (en) * 2022-05-10 2024-04-16 Snap Inc. Controlling augmented reality effects through multi-modal human interaction
US11886227B1 (en) * 2022-07-13 2024-01-30 Bank Of America Corporation Virtual-reality artificial-intelligence multi-user distributed real-time test environment
CN115116577B (zh) * 2022-07-26 2022-11-29 青岛美迪康数字工程有限公司 基于二维码的质控数据传输方法及装置
KR102651994B1 (ko) * 2022-08-17 2024-03-27 주식회사 브이알크루 비주얼 로컬라이제이션을 이용하여 전술 훈련을 지원하기 위한 방법 및 장치
KR102616083B1 (ko) * 2022-08-22 2023-12-20 주식회사 브이알크루 비주얼 로컬라이제이션을 이용하여 전술 훈련을 지원하기 위한 방법 및 장치
WO2024043511A1 (ko) * 2022-08-22 2024-02-29 주식회사 브이알크루 비주얼 로컬라이제이션을 이용하여 전술 훈련을 지원하기 위한 방법 및 장치
US20240061499A1 (en) * 2022-08-22 2024-02-22 Meta Platforms Technologies, Llc Gaze adjusted avatars for immersive reality applications
US11789685B1 (en) 2022-08-29 2023-10-17 International Business Machines Corporation Training and using a machine learning module to determine locales and augmented reality representations of information on locales to render in an augmented reality display
JP7412497B1 (ja) 2022-09-26 2024-01-12 株式会社コロプラ 情報処理システム
CN115463413A (zh) * 2022-09-30 2022-12-13 小派科技(上海)有限责任公司 应用于多人互动场景下的互动装置、控制方法和互动系统
US11972039B1 (en) * 2022-12-02 2024-04-30 ARMaps Augmented reality skydiving system
JP7354466B1 (ja) * 2023-02-02 2023-10-02 株式会社コロプラ 情報処理システムおよびプログラム
KR102605956B1 (ko) * 2023-07-28 2023-11-24 주식회사 앰버린 3차원게임엔진을 기반으로 한 공연미디어 콘텐츠 제공시스템
CN117270482A (zh) * 2023-11-22 2023-12-22 博世汽车部件(苏州)有限公司 基于数字孪生的汽车工厂控制系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132915A1 (en) * 2004-12-16 2006-06-22 Yang Ung Y Visual interfacing apparatus for providing mixed multiple stereo images
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2008033219A (ja) * 2006-07-27 2008-02-14 Korea Electronics Telecommun 混合現実環境用のフェイスマウントディスプレイ装置
JP2011175439A (ja) * 2010-02-24 2011-09-08 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム
WO2012088478A1 (en) * 2010-12-24 2012-06-28 Chunyu Gao An ergonomic head mounted display device and optical system
WO2012154620A2 (en) * 2011-05-06 2012-11-15 Magic Leap, Inc. Massive simultaneous remote digital presence world
US20130050186A1 (en) * 2011-08-29 2013-02-28 Microsoft Corporation Virtual image display device

Family Cites Families (245)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3632865A (en) 1969-12-23 1972-01-04 Bell Telephone Labor Inc Predictive video encoding using measured subject velocity
DE2737499C3 (de) 1977-08-19 1981-10-22 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V., 3400 Göttingen Faseroptisches Schaltungselement
GB8701288D0 (en) * 1987-01-21 1987-02-25 Waldern J D Perception of computer-generated imagery
US5271093A (en) 1989-10-17 1993-12-14 Mitsubishi Denki Kabushiki Kaisha Video display apparatus for filling the interior shapes of contour
US5138555A (en) 1990-06-28 1992-08-11 Albrecht Robert E Helmet mounted display adaptive predictive tracking
US8730129B2 (en) 1990-12-07 2014-05-20 Dennis J Solomon Advanced immersive visual display system
JPH05328260A (ja) * 1992-05-26 1993-12-10 Olympus Optical Co Ltd 頭部装着式ディスプレイ装置
JPH0655203B2 (ja) 1992-07-09 1994-07-27 株式会社エイ・ティ・アール視聴覚機構研究所 視線検出を用いた医療診断装置
US5311897A (en) 1992-09-18 1994-05-17 Robert L. Cargill, Jr. Rotary control valve with offset variable area orifice and bypass
US5422653A (en) 1993-01-07 1995-06-06 Maguire, Jr.; Francis J. Passive virtual reality
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
EP1326122B1 (en) * 1993-08-12 2006-09-06 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
JP3306183B2 (ja) 1993-09-14 2002-07-24 リーダー電子株式会社 信号波形表示装置及び表示方法
JP2952858B2 (ja) * 1994-05-31 1999-09-27 株式会社島津製作所 ヘッドマウントディスプレイ
US5742264A (en) 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
JPH09284676A (ja) 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
US5886822A (en) * 1996-10-08 1999-03-23 The Microoptical Corporation Image combining system for eyeglasses and face masks
US7066956B2 (en) 1997-02-12 2006-06-27 Arthrex, Inc. Transverse fixation technique for ACL reconstruction using bone-tendon-bone graft
US6151179A (en) 1997-07-11 2000-11-21 International Business Machines Corporation Signal processing circuit with feedback extracted from a sampled analog error signal
WO1999022314A1 (fr) 1997-10-29 1999-05-06 Sharp Kabushiki Kaisha Dispositif de commande d'affichage et dispositif de reproduction d'affichage pour livres electroniques
CA2307877C (en) * 1997-10-30 2005-08-30 The Microoptical Corporation Eyeglass interface system
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2003502711A (ja) * 1999-06-21 2003-01-21 ザ マイクロオプティカル コーポレイション 軸から外れている光学設計を使用する接眼レンズ・ディスプレイ・レンズ・システム
JP2001255862A (ja) 2000-03-10 2001-09-21 Seiko Epson Corp オーバレイ画像処理装置およびオーバレイ画像表示装置
US7663642B2 (en) 2000-11-15 2010-02-16 Sony Corporation Systems and methods for rendering a polygon in an image to be displayed
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
US20030014212A1 (en) 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6759979B2 (en) 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
JP3762309B2 (ja) 2002-02-18 2006-04-05 キヤノン株式会社 位置方向測定装置および情報処理方法
US7497574B2 (en) * 2002-02-20 2009-03-03 Brother Kogyo Kabushiki Kaisha Retinal image display device
US6917370B2 (en) 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
JP4170068B2 (ja) 2002-11-12 2008-10-22 シャープ株式会社 データ信号線駆動方法、データ信号線駆動回路およびそれを用いた表示装置
US7386799B1 (en) 2002-11-21 2008-06-10 Forterra Systems, Inc. Cinematic techniques in avatar-centric communication during a multi-user online simulation
US7385606B2 (en) 2002-12-18 2008-06-10 Microsoft Corporation International font measurement system and method
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
US7515756B2 (en) 2003-06-23 2009-04-07 Shoestring Research, Llc. Region segmentation and characterization systems and methods for augmented reality
US20050148388A1 (en) 2003-07-17 2005-07-07 Fabricio Vayra Method and system for interaction with real-time events from a remote location, through use of a computer, game console or other module
ITTO20030662A1 (it) 2003-08-29 2005-02-28 Fiat Ricerche Disposizione di visualizzazione virtuale per un quadro
US11033821B2 (en) 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
KR101026800B1 (ko) 2003-11-21 2011-04-04 삼성전자주식회사 액정 표시 장치, 표시 장치용 광원의 구동 장치 및 그방법
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
JP4481663B2 (ja) 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
JP4373286B2 (ja) 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
US7403337B2 (en) 2004-05-11 2008-07-22 Universal Vision Biotechnology Co., Ltd. Focus adjustable head mounted display system and method and device for realizing the system
US7442918B2 (en) 2004-05-14 2008-10-28 Microvision, Inc. MEMS device having simplified drive
US20070182812A1 (en) * 2004-05-19 2007-08-09 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
JP2005339267A (ja) 2004-05-27 2005-12-08 Canon Inc 情報処理方法、情報処理装置、撮像装置
US6947219B1 (en) 2004-06-02 2005-09-20 Universal Vision Biotechnology Co., Ltd. Focus adjustable head mounted display system for displaying digital contents and device for realizing the system
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US20060007056A1 (en) 2004-07-09 2006-01-12 Shu-Fong Ou Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
US20060214911A1 (en) 2005-03-23 2006-09-28 Eastman Kodak Company Pointing device for large field of view displays
US20060226231A1 (en) 2005-03-29 2006-10-12 University Of Washington Methods and systems for creating sequential color images
US7773098B2 (en) 2005-05-11 2010-08-10 Canon Kabushiki Kaisha Virtual reality presentation apparatus and method
US8847861B2 (en) 2005-05-20 2014-09-30 Semiconductor Energy Laboratory Co., Ltd. Active matrix display device, method for driving the same, and electronic device
JP2006338509A (ja) 2005-06-03 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> 状況記憶型コンテンツ管理装置及び方法
US7737965B2 (en) 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US20060284791A1 (en) 2005-06-21 2006-12-21 National Applied Research Laboratories National Center For High-Performance Computing Augmented reality system and method with mobile and interactive function for multiple users
IL173361A (en) * 2005-09-12 2012-03-29 Elbit Systems Ltd Display system near the eye
US7480422B2 (en) 2005-10-14 2009-01-20 Disney Enterprises, Inc. Systems and methods for information content delivery relating to an object
JP4042780B2 (ja) 2005-11-04 2008-02-06 オムロン株式会社 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置
IL172797A (en) 2005-12-25 2012-09-24 Elbit Systems Ltd Real-time image scanning and processing
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
US9958934B1 (en) * 2006-05-01 2018-05-01 Jeffrey D. Mullen Home and portable augmented reality and virtual reality video game consoles
SE0601216L (sv) 2006-05-31 2007-12-01 Abb Technology Ltd Virtuell arbetsplats
US20080058629A1 (en) 2006-08-21 2008-03-06 University Of Washington Optical fiber scope with both non-resonant illumination and resonant collection/imaging for multiple modes of operation
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US7889178B2 (en) 2006-09-08 2011-02-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Programmable resolution for optical pointing device
US20080071559A1 (en) 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
JP4936522B2 (ja) 2006-09-29 2012-05-23 キヤノン株式会社 画像処理方法、画像処理装置
JP5228307B2 (ja) 2006-10-16 2013-07-03 ソニー株式会社 表示装置、表示方法
WO2008153599A1 (en) 2006-12-07 2008-12-18 Adapx, Inc. Systems and methods for data annotation, recordation, and communication
US7903166B2 (en) 2007-02-21 2011-03-08 Sharp Laboratories Of America, Inc. Methods and systems for display viewer motion compensation based on user image data
US20080215975A1 (en) 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
US8832557B2 (en) 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
US20080303811A1 (en) 2007-06-07 2008-12-11 Leviathan Entertainment, Llc Virtual Professional
US20090003662A1 (en) 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
US8902227B2 (en) 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
US20090089685A1 (en) 2007-09-28 2009-04-02 Mordecai Nicole Y System and Method of Communicating Between A Virtual World and Real World
US8063905B2 (en) 2007-10-11 2011-11-22 International Business Machines Corporation Animating speech of an avatar representing a participant in a mobile communication
US20090225001A1 (en) 2007-11-06 2009-09-10 University Of Central Florida Research Foundation, Inc. Hybrid Display Systems and Methods
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
KR20090067822A (ko) 2007-12-21 2009-06-25 삼성전자주식회사 현실 인자를 반영하는 혼합 세계 생성 시스템 및 구현 방법
US20090177042A1 (en) 2008-01-09 2009-07-09 University Of Washington Color image acquisition with scanning laser beam devices
US8615383B2 (en) 2008-01-18 2013-12-24 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US8217995B2 (en) 2008-01-18 2012-07-10 Lockheed Martin Corporation Providing a collaborative immersive environment using a spherical camera and motion capture
WO2009108790A1 (en) 2008-02-26 2009-09-03 Ecity, Inc. Method and apparatus for integrated life through virtual cities
US20100149073A1 (en) * 2008-11-02 2010-06-17 David Chaum Near to Eye Display System and Appliance
US8757812B2 (en) 2008-05-19 2014-06-24 University of Washington UW TechTransfer—Invention Licensing Scanning laser projection display devices and methods for projecting one or more images onto a surface with a light-scanning optical fiber
US20090322671A1 (en) 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US8063968B2 (en) 2008-07-23 2011-11-22 Lockheed Martin Corporation Device for detecting an image of a nonplanar surface
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
EP2486450B1 (en) * 2008-11-02 2021-05-19 David Chaum Near to eye display system and appliance
US20100287500A1 (en) 2008-11-18 2010-11-11 Honeywell International Inc. Method and system for displaying conformal symbology on a see-through display
EP2194418B1 (en) * 2008-12-02 2014-07-02 Saab Ab Head-up display for night vision goggles
US20100137684A1 (en) 2008-12-03 2010-06-03 Hoya Corporation Endoscope system with scanning function
US8132916B2 (en) 2008-12-12 2012-03-13 Carl Zeiss Meditec, Inc. High precision contrast ratio display for visual stimulus
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8487933B2 (en) 2009-03-31 2013-07-16 General Electric Company System and method for multi-segment center point trajectory mapping
US9195898B2 (en) 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
US9511289B2 (en) 2009-07-10 2016-12-06 Valve Corporation Player biofeedback for dynamically controlling a video game state
JP5553635B2 (ja) 2009-10-23 2014-07-16 キヤノン株式会社 補償光学装置、撮像装置および補償光学方法、撮像方法
US20110107216A1 (en) * 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
WO2011061914A1 (ja) 2009-11-19 2011-05-26 パナソニック株式会社 走査型画像表示装置
KR101652311B1 (ko) 2010-01-26 2016-08-30 광주과학기술원 비전 영상 정보 저장 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
GB2477787B (en) 2010-02-15 2014-09-24 Marcus Alexander Mawson Cavalier Use of portable electonic devices with head-mounted display devices
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US8477425B2 (en) * 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9128281B2 (en) * 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20120120103A1 (en) 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
JP5681850B2 (ja) 2010-03-09 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
JP2011203823A (ja) 2010-03-24 2011-10-13 Sony Corp 画像処理装置、画像処理方法及びプログラム
US8893022B2 (en) 2010-04-01 2014-11-18 Microsoft Corporation Interactive and shared viewing experience
CN102472892B (zh) 2010-04-28 2014-07-09 松下电器产业株式会社 扫描型图像显示装置
US8762041B2 (en) * 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
JP5436678B2 (ja) * 2010-08-09 2014-03-05 パナソニック株式会社 光デバイス、及びこれを含む充電システム
US20120127136A1 (en) 2010-08-18 2012-05-24 Kent Displays Incorporated Display device including piezoelectric and liquid crystal layers
US20120050140A1 (en) 2010-08-25 2012-03-01 Border John N Head-mounted display control
US8780014B2 (en) 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8638364B2 (en) 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
US8907983B2 (en) * 2010-10-07 2014-12-09 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
US20120212405A1 (en) 2010-10-07 2012-08-23 Benjamin Zeis Newhouse System and method for presenting virtual and augmented reality scenes to a user
US8578299B2 (en) 2010-10-08 2013-11-05 Industrial Technology Research Institute Method and computing device in a system for motion detection
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US8743464B1 (en) * 2010-11-03 2014-06-03 Google Inc. Waveguide with embedded mirrors
US20120117514A1 (en) * 2010-11-04 2012-05-10 Microsoft Corporation Three-Dimensional User Interaction
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9511291B2 (en) * 2010-11-15 2016-12-06 Bally Gaming, Inc. System and method for enhanced augmented reality tracking
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8831278B2 (en) 2010-11-30 2014-09-09 Eastman Kodak Company Method of identifying motion sickness
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9690099B2 (en) 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US20120182313A1 (en) 2011-01-13 2012-07-19 Pantech Co., Ltd. Apparatus and method for providing augmented reality in window form
US9113050B2 (en) * 2011-01-13 2015-08-18 The Boeing Company Augmented collaboration system
US20120188148A1 (en) 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
JP2012155655A (ja) 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP5844288B2 (ja) 2011-02-01 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路
US9329469B2 (en) * 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
US8401343B2 (en) 2011-03-27 2013-03-19 Edwin Braun System and method for defining an augmented reality character in computer generated virtual reality using coded stickers
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
US9071709B2 (en) 2011-03-31 2015-06-30 Nokia Technologies Oy Method and apparatus for providing collaboration between remote and on-site users of indirect augmented reality
US8508830B1 (en) * 2011-05-13 2013-08-13 Google Inc. Quantum dot near-to-eye display
US20120327116A1 (en) 2011-06-23 2012-12-27 Microsoft Corporation Total field of view classification for head-mounted display
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US8832233B1 (en) 2011-07-20 2014-09-09 Google Inc. Experience sharing for conveying communication status
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
AU2011205223C1 (en) * 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
WO2013032955A1 (en) 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
US9213163B2 (en) * 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US8223024B1 (en) 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US20130088413A1 (en) * 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
US9255813B2 (en) 2011-10-14 2016-02-09 Microsoft Technology Licensing, Llc User controlled real object disappearance in a mixed reality display
AU2012348348B2 (en) * 2011-10-28 2017-03-30 Magic Leap, Inc. System and method for augmented and virtual reality
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US8879155B1 (en) 2011-11-09 2014-11-04 Google Inc. Measurement method and system
US9311883B2 (en) 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US9316834B2 (en) 2011-11-24 2016-04-19 Panasonic Intellectual Property Management Co., Ltd. Head-mounted display device with foveated pixels
US20130141419A1 (en) * 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
US8963805B2 (en) 2012-01-27 2015-02-24 Microsoft Corporation Executable virtual objects associated with real objects
US9330478B2 (en) 2012-02-08 2016-05-03 Intel Corporation Augmented reality creation using a real scene
US20130215230A1 (en) 2012-02-22 2013-08-22 Matt Miesnieks Augmented Reality System Using a Portable Device
JP5958689B2 (ja) * 2012-03-22 2016-08-02 セイコーエプソン株式会社 頭部装着型表示装置
US8933912B2 (en) 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9183676B2 (en) 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9122321B2 (en) * 2012-05-04 2015-09-01 Microsoft Technology Licensing, Llc Collaboration environment using see through displays
US10502876B2 (en) * 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US9201625B2 (en) 2012-06-22 2015-12-01 Nokia Technologies Oy Method and apparatus for augmenting an index generated by a near eye display
US9696547B2 (en) 2012-06-25 2017-07-04 Microsoft Technology Licensing, Llc Mixed reality system learned input and functions
US9645394B2 (en) 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
US9035970B2 (en) 2012-06-29 2015-05-19 Microsoft Technology Licensing, Llc Constraint based information inference
JP6015250B2 (ja) 2012-08-31 2016-10-26 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US20140071163A1 (en) 2012-09-11 2014-03-13 Peter Tobias Kinnebrew Augmented reality information detail
US8797340B2 (en) 2012-10-02 2014-08-05 Nvidia Corporation System, method, and computer program product for modifying a pixel value as a function of a display duration estimate
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9619911B2 (en) 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
US9030495B2 (en) 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
US9582123B2 (en) 2012-11-26 2017-02-28 Qualcomm Incorporated Dual-mode capacitance sensing in a touch panel sensor
US20140178029A1 (en) 2012-12-26 2014-06-26 Ali Fazal Raheman Novel Augmented Reality Kiosks
KR102019124B1 (ko) 2013-01-04 2019-09-06 엘지전자 주식회사 헤드 마운트 디스플레이 및 그 제어 방법
US9202313B2 (en) * 2013-01-21 2015-12-01 Microsoft Technology Licensing, Llc Virtual interaction with image projection
US9342929B2 (en) 2013-01-22 2016-05-17 Microsoft Technology Licensing, Llc Mixed reality experience sharing
JP2014149712A (ja) 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
KR102050897B1 (ko) 2013-02-07 2019-12-02 삼성전자주식회사 음성 대화 기능을 구비한 휴대 단말기 및 이의 음성 대화 방법
KR102270699B1 (ko) 2013-03-11 2021-06-28 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9852512B2 (en) 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
WO2014144526A2 (en) 2013-03-15 2014-09-18 Magic Leap, Inc. Display system and method
US9049469B2 (en) * 2013-04-03 2015-06-02 Roy S. Melzer Encryption and decryption of visible codes for real time augmented reality views
US9685003B2 (en) 2013-06-03 2017-06-20 Microsoft Technology Licensing, Llc Mixed reality data collaboration
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10139623B2 (en) 2013-06-18 2018-11-27 Microsoft Technology Licensing, Llc Virtual object orientation and visualization
US9911231B2 (en) 2013-10-08 2018-03-06 Samsung Electronics Co., Ltd. Method and computing device for providing augmented reality
US10055018B2 (en) * 2014-08-22 2018-08-21 Sony Interactive Entertainment Inc. Glove interface object with thumb-index controller
US10216996B2 (en) 2014-09-29 2019-02-26 Sony Interactive Entertainment Inc. Schemes for retrieving and associating content items with real-world objects using augmented reality and object recognition
US9778814B2 (en) 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
WO2016105521A1 (en) * 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
US20170090194A1 (en) * 2015-09-24 2017-03-30 Halo Augmented Reality Ltd. System And Method For Subtractive Augmented Reality And Display Contrast Enhancement
US10768772B2 (en) * 2015-11-19 2020-09-08 Microsoft Technology Licensing, Llc Context-aware recommendations of relevant presentation content displayed in mixed environments
US10345594B2 (en) * 2015-12-18 2019-07-09 Ostendo Technologies, Inc. Systems and methods for augmented near-eye wearable displays
US9927614B2 (en) * 2015-12-29 2018-03-27 Microsoft Technology Licensing, Llc Augmented reality display system with variable focus
KR102551198B1 (ko) * 2016-03-31 2023-07-03 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과 상호작용들
US10191541B2 (en) * 2016-06-30 2019-01-29 Sony Interactive Entertainment Inc. Augmenting virtual reality content with real world content
KR102269065B1 (ko) * 2016-10-05 2021-06-24 매직 립, 인코포레이티드 혼합 현실 교정을 위한 안구주위 테스트
US10859834B2 (en) * 2017-07-03 2020-12-08 Holovisions Space-efficient optical structures for wide field-of-view augmented reality (AR) eyewear
US10338400B2 (en) * 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
WO2019104413A1 (en) * 2017-12-03 2019-06-06 Frank Jones Enhancing the performance of near-to-eye vision systems
JP7087481B2 (ja) * 2018-03-13 2022-06-21 セイコーエプソン株式会社 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
US10901215B1 (en) * 2018-05-16 2021-01-26 Facebook Technologies, Llc Systems and methods for providing a mobile artificial reality user with environmental awareness
EP3827426A4 (en) * 2018-07-24 2022-07-27 Magic Leap, Inc. AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES
SE543144C2 (en) * 2019-05-15 2020-10-13 Tobii Ab Method and system for dwell-less, hands-free interaction with a selectable object
CN114222942A (zh) * 2019-08-12 2022-03-22 奇跃公司 用于虚拟和增强现实的系统和方法
WO2021119171A1 (en) * 2019-12-10 2021-06-17 Magic Leap, Inc. Increased depth of field for mixed-reality display
US11217024B2 (en) * 2019-12-26 2022-01-04 Facebook Technologies, Llc Artificial reality system with varifocal display of artificial reality content
CA3176984A1 (en) * 2020-05-01 2021-11-04 Mark Harris Wearable near-to-eye vision systems

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060132915A1 (en) * 2004-12-16 2006-06-22 Yang Ung Y Visual interfacing apparatus for providing mixed multiple stereo images
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP2008033219A (ja) * 2006-07-27 2008-02-14 Korea Electronics Telecommun 混合現実環境用のフェイスマウントディスプレイ装置
JP2011175439A (ja) * 2010-02-24 2011-09-08 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム
WO2012088478A1 (en) * 2010-12-24 2012-06-28 Chunyu Gao An ergonomic head mounted display device and optical system
WO2012154620A2 (en) * 2011-05-06 2012-11-15 Magic Leap, Inc. Massive simultaneous remote digital presence world
US20130050186A1 (en) * 2011-08-29 2013-02-28 Microsoft Corporation Virtual image display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017890A1 (ko) * 2021-08-11 2023-02-16 한국전자기술연구원 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템

Also Published As

Publication number Publication date
AU2021258005A1 (en) 2021-11-25
AU2020210147A1 (en) 2020-08-13
US10163265B2 (en) 2018-12-25
AU2023200677A1 (en) 2023-03-09
US20150235610A1 (en) 2015-08-20
CN105188516B (zh) 2017-12-22
IL259325A (en) 2018-07-31
US10126812B2 (en) 2018-11-13
IL281669A (en) 2021-05-31
AU2020210147B2 (en) 2021-07-29
JP2017107604A (ja) 2017-06-15
KR20150126938A (ko) 2015-11-13
US11087555B2 (en) 2021-08-10
US10068374B2 (en) 2018-09-04
US20150235433A1 (en) 2015-08-20
US20230252744A1 (en) 2023-08-10
KR20230173231A (ko) 2023-12-26
AU2021258005B2 (en) 2022-11-17
IL298018B1 (en) 2023-12-01
KR20210080605A (ko) 2021-06-30
EP4193906A1 (en) 2023-06-14
AU2023200677B2 (en) 2024-02-15
JP2016522463A (ja) 2016-07-28
JP7002684B2 (ja) 2022-01-20
IL281669B (en) 2022-02-01
KR20230044041A (ko) 2023-03-31
IL259324A (en) 2018-07-31
KR20220050235A (ko) 2022-04-22
US20150235429A1 (en) 2015-08-20
US20150235434A1 (en) 2015-08-20
CN105188516A (zh) 2015-12-23
US20210335049A1 (en) 2021-10-28
IL289419A (en) 2022-02-01
KR102387314B1 (ko) 2022-04-14
US20150235435A1 (en) 2015-08-20
KR102270699B1 (ko) 2021-06-28
IL298018A (en) 2023-01-01
JP6556776B2 (ja) 2019-08-07
AU2014248874B2 (en) 2019-07-11
US20150234462A1 (en) 2015-08-20
IL259325B (en) 2021-02-28
CA2905427A1 (en) 2014-10-09
AU2019240661B2 (en) 2020-04-30
EP2967322A4 (en) 2017-02-08
IL298018B2 (en) 2024-04-01
US20140306866A1 (en) 2014-10-16
AU2024203150A1 (en) 2024-05-30
CA3157218A1 (en) 2014-10-09
US11663789B2 (en) 2023-05-30
IL259324B (en) 2020-10-29
AU2019240661A1 (en) 2019-10-24
US10234939B2 (en) 2019-03-19
IL308285A (en) 2024-01-01
US20150234463A1 (en) 2015-08-20
JP2024028376A (ja) 2024-03-04
CA2905427C (en) 2022-07-12
US10282907B2 (en) 2019-05-07
EP2967322A1 (en) 2016-01-20
JP6499154B2 (ja) 2019-04-10
US10629003B2 (en) 2020-04-21
AU2014248874A1 (en) 2015-10-01
JP2022036160A (ja) 2022-03-04
US20200211291A1 (en) 2020-07-02
JP2021082310A (ja) 2021-05-27
WO2014164901A1 (en) 2014-10-09
KR102516124B1 (ko) 2023-03-29

Similar Documents

Publication Publication Date Title
JP7002684B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
JP7348261B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210119

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20210120