JP2015503141A - 拡張現実および仮想現実のためのシステムおよび方法 - Google Patents

拡張現実および仮想現実のためのシステムおよび方法 Download PDF

Info

Publication number
JP2015503141A
JP2015503141A JP2014539132A JP2014539132A JP2015503141A JP 2015503141 A JP2015503141 A JP 2015503141A JP 2014539132 A JP2014539132 A JP 2014539132A JP 2014539132 A JP2014539132 A JP 2014539132A JP 2015503141 A JP2015503141 A JP 2015503141A
Authority
JP
Japan
Prior art keywords
user
virtual
virtual world
data
world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014539132A
Other languages
English (en)
Other versions
JP6110866B2 (ja
Inventor
サミュエル エー. ミラー,
サミュエル エー. ミラー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2015503141A publication Critical patent/JP2015503141A/ja
Application granted granted Critical
Publication of JP6110866B2 publication Critical patent/JP6110866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/812Ball games, e.g. soccer or baseball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/954Navigation, e.g. using categorised browsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/14Multichannel or multilink protocols
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/577Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for watching a game played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Computer Security & Cryptography (AREA)
  • Environmental & Geological Engineering (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)

Abstract

一実施形態は、2人またはそれより多いユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムに関連し、本システムは、1つまたは複数のコンピューティングデバイスを備えるコンピュータネットワークを備え、1つまたは複数のコンピューティングデバイスは、メモリと、処理回路と、少なくとも部分的にメモリに記憶され、仮想世界データの少なくとも一部分を処理するように処理回路によって実行可能であるソフトウェアとを備え、仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、コンピュータネットワークは、第2のユーザに提示するために第1の部分をユーザデバイスに伝送するように動作可能であり、それによって、第2のユーザは、第2のユーザの位置から第1の部分を体験し得、第1のユーザ仮想世界の側面が第2のユーザに効果的に渡される。

Description

(関連出願データ)
本願は、米国特許法§119のもと、米国仮特許出願第61/552,941号(2011年10月28日出願)に基づく優先権を主張する。これによって、上述の出願は、その全体が本願に参照によって援用される。
(発明の背景)
本発明は、概して、1人以上のユーザのための双方向仮想現実環境または拡張現実環境を促進するように構成されたシステムおよび方法に関する。
(背景)
仮想現実環境および拡張現実環境は、環境を表すデータを部分的に使用して、コンピュータによって生成される。このデータは、例えば、ユーザが感知して相互作用し得る種々のオブジェクトを表してもよい。これらのオブジェクトの例は、ユーザが見るためにレンダリングおよび表示されるオブジェクト、ユーザが聞くために再生されるオーディオ、およびユーザが感じる触知(または、触覚)フィードバックを含む。ユーザは、種々の視覚手段、聴覚手段、および触覚手段を通して、仮想現実環境および拡張現実環境を感知し、それらと相互作用してもよい。
一実施形態は、2人またはそれより多いユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムに関連し、システムは、1つまたは複数のコンピューティングデバイスを備えるコンピュータネットワークを備え、1つまたは複数のコンピューティングデバイスは、メモリと、処理回路と、少なくとも部分的にメモリに記憶され、仮想世界データの少なくとも一部分を処理するように処理回路によって実行可能であるソフトウェアとを備え、仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、コンピュータネットワークは、第2のユーザに提示するために第1の部分をユーザデバイスに伝送するように動作可能であり、それによって、第2のユーザは、第2のユーザの位置から第1の部分を体験し得、第1のユーザ仮想世界の側面は、第2のユーザに効果的に渡される。第1のユーザおよび第2のユーザは、異なる物理的位置、または実質的に同一の物理的位置にあってもよい。仮想世界の少なくとも一部分は、仮想世界データの変化に応答して変化するように構成されてもよい。仮想世界の少なくとも一部分は、ユーザデバイスによって感知された物理的オブジェクトに応答して変化するように構成されてもよい。仮想世界データの変化は、物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表してもよい。仮想世界データの変化は、所定の関係に従って、第2のユーザに提示するために第2のユーザデバイスに提示されてもよい。仮想世界は、コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能であり得る。仮想世界は、2次元形式で提示されてもよい。仮想世界は、3次元形式で提示されてもよい。ユーザデバイスは、拡張現実モードにおいて、ユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、仮想現実モードにおいて、ユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、拡張現実モードおよび仮想現実モードの組み合わせにおいて、ユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。仮想世界データは、データネットワーク上で伝送されてもよい。コンピュータネットワークは、ユーザデバイスから仮想世界データの少なくとも一部分を受信するように動作可能であり得る。ユーザデバイスに伝送される仮想世界データの少なくとも一部分は、仮想世界の少なくとも一部分を生成するための命令を備えてもよい。仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送されてもよい。1つまたは複数のコンピュータサーバのうちの少なくとも1つは、ゲートウェイによって配信される仮想世界データを処理するように動作可能であり得る。
別の実施形態は、仮想ユーザ体験および/または拡張ユーザ体験のためのシステムを対象とし、そこで、遠隔アバターが、音声抑揚および顔認識ソフトウェアからの随意的な入力を用いて、ウェアラブルデバイス上のデータに少なくとも部分的に基づいて動画化される。
別の実施形態は、仮想ユーザ体験および/または拡張ユーザ体験のためのシステムを対象とし、そこで、カメラ姿勢または視点位置およびベクトルが、世界セクター内のいずれかの場所に配置されてもよい。
別の実施形態は、仮想ユーザ体験および/または拡張ユーザ体験のためのシステムを対象とし、そこで、世界またはその一部が、観察しているユーザのために多様かつ選択可能な尺度でレンダリングされてもよい。
別の実施形態は、仮想ユーザ体験および/または拡張ユーザ体験のためのシステムを対象とし、そこで、姿勢タグ付け画像に加えて、点またはパラメトリック線のような特徴が、世界モデルの基礎データとして利用され得、そこからソフトウェアロボットまたはオブジェクト認識装置が、セグメント化オブジェクトおよび世界モデルに相互に含むためのソース特徴をタグ付けする、現実世界オブジェクトのパラメトリック表現を作成するために利用され得る。
図1は、複数のユーザのための双方向仮想現実または拡張現実環境を促進するための開示されたシステムの代表的な実施形態を図示する。 図2は、図1で図示されたシステムと相互作用するユーザデバイスの実施例を図示する。 図3は、モバイルウェアラブルユーザデバイスの例示的実施形態を図示する。 図4は、図3のモバイルウェアラブルユーザデバイスが拡張モードにおいて動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図5は、図3のモバイルウェアラブルユーザデバイスが仮想モードにおいて動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図6は、図3のモバイルウェアラブルユーザデバイスが混合仮想インターフェースモードにおいて動作しているときにユーザによって視認されるオブジェクトの実施例を図示する。 図7は、異なる地理的位置に位置する2人のユーザがそれぞれ、それぞれのユーザデバイスを通して、他方のユーザおよび共通仮想世界と相互作用する実施形態を図示する。 図8は、図7の実施形態が触覚デバイスの使用を含むように拡張される実施形態を図示する。 図9Aは、第1のユーザが、混合仮想インターフェースモードにおいてデジタル世界とインターフェース接続しており、第2のユーザが、仮想現実モードにおいて同一のデジタル世界とインターフェース接続している、混合モードインターフェース接続の実施例を図示する。 図9Bは、第1のユーザが、混合仮想インターフェースモードにおいてデジタル世界とインターフェース接続し、第2のユーザが、拡張現実モードにおいて同一のデジタル世界とインターフェース接続している、混合モードインターフェース接続の別の実施例を図示する。 図10は、拡張現実モードにおいてシステムとインターフェース接続するときのユーザの視界の例示的例証を図示する。 図11は、ユーザが拡張現実モードにおいてシステムとインターフェース接続しているときに物理的オブジェクトによって誘発される仮想オブジェクトを示すユーザの視界の例示的例証を図示する。 図12は、拡張現実体験における1人のユーザが、仮想現実体験における別のユーザの存在を可視化する、拡張現実および仮想現実統合構成の一実施形態を図示する。 図13は、時間および/または偶発事象ベースの拡張現実体験構成の一実施形態を図示する。 図14は、仮想現実および/または拡張現実体験に好適なユーザ表示構成の一実施形態を図示する。 図15は、ローカルおよびクラウドに基づいた計算協調の一実施形態を図示する。 図16は、位置合わせ構成の種々の側面を図示する。
(詳細な説明)
図1を参照すると、システム100は、以下で説明されるプロセスを実装するための代表的なハードウェアである。この代表的なシステムは、1つ以上の高帯域幅インターフェース115を通して接続される1つ以上のコンピュータサーバ110から構成されるコンピューティングネットワーク105を備える。コンピューティングネットワーク内のサーバは、同一の場所に位置する必要はない。1つ以上のサーバ110はそれぞれ、プログラム命令を実行するための1つ以上のプロセッサを備える。サーバはまた、プログラム命令と、プログラム命令の指示の下でサーバによって実行されているプロセスによって使用および/または生成されるデータとを記憶するためのメモリも含む。
コンピューティングネットワーク105は、サーバ110の間で、および1つ以上のデータネットワーク接続130上において、サーバと1つ以上のユーザデバイス120との間でデータを通信する。そのようなデータネットワークの例は、限定ではないが、移動式および有線の両方である、ありとあらゆるタイプの公衆およびプライベートデータネットワークを含み、例えば、一般的にインターネットと呼ばれる、そのようなネットワークの多くの相互接続を含む。いかなる特定のメディア、トポロジー、またはプロトコルも、図によって暗示されることを目的としていない。
ユーザデバイスは、コンピューティングネットワーク105、またはサーバ110のうちのいずれかと直接通信するために構成される。代替として、ユーザデバイス120は、データを処理するため、および/またはネットワーク105と1つ以上のローカルユーザデバイス120との間でデータを通信するために、特別にプログラムされたローカルゲートウェイ140を通して、遠隔サーバ110と、および必要に応じて、ローカルに他のユーザデバイスと通信する。
例証されるように、ゲートウェイ140は、ソフトウェア命令を実行するためのプロセッサと、ソフトウェア命令およびデータを記憶するためのメモリとを含む別個のハードウェア構成要素として実装される。ゲートウェイは、コンピューティングネットワーク105を構成するサーバ110と通信するためのデータネットワークへの独自の有線接続および/または無線接続を有する。代替として、ゲートウェイ140は、ユーザによって装着または携行されるユーザデバイス120と統合されることができる。例えば、ゲートウェイ140は、ユーザデバイス120に含まれるプロセッサ上にインストールされて作動するダウンロード可能なソフトウェアアプリケーションとして実装されてもよい。ゲートウェイ140は、一実施形態では、データネットワーク130を介して、コンピューティングネットワーク105へのアクセスを1人以上のユーザに提供する。
サーバ110はそれぞれ、例えば、データおよびソフトウェアプログラムを記憶するための作業メモリおよび記憶装置と、プログラム命令を実行するためのマイクロプロセッサと、グラフィック、画像、ビデオ、オーディオ、およびマルチメディアファイルをレンダリングして生成するためのグラフィックプロセッサおよび他の特殊プロセッサとを含む。コンピューティングネットワーク105はまた、サーバ110によってアクセス、使用、または作成されるデータを記憶するためのデバイスを備えてもよい。
サーバ、随意に、ユーザデバイス120およびゲートウェイ140上で作動するソフトウェアプログラムは、ユーザがユーザデバイス120と相互作用するデジタル世界(本明細書では、仮想世界とも呼ばれる)を生成するために使用される。デジタル世界は、ユーザが体験して相互作用するために、ユーザデバイス120を通してユーザに提示され得る仮想の存在しないエンティティ、環境、および条件を表し、かつ/または定義するデータおよびプロセスによって表される。例えば、ユーザによって視認または体験されている光景においてインスタンス化されるときに物理的に存在しているように見える、何らかのタイプのオブジェクト、エンティティ、またはアイテムは、その外見、その挙動、どのようにしてユーザがそれと相互作用することを許可されるか、および他の特性の説明を含んでもよい。仮想世界(仮想オブジェクトを含む)の環境を作成するために使用されるデータは、例えば、大気データ、地形データ、気象データ、温度データ、位置データ、および仮想環境を定義し、かつ/または表すために使用される他のデータを含んでもよい。加えて、仮想世界の動作を支配する種々の条件を定義するデータは、例えば、物理法則、時間、空間的関係、および仮想世界(仮想オブジェクトを含む)の動作を支配する種々の条件を定義し、かつ/または作成するために使用され得る他のデータを含んでもよい。
デジタル世界のエンティティ、オブジェクト、条件、特性、挙動、または他の特徴は、概して、文脈が特に指示しない限り、本明細書ではオブジェクト(例えば、デジタルオブジェクト、仮想オブジェクト、レンダリングされた物理的オブジェクト等)と呼ばれる。オブジェクトは、限定されないが、建造物、植物、車両、人、動物、生物、機械、データ、ビデオ、テキスト、写真、および他のユーザを含む、任意のタイプの命のあるオブジェクトまたは命のないオブジェクトであってもよい。オブジェクトはまた、物理的世界に実際に存在するアイテム、挙動、または条件に関する情報を記憶するために、デジタル世界において定義されてもよい。エンティティ、オブジェクト、またはアイテムを表すか、または定義するデータ、あるいはその現在の状態を記憶するデータは、概して、本明細書では、オブジェクトデータと呼ばれる。このデータは、実装に応じて、サーバ110によって、またはゲートウェイ140またはユーザデバイス120によって処理されることにより、オブジェクトのインスタンスをインスタンス化し、ユーザがユーザデバイスを通して体験するために適切な方式でオブジェクトをレンダリングする。
デジタル世界を開発および/または作成するプログラマが、オブジェクト、およびオブジェクトがインスタンス化される条件を作成または定義する。しかしながら、デジタル世界は、他者がオブジェクトを作成または修正することを可能にすることができる。オブジェクトがインスタンス化されると、オブジェクトの状態は、デジタル世界を体験している1人以上のユーザによって、変更、制御、または操作されることを許可されてもよい。
例えば、一実施形態では、デジタル世界の開発、制作、および管理は、概して、1人以上のシステム管理プログラマによって提供される。いくつかの実施形態では、これは、デジタル世界における話の筋、テーマ、および事象の開発、設計、および/または実行、ならびに、例えば、映画、デジタル、ネットワーク、モバイル、拡張現実、およびライブ娯楽等の種々の形態の事象およびメディアを通じた、物語の配信を含んでもよい。システム管理プログラマはまた、デジタル世界およびそれと関連付けられるユーザコミュニティの技術管理、モデレーション、およびキュレーション、ならびに典型的にはネットワーク管理人によって行われる他のタスクを対処してもよい。
ユーザは、概して、ユーザデバイス120として指定されている、何らかのタイプのローカルコンピューティングデバイスを使用して、1つ以上のデジタル世界と相互作用する。そのようなユーザデバイスの実施例は、スマートフォン、タブレットデバイス、ヘッドアップディスプレイ(HUD)、ゲーム機、またはデータを通信し、インターフェースまたはディスプレイをユーザに提供することが可能な任意の他のデバイス、あるいはそのようなデバイスの組み合わせを含むが、それらに限定されない。いくつかの実施形態では、ユーザデバイス120は、例えば、キーボード、マウス、ジョイスティック、ゲームコントローラ、触覚インターフェースデバイス、モーションキャプチャコントローラ、光学的追跡デバイス(例えば、Leap Motion,Inc.から入手可能なもの、またはKinect(RTM)という商品名の下でMicrosoftから入手可能なもの)、オーディオ機器、音声機器、プロジェクタシステム、3Dディスプレイ、およびホログラフィック3Dコンタクトレンズ等のローカル周辺構成要素または入力/出力構成要素を含み、またはそれらと通信してもよい。
システム100と相互作用するためのユーザデバイス120の実施例が、図2で図示されている。図2に示される例示的実施形態では、ユーザ210が、スマートフォン220を通して1つ以上のデジタル世界とインターフェース接続してもよい。ゲートウェイは、スマートフォン220上に記憶されて作動するソフトウェアアプリケーション230によって実装される。この特定の実施例では、データネットワーク130は、ユーザデバイス(すなわち、スマートフォン220)をコンピュータネットワーク105に接続する無線モバイルネットワークを含む。
好ましい実施形態の1つの実装では、システム100は、多数の同時ユーザ(例えば、何百万人ものユーザ)をサポートすることが可能であり、その多数の同時ユーザは、何らかのタイプのユーザデバイス120を使用して、同一のデジタル世界と、または複数のデジタル世界とそれぞれインターフェース接続する。
ユーザデバイスは、ユーザとサーバ110によって生成されるデジタル世界(他のユーザおよびユーザに提示されるオブジェクト(現実または仮想)を含む)との間の視覚的、可聴的、および/または物理的相互作用を可能にするためのインターフェースをユーザに提供する。インターフェースは、視認され、聞かれ、または別様に感知されることができるレンダリングされた光景、およびリアルタイムでその光景と相互作用する能力をユーザに提供する。ユーザがレンダリングされた光景と相互作用する方式は、ユーザデバイスの能力によって決定付けられてもよい。例えば、ユーザデバイスがスマートフォンである場合、ユーザ相互作用は、タッチスクリーンに接触するユーザによって実装されてもよい。別の実施例では、ユーザデバイスがコンピュータまたはゲーム機である場合、ユーザ相互作用は、キーボードまたはゲームコントローラを使用して実装されてもよい。ユーザデバイスは、センサ等のユーザ相互作用を可能にする付加的な構成要素を含んでもよく、センサによって検出されるオブジェクトおよび情報(ジェスチャを含む)は、ユーザデバイスを使用した仮想世界とのユーザ相互作用を表す入力として提供されてもよい。
レンダリングされた光景は、例えば、2次元または3次元視覚表示(投影を含む)、音、および触覚または触知フィードバック等の種々の形式で提示されることができる。レンダリングされた光景は、例えば、拡張現実、仮想現実、およびそれらの組み合わせを含む、1つ以上のモードにおいて、ユーザによってインターフェース接続されてもよい。レンダリングされた光景の形式、ならびにインターフェースモードは、ユーザデバイス、データ処理能力、ユーザデバイス接続性、ネットワーク容量、およびシステム作業量のうちの1つ以上によって決定付けられてもよい。デジタル世界と同時に相互作用する多数のユーザ、およびデータ交換のリアルタイムな性質を有することは、コンピューティングネットワーク105、サーバ110、ゲートウェイ構成要素140(必要に応じて)、およびユーザデバイス120によって可能にされる。
一実施例では、コンピューティングネットワーク105は、高速接続(例えば、高帯域幅インターフェース115)を通して接続された単一および/またはマルチコアサーバ(すなわち、サーバ110)を有する大規模コンピューティングシステムから構成される。コンピューティングネットワーク105は、クラウドまたはグリッドネットワークを形成してもよい。サーバのそれぞれは、メモリを含むか、またはデジタル世界のオブジェクトを作成、設計、変更、または処理するようにデータを実装するためのソフトウェアを記憶するためのコンピュータ読み取り可能なメモリと結合される。これらのオブジェクトおよびそれらのインスタンス化は、動的であり、出現し、消滅し、経時的に変化し、他の条件に応答して変化してもよい。オブジェクトの動的能力の実施例は、概して、種々の実施形態に関して本明細書で論議される。いくつかの実施形態では、システム100とインターフェース接続する各ユーザはまた、1つ以上のデジタル世界内で、オブジェクトおよび/またはオブジェクトの集合として表されてもよい。
コンピューティングネットワーク105内のサーバ110はまた、デジタル世界のそれぞれに対する計算状態データも記憶する。計算状態データ(本明細書では、状態データとも呼ばれる)は、オブジェクトデータの構成要素であってもよく、概して、時間における所与のインスタンスで、オブジェクトのインスタンスの状態を定義する。したがって、計算状態データは、経時的に変化してもよく、1人以上のユーザおよび/またはシステム100を維持するプログラマのアクションによる影響を受けてもよい。ユーザが計算状態データ(またはデジタル世界を構成する他のデータ)に影響を与えると、ユーザは、デジタル世界を直接変更するか、または別様に操作する。デジタル世界が他のユーザと共有され、またはインターフェース接続される場合、ユーザのアクションは、デジタル世界と相互作用する他のユーザによって体験されるものに影響を及ぼしてもよい。したがって、いくつかの実施形態では、ユーザによって行われるデジタル世界への変更は、システム100とインターフェース接続する他のユーザによって体験される。
コンピューティングネットワーク105内の1つ以上のサーバ110に記憶されたデータは、一実施形態では、高速で、および少ない待ち時間で、1つ以上のユーザデバイス120および/またはゲートウェイ構成要素140に伝送または展開される。一実施形態では、サーバによって共有されるオブジェクトデータは、完全であり得るか、または圧縮され、ユーザ側で完全なオブジェクトデータを再作成するための命令を含み、ユーザのローカルコンピュータデバイス(例えば、ゲートウェイ140および/またはユーザデバイス120)によってレンダリングおよび可視化されてもよい。コンピューティングネットワーク105のサーバ110上で作動するソフトウェアは、いくつかの実施形態では、ユーザの特定のデバイスおよび帯域幅に応じて、デジタル世界内のオブジェクト(またはコンピューティングネットワーク105によって交換される任意の他のデータ)について、コンピューティングネットワーク105が生成して特定のユーザのデバイス120に送信するデータを適合させてもよい。例えば、ユーザがユーザデバイス120を通してデジタル世界と相互作用するとき、サーバ110は、ユーザによって使用されている特定のタイプのデバイス、デバイスの接続性および/またはユーザデバイスとサーバとの間の利用可能な帯域幅を認識し、ユーザ相互作用を最適化するように、デバイスに送達されているデータのサイズを適切に決定して均衡を保ってもよい。これの実施例は、データが低解像度ディスプレイを有する特定のユーザデバイス上で表示され得るように、伝送されるデータのサイズを低解像度品質に低減させることを含んでもよい。好ましい実施形態では、コンピューティングネットワーク105および/またはゲートウェイ構成要素140は、15フレーム/秒またはそれより速く、かつ高精細度品質またはそれより高い解像度で動作するインターフェースを提示するのに十分な速度で、データをユーザデバイス120に送達する。
ゲートウェイ140は、1人以上のユーザのためのコンピューティングネットワーク105へのローカル接続を提供する。いくつかの実施形態では、それは、ユーザデバイス120または図2に示されるもの等の別のローカルデバイス上で作動するダウンロード可能なソフトウェアアプリケーションによって実装されてもよい。他の実施形態では、それは、ユーザデバイス120と通信しているが、ユーザデバイス120に組み込まれることも、取り付けられることもないか、あるいはユーザデバイス120に組み込まれるかのいずれかであるハードウェア構成要素(構成要素上に記憶された適切なソフトウェア/ファームウェアを有するプロセッサを有する構成要素)によって実装されてもよい。ゲートウェイ140は、データネットワーク130を介してコンピューティングネットワーク105と通信し、コンピューティングネットワーク105と1つ以上のローカルユーザデバイス120との間のデータ交換を提供する。以下でさらに詳細に論議されるように、ゲートウェイ構成要素140は、ソフトウェア、ファームウェア、メモリ、および処理回路を含んでもよく、ネットワーク105と1つ以上のローカルユーザデバイス120との間で通信されるデータを処理することが可能であり得る。
いくつかの実施形態では、ゲートウェイ構成要素140は、特定のユーザデバイス120のための最適データ処理能力を可能にするように、ユーザデバイス120とコンピュータネットワーク105との間で交換されるデータの速度を監視して調節する。例えば、いくつかの実施形態では、ゲートウェイ140は、ユーザデバイスと接続されたインターフェースを通してユーザに提示される視野を越えるものでさえも、デジタル世界の静的側面および動的側面の両方をバッファリングおよびダウンロードする。そのような実施形態では、静的オブジェクトのインスタンス(構造化データ、ソフトウェア実装方法、または両方)は、(ゲートウェイ構成要素140、ユーザデバイス120、または両方のローカルにある)メモリに記憶されてもよく、コンピューティングネットワーク105および/またはユーザのデバイス120によって提供されるデータによって示されるように、ローカルユーザの現在の位置に対して参照される。例えば、他のユーザおよび/またはローカルユーザによって制御される知的ソフトウェアエージェントおよびオブジェクトを含み得る、動的オブジェクトのインスタンスが、高速メモリバッファに記憶される。ユーザに提示された光景内の2次元または3次元オブジェクトを表す動的オブジェクトは、例えば、移動しているが変化してない静的形状、および変化している動的形状等の構成要素形状に分類することができる。変化している動的オブジェクトの一部は、ゲートウェイ構成要素140によって管理される、コンピューティングネットワーク105を通したサーバ110からのリアルタイムのスレッド高優先度データ流によって更新されることができる。優先スレッドデータ流の一実施例として、ユーザの眼の視野の60度内にあるデータには、より外側にあるデータよりも高い優先度が与えられてもよい。別の実施例は、背景の静的オブジェクトよりも、ユーザの視野内の動的キャラクタおよび/またはオブジェクトを優先することを含む。
コンピューティングネットワーク105とユーザデバイス120との間のデータ接続を管理することに加えて、ゲートウェイ構成要素140は、ユーザデバイス120に提示され得るデータを記憶および/または処理してもよい。例えば、ゲートウェイ構成要素140は、いくつかの実施形態では、コンピューティングネットワーク105から、例えば、ユーザによる視認のためにレンダリングされるグラフィカルオブジェクトを表す、圧縮データを受信し、コンピューティングネットワーク105からユーザデバイス120に伝送されるデータ負荷を軽減するように高度レンダリング技法を行ってもよい。ゲートウェイ140が別個のデバイスである、別の実施例では、ゲートウェイ140は、処理のためにデータをコンピューティングネットワーク105に伝達するのではなく、オブジェクトのローカルインスタンスのデータを記憶および/または処理してもよい。
ここで図3も参照すると、デジタル世界は、ユーザのデバイスの能力に依存し得る種々の形式で、1人以上のユーザによって体験されてもよい。いくつかの実施形態では、ユーザデバイス120は、例えば、スマートフォン、タブレットデバイス、ヘッドアップディスプレイ(HUD)、ゲーム機、またはウェアラブルデバイスを含んでもよい。概して、ユーザデバイスは、ディスプレイと結合される、デバイス上のメモリに記憶されたプログラムコードを実行するためのプロセッサと、通信インターフェースとを含む。ユーザデバイスの例示的実施形態が、図3で図示されており、ユーザデバイスは、モバイルウェアラブルデバイス、すなわち、頭部装着型表示システム300を備える。本開示の実施形態によれば、頭部装着型表示システム300は、ユーザインターフェース302と、ユーザ感知システム304と、環境感知システム306と、プロセッサ308とを含む。プロセッサ308は、頭部装着型システム300から分離している孤立構成要素として図3で示されるが、代替実施形態では、プロセッサ308は、頭部装着型システム300の1つ以上の構成要素と統合されてもよく、または例えば、ゲートウェイ140等の他のシステム100の構成要素に組み込まれてもよい。
ユーザデバイスは、デジタル世界と相互作用し、デジタル世界を体験するためのインターフェース302をユーザに提示する。そのような相互作用は、ユーザおよびデジタル世界、システム100とインターフェース接続する1人以上の他のユーザ、およびデジタル世界内のオブジェクトを含み得る。インターフェース302は、概して、画像および/または音声感覚入力(およびいくつかの実施形態では物理的感覚入力)をユーザに提供する。したがって、インターフェース302は、スピーカ(図示せず)と、いくつかの実施形態において、立体3Dビューイングおよび/または人間の視覚系のより自然な特性を具現化する3Dビューイングを可能にすることができる表示構成要素303とを含んでもよい。いくつかの実施形態では、表示構成要素303は、「オフ」設定にあるときに、光学的ひずみもコンピューティングオーバーレイもほとんど無い、ユーザの周囲の物理的環境の光学的に正しい視界を可能にする(透明OLED等の)透明インターフェースを備えてもよい。以下でさらに詳細に論議されるように、インターフェース302は、種々の視覚/インターフェース性能および機能性を可能にする付加的な設定を含んでもよい。
ユーザ感知システム304は、いくつかの実施形態では、システム300を装着する個々のユーザに関係する特定の特徴、特性、または情報を検出するように動作可能である1つ以上のセンサ310を含んでもよい。例えば、いくつかの実施形態では、センサ310は、例えば、瞳孔収縮/拡張、各瞳孔の角度測定値/位置、球形度、(経時的な眼形変化としての)眼形、および他の解剖学的データのうちの1つ以上のようなユーザのリアルタイム光学的特性/測定値を検出することが可能なカメラまたは光学検出/スキャン回路を含んでもよい。このデータは、ユーザの視認体験を最適化するために頭部装着型システム300および/またはインターフェースシステム100によって使用され得る情報(例えば、ユーザの視覚焦点)を提供してもよく、またはその情報を計算するために使用されてもよい。例えば、一実施形態では、センサ310はそれぞれ、ユーザの眼のそれぞれの瞳孔収縮速度を測定してもよい。このデータは、プロセッサ308に(あるいはゲートウェイ構成要素140に、またはサーバ110に)伝送されてもよく、データは、例えば、インターフェースディスプレイ303の輝度設定に対するユーザの反応を決定するために使用される。インターフェース302は、例えば、ディスプレイ303の輝度レベルが高すぎることをユーザの反応が示す場合に、ディスプレイ303を薄暗くすることによって、ユーザの反応に従って調整されてもよい。ユーザ感知システム304は、上記で論議され、または図3で図示されるもの以外の他の構成要素を含んでもよい。例えば、いくつかの実施形態では、ユーザ感知システム304は、ユーザから音声入力を受信するためのマイクロホンを含んでもよい。ユーザ感知システムはまた、1つ以上の赤外線カメラセンサ、1つ以上の可視スペクトルカメラセンサ、構造光エミッタおよび/またはセンサ、赤外光エミッタ、コヒーレント光エミッタおよび/またはセンサ、ジャイロ、加速度計、磁気計、近接センサ、GPSセンサ、超音波エミッタおよび検出器、ならびに触覚インターフェースを含んでもよい。
環境感知システム306は、ユーザの周囲の物理的環境からデータを取得するための1つ以上のセンサ312を含む。センサによって検出されるオブジェクトまたは情報は、入力としてユーザデバイスに提供されてもよい。いくつかの実施形態では、この入力は、仮想世界とのユーザ相互作用を表してもよい。例えば、デスク上の仮想キーボードを視認するユーザは、仮想キーボードをタイプしているかのように指でジェスチャしてもよい。移動する指の運動は、センサ312によって捕捉され、入力としてユーザデバイスまたはシステムに提供されてもよく、入力は、仮想世界を変化させるため、または新しい仮想オブジェクトを作成するために使用されてもよい。例えば、指の運動は、タイピングとして(ソフトウェアプログラムを使用して)認識されてもよく、認識されたタイピングのジェスチャは、仮想キーボード上の仮想キーの既知の位置と組み合わせられてもよい。次いで、システムは、ユーザ(またはシステムとインターフェース接続する他のユーザ)に表示される仮想モニタをレンダリングしてもよく、仮想モニタは、ユーザによってタイプされているテキストを表示する。
センサ312は、例えば、連続的および/または断続的に投影された赤外構造光を通して、光景情報を解釈するために、例えば、略外向きのカメラ、またはスキャナを含んでもよい。環境感知システム306は、静的オブジェクト、動的オブジェクト、人、ジェスチャ、ならびに種々の照明、大気、および音響条件を含む局所環境を検出して登録することによって、ユーザの周囲の物理的環境の1つ以上の要素をマッピングするために使用されてもよい。したがって、いくつかの実施形態では、環境感知システム306は、画像ベースの3D再構築ソフトウェアを含み得、画像ベースの3D再構築ソフトウェアは、ローカルコンピューティングシステム(例えば、ゲートウェイ構成要素140またはプロセッサ308)に組み込まれ、センサ312によって検出される1つ以上のオブジェクトまたは情報をデジタル的に再構築するように動作可能である。1つの例示的な実施形態では、環境感知システム306は、モーションキャプチャデータ(ジェスチャ認識を含む)、深度感知、顔認識、オブジェクト認識、独特オブジェクト特徴認識、音声/オーディオ認識および処理、音源局在化、雑音低減、赤外線レーザまたは類似レーザ投影、ならびにモノクロおよび/またはカラーCMOSセンサ(または他の類似センサ)、視野センサ、および種々の他の光強化センサのうちの1つ以上を提供する。環境感知システム306は、上記で論議され、または図3で図示されるもの以外の他の構成要素を含んでもよいことを理解されたい。例えば、いくつかの実施形態では、環境感知システム306は、局所環境から音声を受信するためのマイクロホンを含んでもよい。ユーザ感知システムはまた、1つ以上の赤外線カメラセンサ、1つ以上の可視スペクトルカメラセンサ、構造光エミッタおよび/またはセンサ、赤外光エミッタ、コヒーレント光エミッタおよび/またはセンサ、ジャイロ、赤外光エミッタ、加速度計、磁気計、近接センサ、GPSセンサ、超音波エミッタおよび検出器、ならびに触覚インターフェースを含んでもよい。
上述のように、プロセッサ308は、いくつかの実施形態では、頭部装着型システム300の他の構成要素と統合され、インターフェースシステム100の他の構成要素と統合されてもよく、または図3に示されるような孤立デバイス(装着型またはユーザから分離している)であってもよい。プロセッサ308は、物理的有線接続を通して、または、例えば、モバイルネットワーク接続(携帯電話およびデータネットワークを含む)、Wi−Fi、またはBluetooth(登録商標)等の無線接続を通して、頭部装着型システム300の種々の構成要素および/またはインターフェースシステム100の構成要素に接続されてもよい。プロセッサ308は、メモリモジュール、統合され、かつ/または付加的なグラフィック処理ユニット、無線および/または有線インターネット接続性、およびソース(例えば、コンピューティングネットワーク105、ユーザ感知システム304、環境感知システム306、またはゲートウェイ構成要素140)からのデータを画像およびオーディオデータに変換することが可能なコーデックおよび/またはファームウェアを含んでもよく、画像/ビデオおよびオーディオは、インターフェース302を介してユーザに提示されてもよい。
プロセッサ308は、頭部装着型システム300の種々の構成要素のためのデータ処理、ならびに頭部装着型システム300とゲートウェイ構成要素140(いくつかの実施形態ではコンピューティングネットワーク105)との間のデータ交換を取り扱う。例えば、プロセッサ308は、ユーザとコンピューティングネットワーク105との間のデータストリーミングをバッファリングおよび処理し、それにより、滑らかで、連続的、かつ高忠実度のユーザ体験を可能にするために使用されてもよい。いくつかの実施形態では、プロセッサ308は、320×240解像度における8フレーム/秒から高精細解像度(1280×720)における24フレーム/秒の間のいずれか、またはそれ以上(例えば、60〜120フレーム/秒および4k解像度以上(10k+解像度および50,000フレーム/秒))を達成するのに十分な速度で、データを処理してもよい。加えて、プロセッサ308は、コンピューティングネットワーク105からリアルタイムでストリーミング配信されるのではなく、ユーザに提示され得るデータを記憶および/または処理してもよい。例えば、プロセッサ308は、いくつかの実施形態では、コンピューティングネットワーク105から圧縮データを受信し、(明暗または陰影付け等の)高度レンダリング技法を行うことにより、コンピューティングネットワーク105からユーザデバイス120に伝送されるデータ負荷を軽減してもよい。別の実施例では、プロセッサ308は、データをゲートウェイ構成要素140に、またはコンピューティングネットワーク105に伝送するのではなく、ローカルオブジェクトデータを記憶および/または処理してもよい。
頭部装着型システム300は、いくつかの実施形態では、種々の視覚/インターフェース性能および機能性を可能にする、種々の設定またはモードを含んでもよい。モードは、ユーザによって手動で、あるいは頭部装着型システム300の構成要素またはゲートウェイ構成要素140によって自動的に選択されてもよい。前述のように、頭部装着型システム300の一実施例は、インターフェース302が実質的にいかなるデジタルコンテンツも仮想コンテンツも提供しない「オフ」モードを含む。オフモードでは、表示構成要素303は、透明であり得、それにより、光学的ひずみもコンピューティングオーバーレイもほとんど無い、ユーザの周囲の物理的環境の光学的に正しい視界を可能にする。
1つの例示的実施形態では、頭部装着型システム300は、インターフェース302が拡張現実インターフェースを提供する「拡張」モードを含む。拡張モードでは、インターフェースディスプレイ303は、実質的に透明であり得、それにより、ユーザが局所物理的環境を視認することを可能にする。同時に、コンピューティングネットワーク105、プロセッサ308、および/またはゲートウェイ構成要素140によって提供される仮想オブジェクトデータが、物理的局所環境と組み合わせて、ディスプレイ303上に提示される。
図4は、インターフェース302が拡張モードにおいて動作しているときにユーザによって視認されるオブジェクトの例示的実施形態を図示する。図4に示されるように、インターフェース302は、物理的オブジェクト402および仮想オブジェクト404を提示する。図4で図示される実施形態では、物理的オブジェクト402が、ユーザの局所環境に存在する実際の物理的オブジェクトである一方で、仮想オブジェクト404は、システム100によって作成され、ユーザインターフェース302を介して表示されるオブジェクトである。いくつかの実施形態では、仮想オブジェクト404は、物理的環境内の固定位置または場所に表示されてもよく(例えば、物理的環境内に位置する特定の道路標識の隣に立つ仮想サル)、またはユーザインターフェース/ディスプレイ303に対する位置に位置するオブジェクトとしてユーザに表示されてもよい(例えば、ディスプレイ303の左上隅に見える仮想時計または温度計)。
いくつかの実施形態では、仮想オブジェクトは、ユーザの視野内または視野外に物理的に存在するオブジェクトから合図を出され、またはそれによって誘発されてもよい。仮想オブジェクト404は、物理的オブジェクト402から合図を出され、またはそれによって誘発される。例えば、物理的オブジェクト402は、実際にはスツールであってもよく、仮想オブジェクト404は、スツールの上に立つ仮想動物としてユーザに(いくつかの実施形態では、システム100とインターフェース接続する他のユーザに)表示されてもよい。そのような実施形態では、環境感知システム306は、物理的オブジェクト402をスツールとして識別するために、種々の特徴および/または形状パターン(センサ312によって捕捉される)を認識するために、例えば、プロセッサ308に記憶されたソフトウェアおよび/またはファームウェアを使用してもよい。例えば、スツールの上部のようなこれらの認識された形状パターンは、仮想オブジェクト404の配置を誘発するために使用されてもよい。他の実施例は、壁、テーブル、家具、車、建造物、人、床、植物、動物を含み、1つまたは複数のオブジェクトと何らかの関係を持つ拡張現実体験を誘発するために、見ることができる任意のオブジェクトを使用することができる。
いくつかの実施形態では、誘発される特定の仮想オブジェクト404は、ユーザによって選択され、あるいは頭部装着型システム300の他の構成要素またはインターフェースシステム100によって自動的に選択されてもよい。加えて、仮想オブジェクト404が自動的に誘発される実施形態では、特定の仮想オブジェクト404は、仮想オブジェクト404が合図を出され、または誘発される特定の物理的オブジェクト402(またはその特徴)に基づいて選択されてもよい。例えば、物理的オブジェクトがプール上に延在する飛び込み板として識別された場合、誘発される仮想オブジェクトは、シュノーケル、水着、浮遊デバイス、または他の関連アイテムを着用した生物であってもよい。
別の例示的実施形態では、頭部装着型システム300は、インターフェース302が仮想現実インターフェースを提供する「仮想」モードを含んでもよい。仮想モードでは、物理的環境は、ディスプレイ303から省略され、コンピューティングネットワーク105、プロセッサ308、および/またはゲートウェイ構成要素140によって提供される仮想オブジェクトデータが、ディスプレイ303上で提示される。物理的環境の省略は、(例えば、カバーによって)視覚ディスプレイ303を物理的に遮断することによって、またはディスプレイ303が不透明設定に移行するインターフェース302の特徴を通じて、達成されてもよい。仮想モードでは、ライブの視覚および音声感覚および/または記憶された視覚および音声感覚が、インターフェース302を通してユーザに提示されてもよく、ユーザは、インターフェース302の仮想モードを通してデジタル世界(デジタルオブジェクト、他のユーザ等)を体験し、それと相互作用する。したがって、仮想モードにおいてユーザに提供されるインターフェースは、仮想デジタル世界を含む仮想オブジェクトデータから構成される。
図5は、頭部装着型インターフェース302が仮想モードにおいて動作しているときのユーザインターフェースの例示的実施形態を図示する。図5で示されるように、ユーザインターフェースは、デジタルオブジェクト510から構成された仮想世界500を提示し、デジタルオブジェクト510は、大気、天気、地形、建造物、および人を含んでもよい。図5で図示されていないが、デジタルオブジェクトはまた、例えば、植物、車両、動物、生物、機械、人工知能、位置情報、および仮想世界500を定義する任意の他のオブジェクトまたは情報を含んでもよい。
別の例示的実施形態では、頭部装着型システム300は、「混合」モードを含んでもよく、頭部装着型システム300の種々の特徴(ならびに仮想モードおよび拡張モードの特徴)は、1つ以上のカスタムインターフェースモードを作成するように組み合わせられてもよい。1つのカスタムインターフェースモード例では、物理的環境は、ディスプレイ303から省略され、仮想オブジェクトデータが、仮想モードに類似する方式でディスプレイ303上に提示される。しかしながら、このカスタムインターフェースモード例では、仮想オブジェクトは、完全に仮想であり得る(すなわち、それらは局所物理的環境内に存在しない)か、またはそれらは、物理的オブジェクトの代わりにインターフェース302の中で仮想オブジェクトとしてレンダリングされる、実際の局所物理的オブジェクトであってもよい。したがって、特定のカスタムモード(本明細書では混合仮想インターフェースモードと呼ばれる)では、ライブの視覚および音声感覚および/または記憶された視覚および音声感覚が、インターフェース302を通してユーザに提示されてもよく、ユーザは、完全仮想オブジェクトおよびレンダリングされた物理的オブジェクトを含むデジタル世界を体験し、それと相互作用する。
図6は、混合仮想インターフェースモードに従って動作するユーザインターフェースの例示的実施形態を図示する。図6に示されるように、ユーザインターフェースは、完全仮想オブジェクト610およびレンダリングされた物理的オブジェクト620(別様に光景の中で物理的に存在するオブジェクトのレンダリング)から構成される仮想世界600を提示する。図6で図示される実施例によれば、レンダリングされた物理的オブジェクト620は、建造物620A、地面620B、およびプラットフォーム620Cを含み、オブジェクトがレンダリングされていることをユーザに示すために、太い輪郭630で示される。加えて、完全仮想オブジェクト610は、付加的なユーザ610A、雲610B、太陽610C、およびプラットフォーム620Cの上の炎610Dを含む。完全仮想オブジェクト610は、例えば、大気、天気、地形、建造物、人、植物、車両、動物、生物、機械、人工知能、位置情報、および仮想世界600を定義し、局所物理的環境内に存在するオブジェクトからレンダリングされていない任意の他のオブジェクトまたは情報を含んでもよいことを理解されたい。逆に、レンダリングされた物理的オブジェクト620は、インターフェース302の中で仮想オブジェクトとしてレンダリングされる、実際の局所物理的オブジェクトである。太い輪郭630は、レンダリングされた物理的オブジェクトをユーザに示すための一実施例を表す。したがって、レンダリングされた物理的オブジェクトは、本明細書で開示されるもの以外の方法を使用するように、示されてもよい。
いくつかの実施形態では、レンダリングされた物理的オブジェクト620は、環境感知システム306のセンサ312を使用して(あるいはモーションまたは画像キャプチャシステム等の他のデバイスを使用して)検出され、例えば、処理回路308に記憶されたソフトウェアおよび/またはファームウェアによって、デジタルオブジェクトデータに変換されてもよい。したがって、ユーザが混合仮想インターフェースモードにおいてシステム100とインターフェース接続すると、種々の物理的オブジェクトが、レンダリングされた物理的オブジェクトとしてユーザに表示されてもよい。これは、依然として局所物理的環境を安全にナビゲートすることが可能なままで、ユーザがシステム100とインターフェース接続することを可能にするために、特に有用であり得る。いくつかの実施形態では、ユーザは、レンダリングされた物理的オブジェクトを選択的に除去し、またはインターフェースディスプレイ303に追加することが可能であり得る。
別のカスタムインターフェースモード例では、インターフェースディスプレイ303は、実質的に透明であり得、それにより、種々の局所物理的オブジェクトが、レンダリングされた物理的オブジェクトとしてユーザに表示されている間に、ユーザが局所物理的環境を視認することを可能にする。このカスタムインターフェースモード例は、以前の実施例に関して上記で論議されるように、仮想オブジェクトのうちの1つ以上がレンダリングされた物理的オブジェクトであり得ることを除いて、拡張モードに類似する。
先述のカスタムインターフェースモード例は、頭部装着型システム300の混合モードによって提供されることが可能な種々のカスタムインターフェースモードのいくつかの例示的実施形態を表す。したがって、種々の他のカスタムインターフェースモードが、本開示の範囲から逸脱することなく、頭部装着型システム300の構成要素および上記で論議される種々のモードによって提供される特徴および機能性の種々の組み合わせから作成されてもよい。
本明細書で論議される実施形態は、オフモード、拡張モード、仮想モード、または混合モードにおいて動作するインターフェースを提供するためのいくつかの実施例を説明するにすぎず、それぞれのインターフェースモードの範囲または内容、あるいは頭部装着型システム300の構成要素の機能性を限定することを目的としていない。例えば、いくつかの実施形態では、仮想オブジェクトは、ユーザに表示されたデータ(時間、温度、高度等)、システム100によって作成および/または選択されたオブジェクト、ユーザによって作成および/または選択されるオブジェクト、またはシステム100とインターフェース接続する他のユーザを表すオブジェクトさえも含んでもよい。加えて、仮想オブジェクトは、物理的オブジェクトの拡張(例えば、物理的プラットフォームから成長する仮想彫像)を含んでもよく、かつ物理的オブジェクトに視覚的に接続され、またはそこから分離されてもよい。
仮想オブジェクトはまた、動的であり、時間とともに変化し、ユーザまたは他のユーザ、物理的オブジェクト、および他の仮想オブジェクトの間の種々の関係(例えば、位置、距離等)に従って変化し、かつ/または頭部装着型システム300、ゲートウェイ構成要素140、またはサーバ110のソフトウェアおよび/またはファームウェアにおいて規定される他の変数に従って変化してもよい。例えば、特定の実施形態では、仮想オブジェクトは、ユーザデバイスまたはその構成要素(例えば、仮想ボールは、触覚デバイスがそれの隣に配置されると、移動する)、物理的または言葉によるユーザ相互作用(例えば、仮想生物は、ユーザがそれに接近すると、逃げ、またはユーザがそれに話し掛けると、話す)、椅子が仮想生物に投げつけられて生物が椅子を避けること、他の仮想オブジェクト(例えば、第1の仮想生物が第2の仮想生物を見ると、反応する)、位置、距離、温度、時間等の物理的変数、またはユーザの環境内の他の物理的オブジェクトに応答してもよい(例えば、物理的な道に立って示される仮想生物は、物理的な車が通過すると、扁平になる)。
本明細書で論議される種々のモードは、頭部装着型システム300以外のユーザデバイスに適用されてもよい。例えば、拡張現実インターフェースが、携帯電話またはタブレットデバイスを介して提供されてもよい。そのような実施形態では、電話またはタブレットは、ユーザの周囲の物理的環境を捕捉するためにカメラを使用してもよく、仮想オブジェクトは、電話/タブレットディスプレイ画面上でオーバーレイされてもよい。加えて、仮想モードは、電話/タブレットのディスプレイ画面上でデジタル世界を表示することによって提供されてもよい。したがって、これらのモードは、本明細書で論議される電話/タブレットの構成要素、ならびにユーザデバイスに接続され、またはユーザデバイスと組み合わせて使用される他の構成要素を使用して、上記で説明されるような種々のカスタムインターフェースモードを作成するように混合されてもよい。例えば、混合仮想インターフェースモードは、モーションまたは画像キャプチャシステムと組み合わせて動作する、コンピュータモニタ、テレビ画面、またはカメラの無い他のデバイスによって提供されてもよい。この例示的実施形態では、仮想世界は、モニタ/画面から視認されてもよく、オブジェクト検出およびレンダリングは、モーションまたは画像キャプチャシステムによって行われてもよい。
図7は、異なる地理的位置に位置する2人のユーザがそれぞれ、それぞれのユーザデバイスを通して、他方のユーザおよび共通仮想世界と相互作用する、本発明の例示的実施形態を図示する。本実施形態では、2人のユーザ701および702が、仮想ボール703(一種の仮想オブジェクト)を前後に投げており、各ユーザは、仮想世界に対する他方のユーザの影響を観察することが可能である(例えば、各ユーザは、仮想ボールが方向を変えること、他方のユーザによって捕らえられること等を観察する)。仮想オブジェクト(すなわち、仮想ボール703)の移動および位置がコンピューティングネットワーク105内のサーバ110によって追跡されるため、システム100は、いくつかの実施形態では、各ユーザに対するボール703の到着の正確な位置およびタイミングをユーザ701および702に通信してもよい。例えば、第1のユーザ701がロンドンに位置する場合、ユーザ701は、システム100によって計算される速度で、ロサンゼルスに位置する第2のユーザ702にボール703を投げてもよい。したがって、システム100は、ボールの到着の正確な時間および位置を(例えば、Eメール、テキストメッセージ、インスタントメッセージ等を介して)第2のユーザ702に通信してもよい。この場合、第2のユーザ702は、ボール703が特定された時間および位置に到着することを見るために、自分のデバイスを使用してもよい。1人以上のユーザはまた、地球を仮想的に旅する場合に、1つ以上の仮想オブジェクトを追跡するために、地理位置情報マッピングソフトウェア(または同様のもの)を使用してもよい。これの例は、空を見上げ、現実世界に重ね合わせられた、頭上を飛ぶ仮想飛行機を見ている、3D頭部装着型ディスプレイを装着したユーザであってもよい。仮想飛行機は、ユーザによって、知的ソフトウェアエージェント(ユーザデバイスまたはゲートウェイ上で実行するソフトウェア)、局所および/または遠隔に存在し得る他のユーザ、および/またはこれらの組み合わせのうちの任意のものによって飛ばされてもよい。
前述のように、ユーザデバイスは、触覚インターフェースデバイスを含んでもよく、触覚インターフェースデバイスは、触覚デバイスが、仮想オブジェクトに対して物理的空間位置に位置することがシステム100によって決定されるときに、フィードバック(例えば、抵抗、振動、光、音等)をユーザに提供する。例えば、図7に関して上記で説明された実施形態は、図8に示されるように、触覚デバイス802の使用を含むように拡張されてもよい。
この例示的実施形態では、触覚デバイス802は、野球のバットとして仮想世界で表示されてもよい。ボール703が到着すると、ユーザ702は、仮想ボール703に向かって触覚デバイス802を振ってもよい。触覚デバイス802によって提供される仮想バットがボール703と「接触」したことをシステム100が決定した場合には、触覚デバイス802が、振動し、または他のフィードバックをユーザ702に提供してもよく、仮想ボール703は、ボールとバットとの接触の検出された速度、方向、およびタイミングに従って、システム100によって計算される方向に仮想バットから跳ね返り得る。
開示されたシステム100は、いくつかの実施形態では、混合モードインターフェース接続を容易にしてもよく、複数のユーザが、異なるインターフェースモード(例えば、拡張、仮想、混合等)を使用して、共通仮想世界(およびその中に含まれる仮想オブジェクト)とインターフェース接続してもよい。例えば、仮想インターフェースモードにおいて特定の仮想世界とインターフェース接続する第1のユーザは、拡張現実モードにおいて同一の仮想世界とインターフェース接続する第2のユーザと相互作用してもよい。
図9Aは、第1のユーザ901(混合仮想インターフェースモードにおいてシステム100のデジタル世界とインターフェース接続する)および第1のオブジェクト902が、完全仮想現実モードにおいてシステム100の同一のデジタル世界とインターフェース接続する第2のユーザ922に対して、仮想オブジェクトとして現れる、実施例を図示する。上記で説明されたように、混合仮想インターフェースモードを介してデジタル世界とインターフェース接続するとき、局所物理的オブジェクト(例えば、第1のユーザ901および第1のオブジェクト902)が、スキャンされ、仮想世界において仮想オブジェクトとしてレンダリングされてもよい。第1のユーザ901は、例えば、モーションキャプチャシステムまたは類似デバイスによってスキャンされ、第1のレンダリングされた物理的オブジェクト931として、(モーションキャプチャシステム、ゲートウェイ構成要素140、ユーザデバイス120、システムサーバ110、または他のデバイスに記憶されたソフトウェア/ファームウェアによって)仮想世界においてレンダリングされてもよい。同様に、第1のオブジェクト902は、例えば、頭部装着型インターフェース300の環境感知システム306によってスキャンされ、第2のレンダリングされた物理的オブジェクト932として、(プロセッサ308、ゲートウェイ構成要素140、システムサーバ110、または他のデバイスに記憶されたソフトウェア/ファームウェアによって)仮想世界においてレンダリングされてもよい。第1のユーザ901および第1のオブジェクト902は、物理的世界において物理的オブジェクトとして、図9Aの第1の部分910で示される。図9Aの第2の部分920では、第1のユーザ901および第1のオブジェクト902は、第1のレンダリングされた物理的オブジェクト931および第2のレンダリングされた物理的オブジェクト932として、完全仮想現実モードにおいてシステム100の同一のデジタル世界とインターフェース接続する第2のユーザ922に対して現れるように、示される。
図9Bは、第1のユーザ901が、上記で論議されるように、混合仮想インターフェースモードにおいてデジタル世界とインターフェース接続しており、第2のユーザ922が、拡張現実モードにおいて同一のデジタル世界(および第2のユーザの物理的局所環境925)とインターフェース接続している、混合モードインターフェース接続の別の例示的実施形態を図示する。図9Bの実施形態では、第1のユーザ901および第1のオブジェクト902は、第1の物理的位置915に位置し、第2のユーザ922は、第1の位置915からいくらかの距離だけ分離された、異なる第2の物理的位置925に位置する。この実施形態では、仮想オブジェクト931および932は、第2の位置925に対応する仮想世界内の位置までリアルタイム(または近リアルタイム)で転置されてもよい。したがって、第2のユーザ922は、第2のユーザの物理的局所環境925において、第1のユーザ901を表すレンダリングされた物理的オブジェクト931および第1のオブジェクト902を表すレンダリングされた物理的オブジェクト932を観察し、それらと相互作用してもよい。
図10は、拡張現実モードにおいてシステム100とインターフェース接続するときのユーザの視界の例示的例証を図示する。図10に示されるように、ユーザは、局所物理的環境(すなわち、複数の建造物を有する都市)ならびに仮想キャラクタ1010(すなわち、仮想オブジェクト)を見る。仮想キャラクタ1010の位置は、2D視覚標的(例えば、看板、はがき、または雑誌)および/または1つ以上の3D基準座標系(例えば、建造物、車、人、動物、飛行機、建造物の部分、および/または3D物理的オブジェクト、仮想オブジェクト、および/またはそれらの組み合わせ)によって誘発されてもよい。図10で図示される実施例では、都市の中の建造物の既知の位置が、仮想キャラクタ1010をレンダリングするための位置合わせ基準および/または情報ならびに重要な特徴を提供してもよい。加えて、建造物に対するユーザの地理空間的位置(例えば、GPS、姿勢/位置センサ等によって提供される)またはモバイル位置は、仮想キャラクタ1010(単数または複数)を表示するために使用されるデータの伝送を誘発するように、コンピューティングネットワーク105によって使用されるデータを含んでもよい。いくつかの実施形態では、仮想キャラクタ1010を表示するために使用されるデータは、レンダリングされたキャラクタ1010および/または仮想キャラクタ1010またはその部分をレンダリングするための命令(ゲートウェイ構成要素140および/またはユーザデバイス120によって実行される)を含んでもよい。いくつかの実施形態では、ユーザの地理空間的位置が利用不可能であるか、または不明である場合、サーバ110、ゲートウェイ構成要素140、および/またはユーザデバイス120は、時間および/または他のパラメータの関数としてユーザの最後の既知の位置を使用して、特定の仮想オブジェクトおよび/または物理的オブジェクトが位置し得る場所を推定する推定アルゴリズムを使用して、仮想オブジェクト1010を依然として表示してもよい。これはまた、ユーザのセンサが妨げられ、かつ/または他の誤動作を体験した場合に、任意の仮想オブジェクトの位置を決定するために使用されてもよい。
いくつかの実施形態では、仮想キャラクタまたは仮想オブジェクトは、仮想像を備えてもよく、仮想像のレンダリングは、物理的オブジェクトによって誘発される。例えば、ここで図11を参照すると、仮想像1110は、実際の物理的プラットフォーム1120によって誘発されてもよい。像1110の誘発は、ユーザデバイスまたはシステム100の他の構成要素によって検出された視覚オブジェクトまたは特徴(例えば、基準、設計特徴、幾何学形状、パターン、物理的位置、高度等)に応答してもよい。ユーザがユーザデバイスを用いることなくプラットフォーム1120を視認するとき、ユーザは、像1110がないプラットフォーム1120を見る。しかしながら、ユーザがユーザデバイスを通してプラットフォーム1120を視認するとき、ユーザは、図11に示されるように、プラットフォーム1120上の像1110を見る。像1110は、仮想オブジェクトであり、したがって、静止し、活動し、経時的に、またはユーザの視認位置に対して変化し、あるいは、どの特定のユーザが像1110を視認しているかに応じてさらに変化してもよい。例えば、ユーザが小さい子供である場合、像は犬であってもよく、その上、見る人が成人男性である場合、像は、図11に示されるような大きなロボットであってもよい。これらは、ユーザ依存性体験および/または状態依存性体験の例である。これは、1人以上のユーザが、単独で、および/または物理的オブジェクトと組み合わせて、1つ以上の仮想オブジェクトを知覚し、仮想オブジェクトのカスタマイズおよび個人化されたバージョンを体験することを可能にする。像1110(またはその部分)は、例えば、ユーザデバイス上にインストールされたソフトウェア/ファームウェアを含むシステムの種々の構成要素によってレンダリングされてもよい。仮想オブジェクト(すなわち、像1110)の位置合わせ特徴と組み合わせて、ユーザデバイスの位置および姿勢を示すデータを使用して、仮想オブジェクト(すなわち、像1110)は、物理的オブジェクト(すなわち、プラットフォーム1120)との関係を形成する。例えば、1つ以上の仮想オブジェクトと1つ以上の物理的オブジェクトとの間の関係は、距離、位置決め、時間、地理位置情報、1つ以上の他の仮想オブジェクトへの近接性、ならびに/または任意の種類の仮想データおよび/または物理的データを含む任意の他の機能的関係の関数であってもよい。いくつかの実施形態では、ユーザデバイスの中の画像認識ソフトウェアが、デジタル的−物理的オブジェクトの関係をさらに強化してもよい。
開示されたシステムおよび方法によって提供される双方向インターフェースは、例えば、1つ以上の仮想環境およびオブジェクトと相互作用すること、他のユーザと相互作用すること、ならびに広告、音楽のコンサート、および映画を含む種々の形態のメディアコンテンツを体験すること等の種々のアクティビティを促進するように実装されてもよい。したがって、開示されたシステムは、ユーザが、メディアコンテンツを見るか、または聴くだけでなく、むしろ、メディアコンテンツに積極的に参加して体験するように、ユーザ相互作用を促進する。いくつかの実施形態では、ユーザ参加は、既存のコンテンツを変更すること、または1つ以上の仮想世界においてレンダリングされる新しいコンテンツを作成することを含んでもよい。いくつかの実施形態では、メディアコンテンツ、および/またはコンテンツを作成するユーザは、1つ以上の仮想世界の創造をテーマにしてもよい。
一実施例では、音楽家(または他のユーザ)が、特定の仮想世界と相互作用するユーザに対してレンダリングされる音楽コンテンツを作成してもよい。音楽コンテンツは、例えば、種々のシングル、EP、アルバム、ビデオ、短編映画、およびコンサートの演奏を含んでもよい。一実施例では、多数のユーザが、音楽家によって演奏された仮想コンサートを同時に体験するように、システム100とインターフェース接続してもよい。
いくつかの実施形態では、制作されるメディアは、特定のエンティティ(例えば、バンド、アーティスト、ユーザ等)と関連付けられる一意の識別子コードを含み得る。コードは、一式の文字数字、UPCコード、QRコード(登録商標)、2D画像トリガ、3D物理的オブジェクト特徴トリガ、または他のデジタルマークの形態、ならびに音、画像、および/または両方であってもよい。いくつかの実施形態では、コードはまた、システム100を使用してインターフェース接続され得るデジタルメディアに埋め込まれてもよい。ユーザは、(例えば、料金の支払によって)コードを取得し、コードと引き換えに識別子コードと関連付けられるエンティティによって制作されたメディアコンテンツにアクセスし得る。メディアコンテンツは、ユーザのインターフェースに追加され、またはユーザのインターフェースから除去されてもよい。
一実施形態では、少ない待ち時間で1つのコンピューティングシステムから別のコンピューティングシステムへ(例えば、クラウドコンピューティングシステムからユーザに結合されたローカルプロセッサへ)リアルタイムまたは近リアルタイムのビデオデータを渡すことの計算および帯域幅制限を回避するために、種々の形状および幾何学形状に関するパラメータ情報が転送され、表面を画定するために利用され得ると同時に、テクスチャが転送され、これらの表面に追加されることにより、パラメータ的に再現された顔の幾何学形状の上にマップされた個人の顔のビットマップベースのビデオ詳細等の静的または動的詳細をもたらす。別の実施例として、システムが個人の顔を認識するように構成され、個人のアバターが拡張世界に位置することを把握している場合、本システムは、1つの比較的大型のセットアップ転送において関連する世界情報および個人のアバター情報を渡すように構成されてもよく、その後、ローカルレンダリングのための、図1で描写された308等のローカルコンピューティングシステムへの残りの転送は、初期セットアップ転送またはリアルタイムビデオの受け渡しと比較してはるかに小さい帯域幅で、個人の骨格構造の運動パラメータおよび個人の顔の移動ビットマップ等のパラメータおよびテクスチャ更新に限定されてもよい。したがって、クラウドが、比較的少ない待ち時間を必要としない計算を取り扱い、ローカル処理アセットが少ない待ち時間が重視されるタスクを取り扱う統合様式で、クラウドベースおよびローカルコンピューティングアセットが使用されてもよく、そのような場合において、ローカルシステムに転送されるデータの形態は、好ましくは、ある量のそのようなデータの形態(すなわち、全てのリアルタイムビデオと対比したパラメータ情報、テクスチャ等)により、比較的低い帯域幅で渡される。
先に図15を参照すると、略図がクラウドコンピューティングアセット(46)とローカル処理アセット(308、120)との間の協調を図示する。一実施形態では、クラウド(46)アセットは、例えば、有線ネットワーキングまたは無線ネットワーキング(無線が移動性のために好まれ、有線が、所望され得る特定の高帯域幅または大データ容量転送に好まれる)を介して、ユーザの頭部(120)またはベルト(308)に結合されるように構成された構造に収納され得るプロセッサおよびメモリ構成等のローカルコンピューティングアセット(120、308)の一方または両方に直接的に(40、42)動作可能に結合される。ユーザにローカルであるこれらのコンピューティングアセットは、有線および/または無線接続構成(44)を介して、同様に相互に動作可能に結合されてもよい。一実施形態では、低慣性および小型頭部装着型サブシステム(120)を維持するために、ユーザとクラウド(46)との間の一次転送は、ベルトベースのサブシステム(308)とクラウドとの間のリンクを介してもよく、頭部装着型サブシステム(120)は、主に、例えば、パーソナルコンピューティング周辺接続用途において現在採用されているような超広帯域(「UWB」)接続等の無線接続を使用して、ベルトベースのサブシステム(308)にデータテザリングされる。
効率的なローカルおよび遠隔処理協調、ならびにユーザ用の適切な表示デバイス(例えば、図3で特色とされるユーザインターフェース302またはユーザ「表示デバイス」、図14を参照して以下で説明される表示ディスプレイ14、またはその変形例)を用いて、ユーザの現在の実際または仮想の位置に関連する1つの世界の側面が、ユーザに転送されるか、または「渡され」、効率的に更新されてもよい。実際に、一実施形態では、1人の個人が拡張現実モードにおいて仮想現実システム(「VRS」)を利用し、別の個人が第1の個人にローカルである同一の世界を探索するために完全仮想モードにおいてVRSを利用すると、2人のユーザは、種々の様式でその世界を相互に体験してもよい。例えば、図12を参照すると、完全仮想現実シナリオから描写した拡張現現実世界を通して飛んでいる第2のユーザのアバター2の可視化を追加した、図11を参照して説明されるものに類似するシナリオが描写されている。換言すれば、図12で描写される光景は、第1の個人に対する拡張現実において体験され、表示されてもよく、地面、背景の建造物、像プラットフォーム1120等の光景内のローカル世界の周囲の実際の物理的要素に加えて、2つの拡張現実要素(像1110および飛んでいる第2の個人のマルハナバチアバター2)が表示されている。アバター2が第1の個人にローカルである世界を通して飛ぶ場合、第1の個人が第2の個人のアバター2の進展を可視化することを可能にするために、動的更新が利用されてもよい。
再度、クラウドコンピューティングリソース上に存在し、そこから配信されることができる1つの世界モデルがある、上記で説明されたような構成を用いると、そのような世界は、リアルタイムビデオデータまたは同様のものを分配しようとすることに好ましい比較的低い帯域幅形式で1人以上のユーザに「渡すことが可能」であり得る。像の付近に立っている(すなわち、図12に示されるような)個人の拡張体験は、クラウドベースの世界モデルによって知らされてもよく、そのサブセットは、視界を完成するように、その個人およびその個人のローカル表示デバイスまで渡されてもよい。机の上に位置するパーソナルコンピュータと同じくらい単純であり得る遠隔表示デバイスに向かって座っている個人は、クラウドから情報の同一のセクションを効率的にダウンロードし、それをディスプレイ上でレンダリングさせることができる。実際に、像の付近で公園内に実際に存在する1人の個人が、その公園内で散歩するために遠隔に位置する友達を連れてもよく、友達は仮想現実および拡張現実を通して参加する。本システムは、どこに道があるか、どこに木があるか、どこに像があるかを把握する必要があるが、クラウド上にその情報があると、参加する友達がクラウドからシナリオ側面をダウンロードし、次いで、実際に公園にいる個人に対してローカルである拡張現実として、一緒に歩き始めることができる。
図13を参照すると、時間および/または偶発性パラメータに基づいた実施形態が描写され、図3で特色とされるユーザインターフェース302またはユーザ表示デバイス、図14を参照して以下で説明される表示デバイス14、またはそれらの変形例等の仮想現実および/または拡張現実インターフェースと関わり合う個人が、システムを利用しており(4)、1杯のコーヒーを注文するためにコーヒー店に入る(6)。VRSは、コーヒー店のドアの強調表示された場所、または関連コーヒーメニューのバブルウィンドウ等の個人のための拡張現実および/または仮想現実での表示性能向上を提供するために、ローカルに、かつ/または遠隔的に感知およびデータ収集能力を利用するように構成されてもよい(8)。個人が注文した1杯のコーヒーを受け取るとき、または本システムによる何らかの他の関連パラメータの検出時に、本システムは、局所環境において1つ以上の時間ベースの拡張現実または仮想現実画像、ビデオ、および/または音声(例えば、ジャングルの音声および他の効果を伴って、または伴わずに、静的または動的のいずれか一方である、壁および天井からマダガスカルのジャングルの光景)を、表示デバイスを用いて表示するように構成されてもよい(10)。ユーザへのそのような提示は、タイミングパラメータ(すなわち、満杯のコーヒーカップが認識されてユーザに手渡された5分後、本システムが店のフロントドアを通って歩くユーザを認識した10分後等)、または他のパラメータ(例えば、ユーザがカップからコーヒーの最後の一口を摂取する場合のコーヒーカップの逆さまの配向に注目することによって、ユーザがコーヒーを飲み終わったことの本システムによる認識、またはユーザが店のフロントドアから出たことの本システムによる認識)に基づいて中断されてもよい(12)。
図14を参照すると、筐体またはフレーム(84)によってユーザの頭部または眼に装着され得る表示レンズ(82)を備える好適なユーザ表示デバイス(14)の一実施形態が示されている。表示レンズ(82)は、ユーザの眼(20)の前で筐体(84)によって位置決めされる1つ以上の透明な鏡を備え、1つ以上の透明な鏡は、拡張現実構成において局所環境から少なくともいくらかの光の透過も可能にしながら、眼(20)の中へ投影光(38)を反射してビーム成形を促進するように構成されてもよい(仮想現実構成では、表示システム14が、暗色化されたバイザ、遮断カーテン、完全黒色LCDパネルモード、または同様のもの等によって、局所環境から実質的に全ての光を遮断することが可能であることが望ましくあり得る)。描写した実施形態では、2つの広視野マシンビジョンカメラ(16)が、ユーザの周囲の環境を撮像するように筐体(84)に結合される。一実施形態では、これらのカメラ(16)は、デュアルキャプチャ可視光/赤外光カメラである。描写した実施形態はまた、示されるように、眼(20)の中へ光(38)を投影するように構成された表示鏡およびオプティクスとともに、一対のスキャンレーザ波面形状(すなわち、深度のための)投光器モジュールも備える。描写された実施形態はまた、レンダリングおよびユーザ入力を支援するために、ユーザの眼(20)を追跡することができるように構成された赤外光光源(26、発光ダイオード「LED」等)と対にされた2つの小型赤外線カメラ(24)も備える。システム(14)はさらに、センサアセンブリ(39)を特色とし、センサアセンブリ(39)は、X軸、Y軸、およびZ軸加速度計能力と、磁気コンパスと、X軸、Y軸、およびZ軸ジャイロ能力とを備え、好ましくは、200Hz等の比較的高い周波数でデータを提供し得る。描写されたシステム(14)はまた、キャプチャデバイス(16)から出力される広視野画像情報からリアルタイムまたは近リアルタイムのユーザ頭部姿勢を計算するように構成され得るASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、および/またはARMプロセッサ(高度縮小命令セットマシン)等の頭部姿勢プロセッサ(36)も備える。また、デジタルおよび/またはアナログ処理を実行して、センサアセンブリ(39)からのジャイロ、コンパス、および/または加速度計データから姿勢を導出するように構成された別のプロセッサ(32)も示されている。描写された実施形態はまた、姿勢および位置決めを支援するGPS(37、全地球測位衛星)サブシステムも特色とする。最後に、描写された実施形態は、ユーザにローカルであるレンダリング情報を提供して、ユーザの世界の視野のためにスキャナの動作およびユーザの眼の中への撮像を促進するように構成されたソフトウェアプログラムを作動させるハードウェアを特色とし得るレンダリングエンジン(34)を備える。レンダリングエンジン(34)は、レンダリングされた拡張現実および/または仮想現実オブジェクトの光が、網膜スキャンディスプレイと同様にスキャンレーザ配列(18)を使用して投影されるように、センサ姿勢プロセッサ(32)、画像姿勢プロセッサ(36)、視標追跡カメラ(24)、および投影サブシステム(18)に動作可能に結合される(81、70、76/78、80、すなわち、有線または無線接続を介して)。投影された光線(38)の波面は、拡張現実および/または仮想現実オブジェクトの所望の焦点距離と一致するように屈曲または集束されてもよい。ミニ赤外線カメラ(24)が、レンダリングおよびユーザ入力(すなわち、ユーザがどこを見ているか、どの深度でユーザが焦点を合わせているか、(以下で論議されるように、焦点深度を推定するために眼の縁が利用されてもよい))を支援するために眼を追跡するために利用されてもよい。GPS(37)、ジャイロ、コンパス、および加速度計(39)は、進路推定および/または高速姿勢推定を提供するために利用されてもよい。カメラ(16)の画像および姿勢は、関連クラウドコンピューティングリソースからのデータと併せて、局所世界をマッピングし、ユーザ視野を仮想現実または拡張現実コミュニティと共有するために利用されてもよい。図14で特色とされる表示システム(14)内のハードウェアの大部分が、ディスプレイ(82)およびユーザの眼(20)に隣接する筐体(84)に直接結合されて描写されているが、描写されたハードウェア構成要素は、例えば、図3に示されるように、ベルト装着構成要素等の他の構成要素に装着されるか、または他の構成要素内に収納されてもよい。一実施形態では、図14で特色とされるシステム(14)の構成要素の全ては、画像姿勢プロセッサ(36)、センサ姿勢プロセッサ(32)、およびレンダリングエンジン(34)を除いて、ディスプレイ筐体(84)に直接結合され、画像姿勢プロセッサ(36)、センサ姿勢プロセッサ(32)、およびレンダリングエンジン(34)とシステム(14)の残りの構成要素との間の通信は、超広帯域等の無線通信または有線通信によるものであってもよい。描写された筐体(84)は、好ましくは、頭部装着型であり、ユーザによって装着可能である。それはまた、ユーザの耳に挿入され、図13を参照して参照されるジャングルの音声等の拡張現実または仮想現実体験に関連し得る音声をユーザに提供するために利用され得るもの等のスピーカと、ユーザにローカルである音声を捕捉するために利用され得るマイクロホンとを特色としてもよい。
ユーザの眼(20)の中への光(38)の投影に関して、一実施形態では、ミニカメラ(24)は、一般に、眼(20)の焦点の位置、つまり「焦点深度」と一致する、ユーザの眼(20)の中心が幾何学的に接した場所を測定するために利用されてもよい。眼が接する全ての点の3次元表面は、「ホロプター」と呼ばれる。焦点距離は、有限数の深度を呈してもよく、または無限に変化してもよい。輻輳距離から投影される光が、対象の眼(20)に焦点を合わせられるように見える一方で、輻輳距離の前または後ろの光は、ぼやけている。さらに、眼が焦点を合わせる場所にかかわらず、約0.7ミリメートル未満のビーム直径を有する空間的コヒーレント光が、人間の眼によって正しく分解されることが発見されている。この理解を考慮して、適正な焦点深度の幻影を作成するために、眼の輻輳が、ミニカメラ(24)を用いて追跡されてもよく、レンダリングエンジン(34)および投影サブシステム(18)が、焦点の合ったホロプター上またはその近くの全てのオブジェクト、および種々の程度に焦点がずれた(すなわち、意図的に作成されたぼやけを使用した)全ての他のオブジェクトをレンダリングするために使用されてもよい。眼の中へコヒーレント光を投影するように構成された透視光誘導光学要素が、Lumus,Inc.等の供給業者によって提供されてもよい。好ましくは、システム(14)は、毎秒約60フレームまたはそれより大きいフレームレートでユーザにレンダリングする。上記で説明されるように、好ましくは、ミニカメラ(24)は、視標追跡に利用されてもよく、ソフトウェアは、輻輳幾何学形状だけでなく、ユーザ入力としての機能を果たす焦点位置の手掛かりも取り上げるように構成されてもよい。好ましくは、そのようなシステムは、日中または夜間の使用に好適な輝度およびコントラストで構成される。一実施形態では、そのようなシステムは、好ましくは、視覚オブジェクト整合のための約20ミリ秒未満の待ち時間、約0.1度未満の角度整合、およびほぼ人間の眼の限界である約1分の解像度を有する。表示システム(14)は、位置および姿勢決定を支援するように、GPS要素、光学追跡、コンパス、加速度計、および/または他のデータソースを含み得る、局在化システムと統合されてもよく、局在化情報は、ユーザの関連世界の視野内で正確なレンダリングを促進するために利用されてもよい(すなわち、そのような情報は、現実世界に対してどこにあるかを眼鏡が把握することを促進する)。
他の好適な表示デバイスは、デスクトップおよびモバイルコンピュータ、スマートフォン、3D遠近視を促進またはシミュレートする付加的なソフトウェアおよびハードウェア特徴を伴って拡張され得るスマートフォン(例えば、一実施形態では、フレームがスマートフォンに取り外し可能に結合されてもよく、フレームは、図14で特色とされる構成の機能性のうちのいくつかをシミュレートするように、200Hzジャイロおよび加速度計センササブセット、広視野レンズを有する2つの小型マシンビジョンカメラ、およびARMプロセッサを特色とする)、タブレットコンピュータ、スマートフォンについて上記で説明されるように拡張され得るタブレットコンピュータ、付加的な処理および感知ハードウェアによって拡張されたタブレットコンピュータ、拡張視点および仮想視点を表示するためにスマートフォンおよび/またはタブレットを使用する頭部装着型システム(拡大オプティクス、鏡、コンタクトレンズ、または光構造化要素を介した視覚順応)、発光要素(LCD、OLED、垂直共振器面発光レーザ、導かれたレーザビーム等)の非透視ディスプレイ、人間が自然な世界および人工的に生成された画像を見ることを同時に可能にする透視ディスプレイ(例えば、光誘導光学要素、接近焦点コンタクトレンズの中へ射し込む透明および偏光OLED、導かれたレーザビーム等)、発光要素を伴うコンタクトレンズ(Ioptik RTMという商品名の下でInnovega,Inc(Bellevue,WA)から入手可能なもの等、それらは、特殊な相補的眼鏡構成要素と組み合わせられてもよい)、発光要素を有する埋込型デバイス、および人間の脳の光受容体をシミュレートする埋込型デバイスを含むが、それらに限定されない。
図3および図14で描写されるもの等のシステムを用いると、3D点が環境から捕捉され得、これらの画像または点を捕捉するカメラの姿勢(すなわち、世界に対するベクトルおよび/または原点位置情報)が決定され得、それにより、これらの点または画像は、この姿勢情報と「タグ付け」されるか、または関連付けられてもよい。次いで、第2のカメラによって捕捉された点は、第2のカメラの姿勢を決定するために利用されてもよい。換言すれば、第1のカメラからのタグ付けされた画像との比較に基づいて、第2のカメラを配向し、および/または限局することができる。次いで、この知識は、(位置合わせされる2つのカメラが周囲にあるため)テクスチャを抽出し、マップを作製し、現実世界の仮想コピーを作成するために利用されてもよい。よって、基礎レベルで、一実施形態では、3D点および点を生成した2D画像の両方を捕捉するために利用され得る個人装着システムを有し、これらの点および画像は、クラウド記憶および処理リソースに送り出されてもよい。それらはまた、組み込まれた姿勢情報とともにローカルにキャッシュ格納されてもよく(すなわち、タグ付けされた画像をキャッシュ格納する)、よって、クラウドは、3D点とともに、準備ができている(すなわち、利用可能なキャッシュ内にある)タグ付けされた(すなわち、3D姿勢とタグ付けされた)2D画像を有してもよい。ユーザが動的なものを観察している場合、ユーザは、運動に関連するクラウドまで付加的な情報を送信してもよい(例えば、別の個人の顔を見る場合、ユーザは、顔のテクスチャマップを取り、たとえ周辺世界が他の点では基本的に静的であっても、それを最適化された周波数まで押し上げることができる)。
クラウドシステムは、姿勢のみの基準としていくつかの点を保存し、全体的な姿勢追跡計算を低減させるように構成されてもよい。概して、ユーザが部屋を動き回る場合に、壁、テーブル等のユーザの環境内の主要なアイテムを追跡することが可能であるように、いくつかの輪郭特徴を有することが望ましくあり得、ユーザは、世界を「共有」し、その部屋の中へ他のユーザを入らせ、また、これらの点を見せることを希望し得る。そのような有用かつ主要な点は、アンカリング点として極めて有用であるため、「基準」として称され得る。それらは、マシンビジョンで認識され得、かつユーザハードウェアの異なる部品上で世界から一貫して繰り返し抽出され得る特徴に関係する。したがって、これらの基準は、好ましくは、さらなる使用のためにクラウドに保存されてもよい。
一実施形態では、基準は、カメラが位置を認識するために容易に使用することができる種類のアイテムあるため、関連世界の全体を通じて、基準の比較的均等な分布を有することが好ましい。
一実施形態では、関連クラウドコンピューティング構成は、基準の精緻化および世界の作成の両方のために、種々のユーザからの最良データを使用するように、3D点のデータベースおよび任意の関連メタデータを周期的に整えるように、構成されてもよい。言い換えれば、本システムは、関連世界を見てその中で機能する種々のユーザからの入力を使用することによって、最良データセットを得るように構成されてもよい。一実施形態では、データベースは、本質的にフラクタルであり、ユーザがオブジェクトに近づくにつれて、クラウドは、より高い解像度の情報をそのようなユーザに渡す。ユーザがより厳密にオブジェクトをマッピングすると、そのデータがクラウドに送信され、クラウドは、新しい3D点および画像ベースのテクスチャマップがデータベースに以前に記憶されたものよりも良好であれば、新しい3D点および画像ベースのテクスチャマップをデータベースに追加することができる。この全ては、多くのユーザから同時に起こるように構成されてもよい。
上記で説明されるように、拡張現実または仮想現実体験は、特定の種類のオブジェクトを認識することに基づいてもよい。例えば、特定のオブジェクトを認識および理解するために、そのようなオブジェクトが深度を有すると理解することが重要であり得る。認識装置ソフトウェアオブジェクト(「認識装置」)は、ユーザが世界内でデータをナビゲートする場合に、いずれか一方または両方のプラットフォーム上の種々のオブジェクトの認識を特異的に支援するように、クラウドまたはローカルリソース上に展開されてもよい。例えば、システムが、3D点クラウドおよび姿勢タグ付け画像を備える世界モデルのデータを有し、上に多数の点を有する机、ならびに机の画像がある場合、人間が机を把握している場合、観察されているものが実際に机であるという決定がないことがある。言い換えれば、空間内のいくつかの3D点、および机の大部分を示す空間内のどこかからの画像は、机が観察されていると瞬時に認識するために十分ではない場合がある。この識別を支援するために、未加工3D点クラウドの中へ入り、一式の点をセグメント化し、例えば、机の上面の平面を抽出する特定のオブジェクト認識装置が作成されてもよい。同様に、ユーザが仮想現実または拡張現実において壁紙を変更するか、または壁の一部を除去し、現実世界では実際にそこにない別の部屋への入口を有することができるように、3D点から壁をセグメント化するように認識装置が作成されてもよい。そのような認識装置は、世界モデルのデータ内で動作し、世界モデルをクローリングし、そのような認識装置は、ソフトウェア「ロボット」と考えられ得、そのソフトウェア「ロボット」は、その世界モデルに意味情報、または空間内の点の間に存在すると考えられるものに関するオントロジーを植え付ける。そのような認識装置またはソフトウェアロボットは、それらの存在全体が、関連世界のデータを巡回すること、および壁、または椅子、あるいは他のアイテムであると考えられるものを見つけることに関するように構成されてもよい。それらは、「この一式の点が壁に属する」という機能的対等性で一式の点をタグ付けするように構成されてもよく、点の中にあるものに関してシステムに手動で知らせるために、点ベースのアルゴリズムおよび姿勢タグ付け画像分析の組み合わせを備えてもよい。
オブジェクト認識装置は、視点に応じて、様々な有用性の多くの目的で作成されてもよい。例えば、一実施形態では、Starbucks等のコーヒー専門店が、データの関連世界内でStarbucksのコーヒーカップの正確な認識装置を作成することに投資してもよい。そのような認識装置は、大小のデータの世界をクローリングし、Starbucksのコーヒーカップを検索するように構成され、それによって、Starbucksのコーヒーカップはセグメント化され、関連近傍空間内で動作するときに(すなわち、おそらく、ユーザが特定の期間にわたってStarbucksのコーヒーカップを見たときに、すぐ近くのStarbucks販売店でユーザにコーヒーを提供するように)ユーザに識別されてもよい。カップがセグメント化されると、ユーザがそれを自分の机の上に移動させたときに迅速に認識されてもよい。そのような認識装置は、利用可能な計算リソースに応じて、クラウドコンピューティングリソースおよびデータ上だけでなく、ローカルリソースおよびデータ上、またはクラウドおよびローカルの両方で、作動または動作するように構成されてもよい。一実施形態では、何百万人ものユーザがグローバルモデルに寄与しているクラウド上の世界モデルのグローバルコピーがあるが、特定の町の特定の個人のオフィスのようなより小さい世界または下位世界については、グローバル世界の大部分が、そのオフィスがどのような外観であるかを気にしないため、本システムは、データを整え、所与のユーザに最もローカルに関連すると考えられるローカルキャッシュ情報に移動するように構成されてもよい。一実施形態では、例えば、ユーザが机に歩み寄るときに、しばしば移動するものとして識別されるオブジェクト(例えば、机の上のカップ)が、クラウドモデルに負荷を負わせ、クラウドとローカルリソースとの間で伝送負荷を負わせる必要がないため、関連情報(机の上の特定のカップのセグメント等)は、クラウドではなく、ローカルコンピューティングリソースのみの上に存在するように構成されてもよい。したがって、クラウドコンピューティングリソースは、3D点および画像をセグメント化し、したがって、移動可能なものから永久的(すなわち、概して、移動していない)オブジェクトを分解するように構成されてもよく、これは、関連データが残存する場所、それが処理される場所に影響を及ぼし、より永久的なオブジェクトに関連する特定のデータについて、装着型/ローカルシステムから処理負担を除去し、次いで、無限の他のユーザと共有され得る位置の一回限りの処理を可能にし、複数のデータ源が特定の物理的位置における固定オブジェクトおよび可動オブジェクトのデータベースを同時に構築することを可能にし、オブジェクト特有の基準およびテクスチャマップを作成するように背景からオブジェクトをセグメント化してもよい。
一実施形態では、ユーザが本システムを仕立て、本システムが意味情報を現実世界内のオブジェクトと関連付けることを可能にし得るように、本システムは、特定のオブジェクトの識別に関する入力についてユーザに問い合わせを行うように構成されてもよい(例えば、本システムは、「それはStarbucksのコーヒーカップですか?」等の質問をユーザに提示してもよい)。オントロジーは、世界からセグメント化されたオブジェクトが何を行うことができるか、それらがどのようにして挙動するか等に関する指針を提供してもよい。一実施形態では、本システムは、本システムへの特定のユーザ入力を促進するように、無線接続されたキーパッド、スマートフォンのキーパッドへの接続性、または同様のもののような仮想キーパッドまたは実際のキーパッドを特色としてもよい。
本システムは、基本要素(壁、窓、机の幾何学形状等)を、仮想現実または拡張現実において部屋に入る任意のユーザと共有するように構成されてもよく、一実施形態では、その個人のシステムは、特定の視点から画像を撮影し、それらをクラウドにアップロードするように構成される。次いで、クラウドは、古い一式のデータおよび新しい一式のデータと合わせられ、最適化ルーチンを作動させ、個々のオブジェクト上に存在する基準を確立することができる。
GPSおよび他の局在化情報が、そのような処理への入力として利用されてもよい。さらに、個人のオンラインカレンダーまたはFaceBookアカウント情報等の他のコンピューティングシステムおよびデータが、入力として利用されてもよい(例えば、一実施形態では、経時的に、所与の目的地におけるユーザの到着時間に対して準備ができるよう、情報がクラウドからユーザのローカルシステムに移動させられ得るように、クラウドおよび/またはローカルシステムは、航空券、日付、および目的地についてユーザのカレンダーの内容を分析するように構成されてもよい)。
一実施形態では、非統計的姿勢計算、セキュリティ/アクセス制御、特別な情報の伝達、空間的メッセージング、非統計的オブジェクト認識等とともに使用するために、QRコード(登録商標)および同様のもののようなタグが、世界に挿入されてもよい。
一実施形態では、クラウドリソースは、「渡すことが可能な世界」を参照して上記で説明されたように、ユーザ間で現実世界および仮想世界のデジタルモデルを渡すように構成されてもよく、モデルは、パラメータおよびテクスチャに基づいて個々のユーザによってレンダリングされる。これは、リアルタイムビデオの通過と比較して帯域幅を縮小し、光景の仮想視点のレンダリングを可能にし、何百万人以上ものユーザのそれぞれに、彼らが見る必要があるデータ(例えば、ビデオ)を送信することなく、何百万人以上ものユーザが1つの仮想集会に参加することを可能にする。なぜなら、彼らの視界は、ローカルコンピューティングリソースによってレンダリングされるからである。
仮想現実システム(「VRS」)は、カメラを使用したリアルタイムメトリックコンピュータビジョン、同時局在化およびマッピング技法、マップ、ならびにセンサ(例えば、ジャイロ、加速度計、コンパス、気圧計、GPS)、無線信号強度三角測量、信号飛行時間分析、LIDAR測距、RADAR測距、走行距離計測法、およびソーナー測距からのデータのうちの1つ以上を通して、ユーザ位置および視野(ともに「姿勢」として知られている)を登録するように構成されてもよい。ウェアラブルデバイスシステムは、同時にマッピングして配向するように構成されてもよい。例えば、未知の環境では、VRSは、環境に関する情報を収集し、ユーザ姿勢計算に好適な基準点、世界モデリングのための他の点、世界のテクスチャマップを提供するための画像を確認するように構成されてもよい。基準点は、姿勢を光学的に計算するために使用されてもよい。世界がさらに詳細にマッピングされるにつれて、より多くのオブジェクトがセグメント化され、各自のテクスチャマップを与えられてもよいが、世界は依然として好ましくは、低解像度テクスチャマップを用いた単純な多角形で低い空間解像度にて表現可能である。上記で論議されるもの等の他のセンサが、このモデリング努力を支援するために利用されてもよい。世界は、(視点、「監視」モード、ズーミング等を通して)移動すること、または別様により良好な視界を求めることが、クラウドリソースから高い解像度情報を要求するという点で、本質的にフラクタルであり得る。オブジェクトに近づくことにより、より高い解像度のデータを捕捉し、これは、クラウドに送信され得、クラウドは、新しいデータを計算し、かつ/または新しいデータを世界モデル内の間隙部位に挿入し得る。
図16を参照すると、ウェアラブルシステムは、画像情報を捕捉し、基準および認識された点(52)を抽出するように構成されてもよい。ウェアラブルローカルシステムは、以下で記述される姿勢計算技法のうちの1つを使用して、姿勢を計算してもよい。クラウド(54)は、より静的な3D背景から3Dオブジェクトをセグメント化するために画像および基準を使用するように構成されてもよく、画像は、オブジェクトおよび世界のテクスチャマップを提供する(テクスチャはリアルタイムビデオであってもよい)。クラウドリソース(56)は、世界の位置合わせのために静的な基準およびテクスチャを記憶し、利用可能にするように構成されてもよい。クラウドリソースは、位置合わせのための最適な点密度のために、点群を整えるように構成されてもよい。クラウドリソース(60)は、オブジェクトの位置合わせおよび操作のためにオブジェクト基準およびテクスチャを記憶し、利用可能にするように構成されてもよく、クラウドは、位置合わせのための最適な密度のために、点群を整えてもよい。クラウドリソースは、オブジェクトのフラクタルソリッドモデルを生成するために全ての有効な点およびテクスチャを使用するように構成されてもよく(62)、クラウドは、最適な基準密度のために、点群情報を整えてもよい。クラウドリソース(64)は、セグメント化されたオブジェクトおよび世界の識別に関する仕立てについてユーザに問い合わせるように構成されてもよく、オントロジーデータベースは、オブジェクトおよび世界に実施可能な性質を植え付けるために回答を使用してもよい。
以下の特定の位置合わせおよびマッピングモードは、光学システムまたはカメラシステムから決定される姿勢を表す「O姿勢」、センサ(すなわち、上記で論議されるように、GPS、ジャイロ、コンパス、加速度計等のデータの組み合わせ等)から決定される姿勢を表す「s姿勢」、ならびにクラウドコンピューティングおよびデータ管理リソースを表す「MLC」を特色とする。
1.配向:新しい環境の基本マップを作製する
目的:環境がマッピングされていない場合、またはMLCに接続されていない場合に姿勢(同用のもの)を確立する。
・画像から点を抽出し、フレームからフレームへ追跡し、S姿勢を使用して基準を三角測量する。
・基準がないため、S姿勢を使用する。
・持続性に基づいて、不良な基準を除外する。
・これは最も基本的なモードである。これは常に低精度の姿勢に作用する。わずかな時間およびいくらかの相対運動により、これはO姿勢および/またはマッピングのための最少基準組を確立する。
・姿勢が確実となるとすぐに、このモードから抜け出す。
2.マップおよびO姿勢:環境をマップする
目的:高精度の姿勢を確立し、環境をマッピングし、(画像を有する)マップをMLCに提供する。
・成熟世界基準からO姿勢を計算する。O姿勢解決のチェックとして、および計算を加速するためにS姿勢を使用する(O姿勢は非線形勾配検索である)。
・成熟基準は、MLCに由来するか、またはローカルに決定されるものであってもよい。
・画像から点を抽出し、フレームからフレームへ追跡し、O姿勢を使用して基準を三角測量する。
・持続性に基づいて、不良な基準を除外する。
・MLCに基準および姿勢タグ付け画像を提供する。
・最後の3つのステップはリアルタイムで起こる必要がない。
3.O姿勢:姿勢を決定する
目的:最小処理能力を使用して、すでにマッピングされた環境内で高精度の姿勢を確立する。
・nにおける姿勢を推定するために、過去のS姿勢およびO姿勢(n−1、n−2、n−3等)を使用する。
・基準をnで捕捉される画像に投影するためにnにおける姿勢を使用し、次いで、投影から画像マスクを作成する。
・マスクされた領域から点を抽出する(画像のマスクされたサブセットのみから点を検索/抽出することによって、処理負荷が大いに低減させられる)。
・抽出された点および成熟世界基準からO姿勢を計算する。
・n+1における姿勢を推定するために、nにおけるS姿勢およびO姿勢を使用する。
・オプション:姿勢タグ付け画像/ビデオをMLCクラウドに提供する。
4.超解像度:超解像度画像および基準を決定する
目的:超解像度画像および基準を作成する。
・超解像度画像を作成するように姿勢タグ付け画像を合成する。
・基準位置推定を増進するために超解像度画像を使用する。
・超解像度基準および画像からO姿勢推定を反復する。
・オプション:上記のステップを(リアルタイムで)ウェアラブルデバイスまたは(より良好な世界のために)MLC上でループする。
一実施形態では、VLSシステムは、特定の基礎機能性と、特定の特殊機能性を提供するようにVLSを通して配信され得る「アプリ」またはアプリケーションによって促進される機能性とを有するように構成されてもよい。例えば、以下のアプリが、特殊機能性を提供するように対象VLSにインストールされてもよい。
絵画調レンダリングアプリ。アーティストは、見ている世界を表す画像変換を作成する。ユーザが、これらの変換を有効にし、したがって、アーティストの眼を「通して」世界を視認する。
卓上モデリングアプリ。ユーザが、テーブルの上に置かれた物理的オブジェクトからオブジェクトを「構築」する。
仮想存在アプリ。ユーザは、他のユーザに空間の仮想モデルを渡し、他のユーザは、それから、仮想アバターを使用して空間を動き回る。
アバター感情アプリ。微妙な声の抑揚、軽微な頭部の動き、体温、心拍数等の測定値が、仮想存在アバターへの微妙な効果を動画化する。人間の状態情報をデジタル化し、それを遠隔アバターに渡すことは、ビデオよりも小さい帯域幅を使用する。加えて、そのようなデータは、感情のある、人間ではないアバターにマッピング可能である。例えば、犬のアバターは、興奮した声の抑揚に基づいて、尾を振ることによって興奮を示すことができる。
効率的なメッシュ型ネットワークが、全てをサーバに返送することとは対照的に、データを移動させるために望ましくあり得る。しかしながら、多くのメッシュネットワークは、位置情報およびトポロジーが良好に特徴付けられていないため、最適とは言えない性能を有する。一実施形態では、本システムは、比較的高い精度で全てのユーザの位置を決定するために利用されてもよく、したがって、メッシュネットワーク構成が、高い性能のために利用されてもよい。
一実施形態では、本システムは、検索に利用されてもよい。拡張現実を用いると、例えば、ユーザは、物理的世界の多くの側面に関係するコンテンツを生成して残す。このコンテンツの大部分はテキストではなく、したがって、典型的な方法によって容易に検索されない。本システムは、検索および参照目的でパーソナルおよびソーシャルネットワークコンテンツを追跡し続けるための設備を提供するように構成されてもよい。
一実施形態では、表示デバイスが連続フレームを通して2D点を追跡し、次いで、ベクトル値関数をこれらの点の時間発展に適合する場合、任意時点で(例えば、フレーム間で)、または(先にベクトル値関数を投影することによって)近未来の何らかの点で、ベクトル値関数をサンプリングすることが可能である。これは、高解像度後処理の作成、および次の画像が実際に捕捉される前に将来の姿勢の予測を可能にする(例えば、カメラフレームレートを2倍にすることなく、位置合わせ速度を2倍にすることが可能である)。
(頭部固定または世界固定のレンダリングとは対照的に)身体固定のレンダリングについては、身体の正確な表示が望ましい。一実施形態では、身体を測定するのではなく、ユーザの頭部の平均位置を通して、その場所を導出することが可能である。ユーザの顔がほとんどの時間に前方を向く場合、頭部位置の複数日平均が、その方向を明らかにする。重力ベクトルと併せて、これは、身体固定のレンダリングのための合理的に安定した座標系を提供する。この長期座標系に対する頭部位置の現在の尺度を使用することにより、余分な器具類を用いることなく、ユーザの身体の上/周囲のオブジェクトの一貫したレンダリングを可能にする。この実施形態の実装のために、頭部方向ベクトルの単一登録平均が開始されてもよく、デルタtによって分割されるデータの累計が、現在の平均頭部位置を与える。n−5日に始まった、n−4日、n−3日、n−2日、n−1日の、およそ5つの登録を保つことにより、過去の「n」日だけのローリング平均の使用を可能にする。
一実施形態では、光景が縮小され、実際よりも小さい空間内でユーザに提示されてもよい。例えば、巨大な空間(すなわち、サッカースタジアム等)でレンダリングされなければならない光景がある状況では、同等の巨大な空間が存在しない場合があり、またはそのような広い空間がユーザにとって不便であり得る。一実施形態では、本システムは、ユーザが縮小した光景を観察し得るように、光景の規模を縮小するように構成されてもよい。例えば、個人が、神の視点からのビデオゲーム、または世界チャンピオンシップサッカーの試合を、縮尺されていない競技場、または縮尺されてリビングルームの床に提示される競技場で再生させることができる。本システムは、視点、規模、および関連適応距離を単純にシフトするように構成されてもよい。
本システムはまた、仮想現実または拡張現実オブジェクトの焦点を操作することによって、それらを強調表示することによって、コントラスト、輝度、規模等を変更することによって、提示される光景内の特定のアイテムへユーザの注意を引くように構成されてもよい。
好ましくは、本システムは、以下のモードを達成するように構成されてもよい。
開放空間レンダリング:
・構造化環境から主要点を捉え、次いで、MLレンダリングを用いて間の空間を充填する。
・潜在的な会場:ステージ、出力空間、広い屋内空間(スタジアム)。
オブジェクトラッピング:
・現実世界における3Dオブジェクトを認識し、次いで、それらを拡張する。
・ここでの「認識」は、画像を結び付ける十分に高い精度で3Dブロブを識別することを意味する。
・2種類の認識がある。1)オブジェクトの種類(例えば、「顔」)を分類すること、2)オブジェクトの特定のインスタンス(例えば、Joe、個人)を分類すること。
・壁、天井、床、顔、道路、空、超高層ビル、ランチハウス、テーブル、椅子、車、道路標識、看板、ドア、窓、本棚等の種々のものについて、認識装置ソフトウェアオブジェクトを構築する。
・いくつかの認識装置は、I型であり、例えば、「私のビデオをその壁に置いてください」、「あれは犬です」等の一般機能性を有する。
・他の認識装置は、II型であり、例えば、「私のTVは天井から3.2フィート離れたリビングルームの壁にある」、「あれはFidoです」等、特定機能性を有する(これは一般認識装置のより有能なバージョンである)。
・ソフトウェアオブジェクトとして認識装置を構築することにより、機能性の定量解放、および体験のよりきめ細かい制御を可能にする。
身体を中心としたレンダリング
・ユーザ身体に固定された仮想オブジェクトをレンダリングする。
・デジタルツールベルト等のいくつかのものがユーザの身体の周囲を浮遊するはずである。
・これは、頭部だけでなく、身体がどこにあるかを把握することを必要とする。ユーザの頭部位置(頭部は通常、地面と平行に前方を向く)の長期平均をとることによって、合理的に正確なしたい位置を取得してもよい。
・簡単な例は、頭部の周囲を浮遊するオブジェクトである。
透明性/破断図
・II型認識オブジェクトについては、破断図を示す。
・II型認識オブジェクトを3Dモデルのオンラインデータベースにリンクする。
・車および公共設備等の一般的に利用可能な3Dモデルを有するオブジェクトから開始するはずである。
仮想存在
・遠隔の人々のアバターを開放空間の中へ描く。
○「解放空間レンダリング」(上記)のサブセット。
○ユーザがローカル環境の大まかな幾何学形状を作成し、幾何学形状およびテクスチャマップの両方を他者に反復して送信する。
○ユーザは、他者が自分の環境に入るための許可を与えなければならない。
○微妙な声のキュー、手の追跡、および頭部運動が遠隔アバターに送信される。アバターは、これらのファジー入力から動画化される。
○上記が帯域幅を最小限化する。
・壁に別の部屋への「入口」を作製する
○他の方法と同様に、幾何学形状およびテクスチャマップを渡す。
○ローカルの部屋の中でアバターを示す代わりに、認識されたオブジェクト(例えば、壁)を他者の環境への入口として指定する。このようにして、複数の人々が各自の部屋の中に座り、壁を「通して」他者の環境を見ることができる。
仮想視点
・一群のカメラ(人々)が異なる視点から光景を視認するときに、領域の高密度デジタルモデルが作成される。この豊富なデジタルモデルは、少なくとも1つのカメラが見ることができる、任意の有利な点からレンダリング可能である。
・例。結婚式での人々。光景が全ての出席者によって合同でモデル化される。認識装置が移動オブジェクトとは別に静止オブジェクトを区別し、テクスチャマップ作製する(例えば、壁は安定したテクスチャマップを有し、人々はより高い周波数の移動テクスチャマップを有する)。
・豊富なデジタルモデルがリアルタイムで更新されると、光景は任意の視点からレンダリング可能である。後方の出席者は、より良い視界のために前列まで空中を飛ぶことができる。
・出席者は、自分の移動するアバターを示すか、または自分の視点を隠すことができる。
・敷地外の出席者は、自分のアバターを用いて、または主催者が許可すれば不可視的に、「席」を見つけることができる。
・極めて高い帯域幅を必要とする可能性が高い。概念上、高周波数データが、高速ローカル無線上で群集にストリーム配信される。低周波数データはMLCに由来する。
・全ての出席者が高精度位置情報を有するため、ローカルネットワーキングのための最適なルーティング経路を作製することは自明である。
メッセージング
・単純な無音メッセージングが望ましくあり得る。
・この用途および他の用途のために、指コーディングキーボードを有することが望ましくあり得る。
・触知グラブ解決策が増進した性能を提供してもよい。
完全仮想現実(VR):
・ビジョンシステムが暗くなると、現実世界に重なり合わない視界を示す。
・位置合わせシステムが、依然として頭部位置を追跡するために必要である。
・「カウチモード」は、ユーザが飛ぶことを可能にする。
・ユーザが現実世界と衝突しないように、「歩行モード」が現実世界でのオブジェクトを仮想のものとして再レンダリングする。
・身体部分をレンダリングすることは、虚構を信じることに不可欠である。これは、視野内の身体部分を追跡してレンダリングするための方法を有することを示唆する。
・非透視バイザは、直接オーバーレイで可能ではない多くの画像品質向上利点を有するVRの形態である。
・おそらく、後方を見る能力さえもある、広い視野。
・種々の形態の「超視界」:望遠鏡、透視、赤外線、神の視点等。
一実施形態では、仮想ユーザ体験および/または拡張ユーザ体験のためのシステムは、関連ソフトウェアモジュールによって行われるような声の抑揚分析および顔認識分析等のソースからの入力を有するウェアラブルデバイス上のデータに少なくとも部分的に基づいて、ユーザと関連付けられた遠隔アバターが動画化され得るように、構成される。例えば、再び図12を参照すると、ハチのアバター(2)は、ユーザの顔の笑顔の顔認識に基づいて、またはユーザからローカルに音声サンプルを捕捉し得るマイクロホンへの音声入力を分析するように構成されたソフトウェアによって決定されるような、親しみやすい声の調子あるいは口調に基づいて、親しみやすく笑うように動画化されてもよい。さらに、アバターキャラクタは、アバターが特定の感情を表現するであろう様式で動画化されてもよい。例えば、アバターが犬である実施形態では、人間のユーザにローカルであるシステムによって検出される幸せそうな笑顔または口調は、犬のアバターが尾を振ることとしてアバターで表現されてもよい。
本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これらの実施例が参照される。それらは、本発明のより広くて利用可能な側面を例証するように提供される。種々の変更が、説明される本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同様のものが置換されてもよい。加えて、特定の状況、材料、物質組成、プロセス、プロセス行為、またはステップを本発明の目的、精神、または範囲に適合させるように、多くの修正が行われてもよい。さらに、当業者によって理解されるように、本明細書で説明および例証される個々の変形例のそれぞれは、本発明の範囲からも精神からも逸脱することなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、またはそれらと組み合わせられ得る、別個の構成要素および特徴を有する。全てのそのような修正は、本開示と関連付けられる特許請求の範囲内にあることを意図としている。
本発明は、対象デバイスを使用して行われ得る方法を含む。本方法は、そのような好適なデバイスを提供するという行為を含んでもよい。そのような提供は、エンドユーザによって行われてもよい。換言すれば、「提供する」行為は、エンドユーザが、対象方法において必須デバイスを提供するように、取得し、アクセスし、接近し、位置決めし、設定し、起動し、電源を入れ、または別様に作用することを、単に要求する。本明細書で記載される方法は、事象の記載された順番のみならず、論理的に可能である記載された事象の任意の順番で実行されてもよい。
本発明の例示的側面が、材料選択および製造に関する詳細とともに、上記で記載されている。本発明の他の詳細に関しては、これらは、上記で参照された特許および刊行物と関連して理解されるとともに、概して、当業者によって公知であり、または理解され得る。一般的または論理的に採用されるような付加的な行為の観点から、本発明の方法ベースの側面に関して、同じことが当てはまり得る。
加えて、本発明は、種々の特徴を必要に応じて組み込むいくつかの実施例を参照して説明されているが、本発明は、本発明の各変形例に関して想定されるように、説明および指示されるものに限定されるものではない。種々の変更が、説明された本発明に行われてもよく、本発明の真の精神および範囲から逸脱することなく、同等物が(本明細書に記載されようと、いくらか簡単にするために含まれていなかろうと)置換されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任意の他の規定値または介在値が、本発明内に包含されることを理解されたい。
また、説明される本発明の変形例の任意の必要に応じた特徴が、独立して、または本明細書で説明される特徴のうちのいずれか1つ以上と組み合わせて、記載および請求されてもよいことが想定される。単数形のアイテムへの参照は、複数の同一のアイテムが存在するという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる特許請求の範囲で使用される場合、「1つの」(「a」、「an」)、「前記(said)」、および該(「the」)という単数形は、特に規定がない限り、複数形の指示対象を含む。換言すれば、冠詞の使用は、上記の説明ならびに本開示と関連付けられる特許請求の範囲において、対象アイテムの「少なくとも1つ」を可能にする。さらに、そのような特許請求の範囲は、任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、この記述は、特許請求の範囲の要素の記載と関連して、「単に」、「のみ」、および同様のもののような排他的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすことを目的としている。
そのような排他的用語を使用することなく、本開示と関連付けられる特許請求の範囲における「備える」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかにかかわらず、任意の付加的な要素を含むことを可能にするものとする。本明細書で具体的に定義される場合を除いて、本明細書で使用される全ての技術および化学用語は、特許請求の範囲の有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるものである。
本発明の幅は、提供される実施例および/または対象の明細書に限定されるものではなく、むしろ、本開示と関連付けられる特許請求の範囲の言葉の範囲のみによって限定されるものである。

Claims (18)

  1. 2人またはそれより多いユーザが仮想世界データを含む仮想世界内において相互作用することを可能にするためのシステムであって、前記システムは、
    1つまたは複数のコンピューティングデバイスを備えるコンピュータネットワークであって、前記1つまたは複数のコンピューティングデバイスは、メモリと、処理回路と、前記メモリに少なくとも部分的に記憶され、前記仮想世界データの少なくとも一部分を処理するように前記処理回路によって実行可能であるソフトウェアとを備える、コンピュータネットワーク
    を備え、前記仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、前記コンピュータネットワークは、第2のユーザに提示するために前記第1の部分をユーザデバイスに伝送するように動作可能であり、それによって、前記第2のユーザは、前記第2のユーザの位置から第1の部分を体験することもあり、前記第1のユーザ仮想世界の側面が前記第2のユーザに効果的に渡される、システム。
  2. 前記第1のユーザおよび第2のユーザは、異なる物理的位置にいる、請求項1に記載のシステム。
  3. 前記第1のユーザおよび第2のユーザは、実質的に同一の物理的位置にいる、請求項1に記載のシステム。
  4. 前記仮想世界の少なくとも一部分は、前記仮想世界データの変化に応答して、変化する、請求項1に記載のシステム。
  5. 前記仮想世界の少なくとも一部分は、前記ユーザデバイスによって感知された物理的オブジェクトに応答して、変化する、請求項1に記載のシステム。
  6. 前記仮想世界データにおける変化は、前記物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表す、請求項5に記載のシステム。
  7. 前記仮想世界データにおける変化は、前記所定の関係に従って、前記第2のユーザに提示するために第2のユーザデバイスに提示される、請求項6に記載のシステム。
  8. 前記仮想世界は、前記コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能である、請求項1に記載のシステム。
  9. 前記仮想世界は、2次元形式で提示される、請求項1に記載のシステム。
  10. 前記仮想世界は、3次元形式で提示される、請求項1に記載のシステム。
  11. 前記ユーザデバイスは、拡張現実モードにおいて、ユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、請求項1に記載のシステム。
  12. 前記ユーザデバイスは、仮想現実モードにおいて、ユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、請求項1に記載のシステム。
  13. 前記ユーザデバイスは、拡張現実モードと仮想現実モードとの組み合わせにおいて、ユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、請求項11に記載のシステム。
  14. 前記仮想世界データは、データネットワーク上で伝送される、請求項1に記載のシステム。
  15. 前記コンピュータネットワークは、ユーザデバイスから前記仮想世界データの少なくとも一部分を受信するように動作可能である、請求項1に記載のシステム。
  16. 前記ユーザデバイスに伝送される前記仮想世界データの少なくとも一部分は、前記仮想世界の少なくとも一部分を生成するための命令を備える、請求項1に記載のシステム。
  17. 前記仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送される、請求項1に記載のシステム。
  18. 前記1つまたは複数のコンピュータサーバのうちの少なくとも1つは、前記ゲートウェイによって配信される仮想世界データを処理するように動作可能である、請求項17に記載のシステム。
JP2014539132A 2011-10-28 2012-10-29 拡張現実および仮想現実のためのシステムおよび方法 Active JP6110866B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161552941P 2011-10-28 2011-10-28
US61/552,941 2011-10-28
PCT/US2012/062500 WO2013085639A1 (en) 2011-10-28 2012-10-29 System and method for augmented and virtual reality

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017006418A Division JP6345282B2 (ja) 2011-10-28 2017-01-18 拡張現実および仮想現実のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2015503141A true JP2015503141A (ja) 2015-01-29
JP6110866B2 JP6110866B2 (ja) 2017-04-05

Family

ID=48224484

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2014539132A Active JP6110866B2 (ja) 2011-10-28 2012-10-29 拡張現実および仮想現実のためのシステムおよび方法
JP2017006418A Active JP6345282B2 (ja) 2011-10-28 2017-01-18 拡張現実および仮想現実のためのシステムおよび方法
JP2018078515A Active JP6657289B2 (ja) 2011-10-28 2018-04-16 拡張現実および仮想現実のためのシステムおよび方法
JP2019170240A Active JP6792039B2 (ja) 2011-10-28 2019-09-19 拡張現実および仮想現実のためのシステムおよび方法
JP2020185126A Active JP7246352B2 (ja) 2011-10-28 2020-11-05 拡張現実および仮想現実のためのシステムおよび方法
JP2021215381A Active JP7348261B2 (ja) 2011-10-28 2021-12-29 拡張現実および仮想現実のためのシステムおよび方法
JP2023145375A Pending JP2023171762A (ja) 2011-10-28 2023-09-07 拡張現実および仮想現実のためのシステムおよび方法

Family Applications After (6)

Application Number Title Priority Date Filing Date
JP2017006418A Active JP6345282B2 (ja) 2011-10-28 2017-01-18 拡張現実および仮想現実のためのシステムおよび方法
JP2018078515A Active JP6657289B2 (ja) 2011-10-28 2018-04-16 拡張現実および仮想現実のためのシステムおよび方法
JP2019170240A Active JP6792039B2 (ja) 2011-10-28 2019-09-19 拡張現実および仮想現実のためのシステムおよび方法
JP2020185126A Active JP7246352B2 (ja) 2011-10-28 2020-11-05 拡張現実および仮想現実のためのシステムおよび方法
JP2021215381A Active JP7348261B2 (ja) 2011-10-28 2021-12-29 拡張現実および仮想現実のためのシステムおよび方法
JP2023145375A Pending JP2023171762A (ja) 2011-10-28 2023-09-07 拡張現実および仮想現実のためのシステムおよび方法

Country Status (12)

Country Link
US (14) US9215293B2 (ja)
EP (6) EP3258671B1 (ja)
JP (7) JP6110866B2 (ja)
KR (4) KR102005106B1 (ja)
CN (2) CN104011788B (ja)
AU (6) AU2012348348B2 (ja)
BR (1) BR112014010230A8 (ja)
CA (4) CA3048647C (ja)
IL (5) IL232281B (ja)
IN (1) IN2014CN03300A (ja)
RU (2) RU2017115669A (ja)
WO (1) WO2013085639A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
WO2016203792A1 (ja) * 2015-06-15 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017059891A (ja) * 2015-09-14 2017-03-23 ミライアプリ株式会社 状態特定プログラム、状態特定装置、ウェアラブルデバイス及び管理装置
JP2017199106A (ja) * 2016-04-26 2017-11-02 日本電信電話株式会社 仮想環境構築装置、仮想環境構築方法、プログラム
JP2018511122A (ja) * 2015-03-05 2018-04-19 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
CN108292040A (zh) * 2015-09-30 2018-07-17 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
JP2018529167A (ja) * 2015-09-16 2018-10-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. オーディオファイルの頭部姿勢ミキシング
JP2018534687A (ja) * 2015-10-20 2018-11-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元空間内の仮想オブジェクトの選択
JP2019517049A (ja) * 2016-03-31 2019-06-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP2020509492A (ja) * 2017-02-28 2020-03-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実デバイスにおける仮想および実オブジェクトの記録
WO2020262261A1 (ja) * 2019-06-28 2020-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2021036424A (ja) * 2019-08-20 2021-03-04 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル デジタルリアリティ内でのインタラクションレベルに基づく遠隔測定および追跡のためのシステムおよび方法
JP2022062039A (ja) * 2016-10-18 2022-04-19 ヴァーチャリー ライヴ (スウィッツァランド) ジーエムビーエイチ Hmd配信システム

Families Citing this family (758)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
GB0522968D0 (en) 2005-11-11 2005-12-21 Popovich Milan M Holographic illumination device
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
US9370704B2 (en) * 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
US9812096B2 (en) 2008-01-23 2017-11-07 Spy Eye, Llc Eye mounted displays and systems using eye mounted displays
US11726332B2 (en) 2009-04-27 2023-08-15 Digilens Inc. Diffractive projection apparatus
US9335604B2 (en) 2013-12-11 2016-05-10 Milan Momcilo Popovich Holographic waveguide display
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8694553B2 (en) * 2010-06-07 2014-04-08 Gary Stephen Shuster Creation and use of virtual places
US9274349B2 (en) 2011-04-07 2016-03-01 Digilens Inc. Laser despeckler based on angular diversity
WO2016020630A2 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Waveguide laser illuminator incorporating a despeckler
US10670876B2 (en) 2011-08-24 2020-06-02 Digilens Inc. Waveguide laser illuminator incorporating a despeckler
WO2013027004A1 (en) 2011-08-24 2013-02-28 Milan Momcilo Popovich Wearable data display
RU2017115669A (ru) 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US9462210B2 (en) 2011-11-04 2016-10-04 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device
US20150010265A1 (en) 2012-01-06 2015-01-08 Milan, Momcilo POPOVICH Contact image sensor using switchable bragg gratings
US8692840B2 (en) * 2012-02-05 2014-04-08 Mitsubishi Electric Research Laboratories, Inc. Method for modeling and estimating rendering errors in virtual images
US9171209B2 (en) 2012-02-23 2015-10-27 Tyco Electronics Uk Infrastructure Limited Overlay-based asset location and identification system
US9170648B2 (en) * 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
CN103562802B (zh) 2012-04-25 2016-08-17 罗克韦尔柯林斯公司 全息广角显示器
WO2013167864A1 (en) 2012-05-11 2013-11-14 Milan Momcilo Popovich Apparatus for eye tracking
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9129404B1 (en) * 2012-09-13 2015-09-08 Amazon Technologies, Inc. Measuring physical objects and presenting virtual articles
JP5787099B2 (ja) * 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
US20140128161A1 (en) * 2012-11-06 2014-05-08 Stephen Latta Cross-platform augmented reality experience
US8764532B1 (en) 2012-11-07 2014-07-01 Bertec Corporation System and method for fall and/or concussion prediction
US11270498B2 (en) * 2012-11-12 2022-03-08 Sony Interactive Entertainment Inc. Real world acoustic and lighting modeling for improved immersion in virtual reality and augmented reality environments
US9933684B2 (en) * 2012-11-16 2018-04-03 Rockwell Collins, Inc. Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20140198130A1 (en) * 2013-01-15 2014-07-17 Immersion Corporation Augmented reality user interface with haptic feedback
US11540744B1 (en) 2013-01-19 2023-01-03 Bertec Corporation Force measurement system
US10856796B1 (en) 2013-01-19 2020-12-08 Bertec Corporation Force measurement system
US9081436B1 (en) 2013-01-19 2015-07-14 Bertec Corporation Force and/or motion measurement system and a method of testing a subject using the same
US11052288B1 (en) 2013-01-19 2021-07-06 Bertec Corporation Force measurement system
US8847989B1 (en) * 2013-01-19 2014-09-30 Bertec Corporation Force and/or motion measurement system and a method for training a subject using the same
US8704855B1 (en) * 2013-01-19 2014-04-22 Bertec Corporation Force measurement system having a displaceable force measurement assembly
US9526443B1 (en) * 2013-01-19 2016-12-27 Bertec Corporation Force and/or motion measurement system and a method of testing a subject
US10010286B1 (en) 2013-01-19 2018-07-03 Bertec Corporation Force measurement system
US11857331B1 (en) 2013-01-19 2024-01-02 Bertec Corporation Force measurement system
US10413230B1 (en) 2013-01-19 2019-09-17 Bertec Corporation Force measurement system
US11311209B1 (en) 2013-01-19 2022-04-26 Bertec Corporation Force measurement system and a motion base used therein
US10646153B1 (en) 2013-01-19 2020-05-12 Bertec Corporation Force measurement system
US9770203B1 (en) 2013-01-19 2017-09-26 Bertec Corporation Force measurement system and a method of testing a subject
US10231662B1 (en) 2013-01-19 2019-03-19 Bertec Corporation Force measurement system
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
CN104937641A (zh) * 2013-02-01 2015-09-23 索尼公司 信息处理装置、客户端装置、信息处理方法以及程序
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
AU2014236718B2 (en) 2013-03-14 2018-07-05 Sri International Compact robotic wrist
US11181740B1 (en) 2013-03-15 2021-11-23 Percept Technologies Inc Digital eyewear procedures related to dry eyes
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
KR102458124B1 (ko) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
EP2967521B1 (en) 2013-03-15 2019-12-25 SRI International Electromechanical surgical system
US10209517B2 (en) 2013-05-20 2019-02-19 Digilens, Inc. Holographic waveguide eye tracker
US9764229B2 (en) 2013-05-23 2017-09-19 Disney Enterprises, Inc. Unlocking of digital content based on geo-location of objects
US9977256B2 (en) * 2013-05-30 2018-05-22 Johnson & Johnson Vision Care, Inc. Methods for manufacturing and programming an energizable ophthalmic lens with a programmable media insert
JP6179592B2 (ja) * 2013-05-31 2017-08-16 日本電気株式会社 画像認識装置、その処理方法、およびプログラム
US9685003B2 (en) * 2013-06-03 2017-06-20 Microsoft Technology Licensing, Llc Mixed reality data collaboration
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
KR102098277B1 (ko) 2013-06-11 2020-04-07 삼성전자주식회사 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US10175483B2 (en) * 2013-06-18 2019-01-08 Microsoft Technology Licensing, Llc Hybrid world/body locked HUD on an HMD
US9440143B2 (en) 2013-07-02 2016-09-13 Kabam, Inc. System and method for determining in-game capabilities based on device information
US9014639B2 (en) * 2013-07-11 2015-04-21 Johnson & Johnson Vision Care, Inc. Methods of using and smartphone event notification utilizing an energizable ophthalmic lens with a smartphone event indicator mechanism
US9952042B2 (en) 2013-07-12 2018-04-24 Magic Leap, Inc. Method and system for identifying a user location
US9727772B2 (en) 2013-07-31 2017-08-08 Digilens, Inc. Method and apparatus for contact image sensing
US9415306B1 (en) 2013-08-12 2016-08-16 Kabam, Inc. Clients communicate input technique to server
US9656172B2 (en) * 2013-08-16 2017-05-23 Disney Enterprises, Inc. Unlocking of virtual content through geo-location
US9466266B2 (en) 2013-08-28 2016-10-11 Qualcomm Incorporated Dynamic display markers
KR101873127B1 (ko) * 2013-09-30 2018-06-29 피씨엠에스 홀딩스, 인크. 증강 현실 디스플레이 및/또는 사용자 인터페이스를 제공하기 위한 방법, 장치, 시스템, 디바이스, 및 컴퓨터 프로그램 제품
US10027731B2 (en) 2013-10-25 2018-07-17 Louis Gurtowski Selective capture with rapid sharing of user computer or mixed reality actions, states using interactive virtual streaming
US11165842B2 (en) 2013-10-25 2021-11-02 Louis Gurtowski Selective capture with rapid sharing of user or mixed reality actions and states using interactive virtual streaming
US9704295B2 (en) * 2013-11-05 2017-07-11 Microsoft Technology Licensing, Llc Construction of synthetic augmented reality environment
US9623322B1 (en) 2013-11-19 2017-04-18 Kabam, Inc. System and method of displaying device information for party formation
WO2015080773A1 (en) 2013-11-30 2015-06-04 Empire Technology Development Llc Augmented reality objects based on biometric feedback
US9295916B1 (en) 2013-12-16 2016-03-29 Kabam, Inc. System and method for providing recommendations for in-game events
US20160320833A1 (en) * 2013-12-18 2016-11-03 Joseph Schuman Location-based system for sharing augmented reality content
EP2886171A1 (en) * 2013-12-18 2015-06-24 Microsoft Technology Licensing, LLC Cross-platform augmented reality experience
WO2015102464A1 (ko) * 2014-01-06 2015-07-09 삼성전자 주식회사 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법
KR102355118B1 (ko) 2014-01-06 2022-01-26 삼성전자주식회사 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법
US9993335B2 (en) 2014-01-08 2018-06-12 Spy Eye, Llc Variable resolution eye mounted displays
US10983805B2 (en) * 2014-02-21 2021-04-20 Nod, Inc. Contextual keyboard located on a remote server for implementation on any content delivery and interaction application
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
US10430985B2 (en) 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US9677840B2 (en) * 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US9536352B2 (en) * 2014-03-27 2017-01-03 Intel Corporation Imitating physical subjects in photos and videos with augmented reality virtual objects
WO2015161307A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015164373A1 (en) * 2014-04-23 2015-10-29 Raytheon Company Systems and methods for context based information delivery using augmented reality
US9672416B2 (en) 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US9430038B2 (en) * 2014-05-01 2016-08-30 Microsoft Technology Licensing, Llc World-locked display quality feedback
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
WO2015171887A1 (en) * 2014-05-07 2015-11-12 Tyco Electronics Corporation Hands-free asset identification, location and management system
CA2891742C (en) * 2014-05-15 2023-11-28 Tyco Safety Products Canada Ltd. System and method for processing control commands in a voice interactive system
US10600245B1 (en) 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
WO2015185110A1 (en) * 2014-06-03 2015-12-10 Metaio Gmbh Method and system for presenting a digital information related to a real object
US10055876B2 (en) * 2014-06-06 2018-08-21 Matterport, Inc. Optimal texture memory allocation
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN112651288B (zh) * 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和系统
US10248992B2 (en) 2014-07-26 2019-04-02 Audi Ag Presentation device for carrying out a product presentation
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
WO2016020632A1 (en) 2014-08-08 2016-02-11 Milan Momcilo Popovich Method for holographic mastering and replication
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
WO2016032807A1 (en) 2014-08-25 2016-03-03 Google Inc. Methods and systems for augmented reality to display virtual representations of robotic device actions
JP6467698B2 (ja) * 2014-08-28 2019-02-13 学校法人立命館 野球の打撃練習支援システム
WO2016038615A1 (en) * 2014-09-11 2016-03-17 Selaflex Ltd An apparatus and method for displaying an output from a display
US10241330B2 (en) 2014-09-19 2019-03-26 Digilens, Inc. Method and apparatus for generating input images for holographic waveguide displays
EP3198192A1 (en) 2014-09-26 2017-08-02 Milan Momcilo Popovich Holographic waveguide opticaltracker
WO2016054079A1 (en) 2014-09-29 2016-04-07 Zyomed Corp. Systems and methods for blood glucose and other analyte detection and measurement using collision computing
KR102295496B1 (ko) 2014-09-29 2021-09-01 매직 립, 인코포레이티드 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
CN105892620A (zh) * 2014-10-28 2016-08-24 贵州师范学院 一种基于Kinect的体感遥控智能小汽车的方法
JP6551417B2 (ja) * 2014-11-12 2019-07-31 富士通株式会社 ウェアラブルデバイス、表示制御方法、及び表示制御プログラム
CN104391574A (zh) * 2014-11-14 2015-03-04 京东方科技集团股份有限公司 视线处理方法、系统、终端设备及穿戴式设备
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US20170072316A1 (en) * 2014-11-16 2017-03-16 Astral Vision Ltd. System and method for providing an alternate reality ride experience
US11250630B2 (en) 2014-11-18 2022-02-15 Hallmark Cards, Incorporated Immersive story creation
TWI621097B (zh) * 2014-11-20 2018-04-11 財團法人資訊工業策進會 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體
US10235714B2 (en) * 2014-12-01 2019-03-19 Verizon Patent And Licensing Inc. Customized virtual reality user environment control
US20160195923A1 (en) * 2014-12-26 2016-07-07 Krush Technologies, Llc Gyroscopic chair for virtual reality simulation
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
CN107873086B (zh) 2015-01-12 2020-03-20 迪吉伦斯公司 环境隔离的波导显示器
WO2016113533A2 (en) 2015-01-12 2016-07-21 Milan Momcilo Popovich Holographic waveguide light field displays
CN107533137A (zh) 2015-01-20 2018-01-02 迪吉伦斯公司 全息波导激光雷达
US10726625B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for improving the transmission and processing of data regarding a multi-user virtual environment
US9852546B2 (en) 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US10725297B2 (en) 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US9779512B2 (en) * 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials
CN104759015A (zh) * 2015-02-11 2015-07-08 北京市朝阳区新希望自闭症支援中心 基于计算机控制的视觉训练系统
US9632226B2 (en) 2015-02-12 2017-04-25 Digilens Inc. Waveguide grating device
US11468639B2 (en) * 2015-02-20 2022-10-11 Microsoft Technology Licensing, Llc Selective occlusion system for augmented reality devices
TWI567670B (zh) * 2015-02-26 2017-01-21 宅妝股份有限公司 切換虛擬實境模式與擴增實境模式的管理方法以及系統
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10684485B2 (en) 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10088895B2 (en) 2015-03-08 2018-10-02 Bent Reality Labs, LLC Systems and processes for providing virtual sexual experiences
WO2016146963A1 (en) 2015-03-16 2016-09-22 Popovich, Milan, Momcilo Waveguide device incorporating a light pipe
NZ773826A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
US10296086B2 (en) * 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
US10591756B2 (en) 2015-03-31 2020-03-17 Digilens Inc. Method and apparatus for contact image sensing
US11416805B1 (en) * 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US10853757B1 (en) 2015-04-06 2020-12-01 Position Imaging, Inc. Video for real-time confirmation in package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
JP6433844B2 (ja) * 2015-04-09 2018-12-05 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、中継装置、情報処理システム、およびソフトウェアアップデート方法
KR102063895B1 (ko) 2015-04-20 2020-01-08 삼성전자주식회사 서버, 사용자 단말 장치 및 그 제어 방법
KR102313485B1 (ko) * 2015-04-22 2021-10-15 삼성전자주식회사 가상현실 스트리밍 서비스를 위한 영상 데이터를 송수신하는 방법 및 장치
US9958903B2 (en) * 2015-04-29 2018-05-01 Sony Mobile Communications Inc. Providing a representation of orientation and movement of an item being moved in space
KR102236958B1 (ko) 2015-04-30 2021-04-05 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
KR102327044B1 (ko) 2015-04-30 2021-11-15 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
US10139916B2 (en) 2015-04-30 2018-11-27 Google Llc Wide-field radar-based gesture recognition
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
CN105739106B (zh) * 2015-06-12 2019-07-09 南京航空航天大学 一种体感多视点大尺寸光场真三维显示装置及方法
KR20230025933A (ko) 2015-06-15 2023-02-23 매직 립, 인코포레이티드 멀티플렉싱된 광 스트림들을 인-커플링하기 위한 광학 엘리먼트들을 가진 디스플레이 시스템
US9977493B2 (en) * 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム
EP3112991B1 (en) * 2015-07-01 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for context based application grouping in virtual reality
US10799792B2 (en) * 2015-07-23 2020-10-13 At&T Intellectual Property I, L.P. Coordinating multiple virtual environments
CN108025445A (zh) 2015-07-23 2018-05-11 斯里国际 机器人臂及机器人手术系统
US9919427B1 (en) 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
US9916506B1 (en) 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality
WO2017019884A1 (en) * 2015-07-28 2017-02-02 Virtuix Holdings, Inc. System and method of soft decoupling an input
CN105117931A (zh) * 2015-07-30 2015-12-02 金华唯见科技有限公司 一种目标驱动虚拟现实生态系统
CN105183147A (zh) * 2015-08-03 2015-12-23 众景视界(北京)科技有限公司 头戴式智能设备及其建模三维虚拟肢体的方法
US10609438B2 (en) 2015-08-13 2020-03-31 International Business Machines Corporation Immersive cognitive reality system with real time surrounding media
EP3335418A1 (en) 2015-08-14 2018-06-20 PCMS Holdings, Inc. System and method for augmented reality multi-view telepresence
KR102511490B1 (ko) 2015-08-18 2023-03-16 매직 립, 인코포레이티드 가상 및 증강 현실 시스템들 및 방법들
AU2016310452B2 (en) 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
US10373392B2 (en) 2015-08-26 2019-08-06 Microsoft Technology Licensing, Llc Transitioning views of a virtual model
US10491711B2 (en) 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
JP6144738B2 (ja) * 2015-09-18 2017-06-07 株式会社スクウェア・エニックス ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法
CN118584664A (zh) 2015-09-23 2024-09-03 奇跃公司 采用离轴成像器的眼睛成像
JP6944441B2 (ja) * 2015-09-25 2021-10-06 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
US10690916B2 (en) 2015-10-05 2020-06-23 Digilens Inc. Apparatus for providing waveguide displays with two-dimensional pupil expansion
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
CN105214309B (zh) * 2015-10-10 2017-07-11 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CA3170014A1 (en) 2015-10-16 2017-04-20 Magic Leap, Inc. Eye pose identification using eye features
US10260864B2 (en) 2015-11-04 2019-04-16 Magic Leap, Inc. Dynamic display calibration based on eye-tracking
US11231544B2 (en) 2015-11-06 2022-01-25 Magic Leap, Inc. Metasurfaces for redirecting light and methods for fabricating
USD785656S1 (en) * 2015-11-24 2017-05-02 Meditech International Inc. Display screen or portion thereof with graphical user interface
CN106802712A (zh) * 2015-11-26 2017-06-06 英业达科技有限公司 交互式扩增实境系统
CN108604383A (zh) 2015-12-04 2018-09-28 奇跃公司 重新定位系统和方法
GB2545275A (en) * 2015-12-11 2017-06-14 Nokia Technologies Oy Causing provision of virtual reality content
US20170169613A1 (en) * 2015-12-15 2017-06-15 Lenovo (Singapore) Pte. Ltd. Displaying an object with modified render parameters
US10037085B2 (en) 2015-12-21 2018-07-31 Intel Corporation Techniques for real object and hand representation in virtual reality content
WO2017112013A1 (en) * 2015-12-22 2017-06-29 Google Inc. System and method for performing electronic display stabilization via retained lightfield rendering
US20170185261A1 (en) * 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
KR20230134159A (ko) 2016-01-07 2023-09-20 매직 립, 인코포레이티드 깊이 평면들에 걸쳐 분포된 동일하지 않은 수의 컴포넌트 컬러 이미지들을 갖는 가상 및 증강 현실 시스템들 및 방법들
WO2017127366A1 (en) 2016-01-19 2017-07-27 Magic Leap, Inc. Eye image collection, selection, and combination
JP6952713B2 (ja) 2016-01-19 2021-10-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
CN105759958A (zh) * 2016-01-27 2016-07-13 中国人民解放军信息工程大学 一种数据交互系统及方法
US10536690B2 (en) 2016-01-29 2020-01-14 Magic Leap, Inc. Display for three-dimensional image
US10120437B2 (en) * 2016-01-29 2018-11-06 Rovi Guides, Inc. Methods and systems for associating input schemes with physical world objects
US10983340B2 (en) 2016-02-04 2021-04-20 Digilens Inc. Holographic waveguide optical tracker
JP2019505926A (ja) * 2016-02-05 2019-02-28 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
US10083539B2 (en) * 2016-02-08 2018-09-25 Google Llc Control system for navigation in virtual reality environment
JP6991981B2 (ja) 2016-02-24 2022-01-13 マジック リープ, インコーポレイテッド 光エミッタのための薄型相互接続子
KR102682340B1 (ko) 2016-02-24 2024-07-04 매직 립, 인코포레이티드 낮은 광 누설을 가진 편광 빔 분할기 및 이를 포함하는 디스플레이 시스템
IL261148B2 (en) 2016-02-26 2023-12-01 Magic Leap Inc Light output system with reflector and lenses for high spatially uniform light output
US10775545B2 (en) 2016-02-26 2020-09-15 Magic Leap, Inc. Display system having a plurality of light pipes for a plurality of light emitters
AU2017227598B2 (en) 2016-03-01 2022-03-17 Magic Leap, Inc. Reflective switching device for inputting different wavelengths of light into waveguides
NZ745738A (en) 2016-03-04 2020-01-31 Magic Leap Inc Current drain reduction in ar/vr display systems
EP3427185B1 (en) 2016-03-07 2024-07-31 Magic Leap, Inc. Blue light adjustment for biometric security
CN109310476B (zh) 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
US10115234B2 (en) * 2016-03-21 2018-10-30 Accenture Global Solutions Limited Multiplatform based experience generation
US10867314B2 (en) 2016-03-22 2020-12-15 Magic Leap, Inc. Head mounted display system configured to exchange biometric information
EP3433659B1 (en) 2016-03-24 2024-10-23 DigiLens, Inc. Method and apparatus for providing a polarization selective holographic waveguide device
AU2017238847A1 (en) 2016-03-25 2018-10-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
US9554738B1 (en) 2016-03-30 2017-01-31 Zyomed Corp. Spectroscopic tomography systems and methods for noninvasive detection and measurement of analytes using collision computing
CN105892667B (zh) * 2016-03-31 2019-03-29 联想(北京)有限公司 一种虚拟现实场景下的信息处理方法和电子设备
US10762712B2 (en) 2016-04-01 2020-09-01 Pcms Holdings, Inc. Apparatus and method for supporting interactive augmented reality functionalities
CA3019946C (en) 2016-04-08 2023-02-28 Magic Leap, Inc. Augmented reality systems and methods with variable focus lens elements
WO2017177019A1 (en) * 2016-04-08 2017-10-12 Pcms Holdings, Inc. System and method for supporting synchronous and asynchronous augmented reality functionalities
JP6734933B2 (ja) 2016-04-11 2020-08-05 ディジレンズ インコーポレイテッド 構造化光投影のためのホログラフィック導波管装置
CN105903166B (zh) * 2016-04-18 2019-05-24 北京小鸟看看科技有限公司 一种3d在线运动竞技方法和系统
KR102548818B1 (ko) 2016-04-21 2023-06-28 매직 립, 인코포레이티드 시야 주위의 시각적 아우라
EP3236336B1 (en) * 2016-04-21 2019-03-27 Nokia Technologies Oy Virtual reality causal summary content
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
SG11201810432YA (en) * 2016-04-27 2018-12-28 Immersion Device and method for sharing an immersion in a virtual environment
US10257490B2 (en) * 2016-04-28 2019-04-09 Verizon Patent And Licensing Inc. Methods and systems for creating and providing a real-time volumetric representation of a real-world event
US10204444B2 (en) * 2016-04-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
US10250720B2 (en) 2016-05-05 2019-04-02 Google Llc Sharing in an augmented and/or virtual reality environment
CN113484944A (zh) 2016-05-06 2021-10-08 奇跃公司 具有用于重定向光的非对称光栅的超表面及其制造方法
CN115177208A (zh) 2016-05-09 2022-10-14 奇跃公司 用于用户健康分析的增强现实系统和方法
US9904058B2 (en) 2016-05-12 2018-02-27 Magic Leap, Inc. Distributed light manipulation over imaging waveguide
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
US10303323B2 (en) * 2016-05-18 2019-05-28 Meta Company System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
US9983697B1 (en) 2016-05-18 2018-05-29 Meta Company System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
WO2017200760A1 (en) * 2016-05-19 2017-11-23 Yudofsky Stuart Methods and devices for behavior modification
US11328484B2 (en) 2016-05-20 2022-05-10 Magic Leap, Inc. Contextual awareness of user interface menus
US10748339B2 (en) 2016-06-03 2020-08-18 A Big Chunk Of Mud Llc System and method for implementing computer-simulated reality interactions between users and publications
IL299710A (en) 2016-06-03 2023-03-01 Magic Leap Inc Identity verification in augmented reality
GB2551323B (en) * 2016-06-08 2021-02-10 Companion Ltd System providing a shared environment
CN106096540B (zh) * 2016-06-08 2020-07-24 联想(北京)有限公司 一种信息处理方法和电子设备
KR102448938B1 (ko) 2016-06-10 2022-09-28 매직 립, 인코포레이티드 텍스처 투사 전구용 적분 점광원
KR102362001B1 (ko) * 2016-06-16 2022-02-14 애플 인크. 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품
JP7385993B2 (ja) 2016-06-20 2023-11-24 マジック リープ, インコーポレイテッド 視覚的処理および知覚の疾患を含む神経学的疾患の評価および修正のための拡張現実ディスプレイシステム
US10037077B2 (en) 2016-06-21 2018-07-31 Disney Enterprises, Inc. Systems and methods of generating augmented reality experiences
NZ749449A (en) 2016-06-30 2023-06-30 Magic Leap Inc Estimating pose in 3d space
US10042604B2 (en) * 2016-07-01 2018-08-07 Metrik LLC Multi-dimensional reference element for mixed reality environments
JP6714791B2 (ja) * 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
KR102648770B1 (ko) 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
KR102442569B1 (ko) 2016-07-14 2022-09-08 매직 립, 인코포레이티드 각막 곡률을 이용한 홍채 경계 추정
KR20230133940A (ko) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
CN109788901B (zh) 2016-07-25 2024-01-02 奇跃公司 光场处理器系统
CA3032282A1 (en) 2016-07-29 2018-02-01 Magic Leap, Inc. Secure exchange of cryptographically signed records
US10249089B2 (en) 2016-08-01 2019-04-02 Dell Products, Lp System and method for representing remote participants to a meeting
US10649211B2 (en) 2016-08-02 2020-05-12 Magic Leap, Inc. Fixed-distance virtual and augmented reality systems and methods
US10169921B2 (en) * 2016-08-03 2019-01-01 Wipro Limited Systems and methods for augmented reality aware contents
US10089063B2 (en) * 2016-08-10 2018-10-02 Qualcomm Incorporated Multimedia device for processing spatialized audio based on movement
CA3033344A1 (en) 2016-08-11 2018-02-15 Magic Leap, Inc. Automatic placement of a virtual object in a three-dimensional space
TWI608383B (zh) * 2016-08-11 2017-12-11 拓景科技股份有限公司 虛擬實境環境中之導引產生方法及系統,及其相關電腦程式產品
CN117198277A (zh) 2016-08-12 2023-12-08 奇跃公司 单词流注释
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US10290151B2 (en) * 2016-08-17 2019-05-14 Blackberry Limited AR/VR device virtualisation
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
WO2018039076A1 (en) * 2016-08-22 2018-03-01 Vantedge Group, Llc Immersive and merged reality experience / environment and data capture via virtural, agumented, and mixed reality device
JP6813666B2 (ja) 2016-08-22 2021-01-13 マジック リープ, インコーポレイテッドMagic Leap,Inc. 多層回折接眼レンズ
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
CN106484099B (zh) * 2016-08-30 2022-03-08 广州大学 内容重放装置、具有该重放装置的处理系统及方法
US20180063205A1 (en) * 2016-08-30 2018-03-01 Augre Mixed Reality Technologies, Llc Mixed reality collaboration
US10773179B2 (en) 2016-09-08 2020-09-15 Blocks Rock Llc Method of and system for facilitating structured block play
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
AU2017328161B2 (en) 2016-09-13 2022-02-17 Magic Leap, Inc. Sensory eyewear
CN106249611A (zh) * 2016-09-14 2016-12-21 深圳众乐智府科技有限公司 一种基于虚拟现实的智能家居定位方法、装置和系统
CN106310660A (zh) * 2016-09-18 2017-01-11 三峡大学 一种基于力学可视化的虚拟足球运动控制系统
CN112987303A (zh) 2016-09-21 2021-06-18 奇跃公司 用于具有出瞳扩展器的光学系统的系统和方法
KR102266343B1 (ko) 2016-09-22 2021-06-17 매직 립, 인코포레이티드 증강 현실 분광기
KR20240011881A (ko) 2016-09-26 2024-01-26 매직 립, 인코포레이티드 가상 현실 또는 증강 현실 디스플레이 시스템에서 자기 및 광학 센서들의 교정
WO2018064169A1 (en) 2016-09-28 2018-04-05 Magic Leap, Inc. Face model capture by a wearable device
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
DE102016118647B4 (de) 2016-09-30 2018-12-06 Deutsche Telekom Ag Augmented-Reality-Kommunikationssystem und Augmented-Reality-Interaktionsvorrichtung
US10489680B2 (en) 2016-10-04 2019-11-26 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
IL295059A (en) 2016-10-05 2022-09-01 Magic Leap Inc A blind eye test for mixed reality calibration
US10192340B2 (en) 2016-10-14 2019-01-29 Unchartedvr Inc. Multiple participant virtual reality attraction
US10105619B2 (en) 2016-10-14 2018-10-23 Unchartedvr Inc. Modular solution for delivering a virtual reality attraction
US10514769B2 (en) * 2016-10-16 2019-12-24 Dell Products, L.P. Volumetric tracking for orthogonal displays in an electronic collaboration setting
KR102277438B1 (ko) * 2016-10-21 2021-07-14 삼성전자주식회사 단말 장치들 간의 멀티미디어 통신에 있어서, 오디오 신호를 송신하고 수신된 오디오 신호를 출력하는 방법 및 이를 수행하는 단말 장치
KR102603745B1 (ko) 2016-10-21 2023-11-17 매직 립, 인코포레이티드 다수의 동공내 시차 뷰들을 제공함으로써 다수의 깊이평면들 상에 이미지 콘텐츠를 제공하기 위한 시스템 및 방법
US9983665B2 (en) 2016-10-25 2018-05-29 Oculus Vr, Llc Position tracking system that exploits arbitrary configurations to determine loop closure
CN110084089A (zh) * 2016-10-26 2019-08-02 奥康科技有限公司 用于分析图像和提供反馈的可佩戴设备和方法
US10110871B2 (en) * 2016-10-31 2018-10-23 Disney Enterprises, Inc. Recording high fidelity digital immersive experiences through off-device computation
KR102217797B1 (ko) 2016-11-11 2021-02-18 매직 립, 인코포레이티드 전체 얼굴 이미지의 안구주위 및 오디오 합성
AU2017361061B2 (en) 2016-11-15 2022-02-03 Magic Leap, Inc. Deep learning system for cuboid detection
KR102595171B1 (ko) 2016-11-16 2023-10-26 매직 립, 인코포레이티드 웨어러블 컴포넌트들을 위한 열 관리 시스템들
CN110199220B (zh) 2016-11-18 2022-11-01 奇跃公司 使用交叉光栅的波导光复用器
AU2017361424B2 (en) 2016-11-18 2022-10-27 Magic Leap, Inc. Spatially variable liquid crystal diffraction gratings
US11067860B2 (en) 2016-11-18 2021-07-20 Magic Leap, Inc. Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same
JP7019695B2 (ja) 2016-11-18 2022-02-15 マジック リープ, インコーポレイテッド 広入射角範囲の光を再指向するための多層液晶回折格子
WO2018098436A1 (en) 2016-11-28 2018-05-31 Spy Eye, Llc Unobtrusive eye mounted display
US11602474B2 (en) 2016-11-28 2023-03-14 Verb Surgical Inc. Surgical table base with high stiffness and adjustable support members with force feedback
US11513350B2 (en) 2016-12-02 2022-11-29 Digilens Inc. Waveguide device with uniform output illumination
EP3549109B1 (en) 2016-12-05 2023-04-19 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
IL304304B2 (en) 2016-12-08 2024-08-01 Magic Leap Inc Light beam breaking devices based on cholesteric liquid crystal
EP3555865B1 (en) 2016-12-13 2024-09-18 Magic Leap, Inc. 3d object rendering using detected features
EP3555581B1 (en) 2016-12-13 2022-11-23 Magic Leap, Inc. Augmented and virtual reality eyewear for delivering polarized light and determing glucose levels
US10373385B2 (en) * 2016-12-14 2019-08-06 Microsoft Technology Licensing, Llc Subtractive rendering for augmented and virtual reality systems
CN110291453B (zh) 2016-12-14 2022-11-01 奇跃公司 使用具有表面对准图案的软压印复制对液晶图案化
CA3046662A1 (en) 2016-12-22 2018-06-28 Magic Leap, Inc. Systems and methods for manipulating light from ambient light sources
US10371896B2 (en) 2016-12-22 2019-08-06 Magic Leap, Inc. Color separation in planar waveguides using dichroic filters
US10746999B2 (en) 2016-12-28 2020-08-18 Magic Leap, Inc. Dual depth exit pupil expander
CN117251053A (zh) 2016-12-29 2023-12-19 奇跃公司 基于外部条件的可穿戴显示装置的自动控制
CN106792133A (zh) * 2016-12-30 2017-05-31 北京华为数字技术有限公司 虚拟现实服务器、视频数据传输方法及系统
US10545346B2 (en) 2017-01-05 2020-01-28 Digilens Inc. Wearable heads up displays
JP7071374B2 (ja) 2017-01-05 2022-05-18 マジック リープ, インコーポレイテッド プラズマエッチングによる高屈折率ガラスのパターン化
EP3568783A4 (en) 2017-01-11 2020-11-11 Magic Leap, Inc. MEDICAL ASSISTANT
WO2018132804A1 (en) 2017-01-16 2018-07-19 Lang Philipp K Optical guidance for surgical, medical, and dental procedures
CN106774942A (zh) * 2017-01-18 2017-05-31 华南理工大学 一种实时3d远程人机交互系统
CN108334377A (zh) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 一种头戴显示设备的用户使用进度控制方法
IL268135B2 (en) 2017-01-23 2024-03-01 Magic Leap Inc Eyepiece for virtual, augmented or mixed reality systems
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
IL307294A (en) 2017-01-27 2023-11-01 Magic Leap Inc Diffraction gratings produced using a surface cell with differently oriented nanobeams
WO2018140502A1 (en) 2017-01-27 2018-08-02 Magic Leap, Inc. Antireflection coatings for metasurfaces
US11740690B2 (en) 2017-01-27 2023-08-29 Qualcomm Incorporated Systems and methods for tracking a controller
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US11347054B2 (en) 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
IL307602A (en) 2017-02-23 2023-12-01 Magic Leap Inc Variable focus virtual imagers based on polarization conversion
KR102635437B1 (ko) 2017-02-28 2024-02-13 삼성전자주식회사 콘텐츠 공유 방법 및 이를 지원하는 전자 장치
WO2018165284A1 (en) 2017-03-07 2018-09-13 vSports, LLC Mixed reality sport simulation and training system
US10661149B2 (en) 2017-03-07 2020-05-26 vSports, LLC Mixed-reality sports tracking and simulation
WO2018165278A1 (en) 2017-03-07 2018-09-13 vGolf, LLC Mixed reality golf simulation and training system
US10409363B1 (en) 2017-03-07 2019-09-10 vGolf, LLC Mixed-reality golf tracking and simulation
US10525324B2 (en) 2017-03-07 2020-01-07 vSports, LLC Mixed-reality kick tracking and simulation
IL301886A (en) 2017-03-14 2023-06-01 Magic Leap Inc Waveguides with light absorbing layers and processes for their creation
AU2018233733B2 (en) 2017-03-17 2021-11-11 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US10657376B2 (en) 2017-03-17 2020-05-19 Magic Leap, Inc. Room layout estimation methods and techniques
EP3596705A4 (en) 2017-03-17 2020-01-22 Magic Leap, Inc. COLOR VIRTUAL CONTENT DEFORMATION MIXED REALITY SYSTEM AND VIRTUAL CONTENT GENERATION METHOD USING THE SAME
CA3054619C (en) 2017-03-17 2024-01-30 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
IL303471B2 (en) 2017-03-21 2024-08-01 Magic Leap Inc An eye imaging device that uses optical refractive elements
US11079603B2 (en) 2017-03-21 2021-08-03 Magic Leap, Inc. Display system with spatial light modulator illumination for divided pupils
WO2018175344A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Depth sensing techniques for virtual, augmented, and mixed reality systems
EP4246214A3 (en) 2017-03-21 2023-12-06 Magic Leap, Inc. Methods, devices, and systems for illuminating spatial light modulators
IL269085B2 (en) 2017-03-21 2023-12-01 Magic Leap Inc Stacked waveguides with different refractive gratings for an integrated field of view
KR20240069826A (ko) 2017-03-21 2024-05-20 매직 립, 인코포레이티드 저-프로파일 빔 스플리터
WO2018175625A1 (en) 2017-03-22 2018-09-27 Magic Leap, Inc. Depth based foveated rendering for display systems
KR102595762B1 (ko) 2017-03-22 2023-10-30 어 빅 청크 오브 머드 엘엘씨 통합형 헤드 장착 디스플레이를 구비한 전환 가능한 사첼 가방
US10282909B2 (en) * 2017-03-23 2019-05-07 Htc Corporation Virtual reality system, operating method for mobile device, and non-transitory computer readable storage medium
US10410349B2 (en) * 2017-03-27 2019-09-10 Microsoft Technology Licensing, Llc Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
CN107172047A (zh) * 2017-04-05 2017-09-15 杭州优海信息系统有限公司 工厂虚拟增强现实3d交互系统及其实现方法
JP7516048B2 (ja) 2017-04-18 2024-07-16 マジック リープ, インコーポレイテッド 反射性流動可能材料によって形成された反射性層を有する導波管
AU2018256365A1 (en) 2017-04-19 2019-10-31 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
TWI610565B (zh) * 2017-04-21 2018-01-01 國立臺北科技大學 立體影像物件互動方法、系統與立體互動影片後製方法
US11163416B2 (en) 2017-04-27 2021-11-02 Magic Leap, Inc. Light-emitting user input device for calibration or pairing
JP6343779B1 (ja) * 2017-04-28 2018-06-20 株式会社コナミデジタルエンタテインメント サーバ装置、及びそれに用いられるコンピュータプログラム
US11782669B2 (en) 2017-04-28 2023-10-10 Microsoft Technology Licensing, Llc Intuitive augmented reality collaboration on visual data
CN117891335A (zh) 2017-05-19 2024-04-16 奇跃公司 用于虚拟、增强和混合现实显示系统的键盘
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
IL270564B (en) 2017-05-22 2022-07-01 Magic Leap Inc Pairing with a companion device
US10792119B2 (en) 2017-05-22 2020-10-06 Ethicon Llc Robotic arm cart and uses therefor
KR102627882B1 (ko) 2017-05-30 2024-01-22 매직 립, 인코포레이티드 전자 디바이스를 위한 팬 조립체를 갖는 전력 공급기 조립체
US10856948B2 (en) 2017-05-31 2020-12-08 Verb Surgical Inc. Cart for robotic arms and method and apparatus for registering cart to surgical table
US10168789B1 (en) 2017-05-31 2019-01-01 Meta Company Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations
US10671160B2 (en) 2017-05-31 2020-06-02 Magic Leap, Inc. Eye tracking calibration techniques
US10485623B2 (en) 2017-06-01 2019-11-26 Verb Surgical Inc. Robotic arm cart with fine position adjustment features and uses therefor
WO2018231784A1 (en) 2017-06-12 2018-12-20 Magic Leap, Inc. Augmented reality display having multi-element adaptive lens for changing depth planes
CN107330855B (zh) * 2017-06-16 2021-03-02 瑞芯微电子股份有限公司 Vr交互数据尺寸一致性调节的方法和装置
US11861255B1 (en) 2017-06-16 2024-01-02 Apple Inc. Wearable device for facilitating enhanced interaction
CN107229337B (zh) * 2017-06-16 2020-08-18 上海闻泰电子科技有限公司 Vr显示系统及方法
US10913145B2 (en) 2017-06-20 2021-02-09 Verb Surgical Inc. Cart for robotic arms and method and apparatus for cartridge or magazine loading of arms
RU2682014C1 (ru) * 2017-06-29 2019-03-14 Дмитрий Сергеевич Шаньгин Система виртуальной реальности
US10449440B2 (en) * 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
US10908680B1 (en) 2017-07-12 2021-02-02 Magic Leap, Inc. Pose estimation using electromagnetic tracking
CN107275904B (zh) 2017-07-19 2024-05-24 北京小米移动软件有限公司 虚拟现实眼镜的数据连接线
AU2018308418A1 (en) 2017-07-26 2020-01-16 Magic Leap, Inc. Training a neural network with representations of user interface devices
US10740804B2 (en) 2017-07-28 2020-08-11 Magical Technologies, Llc Systems, methods and apparatuses of seamless integration of augmented, alternate, virtual, and/or mixed realities with physical realities for enhancement of web, mobile and/or other digital experiences
CA3068612A1 (en) 2017-07-28 2019-01-31 Magic Leap, Inc. Fan assembly for displaying an image
US9992449B1 (en) * 2017-08-10 2018-06-05 Everysight Ltd. System and method for sharing sensed data between remote users
KR102360412B1 (ko) * 2017-08-25 2022-02-09 엘지디스플레이 주식회사 영상 생성 방법과 이를 이용한 표시장치
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
WO2019051464A1 (en) 2017-09-11 2019-03-14 Lang Philipp K INCREASED REALITY DISPLAY FOR VASCULAR AND OTHER INTERVENTIONS, COMPENSATION FOR CARDIAC AND RESPIRATORY MOVEMENT
US20190197312A1 (en) 2017-09-13 2019-06-27 Edward Rashid Lahood Method, apparatus and computer-readable media for displaying augmented reality information
WO2019055703A2 (en) * 2017-09-13 2019-03-21 Magical Technologies, Llc VIRTUAL DISPLAY PANEL, FACILITATION OF COLLABORATION, AND MESSAGE OBJECTS FOR FACILITATING COMMUNICATION SESSIONS IN AN INCREASED REALITY ENVIRONMENT
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
WO2019060741A1 (en) 2017-09-21 2019-03-28 Magic Leap, Inc. INCREASED REALITY DISPLAY HAVING A WAVEGUIDE CONFIGURED TO CAPTURE IMAGES OF THE EYE AND / OR THE ENVIRONMENT
KR102650507B1 (ko) 2017-09-27 2024-03-21 매직 립, 인코포레이티드 별개의 위상 및 진폭 변조기들을 갖는 근안 3d 디스플레이
WO2019067476A2 (en) * 2017-09-29 2019-04-04 Apple Inc. PLATFORM OF REALITY GENERATED BY COMPUTER
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN111465887A (zh) 2017-10-11 2020-07-28 奇跃公司 包括具有透明发射显示器的目镜的增强现实显示器
KR20190041384A (ko) 2017-10-12 2019-04-22 언차티드브이알 인코퍼레이티드 격자 기반 가상현실 놀이기구 시스템
CA3078858A1 (en) * 2017-10-12 2019-04-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Optimizing audio delivery for virtual reality applications
CN116149058A (zh) 2017-10-16 2023-05-23 迪吉伦斯公司 用于倍增像素化显示器的图像分辨率的系统和方法
US11966793B1 (en) * 2017-10-18 2024-04-23 Campfire 3D, Inc. Systems and methods to extend an interactive space across multiple platforms
WO2019079826A1 (en) 2017-10-22 2019-04-25 Magical Technologies, Llc DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY
CA3078530A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
CN111566723A (zh) 2017-10-26 2020-08-21 奇跃公司 用于增强现实显示器的宽带自适应透镜组件
CA3078774A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Augmented reality display having liquid crystal variable focus element and roll-to-roll method and apparatus for forming the same
CN111480181A (zh) 2017-10-27 2020-07-31 奇跃公司 增强现实系统的虚拟标线
CA3080005A1 (en) 2017-11-14 2019-05-23 Magic Leap, Inc. Meta-learning for multi-task learning for neural networks
US11720222B2 (en) 2017-11-17 2023-08-08 International Business Machines Corporation 3D interaction input for text in augmented reality
CA3083105A1 (en) 2017-12-11 2019-06-20 Magic Leap, Inc. Waveguide illuminator
AU2018383539A1 (en) 2017-12-14 2020-06-18 Magic Leap, Inc. Contextual-based rendering of virtual avatars
WO2019118886A1 (en) 2017-12-15 2019-06-20 Magic Leap, Inc. Enhanced pose determination for display device
WO2019116244A1 (ru) * 2017-12-15 2019-06-20 ГИОРГАДЗЕ, Анико Тенгизовна Взаимодействие пользователей в коммуникационной системе с использованием эффектов дополненной реальности
WO2019118930A1 (en) 2017-12-15 2019-06-20 Magic Leap, Inc. Eyepieces for augmented reality display system
US10713840B2 (en) * 2017-12-22 2020-07-14 Sony Interactive Entertainment Inc. Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot
WO2019130213A1 (ru) * 2017-12-29 2019-07-04 ГИОРГАДЗЕ, Анико Тенгизовна Взаимодействие пользователей в коммуникационной системе с использованием объектов дополненной реальности
JP7474696B2 (ja) 2018-01-04 2024-04-25 マジック リープ, インコーポレイテッド 無機材料を組み込むポリマー構造に基づく光学要素
WO2019136476A1 (en) 2018-01-08 2019-07-11 Digilens, Inc. Waveguide architectures and related methods of manufacturing
KR20200108030A (ko) 2018-01-08 2020-09-16 디지렌즈 인코포레이티드. 도파관 셀 내의 홀로그래픽 격자의 높은 처리능력의 레코딩을 위한 시스템 및 방법
US10684690B2 (en) 2018-01-08 2020-06-16 Facebook Technologies, Llc Methods, devices, and systems for creating localized haptic stimulations on a user
KR20200104402A (ko) 2018-01-08 2020-09-03 디지렌즈 인코포레이티드. 도파관 셀을 제조하기 위한 시스템 및 방법
CA3088116A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
IL275822B2 (en) 2018-01-17 2024-02-01 Magic Leap Inc Eye center for determining rotation, choosing depth plane and processing camera position in display systems
US10679412B2 (en) 2018-01-17 2020-06-09 Unchartedvr Inc. Virtual experience monitoring mechanism
MX2020007674A (es) * 2018-01-19 2020-09-14 Esb Labs Inc Interfaz de audiencia interactiva virtual.
US10558878B2 (en) 2018-01-19 2020-02-11 Timothy R. Fitzpatrick System and method for organizing edible or drinkable materials
US10904374B2 (en) 2018-01-24 2021-01-26 Magical Technologies, Llc Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
US11398088B2 (en) 2018-01-30 2022-07-26 Magical Technologies, Llc Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
US11210826B2 (en) 2018-02-02 2021-12-28 Disney Enterprises, Inc. Systems and methods to provide artificial intelligence experiences
US10673414B2 (en) 2018-02-05 2020-06-02 Tectus Corporation Adaptive tuning of a contact lens
IL312231A (en) 2018-02-06 2024-06-01 Magic Leap Inc Systems and methods for augmented reality
WO2019155311A1 (ru) * 2018-02-09 2019-08-15 ГИОРГАДЗЕ, Анико Тенгизовна Коммуникационная система с автоматически возникающими эффектами дополненной реальности
WO2019155368A1 (ru) * 2018-02-09 2019-08-15 ГИОРГАДЗЕ, Анико Тенгизовна Взаимодействие пользователей в коммуникационной системе с использованием эффектов дополненной реальности, возникающих в ответ на выбранные пользователем действия для выполнения объектами дополненной реальности
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
JP7342008B2 (ja) 2018-02-27 2023-09-11 マジック リープ, インコーポレイテッド 仮想アバタのためのメッシュの合致
AU2019228458A1 (en) 2018-02-28 2020-08-06 Magic Leap, Inc. Head scan alignment using ocular registration
US11014001B2 (en) * 2018-03-05 2021-05-25 Sony Interactive Entertainment LLC Building virtual reality (VR) gaming environments using real-world virtual reality maps
CN111819487A (zh) 2018-03-05 2020-10-23 奇跃公司 具有低延迟瞳孔跟踪器的显示系统
EP3762769A1 (en) 2018-03-06 2021-01-13 Texas State University Augmented reality/virtual reality platform for a network analyzer
JP1618837S (ja) * 2018-03-06 2018-11-26
WO2019173390A1 (en) 2018-03-07 2019-09-12 Magic Leap, Inc. Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display
EP4212222A1 (en) 2018-03-07 2023-07-19 Magic Leap, Inc. Visual tracking of peripheral devices
CN111954837A (zh) 2018-03-12 2020-11-17 奇跃公司 基于折射率极高的目镜基板的观察光学组件架构
US10878620B2 (en) 2018-03-14 2020-12-29 Magic Leap, Inc. Display systems and methods for clipping content to increase viewing comfort
US11430169B2 (en) 2018-03-15 2022-08-30 Magic Leap, Inc. Animating virtual avatar facial movements
US10690851B2 (en) 2018-03-16 2020-06-23 Digilens Inc. Holographic waveguides incorporating birefringence control and methods for their fabrication
CN112106066A (zh) 2018-03-16 2020-12-18 奇跃公司 根据眼睛跟踪相机的面部表情
JP7381482B2 (ja) 2018-03-16 2023-11-15 マジック リープ, インコーポレイテッド ディスプレイシステムのための深度ベースの中心窩化レンダリング
US11480467B2 (en) 2018-03-21 2022-10-25 Magic Leap, Inc. Augmented reality system and method for spectroscopic analysis
CN111868666A (zh) 2018-03-23 2020-10-30 脸谱科技有限责任公司 用于确定虚拟现实和/或增强现实设备的用户的接触的方法、设备和系统
US11886000B2 (en) 2018-04-02 2024-01-30 Magic Leap, Inc. Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same
WO2019195174A1 (en) 2018-04-02 2019-10-10 Magic Leap, Inc. Waveguides with integrated optical elements and methods of making the same
EP3776029A4 (en) 2018-04-02 2022-06-29 Magic Leap, Inc. Hybrid polymer waveguide and methods for making the same
WO2019204164A1 (en) 2018-04-16 2019-10-24 Magic Leap, Inc. Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
US11067805B2 (en) 2018-04-19 2021-07-20 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
US10505394B2 (en) 2018-04-21 2019-12-10 Tectus Corporation Power generation necklaces that mitigate energy absorption in the human body
US10789753B2 (en) 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US10895762B2 (en) 2018-04-30 2021-01-19 Tectus Corporation Multi-coil field generation in an electronic contact lens system
US10838239B2 (en) 2018-04-30 2020-11-17 Tectus Corporation Multi-coil field generation in an electronic contact lens system
WO2019212698A1 (en) 2018-05-01 2019-11-07 Magic Leap, Inc. Avatar animation using markov decision process policies
WO2019213220A1 (en) 2018-05-03 2019-11-07 Magic Leap, Inc. Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character
US10803671B2 (en) 2018-05-04 2020-10-13 Microsoft Technology Licensing, Llc Authoring content in three-dimensional environment
WO2019215527A1 (ru) * 2018-05-10 2019-11-14 ГИОРГАДЗЕ, Анико Тенгизовна Способ отображения информации об активности пользователя
WO2019222401A2 (en) 2018-05-17 2019-11-21 Magic Leap, Inc. Gradient adversarial training of neural networks
US10790700B2 (en) 2018-05-18 2020-09-29 Tectus Corporation Power generation necklaces with field shaping systems
WO2019226494A1 (en) 2018-05-21 2019-11-28 Magic Leap, Inc. Generating textured polygon strip hair from strand-based hair for a virtual character
JP7341166B2 (ja) 2018-05-22 2023-09-08 マジック リープ, インコーポレイテッド ウェアラブルシステムのためのトランスモード入力融合
CN112437950A (zh) 2018-05-22 2021-03-02 奇跃公司 用于对虚拟头像制作动画的骨架系统
WO2019226549A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Computer generated hair groom transfer tool
US11205508B2 (en) 2018-05-23 2021-12-21 Verb Surgical Inc. Machine-learning-oriented surgical video analysis system
US11079897B2 (en) 2018-05-24 2021-08-03 The Calany Holding S. À R.L. Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world
US11307968B2 (en) 2018-05-24 2022-04-19 The Calany Holding S. À R.L. System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
WO2019226865A1 (en) 2018-05-25 2019-11-28 Magic Leap, Inc. Compression of dynamic unstructured point clouds
US10700780B2 (en) * 2018-05-30 2020-06-30 Apple Inc. Systems and methods for adjusting movable lenses in directional free-space optical communication systems for portable electronic devices
US11303355B2 (en) 2018-05-30 2022-04-12 Apple Inc. Optical structures in directional free-space optical communication systems for portable electronic devices
US11651555B2 (en) * 2018-05-31 2023-05-16 Microsoft Technology Licensing, Llc Re-creation of virtual environment through a video call
WO2019232075A1 (en) 2018-06-01 2019-12-05 Magic Leap, Inc. Compression of dynamic unstructured point clouds
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
US10843077B2 (en) * 2018-06-08 2020-11-24 Brian Deller System and method for creation, presentation and interaction within multiple reality and virtual reality environments
WO2019241575A1 (en) 2018-06-15 2019-12-19 Magic Leap, Inc. Wide field-of-view polarization switches with liquid crystal optical elements with pretilt
EP3807711A4 (en) 2018-06-15 2022-02-23 Magic Leap, Inc. WIDE FIELD OF VIEW POLARIZATION SWITCHES AND METHOD OF MANUFACTURING LIQUID CRYSTAL OPTICAL ELEMENTS WITH FORWARD TILT
WO2019246044A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
US11694435B2 (en) 2018-06-18 2023-07-04 Magic Leap, Inc. Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device
JP7378431B2 (ja) * 2018-06-18 2023-11-13 マジック リープ, インコーポレイテッド フレーム変調機能性を伴う拡張現実ディスプレイ
US20190391647A1 (en) * 2018-06-25 2019-12-26 Immersion Corporation Real-world haptic interactions for a virtual reality user
WO2020005757A1 (en) 2018-06-26 2020-01-02 Magic Leap, Inc. Waypoint creation in map detection
US20190392641A1 (en) * 2018-06-26 2019-12-26 Sony Interactive Entertainment Inc. Material base rendering
WO2020003014A1 (ru) * 2018-06-26 2020-01-02 ГИОРГАДЗЕ, Анико Тенгизовна Устранение пробелов в понимании информации, возникающих при взаимодействии пользователей в коммуникационных системах, использующих объекты дополненной реальности
USD875729S1 (en) 2018-06-27 2020-02-18 Magic Leap, Inc. Portion of an augmented reality headset
US11077365B2 (en) 2018-06-27 2021-08-03 Niantic, Inc. Low latency datagram-responsive computer network protocol
JP7437327B2 (ja) 2018-07-02 2024-02-22 マジック リープ, インコーポレイテッド 異種入力の補間のための方法およびシステム
CN108983974B (zh) * 2018-07-03 2020-06-30 百度在线网络技术(北京)有限公司 Ar场景处理方法、装置、设备和计算机可读存储介质
US11106033B2 (en) 2018-07-05 2021-08-31 Magic Leap, Inc. Waveguide-based illumination for head mounted display system
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法
US11137622B2 (en) 2018-07-15 2021-10-05 Tectus Corporation Eye-mounted displays including embedded conductive coils
US11419604B2 (en) 2018-07-16 2022-08-23 Cilag Gmbh International Robotic systems with separate photoacoustic receivers
WO2020018938A1 (en) 2018-07-19 2020-01-23 Magic Leap, Inc. Content interaction driven by eye metrics
WO2020023303A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Coexistence interference avoidance between two different radios operating in the same band
US10943521B2 (en) 2018-07-23 2021-03-09 Magic Leap, Inc. Intra-field sub code timing in field sequential displays
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
CN112513711B (zh) 2018-07-23 2023-03-07 奇跃公司 用于使用位置向量解析半球模糊度的方法和系统
WO2020023399A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Deep predictor recurrent neural network for head pose prediction
WO2020023404A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Flicker mitigation when toggling eyepiece display illumination in augmented reality systems
US11567336B2 (en) 2018-07-24 2023-01-31 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
WO2020023491A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Thermal management system for electronic device
JP7456995B2 (ja) 2018-07-24 2024-03-27 マジック リープ, インコーポレイテッド 左および右ディスプレイとユーザの眼との間の垂直整合を決定するためのディスプレイシステムおよび方法
US11067808B2 (en) 2018-07-24 2021-07-20 Magic Leap, Inc. Diffractive optical elements with mitigation of rebounce-induced light loss and related systems and methods
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
US11402801B2 (en) 2018-07-25 2022-08-02 Digilens Inc. Systems and methods for fabricating a multilayer optical structure
JP7210180B2 (ja) * 2018-07-25 2023-01-23 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
WO2020023788A1 (en) 2018-07-27 2020-01-30 Magic Leap, Inc. Pose space dimensionality reduction for pose space deformation of a virtual character
WO2020028867A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Depth plane selection for multi-depth plane display systems by user categorization
CN109255819B (zh) * 2018-08-14 2020-10-13 清华大学 基于平面镜的Kinect标定方法及装置
US10581940B1 (en) * 2018-08-20 2020-03-03 Dell Products, L.P. Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications
KR102508286B1 (ko) * 2018-08-27 2023-03-09 삼성전자 주식회사 가상 현실에서 정보를 제공하는 전자 장치 및 방법
JP2021536592A (ja) 2018-08-31 2021-12-27 マジック リープ, インコーポレイテッドMagic Leap, Inc. 拡張現実デバイスのための空間的に分解された動的調光
US11157739B1 (en) 2018-08-31 2021-10-26 Apple Inc. Multi-user computer generated reality platform
JP6527627B1 (ja) * 2018-08-31 2019-06-05 株式会社バーチャルキャスト コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
US10529107B1 (en) 2018-09-11 2020-01-07 Tectus Corporation Projector alignment in a contact lens
US10679743B2 (en) 2018-09-12 2020-06-09 Verb Surgical Inc. Method and system for automatically tracking and managing inventory of surgical tools in operating rooms
US11982809B2 (en) 2018-09-17 2024-05-14 Apple Inc. Electronic device with inner display and externally accessible input-output device
USD934873S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD950567S1 (en) 2018-09-18 2022-05-03 Magic Leap, Inc. Mobile computing support system having an illumination region
USD955396S1 (en) 2018-09-18 2022-06-21 Magic Leap, Inc. Mobile computing support system having an illumination region
USD934872S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
US10569164B1 (en) 2018-09-26 2020-02-25 Valve Corporation Augmented reality (AR) system for providing AR in video games
JP7444861B2 (ja) 2018-09-26 2024-03-06 マジック リープ, インコーポレイテッド 屈折力を有する回折光学要素
CN113168008A (zh) 2018-09-26 2021-07-23 奇跃公司 具有针孔和狭缝相机的眼镜
WO2020078354A1 (zh) * 2018-10-16 2020-04-23 北京凌宇智控科技有限公司 视频串流系统、视频串流方法及装置
JP7455121B2 (ja) 2018-10-26 2024-03-25 マジック リープ, インコーポレイテッド 電磁追跡のための周囲電磁歪み補正
US11051206B2 (en) 2018-10-31 2021-06-29 Hewlett Packard Enterprise Development Lp Wi-fi optimization for untethered multi-user virtual reality
US10846042B2 (en) 2018-10-31 2020-11-24 Hewlett Packard Enterprise Development Lp Adaptive rendering for untethered multi-user virtual reality
US11047691B2 (en) * 2018-10-31 2021-06-29 Dell Products, L.P. Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications
US11592896B2 (en) * 2018-11-07 2023-02-28 Wild Technology, Inc. Technological infrastructure for enabling multi-user collaboration in a virtual reality environment
TWI722332B (zh) * 2018-11-13 2021-03-21 晶睿通訊股份有限公司 行人偵測方法及其相關監控攝影機
EP3881232A4 (en) 2018-11-15 2022-08-10 Magic Leap, Inc. DEEP NEURON NETWORK POSE ESTIMATION SYSTEM
US11237393B2 (en) 2018-11-20 2022-02-01 Magic Leap, Inc. Eyepieces for augmented reality display system
US10838232B2 (en) 2018-11-26 2020-11-17 Tectus Corporation Eye-mounted displays including embedded solenoids
CN113330390A (zh) 2018-11-30 2021-08-31 奇跃公司 用于化身运动的多模态手的位置和取向
US10776933B2 (en) 2018-12-06 2020-09-15 Microsoft Technology Licensing, Llc Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects
US11282282B2 (en) * 2018-12-14 2022-03-22 Vulcan Inc. Virtual and physical reality integration
US10644543B1 (en) 2018-12-20 2020-05-05 Tectus Corporation Eye-mounted display system including a head wearable object
WO2020139754A1 (en) 2018-12-28 2020-07-02 Magic Leap, Inc. Augmented and virtual reality display systems with shared display for left and right eyes
EP3903143A4 (en) 2018-12-28 2022-10-12 Magic Leap, Inc. VARIABLE PIXEL DENSITY DISPLAY SYSTEM WITH MECHANICALLY ACTUATED IMAGE PROJECTOR
EP3908876A4 (en) 2019-01-11 2022-03-09 Magic Leap, Inc. TIME MULTIPLEXED DISPLAY OF VIRTUAL CONTENT AT VARIOUS DEPTHS
JP7431246B2 (ja) 2019-01-25 2024-02-14 マジック リープ, インコーポレイテッド 異なる露光時間を有する画像を使用した眼追跡
US12105289B2 (en) 2019-02-01 2024-10-01 Magic Leap, Inc. Inline in-coupling optical elements
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11403823B2 (en) 2019-02-14 2022-08-02 Lego A/S Toy system for asymmetric multiplayer game play
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
KR20210138609A (ko) 2019-02-15 2021-11-19 디지렌즈 인코포레이티드. 일체형 격자를 이용하여 홀로그래픽 도파관 디스플레이를 제공하기 위한 방법 및 장치
CA3130880C (en) 2019-02-25 2024-01-02 Niantic, Inc. Augmented reality mobile edge computing
JP7518844B2 (ja) 2019-02-28 2024-07-18 マジック リープ, インコーポレイテッド 光エミッタアレイによって形成される複数の瞳孔内視差ビューを使用して可変遠近調節キューを提供するためのディスプレイシステムおよび方法
RU2712417C1 (ru) * 2019-02-28 2020-01-28 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система распознавания лиц и построения маршрута с помощью средства дополненной реальности
US11467656B2 (en) 2019-03-04 2022-10-11 Magical Technologies, Llc Virtual object control of a physical device and/or physical device control of a virtual object
JP2022525165A (ja) 2019-03-12 2022-05-11 ディジレンズ インコーポレイテッド ホログラフィック導波管バックライトおよび関連する製造方法
WO2020185954A1 (en) 2019-03-12 2020-09-17 Magic Leap, Inc. Waveguides with high index materials and methods of fabrication thereof
EP3938818B1 (en) 2019-03-12 2024-10-09 Magic Leap, Inc. Method of fabricating display device having patterned lithium-based transition metal oxide
RU2702495C1 (ru) * 2019-03-13 2019-10-08 Общество с ограниченной ответственностью "ТрансИнжКом" Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени
EP3712781A1 (en) * 2019-03-20 2020-09-23 Nokia Technologies Oy An apparatus and associated methods for presentation of presentation data
JP7564818B2 (ja) 2019-03-20 2024-10-09 マジック リープ, インコーポレイテッド 眼の照明を提供するためのシステム
JP2022525922A (ja) 2019-03-20 2022-05-20 マジック リープ, インコーポレイテッド 光を収集するためのシステム
US11968393B2 (en) 2019-03-20 2024-04-23 Lg Electronics Inc. Point cloud data transmitting device, point cloud data transmitting method, point cloud data receiving device, and point cloud data receiving method
EP3948500A4 (en) * 2019-03-25 2022-04-27 Magic Leap, Inc. VIRTUAL AND AUGMENTED REALITY SYSTEMS AND METHODS
CN114008514A (zh) 2019-04-15 2022-02-01 奇跃公司 用于电磁跟踪的传感器融合
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US11380011B2 (en) * 2019-04-23 2022-07-05 Kreatar, Llc Marker-based positioning of simulated reality
US11107293B2 (en) * 2019-04-23 2021-08-31 XRSpace CO., LTD. Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium
GB201905847D0 (en) * 2019-04-26 2019-06-12 King S College London MRI scanner-compatible virtual reality system
CN111856751B (zh) 2019-04-26 2022-12-09 苹果公司 具有低光操作的头戴式显示器
JP7524219B2 (ja) 2019-04-30 2024-07-29 シェンツェン・ショックス・カンパニー・リミテッド 音響出力装置
EP3734419A1 (en) * 2019-05-03 2020-11-04 XRSpace CO., LTD. Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium
TWI715026B (zh) * 2019-05-06 2021-01-01 宏碁股份有限公司 網路虛擬實境之控制方法及應用其之主機
WO2020231888A1 (en) * 2019-05-10 2020-11-19 BadVR, Inc. Novel systems and methods for collecting, locating and visualizing sensor signals in extended reality
CN114127610A (zh) 2019-05-20 2022-03-01 奇跃公司 用于估计眼睛姿势的系统和技术
US11115468B2 (en) 2019-05-23 2021-09-07 The Calany Holding S. À R.L. Live management of real world via a persistent virtual world system
WO2020243014A1 (en) 2019-05-24 2020-12-03 Magic Leap, Inc. Variable focus assemblies
JP7357081B2 (ja) 2019-05-28 2023-10-05 マジック リープ, インコーポレイテッド ポータブル電子デバイスのための熱管理システム
USD962981S1 (en) 2019-05-29 2022-09-06 Magic Leap, Inc. Display screen or portion thereof with animated scrollbar graphical user interface
CN112055033B (zh) * 2019-06-05 2022-03-29 北京外号信息技术有限公司 基于光通信装置的交互方法和系统
CN112055034B (zh) * 2019-06-05 2022-03-29 北京外号信息技术有限公司 基于光通信装置的交互方法和系统
CN114207492A (zh) 2019-06-07 2022-03-18 迪吉伦斯公司 带透射光栅和反射光栅的波导及其生产方法
WO2020251540A1 (en) * 2019-06-10 2020-12-17 Brian Deller System and method for creation, presentation and interaction within multiple reality and virtual reality environments
US10897564B1 (en) 2019-06-17 2021-01-19 Snap Inc. Shared control of camera device by multiple devices
US12040993B2 (en) 2019-06-18 2024-07-16 The Calany Holding S. À R.L. Software engine virtualization and dynamic resource and task distribution across edge and cloud
CN112100284A (zh) * 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 通过虚拟孪生现实与现实世界物品及对应数据库交互
CN112100798A (zh) 2019-06-18 2020-12-18 明日基金知识产权控股有限公司 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法
US12033271B2 (en) 2019-06-18 2024-07-09 The Calany Holding S. À R.L. 3D structure engine-based computation platform
US12039354B2 (en) * 2019-06-18 2024-07-16 The Calany Holding S. À R.L. System and method to operate 3D applications through positional virtualization technology
EP3987343A4 (en) 2019-06-20 2023-07-19 Magic Leap, Inc. EYEWEARS FOR AUGMENTED REALITY DISPLAY SYSTEM
CN114270312A (zh) 2019-06-21 2022-04-01 奇跃公司 经由模态窗口的安全授权
JP7386267B2 (ja) 2019-06-24 2023-11-24 マジック リープ, インコーポレイテッド ディスプレイシステム
US11055920B1 (en) * 2019-06-27 2021-07-06 Facebook Technologies, Llc Performing operations using a mirror in an artificial reality environment
US11145126B1 (en) 2019-06-27 2021-10-12 Facebook Technologies, Llc Movement instruction using a mirror in an artificial reality environment
US11036987B1 (en) 2019-06-27 2021-06-15 Facebook Technologies, Llc Presenting artificial reality content using a mirror
CN110413109A (zh) * 2019-06-28 2019-11-05 广东虚拟现实科技有限公司 虚拟内容的生成方法、装置、系统、电子设备及存储介质
US11549799B2 (en) 2019-07-01 2023-01-10 Apple Inc. Self-mixing interference device for sensing applications
US11372474B2 (en) * 2019-07-03 2022-06-28 Saec/Kinetic Vision, Inc. Systems and methods for virtual artificial intelligence development and testing
US11283982B2 (en) 2019-07-07 2022-03-22 Selfie Snapper, Inc. Selfie camera
US11029805B2 (en) 2019-07-10 2021-06-08 Magic Leap, Inc. Real-time preview of connectable objects in a physically-modeled virtual space
US11868525B2 (en) 2019-07-16 2024-01-09 Magic Leap, Inc. Eye center of rotation determination with one or more eye tracking cameras
JP2022540691A (ja) 2019-07-19 2022-09-16 マジック リープ, インコーポレイテッド 回折格子を加工する方法
US11340857B1 (en) 2019-07-19 2022-05-24 Snap Inc. Shared control of a virtual object by multiple devices
EP3999884A4 (en) 2019-07-19 2023-08-30 Magic Leap, Inc. DISPLAY DEVICE HAVING DIFFRACTION GRATINGS WITH REDUCED POLARIZATION SENSITIVITY
US11907417B2 (en) 2019-07-25 2024-02-20 Tectus Corporation Glance and reveal within a virtual environment
US12118897B2 (en) * 2019-07-25 2024-10-15 International Business Machines Corporation Augmented reality tutorial generation
US11068284B2 (en) * 2019-07-25 2021-07-20 Huuuge Global Ltd. System for managing user experience and method therefor
US10773157B1 (en) 2019-07-26 2020-09-15 Arkade, Inc. Interactive computing devices and accessories
US10893127B1 (en) 2019-07-26 2021-01-12 Arkade, Inc. System and method for communicating interactive data between heterogeneous devices
US10946272B2 (en) 2019-07-26 2021-03-16 Arkade, Inc. PC blaster game console
KR20220038452A (ko) 2019-07-29 2022-03-28 디지렌즈 인코포레이티드. 픽셀화된 디스플레이의 이미지 해상도와 시야를 증배하는 방법 및 장치
EP4005147A4 (en) 2019-07-31 2023-08-02 Magic Leap, Inc. USER DATA MANAGEMENT FOR AUGMENTED REALITY USING A DISTRIBUTED LEDGER
US10944290B2 (en) 2019-08-02 2021-03-09 Tectus Corporation Headgear providing inductive coupling to a contact lens
US11537351B2 (en) 2019-08-12 2022-12-27 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US20210056391A1 (en) * 2019-08-20 2021-02-25 Mind Machine Learning, Inc. Systems and Methods for Simulating Sense Data and Creating Perceptions
KR20220054386A (ko) 2019-08-29 2022-05-02 디지렌즈 인코포레이티드. 진공 브래그 격자 및 이의 제조 방법
US11030815B2 (en) 2019-09-05 2021-06-08 Wipro Limited Method and system for rendering virtual reality content
CN114616210A (zh) 2019-09-11 2022-06-10 奇跃公司 带有具有降低的偏振灵敏度的衍射光栅的显示装置
US11276246B2 (en) 2019-10-02 2022-03-15 Magic Leap, Inc. Color space mapping for intuitive surface normal visualization
US11176757B2 (en) 2019-10-02 2021-11-16 Magic Leap, Inc. Mission driven virtual character for user interaction
US11475637B2 (en) * 2019-10-21 2022-10-18 Wormhole Labs, Inc. Multi-instance multi-user augmented reality environment
US11662807B2 (en) 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
US10901505B1 (en) 2019-10-24 2021-01-26 Tectus Corporation Eye-based activation and tool selection systems and methods
JP7467619B2 (ja) 2019-11-08 2024-04-15 マジック リープ, インコーポレイテッド 複数の材料を含む光再指向構造を伴うメタ表面およびその加工方法
US11493989B2 (en) 2019-11-08 2022-11-08 Magic Leap, Inc. Modes of user interaction
USD982593S1 (en) 2019-11-08 2023-04-04 Magic Leap, Inc. Portion of a display screen with animated ray
US11423624B2 (en) 2019-11-18 2022-08-23 Magic Leap, Inc. Mapping and localization of a passable world
US11412050B2 (en) * 2019-11-20 2022-08-09 Facebook Technologies, Llc Artificial reality system with virtual wireless channels
WO2021102165A1 (en) 2019-11-22 2021-05-27 Magic Leap, Inc. Method and system for patterning a liquid crystal layer
US12094139B2 (en) 2019-11-22 2024-09-17 Magic Leap, Inc. Systems and methods for enhanced depth determination using projection spots
WO2021108327A1 (en) 2019-11-26 2021-06-03 Magic Leap, Inc. Enhanced eye tracking for augmented or virtual reality display systems
DE102019132173A1 (de) * 2019-11-27 2021-05-27 Endress+Hauser Conducta Gmbh+Co. Kg Verfahren zur Konfiguration zur Übertragung von Daten von einem Feldgerät
JP7569856B2 (ja) 2019-12-06 2024-10-18 マジック リープ, インコーポレイテッド 静止画内のステレオスプラッシュスクリーンのエンコーディング
WO2021113322A1 (en) 2019-12-06 2021-06-10 Magic Leap, Inc. Dynamic browser stage
USD940749S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940748S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940189S1 (en) 2019-12-09 2022-01-04 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD941307S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with graphical user interface for guiding graphics
USD941353S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11288876B2 (en) 2019-12-13 2022-03-29 Magic Leap, Inc. Enhanced techniques for volumetric stage mapping based on calibration object
US11789527B1 (en) * 2019-12-17 2023-10-17 Snap Inc. Eyewear device external face tracking overlay generation
AU2020409015A1 (en) 2019-12-20 2022-08-25 Niantic, Inc. Data hierarchy protocol for data transmission pathway selection
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US12053223B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Adaptive surgical system control according to surgical smoke particulate characteristics
EP3846008A1 (en) 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
WO2021138566A1 (en) 2019-12-31 2021-07-08 Selfie Snapper, Inc. Electroadhesion device with voltage control module
US11095855B2 (en) 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
EP4094119A4 (en) 2020-01-24 2024-04-10 Magic Leap, Inc. MOVING AND INTERACTING WITH CONTENT USING ONE CONTROL DEVICE
US11340695B2 (en) 2020-01-24 2022-05-24 Magic Leap, Inc. Converting a 2D positional input into a 3D point in space
USD936704S1 (en) 2020-01-27 2021-11-23 Magic Leap, Inc. Portion of a display screen with avatar
JP7538871B2 (ja) 2020-01-27 2024-08-22 マジック リープ, インコーポレイテッド アンカベースのクロスリアリティアプリケーションのための向上された状態制御
JP2023511311A (ja) 2020-01-27 2023-03-17 マジック リープ, インコーポレイテッド ユーザ入力デバイスの機能性の注視タイマベースの拡張
USD949200S1 (en) 2020-01-27 2022-04-19 Magic Leap, Inc. Portion of a display screen with a set of avatars
USD948562S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with avatar
USD948574S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with a set of avatars
JP7490784B2 (ja) 2020-01-27 2024-05-27 マジック リープ, インコーポレイテッド 拡張現実マップキュレーション
WO2021154646A1 (en) 2020-01-27 2021-08-05 Magic Leap, Inc. Neutral avatars
CN115039012A (zh) 2020-01-31 2022-09-09 奇跃公司 用于测眼评估的增强和虚拟现实显示系统
EP4010753A1 (en) * 2020-02-04 2022-06-15 Google LLC Systems, devices, and methods for directing and managing image data from a camera in wearable devices
US11382699B2 (en) * 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11709363B1 (en) 2020-02-10 2023-07-25 Avegant Corp. Waveguide illumination of a spatial light modulator
CN115087905A (zh) 2020-02-10 2022-09-20 奇跃公司 在混合现实环境中相对于三维容器的以身体为中心的内容定位
EP4104436A4 (en) 2020-02-14 2024-03-13 Magic Leap, Inc. VIRTUAL OBJECT MOVEMENT SPEED CURVE FOR VIRTUAL AND AUGMENTED REALITY DISPLAY SYSTEMS
US11664194B2 (en) 2020-02-26 2023-05-30 Magic Leap, Inc. Procedural electron beam lithography
US11840034B2 (en) 2020-02-28 2023-12-12 Magic Leap, Inc. Method of fabricating molds for forming eyepieces with integrated spacers
CN111459267A (zh) * 2020-03-02 2020-07-28 杭州嘉澜创新科技有限公司 一种数据处理方法、第一服务器、第二服务器与存储介质
US11262588B2 (en) 2020-03-10 2022-03-01 Magic Leap, Inc. Spectator view of virtual and physical objects
CN111462335B (zh) * 2020-03-18 2023-12-05 Oppo广东移动通信有限公司 基于虚拟对象交互的设备控制方法及装置、介质和设备
EP4121813A4 (en) 2020-03-20 2024-01-17 Magic Leap, Inc. SYSTEMS AND METHODS FOR RETINA IMAGING AND TRACKING
US11940639B2 (en) 2020-03-25 2024-03-26 Magic Leap, Inc. Optical device with one-way mirror
US11985175B2 (en) 2020-03-25 2024-05-14 Snap Inc. Virtual interaction session to facilitate time limited augmented reality based communication between multiple users
US12101360B2 (en) 2020-03-25 2024-09-24 Snap Inc. Virtual interaction session to facilitate augmented reality based communication between multiple users
US11593997B2 (en) * 2020-03-31 2023-02-28 Snap Inc. Context based augmented reality communication
CN115769174A (zh) 2020-04-03 2023-03-07 奇跃公司 用于最佳注视辨别的化身定制
CN115698824A (zh) 2020-04-03 2023-02-03 奇跃公司 具有纳米线led微型显示器的可穿戴显示系统
US11577161B2 (en) * 2020-04-20 2023-02-14 Dell Products L.P. Range of motion control in XR applications on information handling systems
US11436579B2 (en) 2020-05-04 2022-09-06 Bank Of America Corporation Performing enhanced deposit item processing using cognitive automation tools
CN111589107B (zh) * 2020-05-14 2023-04-28 北京代码乾坤科技有限公司 虚拟模型的行为预测方法和装置
EP4154050A4 (en) 2020-05-22 2024-06-05 Magic Leap, Inc. AUGMENTED AND VIRTUAL REALITY DISPLAY SYSTEMS WITH CORRELATED OPTICAL REGIONS
CN115668106A (zh) 2020-06-05 2023-01-31 奇跃公司 基于图像的神经网络分析的增强眼睛跟踪技术
AU2021288589A1 (en) * 2020-06-11 2023-02-09 Carefusion 303, Inc. Hands-free medication tracking
WO2021252980A1 (en) * 2020-06-12 2021-12-16 Selfie Snapper, Inc. Digital mirror
US11665284B2 (en) * 2020-06-20 2023-05-30 Science House LLC Systems, methods, and apparatus for virtual meetings
USD939607S1 (en) 2020-07-10 2021-12-28 Selfie Snapper, Inc. Selfie camera
US11275942B2 (en) * 2020-07-14 2022-03-15 Vicarious Fpc, Inc. Method and system for generating training data
JP7545564B2 (ja) 2020-07-15 2024-09-04 マジック リープ, インコーポレイテッド 非球面角膜モデルを使用した眼追跡
RU201742U1 (ru) * 2020-07-22 2020-12-30 Общество с ограниченной ответственностью "МИКСАР ДЕВЕЛОПМЕНТ" Очки дополненной реальности, ориентированные на применение в условиях опасного производства
WO2022032198A1 (en) 2020-08-07 2022-02-10 Magic Leap, Inc. Tunable cylindrical lenses and head-mounted display including the same
WO2022037758A1 (en) * 2020-08-18 2022-02-24 Siemens Aktiengesellschaft Remote collaboration using augmented and virtual reality
CA3190568A1 (en) 2020-08-24 2022-03-03 Brandon Fayette Previsualization devices and systems for the film industry
US12107907B2 (en) * 2020-08-28 2024-10-01 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
CN111939561B (zh) * 2020-08-31 2023-09-19 聚好看科技股份有限公司 显示设备及交互方法
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
EP3968143A1 (en) * 2020-09-15 2022-03-16 Nokia Technologies Oy Audio processing
US11176756B1 (en) * 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
WO2022061114A1 (en) 2020-09-17 2022-03-24 Bogie Inc. System and method for an interactive controller
JP2023545653A (ja) 2020-09-29 2023-10-31 エイヴギャント コーポレイション ディスプレイパネルを照明するためのアーキテクチャ
US20220101002A1 (en) * 2020-09-30 2022-03-31 Kyndryl, Inc. Real-world object inclusion in a virtual reality experience
US11736545B2 (en) 2020-10-16 2023-08-22 Famous Group Technologies Inc. Client user interface for virtual fan experience
US20220130058A1 (en) * 2020-10-27 2022-04-28 Raytheon Company Mission early launch tracker
CN112363615A (zh) * 2020-10-27 2021-02-12 上海影创信息科技有限公司 多用户vr/ar交互系统、方法及计算机可读存储介质
US11893698B2 (en) * 2020-11-04 2024-02-06 Samsung Electronics Co., Ltd. Electronic device, AR device and method for controlling data transfer interval thereof
US12053247B1 (en) 2020-12-04 2024-08-06 Onpoint Medical, Inc. System for multi-directional tracking of head mounted displays for real-time augmented reality guidance of surgical procedures
WO2022130414A1 (en) * 2020-12-17 2022-06-23 Patel Lokesh Virtual presence device which uses trained humans to represent their hosts using man machine interface
IT202000030866A1 (it) * 2020-12-18 2022-06-18 Caldarola S R L Dispositivo e relativo metodo per il supporto e distanziamento in modalità realtà aumentata alla vista e all'udito per ambienti indoor
WO2022139643A1 (en) 2020-12-22 2022-06-30 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices related to extended reality
US12026800B1 (en) 2020-12-31 2024-07-02 Apple Inc. Blitting a display-locked object
US11831665B2 (en) * 2021-01-04 2023-11-28 Bank Of America Corporation Device for monitoring a simulated environment
US11042028B1 (en) * 2021-01-12 2021-06-22 University Of Central Florida Research Foundation, Inc. Relative pose data augmentation of tracked devices in virtual environments
RU2760179C1 (ru) * 2021-01-20 2021-11-22 Виктор Александрович Епифанов Система дополненной реальности
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
US20240062403A1 (en) * 2021-02-12 2024-02-22 Magic Leap, Inc. Lidar simultaneous localization and mapping
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
WO2022195322A1 (en) * 2021-03-15 2022-09-22 One Game Studio S.A.P.I De C.V. System and method for the interaction of at least two users in an augmented reality environment for a videogame
US20220308659A1 (en) * 2021-03-23 2022-09-29 Htc Corporation Method for interacting with virtual environment, electronic device, and computer readable storage medium
CN113761281B (zh) * 2021-04-26 2024-05-14 腾讯科技(深圳)有限公司 虚拟资源处理方法、装置、介质及电子设备
CN113194350B (zh) * 2021-04-30 2022-08-19 百度在线网络技术(北京)有限公司 推送待播报数据、播报数据的方法和装置
US11938402B2 (en) * 2021-05-03 2024-03-26 Rakuten Mobile, Inc. Multi-player interactive system and method of using
US20240244392A1 (en) 2021-05-05 2024-07-18 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices related to extended reality
US11664923B2 (en) * 2021-05-12 2023-05-30 T-Mobile Usa, Inc. Optimizing use of existing telecommunication infrastructure for wireless connectivity
WO2023276141A1 (en) * 2021-07-02 2023-01-05 Mitsubishi Electric Corporation Providing system and providing method
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US12014030B2 (en) 2021-08-18 2024-06-18 Bank Of America Corporation System for predictive virtual scenario presentation
WO2023023628A1 (en) * 2021-08-18 2023-02-23 Advanced Neuromodulation Systems, Inc. Systems and methods for providing digital health services
US11908083B2 (en) 2021-08-31 2024-02-20 Snap Inc. Deforming custom mesh based on body mesh
CN117897680A (zh) * 2021-09-01 2024-04-16 斯纳普公司 基于物理动作的增强现实通信交换
US11663792B2 (en) 2021-09-08 2023-05-30 Snap Inc. Body fitted accessory with physics simulation
US20230083302A1 (en) * 2021-09-12 2023-03-16 Sony Interactive Entertainment Inc. Local environment scanning to characterize physical environment for use in vr/ar
CN113946701B (zh) * 2021-09-14 2024-03-19 广州市城市规划设计有限公司 一种基于图像处理的城乡规划数据的动态更新方法及装置
US11798238B2 (en) 2021-09-14 2023-10-24 Snap Inc. Blending body mesh into external mesh
US11836866B2 (en) 2021-09-20 2023-12-05 Snap Inc. Deforming real-world object using an external mesh
US11790614B2 (en) 2021-10-11 2023-10-17 Snap Inc. Inferring intent from pose and speech input
US11836862B2 (en) 2021-10-11 2023-12-05 Snap Inc. External mesh with vertex attributes
US11763481B2 (en) 2021-10-20 2023-09-19 Snap Inc. Mirror-based augmented reality experience
US11592899B1 (en) 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
US12045940B2 (en) * 2021-11-03 2024-07-23 Tencent America LLC Method for streaming dynamic 5G AR/MR experience to 5G devices with updatable scenes
KR20230103379A (ko) 2021-12-31 2023-07-07 삼성전자주식회사 Ar 처리 방법 및 장치
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device
CN115047979B (zh) * 2022-08-15 2022-11-01 歌尔股份有限公司 头戴显示设备控制系统及交互方法
US11948259B2 (en) 2022-08-22 2024-04-02 Bank Of America Corporation System and method for processing and intergrating real-time environment instances into virtual reality live streams
US12032737B2 (en) * 2022-08-22 2024-07-09 Meta Platforms Technologies, Llc Gaze adjusted avatars for immersive reality applications
US12079442B2 (en) 2022-09-30 2024-09-03 Sightful Computers Ltd Presenting extended reality content in different physical environments
US20240115947A1 (en) * 2022-10-05 2024-04-11 Sony Interactive Entertainment Inc. Systems and methods for integrating real-world content in a game
US12101303B2 (en) * 2022-11-02 2024-09-24 Truist Bank Secure packet record in multi-source VR environment
WO2024136743A1 (en) * 2022-12-22 2024-06-27 Inter Ikea Systems B.V. Creating a mixed reality meeting room
US11875492B1 (en) 2023-05-01 2024-01-16 Fd Ip & Licensing Llc Systems and methods for digital compositing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182331A (ja) * 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US20080024594A1 (en) * 2004-05-19 2008-01-31 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852988A (en) 1988-09-12 1989-08-01 Applied Science Laboratories Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system
JPH05328260A (ja) * 1992-05-26 1993-12-10 Olympus Optical Co Ltd 頭部装着式ディスプレイ装置
JP3336687B2 (ja) * 1993-07-21 2002-10-21 セイコーエプソン株式会社 眼鏡型表示装置
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US6329986B1 (en) 1998-02-21 2001-12-11 U.S. Philips Corporation Priority-based virtual environment
US6118456A (en) 1998-04-02 2000-09-12 Adaptive Media Technologies Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment
JP3456419B2 (ja) * 1998-07-23 2003-10-14 日本電信電話株式会社 仮想空間内における共有空間表示方法及びシステム及び仮想空間内における共有空間表示プログラムを格納した記憶媒体
US6215498B1 (en) * 1998-09-10 2001-04-10 Lionhearth Technologies, Inc. Virtual command post
US6433760B1 (en) 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6289299B1 (en) * 1999-02-17 2001-09-11 Westinghouse Savannah River Company Systems and methods for interactive virtual reality process control and simulation
US6753857B1 (en) * 1999-04-16 2004-06-22 Nippon Telegraph And Telephone Corporation Method and system for 3-D shared virtual environment display communication virtual conference and programs therefor
US6491391B1 (en) 1999-07-02 2002-12-10 E-Vision Llc System, apparatus, and method for reducing birefringence
ATE543546T1 (de) 1999-06-11 2012-02-15 Canon Kk Vorrichtung und verfahren zur darstellung eines von mehreren benutzern geteilten raumes, wo wirklichkeit zum teil einbezogen wird, entsprechende spielvorrichtung und entsprechendes schnittstellenverfahren
CA2316473A1 (en) 1999-07-28 2001-01-28 Steve Mann Covert headworn information display or data display or viewfinder
JP2001197400A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 表示装置、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置のための画像生成方法、コンピュータおよびプログラム記憶媒体
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
US6525732B1 (en) * 2000-02-17 2003-02-25 Wisconsin Alumni Research Foundation Network-based viewing of images of three-dimensional objects
US6891518B2 (en) 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
US8316450B2 (en) * 2000-10-10 2012-11-20 Addn Click, Inc. System for inserting/overlaying markers, data packets and objects relative to viewable content and enabling live social networking, N-dimensional virtual environments and/or other value derivable from the content
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
CA2362895A1 (en) 2001-06-26 2002-12-26 Steve Mann Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license
DE10132872B4 (de) 2001-07-06 2018-10-11 Volkswagen Ag Kopfmontiertes optisches Durchsichtssystem
US7071897B2 (en) 2001-07-18 2006-07-04 Hewlett-Packard Development Company, L.P. Immersive augmentation for display systems
US7452279B2 (en) 2001-08-09 2008-11-18 Kabushiki Kaisha Sega Recording medium of game program and game device using card
US20030030597A1 (en) 2001-08-13 2003-02-13 Geist Richard Edwin Virtual display apparatus for mobile activities
US20030179249A1 (en) 2002-02-12 2003-09-25 Frank Sauer User interface for three-dimensional data sets
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
CA2388766A1 (en) 2002-06-17 2003-12-17 Steve Mann Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames
US6943754B2 (en) 2002-09-27 2005-09-13 The Boeing Company Gaze tracking system, eye-tracking assembly and an associated method of calibration
WO2004042662A1 (en) * 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
US7793801B2 (en) 2002-11-18 2010-09-14 David Carl Drummond Positive pressure liquid transfer and removal system configured for operation by a hand and by a foot
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7500747B2 (en) 2003-10-09 2009-03-10 Ipventure, Inc. Eyeglasses with electrical components
JP2005061931A (ja) * 2003-08-11 2005-03-10 Nippon Telegr & Teleph Corp <Ntt> 3次元形状の復元方法及びその装置並びに3次元形状の復元プログラム
US7546343B2 (en) * 2003-09-23 2009-06-09 Alcatel-Lucent Usa Inc. System and method for supporting virtual conferences
JP2005165778A (ja) * 2003-12-03 2005-06-23 Canon Inc 頭部装着型表示装置、及びその制御方法
KR101041723B1 (ko) 2003-12-19 2011-06-14 티디비전 코포레이션 에스.에이. 데 씨.브이. 3차원 비디오게임 시스템
RU2339083C2 (ru) * 2003-12-19 2008-11-20 ТиДиВижн Корпорейшн Эс.Эй.ДЕ Си.Ви Система трехмерной видеоигры
EP1755441B1 (en) 2004-04-01 2015-11-04 Eyefluence, Inc. Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20050289590A1 (en) 2004-05-28 2005-12-29 Cheok Adrian D Marketing platform
JP4677269B2 (ja) * 2005-04-08 2011-04-27 キヤノン株式会社 情報処理方法およびシステム
US7403268B2 (en) 2005-02-11 2008-07-22 Deltasphere, Inc. Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets
US7642989B2 (en) * 2005-03-17 2010-01-05 Massachusetts Institute Of Technology System for and method of motion and force synchronization with time delay reduction in multi-user shared virtual environments
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US7739339B2 (en) 2006-06-28 2010-06-15 The Boeing Company System and method of communications within a virtual environment
US9205329B2 (en) * 2006-07-25 2015-12-08 Mga Entertainment, Inc. Virtual world electronic game
US8010474B1 (en) * 2006-09-05 2011-08-30 Aol Inc. Translating paralinguisitic indicators
US8726195B2 (en) 2006-09-05 2014-05-13 Aol Inc. Enabling an IM user to navigate a virtual world
US8012023B2 (en) 2006-09-28 2011-09-06 Microsoft Corporation Virtual entertainment
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
CN101005514A (zh) * 2006-12-27 2007-07-25 北京航空航天大学 用于网络游戏的多服务器组织方法
JP5309448B2 (ja) * 2007-01-26 2013-10-09 ソニー株式会社 表示装置、表示方法
US8135018B1 (en) * 2007-03-29 2012-03-13 Qurio Holdings, Inc. Message propagation in a distributed virtual world
US8601386B2 (en) * 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
US8433656B1 (en) * 2007-06-13 2013-04-30 Qurio Holdings, Inc. Group licenses for virtual objects in a distributed virtual world
US20090054084A1 (en) 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
US9111285B2 (en) * 2007-08-27 2015-08-18 Qurio Holdings, Inc. System and method for representing content, user presence and interaction within virtual world advertising environments
US20090083051A1 (en) * 2007-09-26 2009-03-26 Bokor Brian R Interactive Self-Contained Business Transaction Virtual Object Generation
US7792801B2 (en) 2007-10-12 2010-09-07 International Business Machines Corporation Controlling and using virtual universe wish lists
JP4950834B2 (ja) 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
US20090109240A1 (en) 2007-10-24 2009-04-30 Roman Englert Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
US8231465B2 (en) * 2008-02-21 2012-07-31 Palo Alto Research Center Incorporated Location-aware mixed-reality gaming platform
US20090232355A1 (en) 2008-03-12 2009-09-17 Harris Corporation Registration of 3d point cloud data using eigenanalysis
US8756530B2 (en) 2008-05-27 2014-06-17 International Business Machines Corporation Generation and synchronization of offline 3D virtual world content
EP2163284A1 (en) * 2008-09-02 2010-03-17 Zero Point Holding A/S Integration of audio input to a software application
CN101359432B (zh) * 2008-09-02 2011-01-19 浙江理工大学 交互式三维虚拟物流仿真集成方法及系统
JP5094663B2 (ja) 2008-09-24 2012-12-12 キヤノン株式会社 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法
US9480919B2 (en) 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
US20100162121A1 (en) * 2008-12-22 2010-06-24 Nortel Networks Limited Dynamic customization of a virtual world
JP2010169976A (ja) * 2009-01-23 2010-08-05 Sony Corp 空間像表示装置
CN101539804A (zh) * 2009-03-11 2009-09-23 上海大学 基于增强虚拟现实与异型屏的实时人机互动方法及系统
JP2010217719A (ja) * 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
JP5178607B2 (ja) 2009-03-31 2013-04-10 株式会社バンダイナムコゲームス プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置
CN101923462A (zh) * 2009-06-10 2010-12-22 成都如临其境创意科技有限公司 一种基于FlashVR的三维微型场景网络发布引擎
US20100325154A1 (en) * 2009-06-22 2010-12-23 Nokia Corporation Method and apparatus for a virtual image world
US8966380B2 (en) * 2009-07-21 2015-02-24 UnisFair, Ltd. Apparatus and method for a virtual environment center and venues thereof
US8939840B2 (en) * 2009-07-29 2015-01-27 Disney Enterprises, Inc. System and method for playsets using tracked objects and corresponding virtual worlds
US20110165939A1 (en) * 2010-01-05 2011-07-07 Ganz Method and system for providing a 3d activity in a virtual presentation
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
KR101208911B1 (ko) * 2010-06-24 2012-12-06 전자부품연구원 가상 세계 운용 시스템 및 운용 방법
US8531355B2 (en) 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US8764571B2 (en) 2010-09-24 2014-07-01 Nokia Corporation Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices
US8661354B2 (en) 2010-09-24 2014-02-25 Nokia Corporation Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9348141B2 (en) 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8620730B2 (en) * 2010-12-15 2013-12-31 International Business Machines Corporation Promoting products in a virtual world
US9538156B2 (en) * 2011-01-31 2017-01-03 Cast Group Of Companies Inc. System and method for providing 3D sound
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
US8692738B2 (en) * 2011-06-10 2014-04-08 Disney Enterprises, Inc. Advanced Pepper's ghost projection system with a multiview and multiplanar display
US20130050499A1 (en) * 2011-08-30 2013-02-28 Qualcomm Incorporated Indirect tracking
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130063429A1 (en) 2011-09-08 2013-03-14 Parham Sina System and method for distributing three-dimensional virtual world data
US20130077147A1 (en) 2011-09-22 2013-03-28 Los Alamos National Security, Llc Method for producing a partially coherent beam with fast pattern update rates
US9286711B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
RU2017115669A (ru) * 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US9182815B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
US10013053B2 (en) 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US8638498B2 (en) 2012-01-04 2014-01-28 David D. Bohn Eyebox adjustment for interpupillary distance
US9274338B2 (en) 2012-03-21 2016-03-01 Microsoft Technology Licensing, Llc Increasing field of view of reflective waveguide
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
US20140218281A1 (en) 2012-12-06 2014-08-07 Eyefluence, Inc. Systems and methods for eye gaze determination
AU2014204252B2 (en) 2013-01-03 2017-12-14 Meta View, Inc. Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US20140195918A1 (en) 2013-01-07 2014-07-10 Steven Friedlander Eye tracking user interface
IL240822B (en) 2014-09-23 2020-03-31 Heidelberger Druckmasch Ag Sheet feeding device
GB2570298A (en) * 2018-01-17 2019-07-24 Nokia Technologies Oy Providing virtual content based on user context

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182331A (ja) * 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体
US20080024594A1 (en) * 2004-05-19 2008-01-31 Ritchey Kurtis J Panoramic image-based virtual reality/telepresence audio-visual system and method
JP2006293604A (ja) * 2005-04-08 2006-10-26 Canon Inc 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US20110216002A1 (en) * 2010-03-05 2011-09-08 Sony Computer Entertainment America Llc Calibration of Portable Devices in a Shared Virtual Space

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015138445A (ja) * 2014-01-23 2015-07-30 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
JP7513808B2 (ja) 2015-03-05 2024-07-09 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
JP2018511122A (ja) * 2015-03-05 2018-04-19 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
JP7305690B2 (ja) 2015-03-05 2023-07-10 マジック リープ, インコーポレイテッド 拡張現実のためのシステムおよび方法
JP2021101251A (ja) * 2015-03-05 2021-07-08 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実のためのシステムおよび方法
US10832479B2 (en) 2015-06-15 2020-11-10 Sony Corporation Information processing apparatus, information processing method, and program
WO2016203792A1 (ja) * 2015-06-15 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2016203792A1 (ja) * 2015-06-15 2018-04-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11386626B2 (en) 2015-06-15 2022-07-12 Sony Corporation Information processing apparatus, information processing method, and program
JP2017059891A (ja) * 2015-09-14 2017-03-23 ミライアプリ株式会社 状態特定プログラム、状態特定装置、ウェアラブルデバイス及び管理装置
JP2022177024A (ja) * 2015-09-16 2022-11-30 マジック リープ, インコーポレイテッド オーディオファイルの頭部姿勢ミキシング
JP7406602B2 (ja) 2015-09-16 2023-12-27 マジック リープ, インコーポレイテッド オーディオファイルの頭部姿勢ミキシング
US11778412B2 (en) 2015-09-16 2023-10-03 Magic Leap, Inc. Head pose mixing of audio files
JP2018529167A (ja) * 2015-09-16 2018-10-04 マジック リープ, インコーポレイテッドMagic Leap,Inc. オーディオファイルの頭部姿勢ミキシング
JP2021121955A (ja) * 2015-09-16 2021-08-26 マジック リープ, インコーポレイテッドMagic Leap, Inc. オーディオファイルの頭部姿勢ミキシング
JP7162099B2 (ja) 2015-09-16 2022-10-27 マジック リープ, インコーポレイテッド オーディオファイルの頭部姿勢ミキシング
CN108292040B (zh) * 2015-09-30 2020-11-06 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
CN108292040A (zh) * 2015-09-30 2018-07-17 索尼互动娱乐股份有限公司 优化头戴式显示器屏幕上的内容定位的方法
JP2018534687A (ja) * 2015-10-20 2018-11-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元空間内の仮想オブジェクトの選択
JP2019517049A (ja) * 2016-03-31 2019-06-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 姿勢および複数のdofコントローラを用いた3d仮想オブジェクトとの相互作用
JP2017199106A (ja) * 2016-04-26 2017-11-02 日本電信電話株式会社 仮想環境構築装置、仮想環境構築方法、プログラム
JP2022062039A (ja) * 2016-10-18 2022-04-19 ヴァーチャリー ライヴ (スウィッツァランド) ジーエムビーエイチ Hmd配信システム
JP7362796B2 (ja) 2016-10-18 2023-10-17 ヴァーチャリー ライヴ (スウィッツァランド) ジーエムビーエイチ Hmd配信システム
JP2020509492A (ja) * 2017-02-28 2020-03-26 マジック リープ, インコーポレイテッドMagic Leap,Inc. 複合現実デバイスにおける仮想および実オブジェクトの記録
WO2020262261A1 (ja) * 2019-06-28 2020-12-30 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11842453B2 (en) 2019-06-28 2023-12-12 Sony Group Corporation Information processing device, information processing method, and program
JP7054545B2 (ja) 2019-08-20 2022-04-14 ザ カラニー ホールディング エスエーアールエル デジタルリアリティ内でのインタラクションレベルに基づく遠隔測定および追跡のためのシステムおよび方法
JP2021036424A (ja) * 2019-08-20 2021-03-04 ティーエムアールダブリュー ファウンデーション アイピー アンド ホールディング エスエーアールエル デジタルリアリティ内でのインタラクションレベルに基づく遠隔測定および追跡のためのシステムおよび方法

Also Published As

Publication number Publication date
AU2017201063A1 (en) 2017-03-09
JP2017102946A (ja) 2017-06-08
IL260879B (en) 2019-03-31
BR112014010230A8 (pt) 2017-06-20
US9215293B2 (en) 2015-12-15
AU2023200357A1 (en) 2023-02-23
AU2017201063B2 (en) 2018-12-06
US10862930B2 (en) 2020-12-08
CN104011788B (zh) 2016-11-16
US20200128054A1 (en) 2020-04-23
CN104011788A (zh) 2014-08-27
CA2853787C (en) 2019-08-27
EP2771877A4 (en) 2015-07-01
JP7246352B2 (ja) 2023-03-27
CA3164530C (en) 2023-09-19
EP2771877A1 (en) 2014-09-03
IL232281A0 (en) 2014-06-30
US20210044636A1 (en) 2021-02-11
US10587659B2 (en) 2020-03-10
US10841347B2 (en) 2020-11-17
EP3974041B1 (en) 2024-07-10
IL264777A (en) 2019-05-30
CA2853787A1 (en) 2013-06-13
US20200076863A1 (en) 2020-03-05
JP6345282B2 (ja) 2018-06-20
AU2024203489A1 (en) 2024-06-13
JP2021036449A (ja) 2021-03-04
CA3048647A1 (en) 2013-06-13
JP2023171762A (ja) 2023-12-05
CN106484115B (zh) 2019-04-19
CA3048647C (en) 2022-08-16
AU2019201411A1 (en) 2019-03-21
WO2013085639A1 (en) 2013-06-13
EP3258671A1 (en) 2017-12-20
IL232281B (en) 2018-02-28
IN2014CN03300A (ja) 2015-10-09
JP2022050513A (ja) 2022-03-30
NZ764226A (en) 2021-11-26
US20130117377A1 (en) 2013-05-09
KR102005106B1 (ko) 2019-07-29
US11601484B2 (en) 2023-03-07
RU2621633C2 (ru) 2017-06-06
JP6657289B2 (ja) 2020-03-04
CA3207408A1 (en) 2013-06-13
US20200053138A1 (en) 2020-02-13
AU2012348348A1 (en) 2014-05-15
AU2021200177A1 (en) 2021-03-18
JP2019215933A (ja) 2019-12-19
KR20190014108A (ko) 2019-02-11
EP3404894A1 (en) 2018-11-21
CN106484115A (zh) 2017-03-08
US20160100034A1 (en) 2016-04-07
KR101917630B1 (ko) 2018-11-13
US20200053137A1 (en) 2020-02-13
US20210400094A1 (en) 2021-12-23
JP6792039B2 (ja) 2020-11-25
KR20180091104A (ko) 2018-08-14
KR101944846B1 (ko) 2019-02-01
US10594747B1 (en) 2020-03-17
US20200162526A1 (en) 2020-05-21
JP6110866B2 (ja) 2017-04-05
US20150032823A1 (en) 2015-01-29
KR20140093970A (ko) 2014-07-29
IL257309A (en) 2018-04-09
IL272459B (en) 2020-11-30
RU2017115669A (ru) 2019-01-28
US10637897B2 (en) 2020-04-28
AU2012348348B2 (en) 2017-03-30
IL264777B (en) 2020-02-27
AU2023200357B2 (en) 2024-02-29
BR112014010230A2 (pt) 2017-06-13
EP4404537A2 (en) 2024-07-24
US10469546B2 (en) 2019-11-05
EP4404537A3 (en) 2024-10-16
KR101964223B1 (ko) 2019-04-01
EP2771877B1 (en) 2017-10-11
EP3404894B1 (en) 2020-02-12
US20180205773A1 (en) 2018-07-19
NZ765499A (en) 2021-12-24
US10021149B2 (en) 2018-07-10
EP3258671B1 (en) 2018-09-05
US20230370508A1 (en) 2023-11-16
JP7348261B2 (ja) 2023-09-20
JP2018129085A (ja) 2018-08-16
RU2014121402A (ru) 2015-12-10
EP3666352B1 (en) 2021-12-01
KR20170122839A (ko) 2017-11-06
US20160359930A1 (en) 2016-12-08
US11082462B2 (en) 2021-08-03
EP3666352A1 (en) 2020-06-17
US12095833B2 (en) 2024-09-17
CA3164530A1 (en) 2013-06-13
US20190158549A1 (en) 2019-05-23
IL272459A (en) 2020-03-31
EP3974041A1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
JP7348261B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
JP7002684B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160719

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170310

R150 Certificate of patent or registration of utility model

Ref document number: 6110866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250