KR101944846B1 - 증강 및 가상 현실을 위한 시스템 및 방법 - Google Patents
증강 및 가상 현실을 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR101944846B1 KR101944846B1 KR1020147014448A KR20147014448A KR101944846B1 KR 101944846 B1 KR101944846 B1 KR 101944846B1 KR 1020147014448 A KR1020147014448 A KR 1020147014448A KR 20147014448 A KR20147014448 A KR 20147014448A KR 101944846 B1 KR101944846 B1 KR 101944846B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- virtual
- data
- virtual world
- objects
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/40—Support for services or applications
- H04L65/401—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
- H04L65/4015—Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/424—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/812—Ball games, e.g. soccer or baseball
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/92—Video game devices specially adapted to be hand-held while playing
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/954—Navigation, e.g. using categorised browsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/14—Multichannel or multilink protocols
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
- A63F2300/1093—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
- A63F2300/5553—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/57—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
- A63F2300/577—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for watching a game played by other players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6607—Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
- A63F2300/695—Imported photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Computer Security & Cryptography (AREA)
- Acoustics & Sound (AREA)
- Environmental & Geological Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
- Stereophonic System (AREA)
Abstract
일 실시예는 둘 또는 그 초과의 사용자들이 가상 세계 데이터를 포함하는 가상 세계 내에서 대화하도록 가능케 하기 위한 시스템으로 지향되고, 상기 시스템은 하나 또는 그 초과의 컴퓨팅 디바이스들을 포함하는 컴퓨터 네트워크를 포함하고, 상기 하나 또는 그 초과의 컴퓨팅 디바이스들은 메모리, 프로세싱 회로, 그리고 적어도 부분적으로 상기 메모리에 저장되고, 상기 가상 세계 데이터의 적어도 일부분을 프로세싱하기 위해 상기 프로세싱 회로에 의해 실행가능한 소프트웨어를 포함하고; 여기서, 상기 가상 세계 데이터의 적어도 제1 일부분은 제1 사용자에 국한된 제1 사용자 가상 세계로부터 나오고, 여기서 상기 컴퓨터 네트워크는 제2 사용자로의 제시를 위해 상기 제1 일부분을 사용자 디바이스에 전송하도록 동작하고, 그래서 상기 제2 사용자는 상기 제2 사용자의 위치로부터 상기 제1 일부분을 경험할 수 있고, 그래서 상기 제1 사용자 가상 세계의 양상들이 상기 제2 사용자에게 효과적으로 전달된다.
Description
본 출원은, 35 U.S.C. §119 하에서, 2011년 10월 28일자로 출원된 U.S. 임시 출원들 시리얼 번호 61/552,941을 우선권으로 한다. 전술된 출원은 이로써 인용에 의해 본 출원에 그 전체가 포함된다.
본 출원은 일반적으로, 하나 또는 그 초과의 사용자들에 대해 대화식(interactive) 가상 또는 증강 현실 환경들을 용이하게 하도록 구성된 시스템들 및 방법들에 관한 것이다.
가상 및 증강 현실 환경들은, 부분적으로, 환경을 설명하는 데이터를 이용하여 컴퓨터들에 의해 생성된다. 이러한 데이터는, 예컨대 다양한 객체들을 설명할 수 있고, 사용자가 상기 다양한 객체들을 감지할 수 있고 상기 다양한 객체들과 대화할 수 있다. 이러한 객체들의 예들은, 사용자가 보도록 렌더링 및 디스플레이되는 객체들, 사용자가 듣도록 재생되는 오디오, 그리고 사용자가 느끼도록 하기 위한 촉각(tactile)(또는 햅틱) 피드백을 포함한다. 사용자들은 다양한 시각적, 청각적 및 전략적(tactical) 수단들을 통해 가상 및 증강 현실 환경들을 감지할 수 있고 가상 및 증강 현실 환경들과 대화할 수 있다.
일 실시예는 둘 또는 그 초과의 사용자들이 가상 세계 데이터를 포함하는 가상 세계 내에서 대화하는 것을 가능케 하기 위한 시스템으로 지향되고, 상기 시스템은 하나 또는 그 초과의 컴퓨팅 디바이스들을 포함하는 컴퓨터 네트워크를 포함하고, 상기 하나 또는 그 초과의 컴퓨팅 디바이스들은 메모리, 프로세싱 회로, 그리고 적어도 부분적으로 상기 메모리에 저장되고, 상기 가상 세계 데이터의 적어도 일부분을 프로세싱하기 위해 상기 프로세싱 회로에 의해 실행가능한 소프트웨어를 포함하고; 여기서, 상기 가상 세계 데이터의 적어도 제1 일부분은 제1 사용자에 국한된 제1 사용자 가상 세계로부터 나오고, 여기서 상기 컴퓨터 네트워크는 제2 사용자로의 제시를 위해 상기 제1 일부분을 사용자 디바이스에 전송하도록 동작하고, 그래서 상기 제2 사용자는 상기 제2 사용자의 위치로부터 상기 제1 일부분을 경험할 수 있고, 그래서 상기 제1 사용자 가상 세계의 양상들이 상기 제2 사용자에게 효과적으로 전달된다. 제1 사용자 및 제2 사용자는 상이한 물리적 위치들에 있을 수 있거나, 또는 실질상 동일한 물리적 위치에 있을 수 있다. 가상 세계의 적어도 일부분은 가상 세계 데이터의 변화에 응답하여 변하도록 구성될 수 있다. 가상 세계의 적어도 일부분은 사용자 디바이스에 의해 감지된 물리적 객체에 응답하여 변하도록 구성될 수 있다. 가상 세계 데이터의 변화는 물리적 객체와 미리결정된 관계를 갖는 가상 객체를 표현할 수 있다. 가상 세계 데이터의 변화는 미리결정된 관계에 따라 제2 사용자로의 제시를 위해 제2 사용자 디바이스에 제시될 수 있다. 가상 세계는 사용자 디바이스 또는 컴퓨터 서버들 중 적어도 하나에 의해 렌더링되도록 동작할 수 있다. 가상 세계는 2-차원 포맷으로 제시될 수 있다. 가상 세계는 3-차원 포맷으로 제시될 수 있다. 사용자 디바이스는 증강 현실 모드에서 사용자와 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작할 수 있다. 사용자 디바이스는 가상 현실 모드에서 사용자와 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작할 수 있다. 사용자 디바이스는 증강 및 가상 현실 모드의 결합에서 사용자와 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작할 수 있다. 가상 세계 데이터는 데이터 네트워크를 경유해 전송될 수 있다. 컴퓨터 네트워크는 사용자 디바이스로부터 가상 세계 데이터의 적어도 일부분을 수신하도록 동작할 수 있다. 사용자 디바이스에 전송된 가상 세계 데이터의 적어도 일부분은 가상 세계의 적어도 일부분을 생성하기 위한 명령들을 포함할 수 있다. 가상 세계 데이터의 적어도 일부분은 프로세싱 또는 분배 중 적어도 하나를 위해 게이트웨이에 전송될 수 있다. 하나 또는 그 초과의 컴퓨터 서버들 중 적어도 하나가 게이트웨이에 의해 분배된 가상 세계 데이터를 프로세싱하도록 동작할 수 있다.
다른 실시예는, 음성 어조(voice inflection) 및 얼굴 인식 소프트웨어로부터의 선택적 입력을 갖는 웨어러블(wearable) 디바이스 상의 데이터에 적어도 부분적으로 기초하여 원격 아바타들이 애니메이팅되는 가상 및/또는 증강 사용자 경험을 위한 시스템으로 지향된다.
다른 실시예는, 카메라 포즈 또는 뷰포인트 포지션 및 벡터가 세계 섹터에서 어디에든지 배치될 수 있는 가상 및/또는 증강 사용자 경험을 위한 시스템으로 지향된다.
다른 실시예는, 세계들 또는 그 일부분들이 관찰하는 사용자들에 대해 다양하고 선택가능한 규모들로 렌더링될 수 있는 가상 및/또는 증강 사용자 경험을 위한 시스템으로 지향된다.
다른 실시예는, 포즈 태깅된 이미지(pose tagged image)들에 부가하여, 포인트들 또는 파라메트릭 라인들과 같은 피처들이 세계 모델에 대해 베이스 데이터로서 활용될 수 있는 가상 및/또는 증강 사용자 경험을 위한 시스템으로 지향되고, 상기로부터, 세그먼트된 객체들 및 상기 세계 모델에의 상호 포함을 위해 소스 피처들을 태깅하는 실세계 객체들의 파라메트릭 표현들을 생성하기 위해 소프트웨어 로봇들 또는 객체 인식기들이 활용될 수 있다.
도 1은 다수의 사용자들에 대해 대화식 가상 또는 증강 현실 환경들을 용이하게 하기 위한 기재된 시스템의 대표적 실시예를 예시한다.
도 2는 도 1에서 예시된 시스템과 대화하기 위한 사용자 디바이스의 예를 예시한다.
도 3은 모바일 웨어러블 사용자 디바이스의 예시적 실시예를 예시한다.
도 4는 도 3의 모바일 웨어러블 사용자 디바이스가 증강 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 5는 도 3의 모바일 웨어러블 사용자 디바이스가 가상 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 6은 도 3의 모바일 웨어러블 사용자 디바이스가 블렌드 가상 인터페이스 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 7은 상이한 지리적 위치들에 위치된 두 명의 사용자들 각각이 각자의 각각의 사용자 디바이스들을 통해 다른 사용자 및 공통 가상 세계와 대화하는 실시예를 예시한다.
도 8은 도 7의 실시예가 햅틱 디바이스의 사용을 포함하도록 확장되는 실시예를 예시한다.
도 9a는 제1 사용자가 블렌드 가상 인터페이스 모드로 디지털 세계와 인터페이싱하고 있고 제2 사용자가 가상 현실 모드로 동일한 디지털 세계와 인터페이싱하고 있는 혼합된 모드 인터페이싱의 예를 예시한다.
도 9b는 제1 사용자가 블렌드 가상 인터페이스 모드로 디지털 세계와 인터페이싱하고 있고 제2 사용자가 증강 현실 모드로 동일한 디지털 세계와 인터페이싱하고 있는 혼합된 모드 인터페이싱의 다른 예를 예시한다.
도 10은 증강 현실 모드로 시스템과 인터페이싱할 때 사용자의 뷰의 예시적 예시를 예시한다.
도 11은 사용자가 증강 현실 모드로 시스템과 인터페이싱하고 있을 때 물리적 객체에 의해 트리거링되는 가상 객체를 나타내는 사용자의 뷰의 예시적 예시를 예시한다.
도 12는 증강 현실 경험에 있는 한 명의 사용자가 가상 현실 경험에 있는 다른 사용자의 존재를 시각화시키는 증강 및 가상 현실 통합 구성의 일 실시예를 예시한다.
도 13은 시간 및/또는 콘틴전시 이벤트(contingency event) 기반 증강 현실 경험 구성의 일 실시예를 예시한다.
도 14는 가상 및/또는 증강 현실 경험들에 적절한 사용자 디스플레이 구성의 일 실시예를 예시한다.
도 15는 로컬 및 클라우드-기반 컴퓨팅 조정의 일 실시예를 예시한다.
도 16은 정합(registration) 구성들의 다양한 양상들을 예시한다.
도 2는 도 1에서 예시된 시스템과 대화하기 위한 사용자 디바이스의 예를 예시한다.
도 3은 모바일 웨어러블 사용자 디바이스의 예시적 실시예를 예시한다.
도 4는 도 3의 모바일 웨어러블 사용자 디바이스가 증강 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 5는 도 3의 모바일 웨어러블 사용자 디바이스가 가상 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 6은 도 3의 모바일 웨어러블 사용자 디바이스가 블렌드 가상 인터페이스 모드로 동작하고 있을 때 사용자가 보는 객체들의 예를 예시한다.
도 7은 상이한 지리적 위치들에 위치된 두 명의 사용자들 각각이 각자의 각각의 사용자 디바이스들을 통해 다른 사용자 및 공통 가상 세계와 대화하는 실시예를 예시한다.
도 8은 도 7의 실시예가 햅틱 디바이스의 사용을 포함하도록 확장되는 실시예를 예시한다.
도 9a는 제1 사용자가 블렌드 가상 인터페이스 모드로 디지털 세계와 인터페이싱하고 있고 제2 사용자가 가상 현실 모드로 동일한 디지털 세계와 인터페이싱하고 있는 혼합된 모드 인터페이싱의 예를 예시한다.
도 9b는 제1 사용자가 블렌드 가상 인터페이스 모드로 디지털 세계와 인터페이싱하고 있고 제2 사용자가 증강 현실 모드로 동일한 디지털 세계와 인터페이싱하고 있는 혼합된 모드 인터페이싱의 다른 예를 예시한다.
도 10은 증강 현실 모드로 시스템과 인터페이싱할 때 사용자의 뷰의 예시적 예시를 예시한다.
도 11은 사용자가 증강 현실 모드로 시스템과 인터페이싱하고 있을 때 물리적 객체에 의해 트리거링되는 가상 객체를 나타내는 사용자의 뷰의 예시적 예시를 예시한다.
도 12는 증강 현실 경험에 있는 한 명의 사용자가 가상 현실 경험에 있는 다른 사용자의 존재를 시각화시키는 증강 및 가상 현실 통합 구성의 일 실시예를 예시한다.
도 13은 시간 및/또는 콘틴전시 이벤트(contingency event) 기반 증강 현실 경험 구성의 일 실시예를 예시한다.
도 14는 가상 및/또는 증강 현실 경험들에 적절한 사용자 디스플레이 구성의 일 실시예를 예시한다.
도 15는 로컬 및 클라우드-기반 컴퓨팅 조정의 일 실시예를 예시한다.
도 16은 정합(registration) 구성들의 다양한 양상들을 예시한다.
도 1을 참조하면, 시스템(100)은 아래에서 설명되는 프로세스들을 구현하기 위한 대표적 하드웨어이다. 이러한 대표적 시스템은, 하나 또는 그 초과의 높은 대역폭 인터페이스들(115)을 통해 연결된 하나 또는 그 초과의 컴퓨터 서버들(110)로 구성된 컴퓨팅 네트워크(105)를 포함한다. 컴퓨팅 네트워크의 서버들은 같은 장소에 배치될 필요가 없다. 하나 또는 그 초과의 서버들(110) 각각은 프로그램 명령들을 실행하기 위한 하나 또는 그 초과의 프로세서들을 포함한다. 서버들은 또한, 프로그램 명령들, 그리고 상기 프로그램 명령들의 지시 하에서 상기 서버들에 의해 수행되는 프로세스들에 의해 사용되거나 그리고/또는 생성되는 데이터를 저장하기 위한 메모리를 포함한다.
컴퓨팅 네트워크(105)는 서버들(110) 사이, 그리고 하나 또는 그 초과의 데이터 네트워크 연결들(130)을 경유해 서버들과 하나 또는 그 초과의 사용자 디바이스들(120) 사이에 데이터를 통신시킨다. 그러한 데이터 네트워크들의 예들은, 제한 없이, 예컨대 인터넷으로 보통 지칭되는, 그러한 네트워크들 중 많은 네트워크들의 상호연결을 포함하는 임의의 그리고 모든 타입들의 공중 및 전용 데이터 네트워크들 ― 모바일 및 유선 둘 다임 ― 을 포함한다. 도면에 의해 특정 미디어, 토폴로지 또는 프로토콜이 암시되는 것이 의도되지 않는다.
사용자 디바이스들은 컴퓨팅 네트워크(105) 또는 서버들(110) 중 임의의 서버와 직접 통신하기 위해 구성된다. 대안적으로, 사용자 디바이스들(120)은, 데이터를 프로세싱하기 위해 그리고/또는 네트워크(105)와 하나 또는 그 초과의 로컬 사용자 디바이스들(120) 사이에 데이터를 통신하기 위해 특별히 프로그래밍된 로컬 게이트웨이(140)를 통해, 원격 서버들(110)과 통신하고, 선택적으로 다른 사용자 디바이스들과 로컬로 통신한다.
예시된 바와 같이, 게이트웨이(140)는 소프트웨어 명령들을 실행하기 위한 프로세서와 소프트웨어 명령들 및 데이터를 저장하기 위한 메모리를 포함하는 별도의 하드웨어 컴포넌트로서 구현된다. 게이트웨이는, 컴퓨팅 네트워크(105)를 포함하는 서버들(110)과 통신하기 위해 데이터 네트워크들에 대한 자신만의 유선 및/또는 무선 연결을 갖는다. 대안적으로, 게이트웨이(140)는 사용자 디바이스(120)에 통합될 수 있고, 사용자 디바이스(120)는 사용자에 의해 착용되거나 또는 운반된다. 예컨대, 게이트웨이(140)는, 사용자 디바이스(120)에 설치되고 사용자 디바이스(120)에 포함된 프로세서 상에서 실행되는 다운로드 가능한 소프트웨어 애플리케이션으로서 구현될 수 있다. 일 실시예에서, 게이트웨이(140)는 데이터 네트워크(130)를 통해 컴퓨팅 네트워크(105)로의 액세스를 하나 또는 그 초과의 사용자들에게 제공한다.
서버들(110) 각각은, 예컨대, 데이터 및 소프트웨어 프로그램들을 저장하기 위한 작업 메모리 및 스토리지, 프로그램 명령들을 실행하기 위한 마이크로프로세서들, 그래픽들 프로세서들, 그리고 그래픽들, 이미지들, 비디오, 오디오 및 멀티-미디어 파일들을 렌더링 및 생성하기 위한 다른 특별한 프로세서들을 포함한다. 컴퓨팅 네트워크(105)는 서버들(110)에 의해 액세스되거나, 사용되거나, 또는 생성되는 데이터를 저장하기 위한 디바이스들을 또한 포함할 수 있다.
서버들, 그리고 선택적으로 사용자 디바이스들(120) 및 게이트웨이들(140) 상에서 실행되는 소프트웨어 프로그램들은, 디지털 세계들(본 명세서에서, 가상 세계들로 또한 지칭됨)을 생성하는데 사용되고, 사용자들은 상기 디지털 세계들을 이용하여 사용자 디바이스들(120)과 대화한다. 디지털 세계는, 사용자들이 경험하고 대화하도록 사용자 디바이스(120)를 통해 사용자에게 제시될 수 있는 가상의 존재하지 않는 엔티티들, 환경들 및 조건들을 설명하거나 그리고/또는 정의하는 프로세스들 및 데이터에 의해 표현된다. 예컨대, 사용자가 보거나 또는 사용자에 의해 경험되는 장면(scene)에서 실례될 때 물리적으로 존재하는 것으로 보일 어떤 타입의 객체, 엔티티 또는 아이템은 그 외양, 그 동작 ― 어떻게 사용자가 그것과 대화하도록 허가받는지 ―, 및 다른 특성들의 설명을 포함할 수 있다. 가상 세계(가상 객체들을 포함함)의 환경을 생성하는데 사용되는 데이터는, 예컨대, 대기 데이터, 지형 데이터, 날씨 데이터, 온도 데이터, 위치 데이터, 및 가상 환경을 정의하거나 그리고/또는 설명하는데 사용되는 다른 데이터를 포함할 수 있다. 부가하여, 가상 세계의 동작을 통제하는 다양한 조건들을 정의하는 데이터는, 예컨대, 물리학의 법칙들, 시간, 공간적 관계들, 및 가상 세계(가상 객체들을 포함함)의 동작을 통제하는 다양한 조건들을 정의하거나 그리고/또는 생성하는데 사용될 수 있는 다른 데이터를 포함할 수 있다.
디지털 세계의 엔티티, 객체, 조건, 특성, 동작 또는 다른 피처는, 맥락이 그렇지 않다고 나타내지 않는 한, 본 명세서에서 객체(예컨대, 디지털 객체, 가상 객체, 렌더링된 물리적 객체 등등)로 총칭적으로 지칭될 것이다. 객체들은, 이에 제한되지는 않지만 빌딩들, 플랜트들, 차량들, 사람들, 동물들, 창조물들, 머신들, 데이터, 비디오, 텍스트, 픽처들, 및 다른 사용자들을 포함하는 임의의 타입의 생물 또는 무생물 객체일 수 있다. 객체들은 또한, 물리적 세계에 실제로 존재하는 아이템들, 동작들 또는 조건들에 관한 정보를 저장하기 위해 디지털 세계에서 정의될 수 있다. 엔티티, 객체 또는 아이템을 설명하거나 또는 정의하거나, 또는 그 현재 상태를 저장하는 데이터는, 일반적으로 본 명세서에서 객체 데이터로 지칭된다. 이러한 데이터는, 서버들(110)에 의해 또는 구현에 따라 게이트웨이(140) 또는 사용자 디바이스(120)에 의해, 객체의 인스턴스를 실례하고 사용자가 사용자 디바이스를 통해 경험하기에 적절한 방식으로 객체를 렌더링하기 위해 프로세싱된다.
디지털 세계를 개발하거나 그리고/또는 큐레이팅(curating)하는 프로그래머들은 객체들, 그리고 상기 객체들이 실례되는 조건들을 생성하거나 또는 정의한다. 그러나, 디지털 세계는 다른 사람들이 객체들을 생성하거나 또는 수정하도록 허용할 수 있다. 일단 객체가 실례되면, 객체의 상태는 디지털 세계를 경험하는 하나 또는 그 초과의 사용자들에 의해 변경되거나, 제어되거나 또는 조작되도록 허용될 수 있다.
예컨대, 일 실시예에서, 디지털 세계의 개발, 제조, 및 관리는 일반적으로 하나 또는 그 초과의 시스템 관리 프로그래머들에 의해 제공된다. 몇몇의 실시예들에서, 이는, 디지털 세계들에서 스토리 라인들, 테마들 및 이벤트들의 개발, 설계 및/또는 실행뿐만 아니라, 예컨대 필름, 디지털, 네트워크, 모바일, 증강 현실 및 라이브 엔터테인먼트와 같은 다양한 형태들의 이벤트들 및 미디어를 통한 내러티브들의 분배를 포함할 수 있다. 시스템 관리 프로그래머들은 또한, 디지털 세계들 및 그와 연관된 사용자 커뮤니티들의 기술적 관리, 조정(moderation) 및 큐레이션뿐만 아니라, 네트워크 관리 인원에 의해 통상 수행되는 작업들도 다룰 수 있다.
사용자들은, 일반적으로 사용자 디바이스(120)로서 지정되는 어떤 타입의 로컬 컴퓨팅 디바이스를 이용하여 하나 또는 그 초과의 디지털 세계들과 대화한다. 그러한 사용자의 예들은, 이에 제한되지는 않지만, 스마트 폰, 태블릿 디바이스, HUD(heads-up display), 게임 콘솔, 또는 사용자에게 데이터를 통신할 수 있고 인터페이스 또는 디스플레이를 제공할 수 있는 임의의 다른 디바이스, 뿐만 아니라 그러한 디바이스들의 결합들을 포함한다. 몇몇의 실시예들에서, 사용자 디바이스(120)는, 예컨대 키보드, 마우스, 조이스틱, 게임 제어기, 햅틱 인터페이스 디바이스, 모션 캡쳐 제어기, Leap Motion, Inc.로부터 이용가능한 것들 또는 상표명 Kinect(RTM) 하에서 Microsoft로부터 이용가능한 것들과 같은 광학 추적 디바이스, 오디오 장비, 음성 장비, 프로젝터 시스템, 3D 디스플레이, 및 홀로그래픽 3D 콘택트 렌즈와 같은 로컬 주변 또는 입/출력 컴포넌트들을 포함할 수 있거나, 또는 이들과 통신할 수 있다.
시스템(100)과 대화하기 위한 사용자 디바이스(120)의 예가 도 2에서 예시된다. 도 2에 도시된 예시적 실시예에서, 사용자(210)는 스마트 폰(220)을 통해 하나 또는 그 초과의 디지털 세계들과 인터페이싱할 수 있다. 게이트웨이는, 스마트 폰(220) 상에서 저장되고 실행되는 소프트웨어 애플리케이션(230)에 의해 구현된다. 이러한 특정 예에서, 데이터 네트워크(130)는 사용자 디바이스(즉, 스마트 폰(220))을 컴퓨터 네트워크(105)에 연결시키는 무선 모바일 네트워크를 포함한다.
바람직한 실시예의 하나의 구현에서, 시스템(100)은 많은 수의 동시 사용자들(예컨대, 수백만의 사용자들)을 지원할 수 있고, 각각은, 어떤 타입의 사용자 디바이스(120)를 이용하여, 동일한 디지털 세계 또는 다수의 디지털 세계들과 인터페이싱한다.
사용자 디바이스는, 사용자에게 제시되는 다른 사용자들 및 객체들(실제 또는 가상)을 포함하는 서버들(110)에 의해 생성되는 디지털 세계와 사용자 사이에 시각적, 청각적, 및/또는 물리적 대화를 가능케 하기 위한 인터페이스를 사용자에게 제공한다. 상기 인터페이스는, 보일 수 있거나, 들릴 수 있거나 또는 다른 방식으로 감지될 수 있는 렌더링된 장면, 그리고 상기 장면과 실시간으로 대화하기 위한 능력을 사용자에게 제공한다. 사용자가 렌더링된 장면과 대화하는 방식은 사용자 디바이스의 능력들에 의해 지시될 수 있다. 예컨대, 사용자 디바이스가 스마트 폰이면, 사용자 대화는 사용자가 터치 스크린에 접촉하는 것에 의해 구현될 수 있다. 다른 예에서, 사용자 디바이스가 컴퓨터 또는 게임 콘솔이면, 사용자 대화는, 키보드 또는 게임 제어기를 이용하여 구현될 수 있다. 사용자 디바이스들은 센서들과 같이 사용자 대화를 가능케 하는 부가의 컴포넌트들을 포함할 수 있고, 여기서 센서들에 의해 검출되는 객체들 및 정보(제스처들을 포함함)는, 사용자 디바이스를 이용하여 가상 세계와의 사용자 대화를 표현하는 입력으로서 제공될 수 있다.
렌더링된 장면은 예컨대 2-차원 또는 3-차원 시각적 디스플레이들(프로젝션들을 포함함), 사운드, 그리고 햅틱 또는 촉각 피드백과 같은 다양한 포맷들로 제시될 수 있다. 렌더링된 장면은, 예컨대 증강 현실, 가상 현실, 및 이들의 결합들을 포함하는 하나 또는 그 초과의 모드들로 사용자에 의해 인터페이싱될 수 있다. 렌더링된 장면의 포맷, 뿐만 아니라 인터페이스 모드들은, 다음 중 하나 또는 그 초과에 의해 지시될 수 있다: 사용자 디바이스, 데이터 프로세싱 능력, 사용자 디바이스 접속성, 네트워크 용량 및 시스템 작업량. 많은 수의 사용자들이 디지털 세계들과 동시에 대화하게 하는 것과 데이터 교환의 실시간 성질은, 컴퓨팅 네트워크(105), 서버들(110), 게이트웨이 컴포넌트(140)(선택적), 및 사용자 디바이스(120)에 의해 가능케 된다.
일 예에서, 컴퓨팅 네트워크(105)(IS)는 고속 연결들(예컨대, 높은 대역폭 인터페이스들(115))을 통해 연결된 단일 및/또는 멀티-코어 서버들(즉, 서버들(110))을 갖는 대규모 컴퓨팅 시스템으로 구성되었다. 컴퓨팅 네트워크(105)는 클라우드 또는 그리드 네트워크를 형성할 수 있다. 서버들 각각은 메모리를 포함하거나, 또는 디지털 세계의 객체들을 생성하거나, 설계하거나, 변경하거나, 또는 프로세싱하기 위한 데이터를 구현하기 위한 소프트웨어를 저장하기 위한 컴퓨터 판독가능 메모리와 커플링된다. 이러한 객체들 및 그들의 실례들은 동적일 수 있고, 존재가 드나들 수 있고, 시간에 따라 변할 수 있고, 그리고 다른 조건들에 응답하여 변할 수 있다. 객체들의 동적 능력들의 예들은 일반적으로 본 명세서에서 다양한 실시예들에 대하여 논의된다. 몇몇의 실시예들에서, 시스템(100)과 인터페이싱하는 각각의 사용자는, 하나 또는 그 초과의 디지털 세계들 내에서, 객체 및/또는 객체들의 콜렉션으로서 또한 표현될 수 있다.
또한, 컴퓨팅 네트워크(105) 내의 서버들(110)은 디지털 세계들 각각에 대해 컴퓨터 상태 데이터를 저장한다. 컴퓨터 상태 데이터(본 명세서에서, 상태 데이터로 또한 지칭됨)는 객체 데이터의 컴포넌트일 수 있고, 일반적으로 주어진 인스턴스에서 객체의 인스턴스의 상태를 제때에 정의한다. 따라서, 컴퓨터 상태 데이터는 시간에 따라 변할 수 있고, 시스템(100)을 유지시키는 하나 또는 그 초과의 사용자들 및/또는 프로그래머들의 동작들에 의해 영향받을 수 있다. 사용자가 컴퓨터 상태 데이터(또는 디지털 세계들을 포함하는 다른 데이터)에 영향을 끼칠 수 있으므로, 사용자는 디지털 세계를 직접 변경하거나 또는 다른 방식으로 조작한다. 디지털 세계가 다른 사용자들과 공유되거나 또는 다른 사용자들에 의해 인터페이싱된다면, 사용자의 동작들은 디지털 세계와 대화하는 다른 사용자들이 경험하는 것에 영향을 끼칠 수 있다. 따라서, 몇몇의 실시예들에서, 사용자에 의해 이루어지는 디지털 세계에 대한 변화들을 시스템(100)과 인터페이싱하는 다른 사용자들이 경험할 것이다.
컴퓨팅 네트워크(105) 내의 하나 또는 그 초과의 서버들(110)에 저장된 데이터는, 일 실시예에서, 고속으로 그리고 낮은 지연으로, 하나 또는 그 초과의 사용자 디바이스들(120) 및/또는 게이트웨이 컴포넌트들(140)에 전송되거나 또는 배치된다. 일 실시예에서, 서버들에 의해 공유되는 객체 데이터는 전체일 수 있거나 또는 압축될 수 있고, 사용자의 로컬 컴퓨팅 디바이스(예컨대, 게이트웨이(140) 및/또는 사용자 디바이스(120))에 의해 렌더링 및 시각화된 사용자 측 상에 전체 객체 데이터를 재생성하기 위한 명령들을 포함한다. 몇몇의 실시예들에서, 컴퓨팅 네트워크(105)의 서버들(110) 상에서 실행되는 소프트웨어는, 사용자의 특정 디바이스 및 대역폭의 함수로서, 디지털 세계 내의 객체들(또는 컴퓨팅 네트워크(105)에 의해 교환되는 임의의 다른 데이터)에 대해, 자신이 생성하고 특정 사용자의 디바이스(120)에 전송하는 데이터를 적응시킬 수 있다. 예컨대, 사용자가 사용자 디바이스(120)를 통해 디지털 세계와 대화할 때, 서버(110)는, 사용자에 의해 사용되는 디바이스의 특정 타입, 디바이스의 접속성, 및/또는 사용자 디바이스와 서버 사이의 이용가능한 대역폭을 인식할 수 있고, 디바이스에 전달되는 데이터를 적절하게 크기결정 및 밸런싱하여, 사용자 대화를 최적화할 수 있다. 이의 예는, 전송된 데이터의 크기를 낮은 해상도 품질로 감소시키는 것을 포함할 수 있고, 그래서 데이터는 낮은 해상도 디스플레이를 갖는 특정 사용자 디바이스 상에서 디스플레이될 수 있다. 바람직한 실시예에서, 컴퓨팅 네트워크(105) 및/또는 게이트웨이 컴포넌트(140)는, 15개 프레임들/초 또는 그 초과로 그리고 높은 정의 품질 또는 그 초과의 해상도로 동작하는 인터페이스를 제시하기에 충분한 레이트로, 데이터를 사용자 디바이스(120)에 전달한다.
게이트웨이(140)는 하나 또는 그 초과의 사용자들에 대해 컴퓨팅 네트워크(105)로의 로컬 연결을 제공한다. 몇몇의 실시예들에서, 게이트웨이(140)는, 도 2에 도시된 것과 같은 사용자 디바이스(120) 또는 다른 로컬 디바이스 상에서 실행되는 다운로드 가능한 소프트웨어 애플리케이션에 의해 구현될 수 있다. 다른 실시예들에서, 게이트웨이(140)는, 하드웨어 컴포넌트(상기 컴포넌트 상에 적절한 소프트웨어/펌웨어가 저장되어 있고, 상기 컴포넌트는 프로세서를 가짐)에 의해 구현될 수 있고, 상기 하드웨어는, 사용자 디바이스(120)와 통신하거나 ― 그러나, 사용자 디바이스(120)에 포함되거나 또는 사용자 디바이스(120)에 끌리지는 않음 ― 또는 사용자 디바이스(120)에 포함되거나 중 어느 한 쪽이다. 게이트웨이(140)는 데이터 네트워크(130)를 통해 컴퓨팅 네트워크(105)와 통신하고, 컴퓨팅 네트워크(105)와 하나 또는 그 초과의 로컬 사용자 디바이스들(120) 사이의 데이터 교환을 제공한다. 아래에서 더욱 상세히 논의되는 바와 같이, 게이트웨이 컴포넌트(140)는 소프트웨어, 펌웨어, 메모리, 및 프로세싱 회로를 포함할 수 있고, 네트워크(105)와 하나 또는 그 초과의 로컬 사용자 디바이스들(120) 사이에 통신되는 데이터를 프로세싱할 수 있다.
몇몇의 실시예들에서, 게이트웨이 컴포넌트(140)는, 특정 사용자 디바이스(120)에 대해 최적 데이터 프로세싱 능력들을 허용하기 위해, 사용자 디바이스(120)와 컴퓨터 네트워크(105) 사이에 교환되는 데이터의 레이트를 모니터링 및 레귤레이팅한다. 예컨대, 몇몇의 실시예들에서, 게이트웨이(140)는 디지털 세계의 정적 및 동적 양상들 둘 다를, 심지어 사용자 디바이스와 연결된 인터페이스를 통해 사용자에게 제시되는 시야를 넘어서는 것들도 버퍼링 및 다운로딩한다. 그러한 실시예에서, 정적 객체들(구조화된 데이터, 소프트웨어 구현된 방법들, 또는 둘 다)의 인스턴스들은 메모리(게이트웨이 컴포넌트(140), 사용자 디바이스(120), 또는 둘 다에 국한됨)에 저장될 수 있고, 컴퓨팅 네트워크(105) 및/또는 사용자의 디바이스(120)에 의해 제공되는 데이터에 의해 표시되는 바와 같은 로컬 사용자의 현재 포지션에 비하여 참조된다. 예컨대 다른 사용자들 및/또는 로컬 사용자에 의해 제어되는 지능적 소프트웨어 에이전트들 및 객체들을 포함할 수 있는 동적 객체들의 인스턴스들은 고속 메모리 버퍼에 저장된다. 사용자에게 제시되는 장면 내에서 2-차원 또는 3-차원 객체를 표현하는 동적 객체들은, 예컨대, 움직이고 있지만 변하고 있지는 않은 정적 형상 및 변하고 있는 동적 형상과 같은 컴포넌트 형상들로 쪼개질 수 있다. 변하고 있는 동적 객체의 일부는, 게이트웨이 컴포넌트(140)에 의해 매니징되는, 컴퓨팅 네트워크(105)를 통해 서버(110)로부터의 실시간의 스레딩된 높은 우선순위 데이터 스트림에 의해 업데이트될 수 있다. 우선순위화된 스레딩된 데이터 스트림의 일 예로서, 사용자 눈의 60도 시야 내에 있는 데이터에는 더욱 주변에 있는 데이터보다 더 높은 우선순위가 주어질 수 있다. 다른 예는, 배경에 있는 정적 객체들보다, 사용자의 시야 내에 있는 동적 캐릭터들 및/또는 객체들을 우선순위화하는 것을 포함한다.
컴퓨팅 네트워크(105)와 사용자 디바이스(120) 사이의 데이터 연결을 매니징하는 것에 부가하여, 게이트웨이 컴포넌트(140)는 사용자 디바이스(120)에 제시될 수 있는 데이터를 저장할 수 있거나 그리고/또는 프로세싱할 수 있다. 예컨대, 몇몇의 실시예들에서, 게이트웨이 컴포넌트(140)는, 예컨대 사용자가 보도록 렌더링될 그래픽 객체들을 설명하는 압축된 데이터를 컴퓨팅 네트워크(105)로부터 수신할 수 있고, 컴퓨팅 네트워크(105)로부터 사용자 디바이스(120)에 전송되는 데이터 부하를 완화하기 위해 진보된 렌더링 기술들을 수행할 수 있다. 게이트웨이(140)가 별도의 디바이스인 다른 예에서, 게이트웨이(140)는, 프로세싱을 위해 데이터를 컴퓨팅 네트워크(105)에 전송하는 것이 아니라 객체의 로컬 인스턴스에 대한 데이터를 저장할 수 있거나 그리고/또는 프로세싱할 수 있다.
이제 도 3을 또한 참조하면, 디지털 세계들은 사용자의 디바이스의 능력들에 따라 좌우될 수 있는 다양한 포맷들로 하나 또는 그 초과의 사용자들에 의해 경험될 수 있다. 몇몇의 실시예들에서, 사용자 디바이스(120)는 예컨대 스마트 폰, 태블릿 디바이스, HUD(heads-up display), 게임 콘솔 또는 웨어러블 디바이스를 포함할 수 있다. 일반적으로, 사용자 디바이스는, 디스플레이와 커플링된 디바이스 상의 메모리에 저장된 프로그램 코드를 실행하기 위한 프로세서 및 통신 인터페이스를 포함할 것이다. 사용자 디바이스의 예시적 실시예가 도 3에서 예시되고, 여기서 사용자 디바이스는 모바일 웨어러블 디바이스, 즉 헤드-장착 디스플레이 시스템(300)을 포함한다. 본 기재의 실시예에 따라, 헤드-장착 디스플레이 시스템(300)은 사용자 인터페이스(302), 사용자-감지 시스템(304), 환경-감지 시스템(306), 및 프로세서(308)를 포함한다. 비록 프로세서(308)가 도 3에서 헤드-장착 시스템(300)과 별도의 분리된 컴포넌트로서 도시되지만, 대안적 실시예에서, 프로세서(308)는 헤드-장착 시스템(300)의 하나 또는 그 초과의 컴포넌트들과 통합될 수 있거나, 또는 예컨대 게이트웨이(140)와 같은 다른 시스템(100) 컴포넌트들에 통합될 수 있다.
사용자 디바이스는, 디지털 세계와 대화하고 디지털 세계를 경험하기 위한 인터페이스(302)를 사용자에게 제시한다. 그러한 대화는 사용자 및 디지털 세계를 수반할 수 있고, 하나 또는 그 초과의 다른 사용자들이 시스템(100) 그리고 상기 디지털 세계 내의 객체들과 인터페이싱한다. 일반적으로, 인터페이스(302)는 이미지 및/또는 오디오 감각 입력(그리고 몇몇의 실시예들에서, 물리적 감각 입력)을 사용자에게 제공한다. 따라서, 인터페이스(302)는 스피커들(미도시), 그리고 몇몇의 실시예들에서 인간 시력 시스템의 더욱 자연스런 특성들을 구현하는 3D 뷰잉 및/또는 입체적 3D 뷰잉을 가능케 할 수 있는 디스플레이 컴포넌트(303)를 포함할 수 있다. 몇몇의 실시예들에서, 디스플레이 컴포넌트(303)는 투명 인터페이스(예컨대, 클리어 OLED)를 포함할 수 있고, 상기 투명 인터페이스는, "오프" 셋팅일 때, 광학 왜곡 또는 컴퓨팅 오버레이가 거의 없는 상태부터 광학 왜곡 또는 컴퓨팅 오버레이가 없는 상태로 사용자 주변의 물리적 환경의 광학적으로 정확한 뷰를 가능케 한다. 아래에 더욱 상세히 논의되는 바와 같이, 인터페이스(302)는 다양한 시각적/인터페이스 성능 및 기능성을 허용하는 부가의 셋팅들을 포함할 수 있다.
사용자-감지 시스템(304)은, 몇몇의 실시예들에서, 시스템(300)을 착용한 개별 사용자에 관련된 특정 피처들, 특성들, 또는 정보를 검출하도록 동작하는 하나 또는 그 초과의 센서들(310)을 포함할 수 있다. 예컨대, 몇몇의 실시예들에서, 센서들(310)은 예컨대 다음 중 하나 또는 그 초과와 같은 사용자의 실시간 광학 특성들/측정들을 검출할 수 있는 카메라 또는 광학 검출/스캐닝 회로를 포함할 수 있다: 동공 수축/팽창, 각각의 동공의 각도 측정/포지셔닝, 구화율, 눈 형상(눈 형상이 시간에 따라 변하기 때문) 및 다른 해부학적 데이터. 이러한 데이터는, 사용자의 뷰잉 경험을 최적화하기 위해 인터페이스 시스템(100) 및/또는 헤드-장착 시스템(300)에 의해 사용될 수 있는 정보(예컨대, 사용자의 시각적 초점)를 제공할 수 있거나 또는 상기 정보를 계산하는데 사용될 수 있다. 예컨대, 일 실시예에서, 센서들(310) 각각은 사용자의 눈들 각각에 대해 동공 축소 레이트를 측정할 수 있다. 이러한 데이터는 프로세서(308)(또는 게이트웨이 컴포넌트(140) 또는 서버(110))에 전송될 수 있고, 여기서 데이터는 예컨대 인터페이스 디스플레이(303)의 밝기 셋팅에 대한 사용자의 반응을 결정하는데 사용된다. 인터페이스(302)는, 사용자의 반응에 따라, 예컨대 사용자의 반응이 디스플레이(303)의 밝기 레벨이 너무 높음을 표시한다면 디스플레이(303)를 디밍함으로써 조절될 수 있다. 사용자-감지 시스템(304)은 위에서 논의되거나 또는 도 3에서 예시된 것들 이외의 다른 컴포넌트들을 포함할 수 있다. 예컨대, 몇몇의 실시예들에서, 사용자-감지 시스템(304)은 사용자로부터 음성 입력을 수신하기 위한 마이크로폰을 포함할 수 있다. 또한, 사용자 감지 시스템은 하나 또는 그 초과의 적외선 카메라 센서들, 하나 또는 그 초과의 가시 스펙트럼 카메라 센서들, 구조화된 광 방출기들 및/또는 센서들, 적외선 광 방출기들, 코히어런트 광 방출기들 및/또는 센서들, 자이로(gyro)들, 가속도계들, 자력계들, 근접성 센서들, GPS 센서들, 초음파 방출기들 및 검출기들 및 햅틱 인터페이스들을 포함할 수 있다.
환경-감지 시스템(306)은 사용자 주변의 물리적 환경으로부터 데이터를 획득하기 위한 하나 또는 그 초과의 센서들(312)을 포함한다. 센서들에 의해 검출되는 정보 또는 객체들은 입력으로서 사용자 디바이스에 제공될 수 있다. 몇몇의 실시예들에서, 이러한 입력은 가상 세계와의 사용자 대화를 표현할 수 있다. 예컨대, 데스크 상의 가상 키보드를 보는 사용자는 마치 자신이 가상 키보드 상에서 타이핑하는 것처럼 자신의 손가락들을 이용하여 제스처할 수 있다. 움직이는 손가락들의 모션이 센서들(312)에 의해 캡쳐될 수 있고, 입력으로서 사용자 디바이스 또는 시스템에 제공될 수 있으며, 여기서 입력은 가상 세계를 변화시키는데 또는 새로운 가상 객체들을 생성하는데 사용될 수 있다. 예컨대, 손가락들의 모션은 타이핑으로서 (소프트웨어 프로그램을 이용하여) 인식될 수 있고, 인식된 타이핑 제스처는 가상 키보드 상의 가상 키들의 알려진 위치와 결합될 수 있다. 그런 다음, 시스템은 사용자(또는 시스템과 인터페이싱하는 다른 사용자들)에게 디스플레이되는 가상 모니터를 렌더링할 수 있고, 여기서 가상 모니터는 사용자에 의해 타이핑되는 텍스트를 디스플레이한다.
센서들(312)은, 예컨대 연속적으로 및/또는 간헐적으로 프로젝팅되는 적외선의 구조화된 광을 통해, 예컨대 장면 정보를 해석하기 위한 스캐너 또는 일반적으로 바깥쪽으로 면하는 카메라를 포함할 수 있다. 환경-감지 시스템(306)은, 정적 객체들, 동적 객체들, 사람들, 제스처들 및 다양한 조명, 대기 및 음향 조건들을 포함하는 로컬 환경을 검출 및 정합함으로써 사용자 주변의 물리적 환경의 하나 또는 그 초과의 엘리먼트들을 맵핑하기 위해 사용될 수 있다. 따라서, 몇몇의 실시예들에서, 환경-감지 시스템(306)은, 로컬 컴퓨팅 시스템(예컨대, 게이트웨이 컴포넌트(140) 또는 프로세서(308)에 임베딩되고 센서들(312)에 의해 검출된 정보 또는 하나 또는 그 초과의 객체들을 디지털로 재구성하도록 동작하는 이미지-기반 3D 재구성 소프트웨어를 포함할 수 있다. 일 예시적 실시예에서, 환경-감지 시스템(306)은 다음 중 하나 또는 그 초과를 제공한다: 모션 캡쳐 데이터(제스처 인식을 포함함), 심도 감지, 얼굴 인식, 객체 인식, 고유 객체 피처 인식, 음성/오디오 인식 및 프로세싱, 음향 소스 로컬화, 잡음 감소, 적외선 또는 유사 레이저 프로젝션, 뿐만 아니라 단색 및/또는 색 CMOS 센서들(또는 다른 유사 센서들), 시야 센서들, 및 다양한 다른 광학-인핸싱 센서들. 환경-감지 시스템(306)이 위에서 논의되거나 또는 도 3에서 예시된 것들 이외의 다른 컴포넌트들을 포함할 수 있음이 인정되어야 한다. 예컨대, 몇몇의 실시예들에서, 환경-감지 시스템(306)은 로컬 환경으로부터 오디오를 수신하기 위한 마이크로폰을 포함할 수 있다. 또한, 사용자 감지 시스템은 하나 또는 그 초과의 적외선 카메라 센서들, 하나 또는 그 초과의 가시 스펙트럼 카메라 센서들, 구조 광 방출기들 및/또는 센서들, 적외선 광 방출기들, 코히어런트 광 방출기들 및/또는 센서들, 자이로들, 가속도계들, 자력계들, 근접성 센서들, GPS 센서들, 초음파 방출기들 및 검출기들 및 햅틱 인터페이스들을 포함할 수 있다.
위에서 언급된 바와 같이, 프로세서(308)는, 몇몇의 실시예들에서, 헤드-장착 시스템(300)의 다른 컴포넌트들과 통합될 수 있거나, 인터페이스 시스템(100)의 다른 컴포넌트들과 통합될 수 있거나, 또는 도 3에 도시된 바와 같이 분리된 디바이스(웨어러블 또는 사용자와 별도임)일 수 있다. 프로세서(308)는, 물리적 유선 연결을 통해 또는 예컨대 모바일 네트워크 연결들(셀룰러 텔레폰 및 데이터 네트워크들을 포함함), Wi-Fi 또는 블루투스와 같은 무선 연결을 통해, 헤드-장착 시스템(300)의 다양한 컴포넌트들 및/또는 인터페이스 시스템(100)의 컴포넌트들에 연결될 수 있다. 프로세서(308)는 메모리 모듈, 집적된 그리고/또는 부가의 그래픽들 프로세싱 유닛, 무선 및/또는 유선 인터넷 접속성, 및 소스(예컨대, 컴퓨팅 네트워크(105), 사용자-감지 시스템(304), 환경-감지 시스템(306), 또는 게이트웨이 컴포넌트(140))로부터의 데이터를 이미지 및 오디오 데이터로 변환할 수 있는 코덱 및/또는 펌웨어를 포함할 수 있고, 여기서 이미지들/비디오 및 오디오는 인터페이스(302)를 통해 사용자에게 제시될 수 있다.
프로세서(308)는 헤드장착 시스템(300)의 다양한 컴포넌트들에 대한 데이터 프로세싱뿐만 아니라, 헤드-장착 시스템(300)과 게이트웨이 컴포넌트(140), 그리고 몇몇의 실시예들에서, 컴퓨팅 네트워크(105) 사이의 데이터 교환을 다룬다. 예컨대, 프로세서(308)는 사용자와 컴퓨팅 네트워크(105) 사이의 데이터 스트리밍을 버퍼링 및 프로세싱하는데 사용될 수 있어, 이로써 매끄럽고 연속적이고 높은 피델리티 사용자 경험이 가능케 된다. 몇몇의 실시예들에서, 프로세서(308)는 320×240 해상도에서 8개 프레임들/초 내지 높은 정의 해상도(1280×720)에서 24개 프레임들/초 사이, 또는 그 초과, 예컨대 60-120개 프레임들/초 및 4k 해상도 그리고 그 초과(10k+ 해상도 및 50,000개 프레임들/초)의 어디든지 달성하기에 충분한 레이트로 데이터를 프로세싱할 수 있다. 부가하여, 프로세서(308)는, 컴퓨팅 네트워크(105)로부터 실시간으로 스트리밍되는 데이터가 아니라, 사용자에게 제시될 수 있는 데이터를 저장할 수 있거나 그리고/또는 프로세싱할 수 있다. 예컨대, 몇몇의 실시예들에서, 프로세서(308)는, 컴퓨팅 네트워크(105)로부터 압축된 데이터를 수신하고, 컴퓨팅 네트워크(105)로부터 사용자 디바이스(120)에 전송되는 데이터 부하를 완화하기 위해 진보된 렌더링 기술들(예컨대, 라이팅 또는 쉐이딩)을 수행한다. 다른 예에서, 프로세서(308)는, 게이트웨이 컴포넌트(140) 또는 컴퓨팅 네트워크(105)에 데이터를 전송하는 것이 아니라, 로컬 객체 데이터를 저장할 수 있거나 그리고/또는 프로세싱할 수 있다.
몇몇의 실시예들에서, 헤드-장착 시스템(300)은 다양한 시각적/인터페이스 성능 및 기능을 허용하는 다양한 셋팅들 또는 모드들을 포함할 수 있다. 모드들은 사용자에 의해 수동으로 선택될 수 있거나, 또는 헤드-장착 시스템(300) 또는 게이트웨이 컴포넌트(140)의 컴포넌트들에 의해 자동으로 선택될 수 있다. 앞서 언급된 바와 같이, 헤드장착 시스템(300)의 일 예는 인터페이스(302)가 실질상 디지털 또는 가상 콘텐츠를 제공하지 않는 "오프" 모드를 포함한다. 오프 모드에서, 디스플레이 컴포넌트(303)는 투명할 수 있어, 이로써 광학 왜곡 또는 컴퓨팅 오버레이가 거의 없는 상태부터 광학 왜곡 또는 컴퓨팅 오버레이가 없는 상태로 사용자 주변의 물리적 환경의 광학적으로 정확한 뷰가 가능케 된다.
일 예시적 실시예에서, 헤드-장착 시스템(300)은 인터페이스(302)가 증강 현실 인터페이스를 제공하는 "증강" 모드를 포함한다. 증강 모드에서, 인터페이스 디스플레이(303)는 실질상 투명할 수 있어, 이로써 사용자가 로컬 물리적 환경을 보는 것이 허용된다. 동시에, 컴퓨팅 네트워크(105), 프로세서(308), 및/또는 게이트웨이 컴포넌트(140)에 의해 제공되는 가상 객체 데이터는, 물리적 로컬 환경과 결합하여, 디스플레이(303) 상에 제시된다.
도 4는 인터페이스(302)가 증강 모드로 동작하고 있을 때 사용자가 보는 객체들의 예시적 실시예를 예시한다. 도 4에 도시된 바와 같이, 인터페이스(302)는 물리적 객체(402) 및 가상 객체(404)를 제시한다. 도 4에 예시된 실시예에서, 물리적 객체(402)가 사용자의 로컬 환경에 존재하는 실제 물리적 객체인 반면에, 가상 객체(404)는 시스템(100)에 의해 생성되고 사용자 인터페이스(302)를 통해 디스플레이되는 객체이다. 몇몇의 실시예들에서, 가상 객체(404)는 물리적 환경 내의 고정된 포지션 또는 위치에 디스플레이될 수 있거나(예컨대, 물리적 환경에 위치된 특정 거리 사인 바로 옆에 서있는 가상 원숭이), 또는 사용자 인터페이스/디스플레이(303)에 비해 임의의 포지션에 위치된 객체로서 사용자에게 디스플레이될 수 있다(예컨대, 디스플레이(303)의 상부 좌측 코너에 보일 수 있는 가상 시계 또는 온도계).
몇몇의 실시예들에서, 가상 객체들은 사용자의 시야 내에서 또는 밖에서 물리적으로 제시되는 객체에 의해 트리거링되거나 또는 상기 객체의 큐 오프(cue off)가 이루어지도록 만들어질 수 있다. 가상 객체(404)는 물리적 객체(402)에 의해 큐 오프되거나 또는 트리거링된다. 예컨대, 물리적 객체(402)는 실제로 스툴일 수 있고, 가상 객체(404)는 스툴 상에 서있는 가상 동물로서 사용자에게(그리고, 몇몇의 실시예들에서, 시스템(100)과 인터페이싱하는 다른 사용자들에게) 디스플레이될 수 있다. 그러한 실시예에서, 환경-감지 시스템(306)은, 다양한 피처들 및/또는 형상 패턴들(센서들(312)에 의해 캡쳐됨)을 인식하여 물리적 객체(402)를 스툴로서 식별하기 위해, 예컨대 프로세서(308)에 저장된 소프트웨어 및/또는 펌웨어를 사용할 수 있다. 예컨대 스툴 상단과 같은 이러한 인식된 형상 패턴들은 가상 객체(404)의 배치를 트리거링하는데 사용될 수 있다. 다른 예들은 벽들, 테이블들, 가구들, 자동차들, 빌딩들, 사람들, 바닥(floor)들, 플랜트들, 동물들 ― 볼 수 있고, 객체 또는 객체들에 대한 어떤 관계에서 증강 현실 경험을 트리거링하는데 사용될 수 있는 임의의 객체 ― 을 포함한다.
몇몇의 실시예들에서, 트리거링되는 특정 가상 객체(404)는 사용자에 의해 선택될 수 있거나, 또는 헤드-장착 시스템(300) 또는 인터페이스 시스템(100)의 다른 컴포넌트들에 의해 자동으로 선택될 수 있다. 부가하여, 가상 객체(404)가 자동으로 트리거링되는 실시예들에서, 특정 가상 객체(404)는 가상 객체(404)가 큐 오프되거나 또는 트리거링되도록 하는 특정 물리적 객체(402)(또는 그 피처)에 기초하여 선택될 수 있다. 예컨대, 물리적 객체가 수영장 위에서 연장되는 다이빙 보드로서 식별된다면, 트리거링되는 가상 객체는 스노클, 수영복, 부상(floatation) 디바이스, 또는 다른 관련 아이템들을 착용한 창조물일 수 있다.
다른 예시적 실시예에서, 헤드-장착 시스템(300)은 인터페이스(302)가 가상 현실 인터페이스를 제공하는 "가상" 모드를 포함할 수 있다. 가상 모드에서, 물리적 환경은 디스플레이(303)로부터 생략되고, 컴퓨팅 네트워크(105), 프로세서(308), 및/또는 게이트웨이 컴포넌트(140)에 의해 제공되는 가상 객체 데이터가 디스플레이(303) 상에 제시된다. 물리적 환경의 생략은, 시각적 디스플레이(303)를 (예컨대, 커버를 통해) 물리적으로 차단함으로써 또는 인터페이스(302)의 피처를 통해 ― 여기서, 디스플레이(303)는 불투명 셋팅으로 이행함 ― 달성될 수 있다. 가상 모드에서, 라이브 및/또는 저장된 시각적 및 오디오 감각은 인터페이스(302)를 통해 사용자에게 제시될 수 있고, 사용자는 인터페이스(302)의 가상 모드를 통해 디지털 세계(디지털 객체들, 다른 사용자들 등등)를 경험하고 상기 디지털 세계와 대화한다. 따라서, 가상 모드에서 사용자에게 제공되는 인터페이스는, 가상 디지털 세계를 포함하는 가상 객체 데이터로 구성된다.
도 5는 헤드장착 인터페이스(302)가 가상 모드로 동작하고 있을 때 사용자 인터페이스의 예시적 실시예를 예시한다. 도 5에 도시된 바와 같이, 사용자 인터페이스는 디지털 객체들(510)로 구성된 가상 세계(500)를 제시하고, 여기서 디지털 객체들(510)은 대기, 날씨, 지형, 빌딩들, 및 사람들을 포함할 수 있다. 비록 그것이 도 5에서 예시되지 않지만, 디지털 객체들은 예컨대 플랜트들, 차량들, 동물들, 창조물들, 머신들, 인공 지능, 위치 정보, 그리고 가상 세계(500)를 정의하는 임의의 다른 객체 또는 정보를 또한 포함할 수 있다.
다른 예시적 실시예에서, 헤드-장착 시스템(300)은 헤드-장착 시스템(300)의 다양한 피처들(뿐만 아니라, 가상 및 증강 모드들의 피처들)이 결합되어 하나 또는 그 초과의 맞춤(custom) 인터페이스 모드들이 생성될 수 있는 "블렌드" 모드를 포함할 수 있다. 일 예시적 맞춤 인터페이스 모드에서, 물리적 환경은 디스플레이(303)로부터 생략되고, 가상 객체 데이터는 가상 모드와 유사한 방식으로 디스플레이(303) 상에 제시된다. 그러나, 이러한 예시적 맞춤 인터페이스 모드에서, 가상 객체들은 완전히 가상일 수 있거나(즉, 가상 객체들은 로컬 물리적 환경에 존재하지 않음), 또는 가상 객체들은 물리적 객체를 대신하여 인터페이스(302)에서 가상 객체로서 렌더링된 실제 로컬 물리적 객체들일 수 있다. 따라서, 이러한 특정 맞춤 모드(본 명세서에서, 블렌드 가상 인터페이스 모드로 지칭됨)에서, 라이브 및/또는 저장된 시각적 및 오디오 감각은 인터페이스(302)를 통해 사용자에게 제시될 수 있고, 사용자는 완전히 가상의 객체들 및 렌더링된 물리적 객체들을 포함하는 디지털 세계를 경험하고 상기 디지털 세계와 대화한다.
도 6은 블렌드 가상 인터페이스 모드에 따라 동작하는 사용자 인터페이스의 예시적 실시예를 예시한다. 도 6에 도시된 바와 같이, 사용자 인터페이스는 완전히 가상의 객체들(610) 및 렌더링된 물리적 객체들(620)(장면에 다른 방식으로 물리적으로 존재하는 객체들의 렌더링들)로 구성된 가상 세계(600)를 제시한다. 도 6에 예시된 예에 따라, 렌더링된 물리적 개체들(620)은 빌딩(620A), 땅(620B), 및 플랫폼(620C)을 포함하고, 객체들이 렌더링됨을 사용자에게 표시하기 위해 볼드체의 아웃라인(630)으로 도시된다. 부가하여, 완전히 가상의 객체들(610)은 부가의 사용자(610A), 구름들(610B), 태양(610C), 및 플랫폼(620C) 위의 불꽃들(610D)을 포함한다. 완전히 가상의 객체들(610)이 예컨대 대기, 날씨, 지형, 빌딩들, 사람들, 플랜트들, 차량들, 동물들, 창조물들, 머신들, 인공 지능, 위치 정보, 및 가상 세계(600)를 정의하지만 로컬 물리적 환경에 존재하는 객체들로부터 렌더링되지 않은 임의의 다른 객체 또는 정보를 포함할 수 있다는 것이 인정되어야 한다. 반대로, 렌더링된 물리적 객체들(620)은 인터페이스(302)에서 가상 객체로서 렌더링된 실제 로컬 물리적 객체들이다. 볼드체의 아웃라인(630)은 렌더링된 물리적 객체들을 사용자에게 표시하기 위한 일 예를 표현한다. 이와 같이, 렌더링된 물리적 객체들은 본 명세서에서 기재된 것들 이외의 방법들을 사용하여 이와 같이 표시될 수 있다.
몇몇의 실시예들에서, 렌더링된 물리적 객체들(620)은, 환경-감지 시스템(306)의 센서들(312)을 이용하여(또는 모션 또는 이미지 캡쳐 시스템과 같은 다른 디바이스들을 이용하여) 검출될 수 있고, 예컨대 프로세싱 회로(308)에 저장된 소프트웨어 및/또는 펌웨어에 의해 디지털 객체 데이터로 변환될 수 있다. 따라서, 사용자가 블렌드 가상 인터페이스 모드로 시스템(100)과 인터페이싱하므로, 다양한 물리적 객체들이 렌더링된 물리적 객체들로서 사용자에게 디스플레이될 수 있다. 이는, 로컬 물리적 환경을 여전히 안전하게 탐험할 수 있도록 하면서, 사용자가 시스템(100)과 인터페이싱하도록 하기에 특히 유용할 수 있다. 몇몇의 실시예들에서, 사용자는, 렌더링된 물리적 객체들을 선택적으로 제거하거나 또는 인터페이스 디스플레이(303)에 부가할 수 있다.
다른 예시적 맞춤 인터페이스 모드에서, 인터페이스 디스플레이(303)는 실질상 투명할 수 있어, 이로써 다양한 로컬 물리적 객체들이 렌더링된 물리적 객체들로서 사용자에게 디스플레이되면서, 사용자가 로컬 물리적 환경을 보게 된다. 이러한 예시적 맞춤 인터페이스 모드는, 앞선 예에 대하여 위에서 논의된 바와 같이 가상 객체들 중 하나 또는 그 초과가 렌더링된 물리적 객체들일 수 있다는 점을 제외하고, 증강 모드와 유사하다.
전술된 예시적 맞춤 인터페이스 모드들은 헤드-장착 시스템(300)의 블렌드 모드에 의해 제공될 수 있는 다양한 맞춤 인터페이스 모드들 중 소수의 예시적 실시예들을 표현한다. 따라서, 본 기재의 범위로부터 벗어남 없이, 위에서 논의된 다양한 모드들 그리고 헤드장착 시스템(300)의 컴포넌트들에 의해 제공되는 기능성 및 피처들의 다양한 결합으로부터 다양한 다른 맞춤 인터페이스 모드들이 생성될 수 있다.
본 명세서에서 논의되는 실시예들은 단지 오프 모드, 증강 모드, 가상 모드, 또는 블렌드 모드로 동작하는 인터페이스를 제공하기 위한 소수의 예들을 설명하며, 헤드-장착 시스템(300)의 컴포넌트들의 기능성 또는 각각의 인터페이스 모드들의 범위 또는 콘텐츠를 제한하려고 의도되지 않는다. 예컨대, 몇몇의 실시예들에서, 가상 객체들은 사용자에게 디스플레이되는 데이터(시간, 온도, 고도 등등), 시스템(100)에 의해 생성되거나 그리고/또는 선택되는 객체들, 사용자에 의해 생성되거나 그리고/또는 선택되는 객체들, 또는 심지어 시스템(100)과 인터페이싱하는 다른 사용자들을 표현하는 객체들을 포함할 수 있다. 부가하여, 가상 객체들은 물리적 객체들의 확장(예컨대, 물리적 플랫폼으로부터 성장하는 가상 조각)을 포함할 수 있고, 시각적으로 물리적 객체에 연결될 수 있거나 또는 물리적 객체로부터 연결해제될 수 있다.
또한, 가상 객체들은 동적일 수 있고, 시간에 따라 변할 수 있고, 사용자 또는 다른 사용자들, 물리적 객체들, 그리고 다른 가상 객체들 사이의 다양한 관계들(예컨대, 위치, 거리 등등)에 따라 변할 수 있고, 그리고/또는 헤드-장착 시스템(300), 게이트웨이 컴포넌트(140) 또는 서버들(110)의 소프트웨어 및/또는 펌웨어에서 특정된 다른 변수들에 따라 변할 수 있다. 예컨대, 특정 실시예들에서, 가상 객체는 사용자 디바이스 또는 그 컴포넌트에 응답할 수 있고(예컨대, 햅틱 디바이스가 가상 볼 바로 옆에 배치될 때, 상기 가상 볼이 움직임), 물리적 또는 구두 사용자 대화에 응답할 수 있고(예컨대, 가상 창조물이, 사용자가 상기 가상 창조물에 접근할 때 달아나거나, 또는 사용자가 상기 가상 창조물에게 말할 때 말함) ― 의자가 가상 창조물에 던져지고, 상기 창조물이 상기 의자를 피함 ―, 다른 가상 객체들에 응답할 수 있고(예컨대, 제1 가상 창조물이 제2 가상 창조물을 볼 때 상기 제1 가상 창조물이 반응함), 위치, 거리, 온도, 시간 등등과 같은 물리적 변수들 또는 사용자의 환경의 다른 물리적 객체들에 반응할 수 있다(예컨대, 물리적 자동차가 지날 때, 물리적 거리에 서있도록 도시된 가상 창조물이 평편하게 됨).
본 명세서에서 논의되는 다양한 모드들은 헤드-장착 시스템(300) 이외의 사용자 디바이스들에 적용될 수 있다. 예컨대, 증강 현실 인터페이스가 모바일 폰 또는 태블릿 디바이스를 통해 제공될 수 있다. 그러한 실시예에서, 폰 또는 태블릿은 카메라를 사용하여, 사용자 주변의 물리적 환경을 캡쳐할 수 있고, 가상 객체들은 폰/태블릿 디스플레이 스크린 상에 오버레이될 수 있다. 부가하여, 가상 모드는, 폰/태블릿의 디스플레이 스크린 상에 디지털 세계를 디스플레이함으로써 제공될 수 있다. 따라서, 이러한 모드들은, 본 명세서에서 논의되는 폰/태블릿의 컴포넌트들뿐만 아니라 사용자 디바이스에 연결되거나 또는 사용자 디바이스와 함께 사용되는 다른 컴포넌트들을 이용하여 위에서 설명된 바와 같은 다양한 맞춤 인터페이스 모드들을 생성하기 위해서 블렌딩될 수 있다. 예컨대, 블렌드 가상 인터페이스 모드는, 컴퓨터 모니터, 텔레비전 스크린, 또는 모션 또는 이미지 캡쳐 시스템과 함께 동작하는 카메라가 없는 다른 디바이스에 의해 제공될 수 있다. 이러한 예시적 실시예에서, 가상 세계는 모니터/스크린으로부터 보일 수 있고, 객체 검출 및 렌더링은 모션 또는 이미지 캡쳐 시스템에 의해 수행될 수 있다.
도 7은 본 기재의 예시적 실시예를 예시하고, 여기서 상이한 지리적 위치들에 위치된 두 명의 사용자들 각각은 각자의 각각의 사용자 디바이스들을 통해 다른 사용자 그리고 공통 가상 세계와 대화한다. 이러한 실시예에서, 두 명의 사용자들(701 및 702)은 가상 볼(703)(임의의 타입의 가상 객체)을 왔다갔다 던지고 있고, 여기서 각각의 사용자는 가상 세계에 대해 다른 사용자의 영향을 관찰할 수 있다(예컨대, 각각의 사용자는, 가상 볼이 방향들을 바꾸고 다른 사용자에 의해 잡히고 등등을 관찰함). 가상 객체들(즉, 가상 볼(703))의 움직임 및 위치가 컴퓨팅 네트워크(105)의 서버들(110)에 의해 추적되기 때문에, 시스템(100)은 몇몇의 실시예들에서 각각의 사용자에 대한 볼(703)의 도달의 정확한 위치 및 타이밍을 사용자들(701 및 702)에게 통신할 수 있다. 예컨대, 제1 사용자(701)가 런던에 위치된다면, 사용자(701)는 시스템(100)에 의해 계산된 속도로 로스앤젤레스에 위치된 제2 사용자(702)에게 볼(703)을 던질 수 있다. 따라서, 시스템(100)은 볼의 도달의 정확한 시간 및 위치를 (예컨대, e-메일, 텍스트 메시지, 인스턴트 메시지 등등을 통해) 제2 사용자(702)에게 통신할 수 있다. 이와 같이, 제2 사용자(702)는 자신의 디바이스를 사용하여, 볼(703)이 특정된 시간에 도달하고 위치되는 것을 볼 수 있다. 또한, 하나 또는 그 초과의 사용자들은 지구-위치 맵핑 소프트웨어(또는 유사한 소프트웨어)를 사용하여, 상기 하나 또는 그 초과의 사용자들이 지구에 걸쳐서 가상으로 여행함에 따라 하나 또는 그 초과의 가상 객체들을 추적할 수 있다. 이의 예는, 3D 헤드-장착 디스플레이를 착용한 사용자가 하늘을 올려다보고 실세계 상에 중첩된, 머리 위를 날고 있는 가상 비행기를 보는 것일 수 있다. 가상 비행기는 사용자에 의해, 지능적 소프트웨어 에이전트들(사용자 디바이스 또는 게이트웨이 상에서 실행되는 소프트웨어), 로컬 및/또는 원격일 수 있는 다른 사용자들, 및/또는 이러한 결합들 중 임의의 결합에 의해 이동될 수 있다.
앞서 언급된 바와 같이, 사용자 디바이스는 햅틱 인터페이스 디바이스를 포함할 수 있고, 여기서 햅틱 디바이스가 가상 객체에 비해 임의의 물리적 공간적 위치에 위치되는 것으로 시스템(100)에 의해 결정될 때, 햅틱 인터페이스 디바이스는 피드백(예컨대, 저항, 진동, 광들, 사운드 등등)을 사용자에게 제공한다. 예컨대, 도 7에 대하여 위에서 설명된 실시예는, 도 8에 도시된 바와 같은 햅틱 디바이스(802)의 사용을 포함하도록 확장될 수 있다.
이러한 예시적 실시예에서, 햅틱 디바이스(802)는 가상 세계에서 야구용 배트로서 디스플레이될 수 있다. 볼(703)이 도달할 때, 사용자(702)는 가상 볼(703)에 햅틱 디바이스(802)를 스윙할 수 있다. 시스템(100)이 햅틱 디바이스(802)에 의해 제공되는 가상 배트가 볼(703)과 "접촉"했다고 결정한다면, 햅틱 디바이스(802)는 진동할 수 있거나 또는 다른 피드백을 사용자(702)에게 제공할 수 있고, 가상 볼(703)은 볼-대-배트 접촉의 검출된 속도, 방향, 및 타이밍에 따라 시스템(100)에 의해 계산된 방향으로 가상 배트에 맞고 튀어나올 수 있다.
몇몇의 실시예들에서, 기재된 시스템(100)은 혼합 모드 인터페이싱을 용이하게 할 수 있고, 여기서 다수의 사용자들은 상이한 인터페이스 모드들(예컨대, 증강, 가상, 블렌드 등등)을 이용하여 공통 가상 세계(그리고 그 내에 포함된 가상 객체들)와 인터페이싱할 수 있다. 예컨대, 가상 인터페이스 모드로 특정 가상 세계와 인터페이싱하는 제1 사용자가 증강 현실 모드로 동일한 가상 세계와 인터페이싱하는 제2 사용자와 대화할 수 있다.
도 9a는 제1 사용자(901)(블렌드 가상 인터페이스 모드로 시스템(100)의 디지털 세계와 인터페이싱함) 및 제1 객체(902)가 완전한 가상 현실 모드로 시스템(100)의 동일한 디지털 세계와 인터페이싱하는 제2 사용자(922)에게 가상 객체로서 보이는 예를 예시한다. 위에서 설명된 바와 같이, 블렌드 가상 인터페이스 모드를 통해 디지털 세계와 인터페이싱할 때, 로컬 물리적 객체들(예컨대, 제1 사용자(901) 및 제1 객체(902))은 가상 세계에서 가상 객체들로서 스캐닝 및 렌더링될 수 있다. 제1 사용자(901)는 예컨대 모션 캡쳐 시스템 또는 유사 디바이스에 의해 스캐닝될 수 있고, 가상 세계에서 (모션 캡쳐 시스템, 게이트웨이 컴포넌트(140), 사용자 디바이스(120), 시스템 서버들(110) 또는 다른 디바이스들에 저장된 소프트웨어/펌웨어에 의해) 제1 렌더링된 물리적 객체(931)로서 렌더링될 수 있다. 유사하게, 제1 객체(902)는 예컨대 헤드-장착 인터페이스(300)의 환경-감지 시스템(306)에 의해 스캐닝될 수 있고, 가상 세계에서 (프로세서(308), 게이트웨이 컴포넌트(140), 시스템 서버들(110) 또는 다른 디바이스들에 저장된 소프트웨어/펌웨어에 의해) 제2 렌더링된 물리적 객체(932)로서 렌더링될 수 있다. 제1 사용자(901) 및 제1 객체(902)는 도 9a의 제1 일부분(910)에서 물리적 세계의 물리적 객체들로서 도시된다. 도 9a의 제2 일부분(920)에서, 제1 사용자(901) 및 제1 객체(902)는 그들이 완전 가상 현실 모드로 시스템(100)의 동일한 디지털 세계와 인터페이싱하는 제2 사용자(922)에게 제1 렌더링된 물리적 객체(931) 및 제2 렌더링된 물리적 객체(932)로서 보이기 때문에 도시된다.
도 9b는 혼합 모드 인터페이싱의 다른 예시적 실시예를 예시하며, 여기서 제1 사용자(901)는 위에서 논의된 바와 같은 블렌드 가상 인터페이스 모드로 디지털 세계와 인터페이싱하고 있고, 제2 사용자(922)는 증강 현실 모드로 동일한 디지털 세계(그리고 제2 사용자의 물리적 로컬 환경(925))와 인터페이싱하고 있다. 도 9b의 실시예에서, 제1 사용자(901) 및 제1 객체(902)는 제1 물리적 위치(915)에 위치되고, 제2 사용자(922)는 제1 위치(915)로부터의 어떤 거리만큼 분리된 상이한 제2의 물리적 위치(925)에 위치된다. 이러한 실시예에서, 가상 객체들(931 및 932)은 제2 위치(925)에 대응하는 가상 세계 내의 위치로 실시간(또는 거의 실시간)으로 이동(transpose)될 수 있다. 따라서, 제2 사용자(922)는, 제2 사용자의 물리적 로컬 환경(925)에서, 제1 사용자(901) 및 제1 객체(902)를 각각 표현하는 렌더링된 물리적 객체들(931 및 932)을 관찰할 수 있고 상기 렌더링된 물리적 객체들(931 및 932)과 대화할 수 있다.
도 10은 증강 현실 모드로 시스템(100)과 인터페이싱할 때 사용자의 뷰의 예시적 예시를 예시한다. 도 10에 도시된 바와 같이, 사용자는 로컬 물리적 환경(즉, 다수의 빌딩들을 갖는 도시)뿐만 아니라 가상 캐릭터(1010)(즉, 가상 객체)를 본다. 가상 캐릭터(1010)의 포지션은 2D 시각적 타겟(예컨대, 게시판, 엽서 또는 잡지) 및/또는 빌딩들, 자동차들, 사람들, 동물들, 비행기들, 빌딩의 일부분들, 및/또는 임의의 3D 물리적 객체, 가상 객체와 같은 하나 또는 그 초과의 3D 기준 프레임들, 및/또는 이들의 결합들에 의해 트리거링될 수 있다. 도 10에 예시된 예에서, 도시에서 빌딩들의 알려진 포지션은 가상 캐릭터(1010)를 렌더링하기 위한 정합 기점들 및/또는 정보 및 키 피처들을 제공할 수 있다. 부가하여, 사용자의 지리공간적(geospatial) 위치(예컨대, GPS, 애티튜드(attitude)/포지션 센서들 등등에 의해 제공됨) 또는 빌딩들에 대한 모바일 위치는, 가상 캐릭터(들)(1010)를 디스플레이하는데 사용되는 데이터의 송신을 트리거링하기 위해 컴퓨팅 네트워크(105)에 의해 사용되는 데이터를 포함할 수 있다. 몇몇의 실시예들에서, 가상 캐릭터(1010)를 디스플레이하는데 사용되는 데이터는, 렌더링된 캐릭터(1010) 및/또는 가상 캐릭터(1010) 또는 그 일부분들을 렌더링하기 위한 명령들(게이트웨이 컴포넌트(140) 및/또는 사용자 디바이스(120)에 의해 수행될 것임)을 포함할 수 있다. 몇몇의 실시예들에서, 사용자의 지리공간적 위치가 이용가능하지 않거나 또는 알려지지 않았다면, 서버(110), 게이트웨이 컴포넌트(140), 및/또는 사용자 디바이스(120)는 여전히, 시간의 함수로서 사용자의 최종 알려진 포지션 및/또는 다른 파라미터들을 이용하여 특정 가상 객체들 및/또는 물리적 객체들이 어디에 위치될 수 있는지를 추정하는 추정 알고리즘을 이용하여 가상 객체(1010)를 디스플레이할 수 있다. 이는, 사용자의 센서들이 가려지게 되거나 그리고/또는 다른 기능 불량들을 경험한다면 임의의 가상 객체들의 포지션을 결정하는데 또한 사용될 수 있다.
몇몇의 실시예들에서, 가상 캐릭터들 또는 가상 객체들은 가상 조각상을 포함할 수 있고, 여기서 가상 조각상의 렌더링은 물리적 객체에 의해 트리거링된다. 예컨대, 이제 도 11을 참조하면, 가상 조각상(1110)이 실제 물리적 플랫폼(1120)에 의해 트리거링될 수 있다. 조각상(1110)의 트리거링은 사용자 디바이스 또는 시스템(100)의 다른 컴포넌트들에 의해 검출된 시각적 객체 또는 피처(예컨대, 기점들, 설계 피처들, 기하학적 구조, 패턴들, 물리적 위치, 고도 등등)에 응답하는 것일 수 있다. 사용자가 사용자 디바이스 없이 플랫폼(1120)을 볼 때, 사용자는 조각상(1110)이 없는 플랫폼(1120)을 본다. 그러나 사용자가 사용자 디바이스를 통해 플랫폼(1120)을 볼 때, 사용자는 도 11에 도시된 바와 같이 플랫폼(1120) 상의 조각상(1110)을 본다. 조각상(1110)은 가상 객체이고, 그러므로 정적일 수 있거나, 애니메이팅될 수 있거나, 시간에 따라 또는 사용자의 뷰잉 포지션에 대하여 변할 수 있거나, 또는 심지어 특정 사용자가 조각상(1110)을 보고 있을 때에 따라 변할 수 있다. 예컨대, 사용자가 작은 어린이라면, 조각상은 개일 수 있고; 그러나, 관찰자가 성인 남자라면, 조각상은 도 11에 도시된 바와 같이 대형 로봇일 수 있다. 이들은 사용자 종속적 및/또는 상태 종속적 경험들의 예들이다. 이는, 하나 또는 그 초과의 사용자들이 하나 또는 그 초과의 가상 객체들을 단독으로 그리고/또는 물리적 객체들과 결합하여 인지하고 가상 객체들의 맞춤화된 및 개인화된 버전들을 경험하는 것을 가능케 할 것이다. 조각상(1110)(또는 그 일부분들)은, 예컨대 사용자 디바이스 상에 설치된 소프트웨어/펌웨어를 포함하는 시스템의 다양한 컴포넌트들에 의해 렌더링될 수 있다. 가상 객체(즉, 조각상(1110))의 정합 피처들과 함께, 사용자 디바이스의 위치 및 고도를 표시하는 데이터를 이용하여, 가상 객체(즉, 조각상(1110))는 물리적 객체(즉, 플랫폼(1120))와 관계를 형성한다. 예컨대, 하나 또는 그 초과의 물리적 객체들과 하나 또는 그 초과의 가상 객체들 사이의 관계는 하나 또는 그 초과의 다른 가상 객체들에의 거리, 포지셔닝, 시간, 지리적-위치, 근접성의 함수일 수 있거나, 그리고/또는 임의의 종류의 가상 및/또는 물리적 데이터를 포함하는 임의의 다른 기능적 관계일 수 있다. 몇몇의 실시예들에서, 사용자 디바이스의 이미지 인식 소프트웨어는 디지털-대-물리적 객체 관계를 추가로 개선시킬 수 있다.
기재된 시스템 및 방법에 의해 제공되는 대화식 인터페이스는, 예컨대 하나 또는 그 초과의 가상 환경들 및 객체들과 대화하는 것, 다른 사용자들과 대화하는 것, 뿐만 아니라 광고들, 음악 콘서트들, 및 영화들을 포함하는 다양한 형태들의 미디어 콘텐츠를 경험하는 것과 같은 다양한 동작들을 용이하게 하도록 구현될 수 있다. 따라서, 기재된 시스템은, 사용자가 미디어 콘텐츠를 보거나 또는 들을 뿐만 아니라, 오히려 미디어 콘텐츠에 액티브하게 참여하고 경험하도록, 사용자 대화를 용이하게 한다. 몇몇의 실시예들에서, 사용자 참여는 기존 콘텐츠를 변경하는 것 또는 하나 또는 그 초과의 가상 세계들에서 렌더링될 새로운 콘텐츠를 생성하는 것을 포함할 수 있다. 몇몇의 실시예들에서, 콘텐츠를 생성하는 사용자들 및/또는 미디어 콘텐츠는 하나 또는 그 초과의 가상 세계들의 신화창조(mythopoeia)에 맞춰 테마가 정해질 수 있다.
일 예에서, 음악가들(또는 다른 사용자들)은 특정 가상 세계와 대화하는 사용자들에게 렌더링될 음악 콘텐츠를 생성할 수 있다. 음악 콘텐츠는 예컨대 다양한 싱글들, EP들, 앨범들, 비디오들, 단편 영화들, 및 콘서트 공연들을 포함할 수 있다. 일 예에서, 음악가들에 의해 수행되는 가상 콘서트를 동시에 경험하기 위해 많은 수의 사용자들이 시스템(100)과 인터페이싱할 수 있다.
몇몇의 실시예들에서, 생성된 미디어는 특정 엔티티(예컨대, 밴드, 아티스트, 사용자 등등)와 연관된 고유 식별자 코드를 포함할 수 있다. 코드는 알파뉴메릭 캐릭터들의 세트, UPC 코드들, QR 코드들, 2D 이미지 트리거들, 3D 물리적 객체 피처 트리거들, 또는 다른 디지털 마크, 뿐만 아니라 사운드, 이미지, 및/또는 둘 다의 형태일 수 있다. 몇몇의 실시예들에서, 코드는 또한 시스템(100)을 이용하여 인터페이싱될 수 있는 디지털 미디어와 함께 임베딩될 수 있다. 사용자는 (예컨대, 요금의 지불을 통해) 코드를 획득할 수 있고, 상기 코드를 교환(redeem)하여, 식별자 코드와 연관된 엔티티에 의해 생성되는 미디어 콘텐츠에 액세스할 수 있다. 미디어 콘텐츠는 사용자의 인터페이스에 부가될 수 있거나 또는 사용자의 인터페이스로부터 제거될 수 있다.
일 실시예에서, 하나의 컴퓨팅 시스템으로부터 다른 컴퓨팅 시스템으로, 예컨대 클라우드 컴퓨팅 시스템으로부터 사용자에 커플링된 로컬 프로세서로, 실시간 또는 거의 실시간의 비디오 데이터를 낮은 지연으로 전달하는 컴퓨테이션 및 대역폭 제한들을 방지하기 위해, 다양한 형상들 및 기하학적 구조들에 관한 파라메트릭 정보가, 표면들을 정의하기 위해 트랜스퍼 및 활용될 수 있고, 동시에 정적 또는 동적 세부사항, 예컨대 파라메트릭적으로 재생된 얼굴 기하학적 구조에 따라 맵핑된 사람의 얼굴의 비트맵-기반 비디오 세부사항을 유발하기 위해 이러한 표면들에 텍스처들이 트랜스퍼 및 부가될 수 있다. 다른 예로서, 시스템이 사람의 얼굴을 인식하도록 구성되고 사람의 아바타가 증강 세계에 위치됨을 알고 있다면, 시스템은 하나의 비교적 큰 셋업 트랜스퍼에서 적절한 세계 정보 및 사람의 아바타 정보를 전달하도록 구성될 수 있고, 그 이후, 로컬 렌더링을 위한, 도 3에 묘사된 것(308)과 같은 로컬 컴퓨팅 시스템으로의 나머지 트랜스퍼들은 사람의 뼈대 구조의 모션 파라미터들 및 사람의 얼굴의 움직이는 비트맵들 ― 전부는 실시간 비디오의 초기 셋업 트랜스퍼 또는 전달에 비해 더 낮은 대역폭의 크기 순서들로 있음 ― 과 같은 파라미터 및 텍스처 업데이트들로 제한될 수 있다. 따라서, 클라우드-기반 및 로컬 컴퓨팅 자산들은 통합된 방식으로 사용될 수 있고, 이때 클라우드는 비교적 낮은 지연을 요구하지 않는 컴퓨테이션을 다루고, 로컬 프로세싱 자산들은 낮은 지연이 귀한 작업들을 다루며, 그러한 경우에서 로컬 시스템들에 트랜스퍼된 데이터의 형태는 바람직하게, 그러한 데이터의 양의 형태로 인해(즉, 파라메트릭 정보, 텍스처들 등등 대 모든 각각의 것의 실시간 비디오) 비교적 낮은 대역폭에서 전달된다.
도 15를 미리 참조하면, 개략도가 클라우드 컴퓨팅 자산들(46)과 로컬 프로세싱 자산들(308, 120) 사이의 조정을 예시한다. 일 실시예에서, 클라우드(46) 자산들은 예컨대 유선 또는 무선 네트워킹(무선은 이동성을 위해 바람직하고, 유선은 원해질 수 있는 특정 고-대역폭 또는 높은-데이터-볼륨 트랜스퍼들을 위해 바람직함)을 통해, 로컬 컴퓨팅 자산들(120, 308), 예컨대 사용자의 헤드(120) 또는 벨트(308)에 커플링되도록 구성된 구조물에 하우징될 수 있는 프로세서 및 메모리 구성들 중 하나 또는 둘 다에 직접(40, 42) 동작 가능하게 커플링된다. 사용자에 국한된 이러한 컴퓨팅 자산들은 유선 및/또는 무선 접속성 구성들(44)을 통해 서로에 동작 가능하게 또한 커플링될 수 있다. 일 실시예에서, 낮은-관성 및 작은-사이즈의 헤드 장착 서브시스템(120)을 유지하기 위해, 사용자와 클라우드(46) 사이의 주요 트랜스퍼가 벨트-기반 서브시스템(308)과 클라우드 사이의 링크를 통해 이루어질 수 있고, 이때 헤드 장착 서브시스템(120)은 주로, 예컨대 퍼스널 컴퓨팅 주변 접속성 애플리케이션들에서 현재 사용되는 바와 같이, "UWB(ultra-wideband)" 접속성과 같은 무선 접속성을 이용하여 벨트-기반 서브시스템(308)에 데이터-테더링(data-tethering)된다.
효율적인 로컬 및 원격 프로세싱 조정, 그리고 사용자에 대한 적절한 디스플레이 디바이스, 예컨대 사용자 인터페이스(302) 또는 도 3에서 특징으로 된 사용자 "디스플레이 디바이스"를 이용하여, 도 14를 참조하여 아래에 설명되는 디스플레이 디바이스(14), 또는 그 변형들, 사용자의 현재 실제 또는 가상 위치에 적절한 하나의 세계의 양상들은 사용자에게 트랜스퍼 또는 "전달"될 수 있고 효율적인 방식으로 업데이트될 수 있다. 정말로, 증강 현실 모드로 가상 현실 시스템("VRS(virtual reality system)")을 활용하는 한 명의 사람과 제1 사람에 국한된 동일 세계를 탐험하기 위해 완전히 가상의 모드로 VRS를 활용하는 다른 사람을 이용한 일 실시예에서, 두 명의 사용자들은 다양한 방식들로 상기 세계에서 서로를 경험할 수 있다. 예컨대, 도 12를 참조하면, 도 11을 참조하여 설명된 것과 유사한 시나리오가 묘사되며, 이때 완전한 가상 현실 시나리오로부터 묘사된 증강 현실 세계를 통과 날고 있는 제2 사용자의 아바타(2)의 시각화의 부가가 있다. 다시 말해, 도 12에 묘사된 장면은 제1 사람에 대해 증강 현실에서 경험 및 디스플레이될 수 있다 ― 이때, 상기 장면에서 로컬 세계 주변의 실제 물리적 엘리먼트들, 예컨대 땅, 배경의 빌딩들, 조각상 플랫폼(1120)에 부가하여, 두 개의 증강 현실 엘리먼트들(조각상(1110) 및 제2 사람의 날고 있는 호박 벌 아바타(2))이 디스플레이됨 ―. 아바타(2)가 제1 사람에 국한된 세계를 통해 날아감에 따라 제1 사람이 제2 사람의 아바타(2)의 진전을 시각화하도록 하기 위해 동적 업데이팅이 활용될 수 있다.
다시, 위에서 설명된 바와 같은 구성 ― 여기서, 클라우드 컴퓨팅 자원들 상에 상주할 수 있고 그곳으로부터 분배될 수 있는 하나의 세계 모델이 존재함 ― 을 이용하여, 그러한 세계가 거의 실시간 비디오 데이터 등등을 전달하려고 노력하는데 바람직한 비교적 낮은 대역폭 형태로 하나 또는 그 초과의 사용자들에게 "전달가능"할 수 있다. (즉, 도 12에 도시된 바와 같은) 조각상 가까이 서있는 사람의 증강 경험이 클라우드-기반 세계 모델에 의해 통보될 수 있고, 그의 서브세트가, 뷰를 완성시키기 위해, 상기 사용자들 및 각자의 로컬 디스플레이 디바이스에게 이르기까지 전달될 수 있다. 데스크 상에 놓인 퍼스널 컴퓨터만큼 단순할 수 있는 원격 디스플레이 디바이스에 앉아 있는 사람이 클라우드로부터 정보의 그 동일한 섹션을 효율적으로 다운로딩할 수 있고, 그것이 각자의 디스플레이 상에서 렌더링되게 할 수 있다. 정말로, 조각상 가까이 있는 공원에 실제로 존재하는 한 명의 사람이 상기 공원에서 산책 삼아 원격-위치된 친구를 취할 수 있고, 이때 친구는 가상 및 증강 현실을 통해 연결된다. 시스템은 어디에 거리가 있는지 ― 여기서, 나무들이 있음 ―, 어디에 조각상이 있는지 ― 그러나, 클라우드 상의 그 정보를 이용함 ― 를 알 필요가 있을 것이고, 연결된 친구는 시나리오의 양상들을 클라우드로부터 다운로드할 수 있고, 그런 다음 공원에 실제로 있는 사람에 비해 로컬인 증강 현실을 따라서 걷기를 시작할 수 있다.
도 13을 참조하면, 시간 및/또는 다른 콘틴전시 파라미터 기반 실시예가 묘사되고, 여기서 사람은 가상 및/또는 증강 현실 인터페이스, 예컨대 사용자 인터페이스(302) 또는 도 3에서 특징으로 된 사용자 디스플레이 디바이스와 관계를 맺고, 도 14를 참조하여 아래에서 설명되는 디스플레이 디바이스(14) 또는 그 변형들이 시스템을 활용하고 있고(4) 한 컵의 커피를 주문하기 위해 커피 점포에 들어간다(6). VRS는, 증강 및/또는 가상 현실에서의 디스플레이 인핸스먼트들, 예컨대 커피 점포에서 문들의 강조된 위치들 또는 적절한 커피 메뉴의 버블 윈도우들을 사람에게 제공하기 위해, 로컬로 그리고/또는 원격으로, 감지 및 데이터 수집 능력들을 활용하도록 구성될 수 있다(8). 사람이 자신이 주문한 한 컵의 커피를 받을 때, 또는 어떤 다른 적절한 파라미터의 시스템에 의한 검출시, 시스템은 로컬 환경에서 디스플레이 디바이스를 이용하여 하나 또는 그 초과의 시간-기반 증강 또는 가상 현실 이미지들, 비디오, 및/또는 사운드, 예컨대 정적이든 또는 동적이든 정글 사운드들 및 다른 효과들이 있거나 또는 없는, 벽들 및 천장들로부터 마다가스카르 정글 장면을 디스플레이(10)하도록 구성될 수 있다. 사용자에 대한 그러한 제시는, 타이밍 파라미터에 기초하여(즉, 전체 커피 컵이 인식되고 사용자에게 건네지고 5분 후; 시스템이 사용자가 점포의 정문을 통과해 걸어감을 인식하고 10분 후 등등) 또는 다른 파라미터에 기초하여, 예컨대 사용자가 컵으로부터 마지막 한 모금의 커피를 삼킨 이후 커피 컵의 뒤집힌 방향에 주의함으로써 사용자가 커피를 마저 마셨다는 시스템에 의한 인식 ― 또는, 사용자가 점포의 정문을 떠났다는 시스템에 의한 인식 ― 에 기초하여 중단될 수 있다(12).
도 14를 참조하면, 하우징 또는 프레임(84)에 의해 사용자의 헤드 또는 눈들에 장착될 수 있는 디스플레이 렌즈(82)를 포함하는 적절한 사용자 디스플레이 디바이스(14)의 일 실시예가 도시된다. 디스플레이 렌즈(82)는, 증강 현실 구성에서 로컬 환경으로부터 적어도 어떤 광의 송신을 또한 허용하면서, 사용자의 눈들(20) 앞쪽에 하우징(84)에 의해 포지셔닝되고, 프로젝팅된 광(38)을 눈들(20)로 산란시키도록 그리고 빔 형상화를 용이하게 하도록 구성된 하나 또는 그 초과의 투명 미러들을 포함할 수 있다(가상 현실 구성에서는, 예컨대 어두워진 바이저, 차단 커튼, 모든 검은색 LCD 패널 모드 등등에 의해, 디스플레이 시스템(14)이 로컬 환경으로부터의 실질상 모든 광을 차단할 수 있는 것이 원해질 수 있다). 묘사된 실시예에서, 두 개의 광시야각 머신 비전 카메라들(16)이 사용자 주변의 환경을 이미징하기 위해 하우징(84)에 커플링되고; 일 실시예에서, 이러한 카메라들(16)은 듀얼 캡쳐 가시 광/적외선 광 카메라들이다. 또한, 묘사된 실시예는, 도시된 바와 같이 광(38)을 눈들(20)로 프로젝팅하도록 구성된 옵틱들 및 디스플레이 미러들을 갖는 한 쌍의 스캐닝된-레이저 형상화된-파면(즉, 심도에 대해) 광 프로젝터 모듈들을 포함한다. 또한, 묘사된 실시예는, 적외선 광원들(26, 예컨대 "LED(light emitting diode)" 들)과 쌍을 이루는 두 개의 미니어처 적외선 카메라들(24)을 포함하고, 상기 두 개의 미니어처 적외선 카메라들(24)은 렌더링 및 사용자 입력을 지원하기 위해 사용자의 눈들(20)을 추적할 수 있도록 구성된다. 시스템(14)은 추가로 센서 어셈블리(39)를 특징으로 하고, 상기 센서 어셈블리(39)는 X, Y, 및 Z 축 가속도계 능력뿐만 아니라 자기 나침반 그리고 바람직하게 비교적 고주파수, 예컨대 200㎐에서 데이터를 제공하는 X, Y, 및 Z 축 자이로 능력을 포함할 수 있다. 또한, 묘사된 시스템(14)은 헤드 포즈 프로세서(36), 예컨대 캡쳐 디바이스들(16)로부터 출력된 광시야각 이미지 정보로부터 실시간 또는 거의 실시간 사용자 헤드 포즈를 계산하도록 구성될 수 있는 ASIC(application specific integrated circuit), FPGA(field programmable gate array), 및/또는 ARM(advanced reduced-instruction-set machine) 프로세서를 포함한다. 또한, 센서 어셈블리(39)로부터의 자이로, 나침반, 및/또는 가속도계 데이터로부터 포즈를 도출하기 위해 디지털 및/또는 아날로그 프로세싱을 실행하도록 구성된 다른 프로세서(32)가 도시된다. 또한, 묘사된 실시예는, 포즈 및 포지셔닝을 돕기 위한 GPS(37, global positioning satellite) 서브시스템을 특징으로 한다. 마지막으로, 묘사된 실시예는, 세계의 사용자의 뷰를 위해, 스캐너들의 동작 및 사용자의 눈들로의 이미징을 용이하게 하기 위해 사용자에 국한된 렌더링 정보를 제공하도록 구성된 소프트웨어 프로그램을 실행하는 하드웨어를 특징으로 할 수 있는 렌더링 엔진(34)을 포함한다. 렌더링 엔진(34)이 센서 포즈 프로세서(32), 이미지 포즈 프로세서(36), 눈 추적 카메라들(24), 및 프로젝팅 서브시스템(18)에 동작 가능하게 커플링(81, 70, 76/78, 80; 즉, 유선 또는 무선 접속성을 통해)되어, 렌더링된 증강 및/또는 가상 현실 객체들의 광이 망막 스캐닝 디스플레이와 유사한 방식으로 스캐닝된 레이저 어레인지먼트(18)를 이용하여 프로젝팅된다. 프로젝팅된 광 빔(38)의 파면은 휘거나 또는 포커싱되어, 증강 및/또는 가상 현실 객체의 원하는 초점 거리와 일치될 수 있다. 미니 적외선 카메라들(24)은, 렌더링 및 사용자 입력을 지원하기 위해 눈들을 추적하는데 활용될 수 있다(즉, 자신이 얼마만큼 심도로 포커싱하는지를 사용자가 찾고 있는 경우; 아래에 논의되는 바와 같이, 눈 가장자리(verge)는 초점 심도를 추적하는데 활용될 수 있다). GPS(37), 자이로들, 나침반, 및 가속도계들(39)은 코스(course) 및/또는 고속 포즈 추정치들을 제공하는데 활용될 수 있다. 연관된 클라우드 컴퓨팅 자원으로부터의 데이터와 함께, 카메라(16) 이미지들 및 포즈는, 로컬 세계를 맵핑하도록 그리고 가상 또는 증강 현실 커뮤니티와 사용자 뷰들을 공유하는데 활용될 수 있다. 도 14에서 특징으로 된 디스플레이 시스템(14)의 하드웨어 중 많은 하드웨어들이 사용자의 눈들(20) 및 디스플레이(82)에 인접한 하우징(84)에 직접 커플링된 것으로 묘사되지만, 묘사된 하드웨어 컴포넌트들은, 예컨대 도 3에서 도시된 바와 같이 벨트-장착 컴포넌트와 같은 다른 컴포넌트들에 장착될 수 있거나 또는 상기 다른 컴포넌트들 내에 하우징될 수 있다. 일 실시예에서, 도 14에서 특징으로 된 시스템(14)의 컴포넌트들 전부는, 이미지 포즈 프로세서(36), 센서 포즈 프로세서(32) 및 렌더링 엔진(34)을 제외하고서, 디스플레이 하우징(84)에 직접 커플링되고, 이미지 포즈 프로세서(36), 센서 포즈 프로세서(32) 및 렌더링 엔진(34)과, 시스템(14)의 나머지 컴포넌트들 사이의 통신은 무선 통신, 예컨대 초광대역 또는 유선 통신에 의해 이루어질 수 있다. 묘사된 하우징(84)은 바람직하게 헤드-장착되고, 사용자에 의해 착용가능하다. 상기 하우징(84)은 또한, 사용자의 귀들에 삽입될 수 있고, 도 13을 참조하여 지칭된 정글 사운드들과 같은 증강 또는 가상 현실 경험에 적절할 수 있는 사운드를 사용자에게 제공하는데 활용될 수 있는 것들과 같은 스피커들, 그리고 사용자에 국한된 사운드들을 캡쳐하는데 활용될 수 있는 마이크로폰들을 특징으로 할 수 있다.
사용자의 눈들(20)로의 광(38)의 프로젝션에 관하여, 일 실시예에서, 미니 카메라들(24)은 사용자의 눈들(20)의 중심들이 어디에서 기하학적으로, 일반적으로 눈들(20)의 초점 포지션 또는 "초점 심도"와 일치하려고 가까이 향하는지를 측정하는데 활용될 수 있다. 눈들이 가까이 향하는 포인트들 전부의 3-차원 표면은 "호롭터(horopter)"로 불린다. 초점 거리는 유한 개수의 심도들을 사용할 수 있거나, 또한 무한으로 가변적일 수 있다. 폭주(vergence) 거리로부터 프로젝팅된 광은 대상(subject) 눈(20)으로 포커싱되는 것으로 보이고, 반면에 폭주 거리 앞쪽 또는 뒤쪽의 광은 흐릿해진다. 추가로, 눈이 어디에 포커싱하는지와 무관하게, 약 0.7 밀리미터 미만의 빔 지름을 갖는 공간적으로 코히어런트한 광이 인간 눈에 의해 정확하게 리졸빙됨이 발견되었고; 이러한 이해가 주어진다면, 적절한 초점 심도의 환상(illution)을 생성하기 위해, 미니 카메라들(24)을 이용하여 눈 폭주가 추적될 수 있고, 렌더링 엔진(34) 및 프로젝션 서브시스템(18)은 초점이 맞는 호롭터 상에 또는 그에 가까이 있는 객체들 전부 그리고 가변하는 디포커스 정도들(즉, 의도적으로-생성된 흐려짐을 이용하여)에 있는 다른 객체들 전부를 렌더링하는데 활용될 수 있다. 코히어런트한 광을 눈으로 프로젝팅하도록 구성된 시-스루 광 가이드 광학 엘리먼트가 Lumus, Inc.와 같은 공급자들에 의해 제공될 수 있다. 바람직하게, 시스템(14)은 초당 약 60프레임들 또는 그 초과의 프레임 레이트로 사용자에게 렌더링한다. 위에서 설명된 바와 같이, 바람직하게, 미니 카메라들(24)은 눈 추적을 위해 활용될 수 있고, 소프트웨어는 폭주 기하학적 구조뿐만 아니라 사용자 입력들로서의 역할을 하기 위해 포커스 위치 큐(cue)들도 픽업하도록 구성될 수 있다. 바람직하게, 그러한 시스템은 낮 또는 밤 사용에 적절한 밝기 및 콘트래스트를 이용하여 구성된다. 일 실시예에서, 그러한 시스템은 바람직하게, 시각적 객체 정렬을 위해 약 20 밀리세컨드 미만의 지연, 각도 정렬에 대해 약 0.1도 미만의 지연, 그리고 해상도에 대해 약 1 아크 분(arc minute) ― 상기는 대략 인간 눈의 한계임 ― 의 지연을 갖는다. 디스플레이 시스템(14)은 로컬화 시스템에 통합될 수 있고, 상기 로컬화 시스템은 GPS 엘리먼트, 광학 추적, 나침반, 가속도계, 및/또는 포지션 및 포즈 결정을 돕기 위한 다른 데이터 소스들을 수반할 수 있고; 로컬화 정보는, 적절한 세계의 사용자의 뷰로 정확한 렌더링을 용이하게 하는데 활용될 수 있다(즉, 그러한 정보는 안경들이 그들이 실세계에 대하여 어디에 있는지를 아는 것을 용이하게 할 것이다).
다른 적절한 디스플레이 디바이스는, 이에 제한되지는 않지만, 데스크톱 및 모바일 컴퓨터들, 스마트폰들, 3-D 관점 뷰잉을 용이하게 하거나 또는 시뮬레이팅하기 위해 소프트웨어 및 하드웨어 피처들로 부가로 인핸싱될 수 있는 스마트폰들(예컨대, 일 실시예에서, 프레임이 스마트폰에 제거가능하게 커플링될 수 있고, 상기 프레임은 200㎐ 자이로 및 가속도계 센서 서브세트, 광시야각 렌즈들을 갖는 두 개의 소형 머신 비전 카메라들, 및 ARM 프로세서 ― 도 14에서 특징으로 된 구성의 기능 중 몇몇을 시뮬레이팅하기 위해 ― 를 특징으로 함), 태블릿 컴퓨터들, 스마트폰들에 대해 위에서 설명된 바와 같이 인핸싱될 수 있는 태블릿 컴퓨터들, 부가의 프로세싱 및 감지 하드웨어로 인핸싱된 태블릿 컴퓨터들, 증강 및 가상 뷰포인트들(확대 옵틱들, 미러들, 콘택트 렌즈들, 또는 광 구조화 엘리먼트들을 통한 시각적 수용)을 디스플레이하기 위해 스마트폰들 및/또는 태블릿들을 사용하는 헤드-장착 시스템들, 광 방출 엘리먼트들(LCD들, OLED들, 수직-공동-표면-방출 레이저들, 스티어드 레이저 빔들 등등)의 넌-시-스루 디스플레이들, 인간들이 자연 세계 및 인공적으로 생성된 이미지들을 보도록 동시 허용하는 시-스루 디스플레이들(예컨대, 광-가이드 광학 엘리먼트들, 클로즈-포커스 콘택트 렌즈들로 비추는 투명 및 편광 OLED들, 스티어드 레이저 빔들 등등), 발광 엘리먼트들을 갖는 콘택트 렌즈들(예컨대, 상표명 Ioptik RTM 하에서, WA의 벨뷰의 Innovega, Inc.로부터 이용가능한 것들; 그들은 특별히 무료의 안경들 컴포넌트들과 결합될 수 있음), 발광 엘리먼트들을 갖는 임플란트 가능한 디바이스들, 그리고 인간 뇌의 광학 수용체들을 자극하는 임플란트 가능한 디바이스들을 포함한다.
도 3 및 도 14에 묘사된 것과 같은 시스템을 이용하여, 3-D 포인트들이 환경으로부터 캡쳐될 수 있고, 그러한 이미지들 또는 포인트들을 캡쳐하는 카메라들의 포즈(즉, 세계에 대한 원점 포지션 정보 및/또는 벡터)가 결정될 수 있어, 그래서 이러한 포즈 정보를 이용하여, 이러한 포인트들 또는 이미지들이 "태깅(tagging)"될 수 있거나 또는 연관될 수 있다. 그런 다음, 제2 카메라에 의해 캡쳐된 포인트들이 상기 제2 카메라의 포즈를 결정하는데 활용될 수 있다. 다시 말해, 제1 카메라로부터의 태깅된 이미지들과의 비교들에 기초하여 제2 카메라가 지향될 수 있거나 그리고/또는 로컬화될 수 있다. 그런 다음, 이러한 지식은, 텍스처들을 추출하고, 맵들을 만들고, 실세계의 가상 복사본을 생성하는데 활용될 수 있다(왜냐하면 그런 다음, 정합되는 곳 주변에 두 개의 카메라들이 있기 때문이다). 그래서, 베이스 레벨에서, 일 실시예에서, 당신은 3-D 포인트들 및 상기 포인트들을 생성한 2-D 이미지들 둘 다를 캡쳐하는데 활용될 수 있는 사람-착용 시스템을 갖고, 이러한 포인트들 및 이미지들은 클라우드 스토리지 및 프로세싱 자원에 전송될 수 있다. 상기 포인트들 및 이미지들은 또한, 임베딩된 포즈 정보와 함께 로컬로 캐싱(caching)(즉, 태깅된 이미지들을 캐싱)될 수 있고; 그래서 클라우드는 3-D 포인트들을 따라서, 준비된(즉, 이용가능한 캐시에 있는) 태깅된 2-D 이미지들(즉, 3-D 포즈를 이용하여 태깅됨)을 가질 수 있다. 사용자가 동적인 무엇을 관찰하고 있다면, 상기 사용자는 모션에 적절한 부가의 정보를 클라우드까지 또한 전송할 수 있다(예컨대, 다른 사람의 얼굴을 쳐다보고 있다면, 사용자는 얼굴의 텍스처 맵을 취할 수 있고, 심지어 주위 세계가 다른 방식으로 기본적으로 정적이더라도, 최적화된 주파수로, 상기 텍스처 맵을 밀어올릴 수 있다).
전체 포즈 추적 계산을 감소시키기 위해, 클라우드 시스템은 포즈에 대한 기점들로서만 몇몇의 포인트들을 저장하도록 구성될 수 있다. 일반적으로, 사용자가 방 주위를 움직임에 따라 몇몇의 아웃라인 피처들이 사용자의 환경에 있는 주요한 아이템들, 예컨대 벽들, 테이블 등등을 추적할 수 있게 하는 것이 원해질 수 있고, 사용자는 세계를 "공유"할 수 있기를 원할 수 있고 어떤 다른 사용자가 상기 방 안으로 걸어가게 할 수 있고 그러한 포인트들을 또한 보게 할 수 있기를 원할 수 있다. 그러한 유용하고 핵심적인 포인트들은 "기점들"로 지칭될 수 있는데, 그 이유는 상기 포인트들이 앵커링 포인트들로서 꽤 유용하기 때문이다 ― 상기 포인트들은, 머신 비전을 이용하여 인식될 수 있고 사용자 하드웨어의 상이한 피스들 상에서 일관성 있게 그리고 반복적으로 세계로부터 추출될 수 있는 피처들에 관련됨 ―. 따라서, 이러한 기점들은 바람직하게, 추가의 사용을 위해 클라우드에 저장될 수 있다.
일 실시예에서, 적절한 세계를 통틀어 기점들의 비교적 균등한 분배를 갖는 것이 바람직한데, 그 이유는 기점들이 카메라들이 위치를 인식하는데 쉽게 사용할 수 있는 아이템들의 종류들이기 때문이다.
일 실시예에서, 적절한 클라우드 컴퓨팅 구성은, 기점 개선 및 세계 생성 둘 다를 위해 다양한 사용자들로부터 최선의 데이터를 사용하기 위해, 3-D 포인트들 및 임의의 연관된 메타 데이터의 데이터베이스를 주기적으로 그루밍(grooming)하도록 구성될 수 있다. 다시 말해, 시스템은, 적절한 세계 내에서 보고 활동하는 다양한 사용자들로부터의 입력들을 사용함으로써 최선의 데이터세트를 얻도록 구성될 수 있다. 일 실시예에서, 데이터베이스는 본질적으로 프랙탈(fractal)하다 ― 사용자들이 객체들에 더 가까이 움직임에 따라, 클라우드는 더 높은 해상도 정보를 그러한 사용자들에게 전달함 ―. 사용자가 더욱 가까이 객체를 맵핑함에 따라, 그 데이터는 클라우드에 전송되고, 클라우드는 새로운 3-D 포인트들 및 이미지-기반 텍스처 맵들을, 그들이 데이터베이스에 이전에 저장된 것보다 더 우수하다면, 데이터베이스에 부가할 수 있다. 이 모두는 많은 사용자들로부터 동시에 일어나도록 구성될 수 있다.
위에서 설명된 바와 같이, 증강 또는 가상 현실 경험은 특정 타입들의 객체들을 인식하는 것에 기초할 수 있다. 예컨대, 특정 객체가 그러한 객체를 인식 및 이해하기 위하여 심도를 갖는다는 것을 이해하는 것이 중요할 수 있다. 인식기 소프트웨어 객체들("인식기들")은 클라우드 또는 로컬 자원들 상에 배치되어, 사용자가 세계에서 데이터를 탐험함에 따라 플랫폼들 중 어느 한 쪽 또는 둘 다 상에서 다양한 객체들의 인식을 구체적으로 도울 수 있다. 예컨대, 시스템이 3-D 포인트 클라우드들 및 포즈-태깅된 이미지들을 포함하는 세계 모델에 대한 데이터를 갖는다면 그리고 그 상에 다수의 포인트들뿐만 아니라 데스크의 이미지를 갖는 데스크가 있다면, 관찰되고 있는 것이 정말로 인간들이 알고 있는 데스크와 같은 데스크라는 결정이 없을 수 있다. 다시 말해, 공간에서 몇몇의 3-D 포인트들 및 데스크의 대부분을 나타내는, 공간에서 떨어진 어딘가로부터의 이미지는, 데스크가 관찰되고 있음을 즉각적으로 인식하기에 충분하지 않을 수 있다. 이러한 식별을 돕기 위해, 특정 객체 인식기가 생성될 수 있고, 상기 특정 객체 인식기는 원시(raw) 3-D 포인트 클라우드에 들어갈 것이고, 포인트들의 세트를 세그멘팅할 것이고, 예컨대 데스크의 상단 표면의 비행기를 추출할 것이다. 유사하게, 인식기는 3-D 포인트들로부터 벽을 세그멘팅하도록 생성될 수 있어, 그래서 사용자는 가상 또는 증강 현실에서 월페이퍼를 바꿀 수 있거나 또는 벽의 일부를 제거할 수 있고, 실세계에서 실제로는 그곳에 없는 다른 방으로의 입구를 가질 수 있다. 그러한 인식기들은 세계 모델의 데이터 내에서 동작하고, 세계 모델을 크로울링(crawling)하고 상기 세계 모델을 의미론적 정보 또는 공간에서 포인트들 사이에 존재하는 것으로 믿어지는 것에 관한 온톨로지(ontology)로 가득 채우는 소프트웨어 "로봇들"로서 생각될 수 있다. 그러한 인식기들 또는 소프트웨어 로봇들은, 각자의 전체 존재가 데이터의 적절한 세계를 도는 것 그리고 자신이 믿는 것들이 벽들, 또는 의자들, 또는 다른 아이템들이라는 발견들이 되도록 구성될 수 있다. 상기 인식기들 또는 소프트웨어 로봇들은, 포인트들 세트를 "이 포인트들 세트는 벽에 속한다"라는 기능적 등가물로 태깅하도록 구성될 수 있고, 포인트들에 무엇이 있는지에 관하여 시스템에 상호 통보하기 위해 포즈-태깅된 이미지 분석 및 포인트-기반 알고리즘의 결합을 포함할 수 있다.
객체 인식기들은, 관점에 따라, 많은 가변되는 유용성의 목적으로 생성될 수 있다. 예컨대, 일 실시예에서, 스타벅스와 같은 커피 조달업자는 데이터의 적절한 세계들 내에서 스타벅스 커피 컵들의 정확한 인식기를 생성하는데 투자할 수 있다. 그러한 인식기는, 스타벅스 커피 컵들을 대규모 및 소규모로 검색하는 데이터의 세계들을 크로울링하도록 구성될 수 있고, 그래서 상기 스타벅스 커피 컵들은 적절한 근처 공간에서 동작할 때 세그멘팅될 수 있고 사용자에게 식별될 수 있다(즉, 아마도, 사용자가 특정 시간 기간 동안 자신의 스타벅스 컵을 쳐다볼 때 코너 바로 주위의 스타벅스 아울렛에서 사용자에게 커피를 제공하기 위해). 세그멘팅된 컵을 이용하여, 사용자가 상기 컵을 자신의 데스크 상에서 움직일 때가 신속하게 인식될 수 있다. 그러한 인식기들은, 클라우드 컴퓨팅 자원들 및 데이터 상에서 뿐만 아니라, 로컬 자원들 및 데이터 상에서도, 또는 이용가능한 컴퓨테이셔널 자원들에 따라 클라우드 및 로컬 둘 다에서 실행되거나 또는 동작하도록 구성될 수 있다. 일 실시예에서, 클라우드 상에 세계 모델의 글로벌 복사본이 존재하지만 ― 상기 클라우드는 상기 글로벌 모델에 기여하는 수백만의 사용자들을 가짐 ―, 특정 타운에서 특정 개인의 사무실처럼 하위-세계들 또는 더 작은 세계들에 대해, 글로벌 세계의 대부분은 상기 사무실이 어떻게 보이는지 주의하지 않을 것이고, 그래서 시스템은, 데이터를 그루밍하도록 그리고 주어진 사용자에게 로컬로 가장 적절한 것으로 믿어지는 로컬 캐시 정보로 움직이도록 구성될 수 있다. 일 실시예에서, 예컨대, 사용자가 데스크로 걸어갈 때, 관련 정보(예컨대, 상기 사용자의 테이블 상에서 특정 컵의 세그멘테이션)가 상기 사용자의 로컬 컴퓨팅 자원들 상에만 있고 클라우드 상에는 없도록 구성될 수 있는데, 그 이유는 테이블들 상의 컵들과 같이 종종 움직이는 것들로서 식별되는 객체들은 클라우드 모델에 부담을 지울 필요가 없고 클라우드와 로컬 자원들 사이에 송신 부담을 지울 필요가 없기 때문이다. 따라서, 클라우드 컴퓨팅 자원은 3-D 포인트들 및 이미지들을 세그멘팅하도록 구성될 수 있고 ― 따라서, 이동가능한 것들로부터 영구적(즉, 일반적으로 움직이지 않는) 객체들이 팩토링(factoring)됨 ―, 이는 연관된 데이터가 잔류할 곳, 연관된 데이터가 프로세싱될 곳에 영향을 끼칠 수 있고, 더욱 영구적인 객체들에 적절한 특정 데이터에 대해 착용가능한/로컬 시스템으로부터 프로세싱 부담을 제거할 수 있고, 위치의 한 번의 프로세싱을 허용할 수 있고 ― 그런 다음, 상기 위치는 무제한의 다른 사용자들에 의해 공유될 수 있음 ―, 데이터의 다수의 소스들이, 특정 물리적 위치에서 고정 및 이동가능한 객체들의 데이터베이스를 동시에 구축하도록 할 수 있고, 객체-특정 기점들 및 텍스처 맵들을 생성하기 위해 배경으로부터 객체들을 세그멘팅할 수 있다.
일 실시예에서, 시스템이, 특정 객체들의 아이덴티티에 관한 입력에 대해 사용자에게 질의하도록 구성될 수 있어(예컨대, 시스템은 "저것은 스타벅스 커피 컵입니까?"와 같은 질문을 사용자에게 제시할 수 있음), 그래서 사용자는 시스템을 트레이닝할 수 있고, 시스템이 의미론적 정보를 실세계에 있는 객체들과 연관시키도록 할 수 있다. 온톨로지는, 세계로부터 세그멘팅된 객체들이 무엇을 할 수 있는지, 그들이 어떻게 행동하는지 등등에 관한 안내를 제공할 수 있다. 일 실시예에서, 시스템에 대한 특정 사용자 입력을 용이하게 하기 위해, 시스템은 가상 또는 실제 키패드, 예컨대 무선 연결된 키패드, 스마트폰의 키패드로의 접속성 등등을 특징으로 할 수 있다.
시스템은 가상 또는 증강 현실에서 방으로 걸어들어오는 임의의 사용자와 기본 엘리먼트들(벽들, 윈도우들, 데스크 기하학적 구조 등등)을 공유하도록 구성될 수 있고, 일 실시예에서, 그 사람의 시스템은, 자신의 특정 관점으로부터 이미지들을 취하도록 그리고 상기 이미지들을 클라우드에 업로딩하도록 구성될 것이다. 그런 다음, 클라우드에는 데이터의 이전 세트 및 새로운 세트가 부가되고, 클라우드는 최적화 루틴들을 실행할 수 있고 개별 객체들 상에 존재하는 기점들을 설정할 수 있다.
GPS 및 다른 로컬화 정보가 그러한 프로세싱에 대한 입력들로서 활용될 수 있다. 추가로, 사용자의 온라인 달력 또는 페이스북 계정 정보와 같은 다른 컴퓨팅 시스템들 및 데이터가 입력들로서 활용될 수 있다(예컨대, 일 실시예에서, 클라우드 및/또는 로컬 시스템이, 항공권들에 대한 사용자의 달력의 콘텐츠, 날짜들, 및 목적지들을 분석하도록 구성될 수 있어, 그래서 시간에 따라, 주어진 목적지에서 사용자의 도달 시간에 대해 준비되도록, 정보가 클라우드로부터 사용자의 로컬 시스템들로 움직여질 수 있다).
일 실시예에서, QR 코드들 등등과 같은 태그들이, 비-통계적 포즈 계산, 보안/액세스 제어, 특별 정보의 통신, 공간적 메시징, 비-통계적 객체 인식 등등과 함께 사용되기 위해 세계에 삽입될 수 있다.
일 실시예에서, 클라우드 자원들은, "전달가능한 세계들"을 참조하여 위에서 설명된 바와 같이 실세계 및 가상 세계의 디지털 모델들을 사용자들 사이에서 전달하도록 구성될 수 있고, 이때 모델들은 파라미터들 및 텍스처들에 기초하여 개별 사용자들에 의해 렌더링된다. 이는, 실시간 비디오의 전달에 대해 대역폭을 감소시키고, 장면의 가상 뷰포인트들의 렌더링을 허용하고, 수백만 또는 그 초과의 사용자들이, 그들이 볼 필요가 있는 데이터(예컨대, 비디오)를 그들 각각에게 전송하지 않고, 하나의 가상 수집(gathering)에 참여하도록 하는데, 그 이유는 각자의 뷰들이 각자의 로컬 컴퓨팅 자원들에 의해 렌더링되기 때문이다.
가상 현실 시스템("VRS")은 다음 중 하나 또는 그 초과를 통해 사용자 위치 및 시야("포즈"로서 함께 알려짐)를 정합시키도록 구성될 수 있다: 카메라들을 이용한 실시간 메트릭 컴퓨터 비전, 동시 로컬화 및 맵핑 기술들, 맵들, 그리고 센서들, 예컨대 자이로들, 가속도계들, 나침반, 기압계, GPS, 무선 신호 강도 삼각측량, 비행 시간 신호 분석, LIDAR 레인징(ranging), RADAR 레인징, 주행거리 측정, 및 음탐 레인징(sonar ranging)으로부터의 데이터. 착용가능한 디바이스 시스템은 동시에 맵핑시키고 지향시키도록 구성될 수 있다. 예컨대, 알려지지 않은 환경들에서, VRS는, 사용자 포즈 계산들에 적절한 기점 포인트들, 세계 모델링을 위한 다른 포인트들, 세계의 텍스처 맵들을 제공하기 위한 이미지들을 알아내는, 환경에 관한 정보를 수집하도록 구성될 수 있다. 기점 포인트들은 포즈를 광학적으로 계산하는데 사용될 수 있다. 세계가 더욱 상세하게 맵핑됨에 따라, 더욱 많은 객체들이 세그멘팅될 수 있고 그들만의 텍스처 맵들에 주어질 수 있지만, 세계는 여전히 바람직하게, 낮은 해상도 텍스처 맵들을 이용하여 단순한 다각형들로 낮은 공간적 해상도로 표현가능하다. 위에서 논의된 것들과 같은 다른 센서들이 이러한 모델링 수고를 지원하는데 활용될 수 있다. 세계는 본질적으로 프랙탈할 수 있고, 여기서 움직이는 것 또는 다른 방식으로 더 나은 뷰를 추구하는 것(뷰포인트들, "감독" 모드들, 줌잉(zooming) 등등을 통해)은 클라우드 자원들로부터 고-해상도 정보를 요청한다. 객체들에 더 가까이 움직이는 것은 더 높은 해상도 데이터를 캡쳐하고, 상기 더 높은 해상도 데이터는 클라우드에 전송될 수 있으며, 상기 클라우드는 세계 모델에서 사이 사이트(interstitial site)들에 새로운 데이터를 계산 및/또는 삽입할 수 있다.
도 16을 참조하면, 착용가능한 시스템은 이미지 정보를 캡쳐하도록 그리고 기점들 및 인식된 포인트들을 추출하도록 구성될 수 있다(52). 착용가능한 로컬 시스템은, 아래에 언급되는 포즈 계산 기술들 중 하나를 이용하여 포즈를 계산할 수 있다. 클라우드는, 더욱 정적인 3-D 배경으로부터 3-D 객체들을 세그멘팅하기 위해 이미지들 및 기점들을 사용하도록 구성될 수 있고(54); 이미지들은 객체들 및 세계에 대한 텍스처들 맵들을 제공한다(텍스처들은 실시간 비디오들일 수 있다). 클라우드 자원들은, 세계 정합을 위해 이용가능한 정적 기점들 및 텍스처들을 저장하고 만들도록 구성될 수 있다(56). 클라우드 자원들은 정합을 위한 최적 포인트 밀도에 대해 포인트 클라우드를 그루밍하도록 구성될 수 있다. 클라우드 자원들은 객체 정합 및 조작을 위해 이용가능한 객체 기점들 및 텍스처들을 저장하고 만들 수 있고(60); 클라우드는 정합을 위한 최적 밀도에 대해 포인트 클라우드들을 그루밍할 수 있다. 클라우드 자원은, 객체들의 프랙탈 고체 모델들을 생성하기 위해 유효한 포인트들 및 텍스처들 전부를 사용하도록 구성될 수 있고(62); 클라우드는 최적 기점 밀도에 대해 포인트 클라우드 정보를 그루밍할 수 있다. 클라우드 자원은, 세그멘팅된 객체들의 아이덴티티 및 세계에 관한 트레이닝을 위해 사용자들에게 질의하도록 구성될 수 있고(64); 온톨로지 데이터베이스는, 객체들 및 세계를 동작가능한 특징들로 가득 채우기 위해 답변들을 사용할 수 있다.
정합 및 맵핑의 다음의 특정 모드들은 광학 또는 카메라 시스템으로부터 결정된 포즈를 표현하는 용어 "O-포즈"; 센서들로부터 결정된 포즈(즉, 위에서 논의된 바와 같이, GPS, 자이로, 나침반, 가속도계 등등의 데이터의 결합과 같음)를 표현하는 용어 "s-포즈"; 및 클라우드 컴퓨팅 및 데이터 관리 자원을 표현하는 용어 "MLC"를 특징으로 한다.
1. 지향(orient): 새로운 환경의 기본 맵을 만든다
목적: 환경이 맵핑되지 않는다면 또는 (등가물) MLC에 연결되지 않는다면 포즈를 설정한다.
· 이미지로부터 포인트들을 추출하고, 프레임마다 추적하고, S-포즈를 이용하여 기점들을 삼각측량한다.
· S-포즈를 사용하는데, 그 이유는 그곳에 기점들이 없기 때문이다
· 지속성에 기초하여 불량 기점들을 걸러 낸다.
· 이것은 가장 기본적인 모드이다: 상기 가장 기본적인 모드는 항상 낮은-정확도 포즈를 위해 동작할 것이다. 시간 및 어떤 상대적 모션을 거의 사용하지 않고, 상기 가장 기본적인 모드는 O-포즈 및/또는 맵핑에 대해 최소 기점 세트를 설정할 것이다.
· O-포즈가 신뢰성이 있자마자, 이 모드에서 나온다.
2. 맵 및 O-포즈: 환경을 맵핑한다
목적: 높은-정확도 포즈를 설정하고, 환경을 맵핑하고, (이미지들을 갖는) 맵을 MLC에 제공한다.
· 성숙한 세계 기점들로부터 O-포즈를 계산한다. O-포즈 솔루션의 체크로서 그리고 계산을 가속화하기 위해 S-포즈를 사용한다(O-포즈는 비-선형 기울기 검색이다).
· 성숙한 기점들은 MLC로부터 나올 수 있거나, 또는 로컬로 결정된 것들일 수 있다.
· 이미지로부터 포인트들을 추출하고, 프레임마다 추적하고, O-포즈를 이용하여 기점들을 삼각측량한다.
· 지속성에 기초하여 불량 기점들을 걸러 낸다.
· MLC에 기점들 및 포즈-태깅된 이미지들을 제공한다.
· 마지막 세 개의 단계들은 실시간으로 일어날 필요가 없다.
3. O-포즈: 포즈를 결정한다
목적: 최소 프로세싱 파워를 이용하여, 이미 맵핑된 환경에서, 높은-정확도 포즈를 설정한다.
· n에서의 포즈를 추정하기 위해 역사적 S-포즈 및 O-포즈(n-1, n-2, n-3 등등)을 사용한다.
· n에서의 포즈를 사용하여, 기점들을 n에서 캡쳐된 이미지로 프로젝팅하고, 그런 다음 프로젝션으로부터 이미지 마스크를 생성한다.
· 마스킹된 구역들로부터 포인트들을 추출한다(이미지의 마스킹된 서브세트들로부터만 포인트들을 검색/추출함으로써, 프로세싱 부담이 크게 감소했다).
· 추출된 포인트들 및 성숙한 세계 기점들로부터 O-포즈를 계산한다.
· n+1에서의 포즈를 추정하기 위해, n에서의 S-포즈 및 O-포즈를 사용한다.
· 옵션: 포즈-태깅된 이미지들/비디오를 MLC 클라우드에 제공한다.
4. 수퍼 레스(Super Res): 수퍼 해상도 화상(imagery) 및 기점들을 결정한다
목적: 수퍼-해상도 화상 및 기점들을 생성한다.
· 수퍼-해상도 이미지들을 생성하기 위한, 복합 포즈-태깅된 이미지들.
· 기점 포지션 추정을 인핸싱하기 위해, 수퍼-해상도 이미지들을 사용한다.
· 수퍼 해상도 기점들 및 화상으로부터 O-포즈 추정들을 반복한다.
· 옵션: 착용가능한 디바이스(실시간으로) 또는 MLC(더 나은 세계를 위해) 상에서 위의 단계들을 루핑(looping)한다.
일 실시예에서, VLS 시스템은, 특정 베이스 기능뿐만 아니라, 특정한 전문화된 기능성들을 제공하기 위해 VLS를 통해 분배될 수 있는 "apps" 또는 애플리케이션들에 의해 용이하게 되는 기능성을 갖도록 구성될 수 있다. 예컨대, 전문화된 기능성을 제공하기 위해, 다음의 apps가 대상 VLS에 설치될 수 있다:
화가 특유의 렌더링들 app. 아티스트들은 세계 ― 그들이 상기 세계를 봄 ― 를 표현하는 이미지 트랜스폼들을 생성한다. 사용자들이 이러한 트랜스폼들을 인에이블링하고, 따라서 아티스트들 눈들을 "통해" 세계를 보게 된다.
테이블 상단 모델링 app. 사용자들은 테이블 상에 놓인 물리적 객체들로부터 객체들을 "구축"한다.
가상 존재 app. 사용자들은 공간의 가상 모델을 다른 사용자에게 전달하고, 상기 다른 사용자는 그런 다음 가상 아바타를 이용하여 공간 주위에서 움직인다.
아바타 이모션(emotion) app. 미묘한 음성 어조, 사소한 헤드 움직임, 바디 온도, 심박수 등등의 측정들이 가상-존재 아바타들 상에 미묘한 효과들을 애니메이팅한다. 인간 상태 정보를 디지털화하는 것 그리고 그것을 원격 아바타에게 전달하는 것은 비디오보다 대역폭을 덜 사용한다. 부가하여, 그러한 데이터는, 이모션 능력이 있는 비-인간 아바타들에게 맵핑가능하다. 예컨대, 개 아바타는, 흥분한 음성 어조들에 기초하여 자신의 꼬리를 흔듦으로써 흥분을 나타낼 수 있다.
모두를 서버에 다시 전송하는 것과 대조적으로, 데이터를 움직이는데 효율적 메쉬 타입 네트워크가 바람직할 수 있다. 그러나, 많은 메쉬 네트워크들은 차선 성능을 갖는데, 그 이유는 포지셔널 정보 및 토폴로지가 잘 특징화되지 않기 때문이다. 일 실시예에서, 시스템은 비교적 높은 정확도로 사용자들 전부의 위치를 결정하는데 활용될 수 있고, 따라서 메쉬 네트워크 구성은 고성능을 위해 활용될 수 있다.
일 실시예에서, 시스템은 검색을 위해 활용될 수 있다. 예컨대, 증강 현실을 이용하여, 사용자들은 물리적 세계의 많은 양상들에 관련된 콘텐츠를 생성할 것이고 남길 것이다. 이러한 콘텐츠 중 많은 콘텐츠는 텍스트가 아니고, 따라서 통상적 방법들에 의해 쉽게 검색되지 않는다. 시스템은, 검색 및 참조 목적으로, 퍼스널 및 소셜 네트워크 콘텐츠에 대해 계속 추적하기 위한 설비를 제공하도록 구성될 수 있다.
일 실시예에서, 디스플레이 디바이스가 연속적 프레임들을 통해 2-D 포인트들을 추적하고, 그런 다음 벡터-값 함수(vector-valued function)를 그러한 포인트들의 시간 에볼루션에 피팅한다면, 어느 시점에도(예컨대, 프레임들 사이) 또는 가까운 미래의 어떤 포인트에서(시간상 앞으로, 벡터-값 함수를 프로젝팅함으로써. 이는, 고-해상도 포스트-프로세싱의 생성을 허용하고, 다음 차례의 이미지가 실제 캡쳐되기 이전에 미래 포즈의 예측을 허용(예컨대, 카메라 프레임 레이트를 두 배로 하지 않고, 정합 속도를 두 배로 하는 것이 가능)함) 벡터 값 함수를 샘플링하는 것이 가능하다.
(헤드-고정된 또는 세계-고정된 렌더링들과 대조적으로) 바디-고정된 렌더링을 위해, 바디의 정확한 뷰가 원해진다. 바디를 측정하는 것이 아니라, 일 실시예에서, 사용자의 헤드의 평균 포지션을 통해 그 위치를 도출하는 것이 가능하다. 사용자의 얼굴이 대부분의 시간에 앞으로 향한다면, 헤드 포지션의 여러 날의 평균이 그 방향을 드러낼 것이다. 중력 벡터와 함께, 이는, 바디-고정된 렌더링을 위해 합리적으로 안정적인 조정 프레임을 제공한다. 이러한 긴-지속기간 조정 프레임에 대하여 헤드 포지션의 현재 측정치들을 사용하는 것은, ― 여분의 계측을 사용하지 않고도 ― 사용자의 바디 상의/주위의 객체들의 일관된 렌더링을 허용한다. 이러한 실시예의 구현을 위해, 헤드 방향-벡터의 단일 레지스터 평균들이 시작될 수 있고, 델타-t로 나뉜 데이터의 러닝 합이 현재 평균 헤드 포지션을 줄 것이다. 하루 n-5, 하루 n-4, 하루 n-3, 하루 n-2, 하루 n-1에 시작되는 5개 정도의 레지스터들을 유지하는 것은, 유일하게 과거 "n" 날들의 평균들을 롤링(rolling)하는 용도를 허용한다.
일 실시예에서, 장면이 스케일링 다운될 수 있고 실제보다 더 작은 공간에서 사용자에게 제시될 수 있다. 예컨대, 거대한 공간(즉, 예컨대 축구 스타디움)에서 렌더링되어야 하는 장면이 존재하는 상황에서, 대등한 거대한 공간이 존재하지 않을 수 있거나, 또는 그러한 대형 공간이 사용자에게 불편할 수 있다. 일 실시예에서, 시스템이 장면의 스케일을 감소시키도록 구성될 수 있어, 그래서 사용자는 장면을 미니어처로 볼 수 있다. 예컨대, 신들의 시선(gods-eye-view) 비디오 게임, 또는 세계 챔피온 축구 게임이 스케일링되지 않은 필드에서 발생되게 될 수 있거나 또는 스케일링 다운되고 거실 바닥에 제시되게 될 수 있다. 시스템은, 렌더링 관점, 스케일, 및 연관된 수용 거리를 간단히 시프트하도록 구성될 수 있다.
또한, 시스템은, 가상 또는 증강 현실 객체들의 포커스를 조작함으로써, 그들을 강조함으로써, 콘트래스트, 밝기, 스케일 등등을 변경함으로써 제시된 장면 내의 특정 아이템들에 사용자의 관심이 끌리도록 구성될 수 있다.
바람직하게, 시스템은 다음의 모드들을 달성하도록 구성될 수 있다:
오픈 공간 렌더링:
· 구조화된 환경으로부터 핵심적인 포인트들을 잡고, 그런 다음 ML 렌더링들을 이용하여 그 사이의 공간을 채운다.
· 잠재적 장소들: 스테이지들, 출력 공간들, 대형 실내 공간들(스타디움들).
객체 포장(wrapping):
· 실세계에서 3D 객체를 인식하고, 그런 다음 그들을 증강한다
· 여기서 "인식"은 화상을 앵커링하기에 충분한 높은 정확도를 갖는 3D 블로브(blob)를 식별하는 것을 의미한다.
· 두 개의 타입들의 인식이 있다: 1) 객체의 타입(예컨대, "얼굴")을 분류하는 것; 2) 객체의 특정 인스턴스(예컨대, Joe, 사람)를 분류하는 것.
· 다양한 물건들에 대한 인식기들 소프트웨어 객체들을 구축한다: 벽들, 천장들, 바닥들, 얼굴들, 도로들, 하늘, 고층건물들, 랜치 하우스들, 테이블들, 의자들, 자동차들, 도로 표지판들, 게시판들, 문들, 윈도우들, 책꽂이들 등등
· 몇몇의 인식기들은 타입 Ⅰ이고, 일반적 기능성, 예컨대 "나의 비디오를 저 벽에 놓아라", "저것은 개이다"를 갖는다.
· 다른 인식기들은 타입 Ⅱ이고, 특정 기능성, 예컨대 "나의 TV는 천장으로부터 3.2피트에 나의 거실 벽에 있다", "저것은 Fido이다"을 갖는다(이는, 일반적 인식기의 더욱 유능한 버전이다)
· 인식기를 소프트웨어 객체들로서 구축하는 것은, 기능성의 계량된 릴리스, 그리고 경험의 더 미세한 그레인드(grained) 제어를 허용한다
바디 중심 렌더링
· 사용자들 바디에 고정된 가상 객체들을 렌더링한다
· 몇몇의 물건들은, 디지털 공구 벨트처럼, 사용자의 바디 주위에 부유해야 한다.
· 이는, 단지 헤드가 아니라, 바디가 어디에 있는지를 알 것을 요구한다. 사용자들 헤드 포지션의 장기 평균을 가짐으로써 바디 포지션이 합리적으로 정확하게 획득될 수 있다(헤드들은 보통, 땅과 평행하게 앞으로 향한다).
· 사소한 경우는 헤드 주위에서 부유하는 객체들이다.
투명도/컷어웨이
· 타입 Ⅱ로 인식된 객체들에 대해, 컷-어웨이들을 나타낸다
· 타입 Ⅱ로 인식된 객체들을 3D 모델들의 온라인 데이터베이스에 링크시킨다.
· 자동차들 및 공동 시설들과 같이 공통으로 이용가능한 3D 모델들을 갖는 객체들로 시작해야 한다.
가상 존재
· 원격의 사람들의 아바타들을 오픈 공간들로 페인팅한다.
· "오픈 공간 렌더링"의 서브세트(위).
· 사용자들은 로컬 환경의 개략적인 기하학적 구조를 생성하고, 기하학적 구조 및 텍스처 맵들 둘 다를 다른 사용자들에게 반복적으로 전송한다.
· 사용자들은 다른 사용자들이 각자의 환경으로 들어가도록하기 위한 허가를 승인해야 한다.
· 미묘한 음성 큐(queue)들, 손 추적, 및 헤드 모션이 원격 아바타에게 전송된다. 아바타는 이러한 퍼지 입력들로부터 애니메이팅된다.
· 상기는 대역폭을 최소화시킨다.
· 벽을 다른 방으로의 "입구"로 만든다
· 다른 방법에서와 같이, 기하학적 구조 및 텍스처 맵을 전달한다.
· 로컬 방에서 아바타를 나타내는 대신에, 인식된 객체(예컨대, 벽)를 다른 사용자의 환경으로의 입구로서 지정한다. 이러한 방식으로, 다수의 사람들이 자신들만의 방들에 앉을 수 있고, 다른 사용자들의 환경들을 벽들을 "통해" 본다.
가상 뷰포인트들
· 카메라들(사람들)의 그룹이 상이한 관점들로부터 장면을 볼 때 밀집한 디지털 영역 모델이 생성된다. 이러한 풍부한 디지털 모델은 적어도 하나의 카메라가 볼 수 있는 어떠한 유리한 포인트로부터도 렌더링가능하다.
· 예. 사람들이 결혼식에 있다. 장면은 참석자들 전부에 의해 공동으로 모델링된다. 인식기들은 움직이는 것들과 상이하게 고정 객체들을 구별하고 텍스처 맵핑한다(예컨대, 벽들은 안정적인 텍스처 맵을 갖고, 사람들은 더 높은 주파수로 움직이는 텍스처 맵들을 갖는다.)
· 실시간으로 업데이트되는 풍부한 디지털 모델을 이용하여, 임의의 관점으로부터 장면이 렌더링가능하다. 뒤의 참석자는 더 나은 뷰를 위해 앞쪽의 줄로 하늘을 날 수 있다.
· 참석자들은 각자의 움직이는 아바타를 나타낼 수 있거나, 또는 각자의 관점이 숨겨지게 할 수 있다.
· 부지 밖의 참석자들은 각자의 아바타를 이용하여서든 또는 주최자들이 허가하는 경우이든 눈에 보이지 않게 "좌석"을 찾을 수 있다.
· 극도로 높은 대역폭을 요구할 것 같다. 개념상, 고주파수 데이터가 고속 로컬 무선 상에서 대중을 통과해 빠르게 이동된다. 저주파수 데이터는 MLC로부터 나온다.
· 참석자들 전부가 높은 정확도 포지션 정보를 갖기 때문에, 로컬 네트워킹을 위해 최적 라우팅 경로를 만드는 것은 사소하다.
메시징
· 단순한 침묵 메시징이 바람직할 수 있다
· 이를 위해 그리고 다른 애플리케이션들을 위해, 더 미세한 화음화 키보드를 갖는 것이 바람직할 수 있다.
· 촉각 글로브 솔루션들이 인핸스드 성능을 제공할 수 있다.
완전한 가상 현실(VR):
· 어두워진 비전 시스템을 이용하여, 실세계 상에 오버레이되지 않은 뷰를 나타낸다.
· 정합 시스템이 헤드 포지션을 추적하기에 여전히 필요하다.
· "침상 모드"는 사용자가 날도록 한다.
· "걷기 모드"는 실세계의 객체들을 가상 객체들로서 재-렌더링하고, 그래서 사용자는 실세계와 충돌하지 않는다.
· 바디의 일부들을 렌더링하는 것이 불신의 중단을 위해 필수적이다. 이는, 방법이 FOV에서 바디 일부들을 추적하고 렌더링하도록 함을 의미한다.
· 비-시스루 바이저는 직접적인 오버레이 없이 가능하지 않은 많은 이미지 인핸스먼트 장점들을 갖는 VR의 형태이다
· 와이드 FOV, 아마도 심지어 뒤를 보는 능력
·"수퍼 비전"의 다양한 형태들: 망원경, 시스루, 적외선, 신의 눈 등등.
일 실시예에서, 가상 및/또는 증강 사용자 경험을 위한 시스템은, 사용자들과 연관된 원격 아바타들이 적절한 소프트웨어 모듈들에 의해 전달되는 바와 같이 음성 어조 분석 및 얼굴 인식 분석과 같은 소스들로부터의 입력을 이용하는 착용가능한 디바이스 상의 데이터에 적어도 부분적으로 기초하여 애니메이팅될 수 있도록 구성된다. 예컨대, 다시 도 12를 참조하면, 벌 아바타(2)는, 사용자의 얼굴 상의 미소의 얼굴 인식에 기초하여, 또는 사용자로부터 로컬로 음성 샘플들을 캡쳐할 수 있는 마이크로폰들로의 음성 입력들을 분석하도록 구성된 소프트웨어에 의해 결정되는 바와 같이, 음성 또는 스피킹의 친숙한 톤에 기초하여 친숙한 미소를 갖도록 애니메이팅될 수 있다. 추가로, 아바타 캐릭터는, 아바타가 특정 이모션을 표현할 것 같은 방식으로 애니메이팅될 수 있다. 예컨대, 아바타가 개인 실시예에서, 인간 사용자에 국한된 시스템에 의해 검출되는 행복한 미소 또는 톤은 개 아바타의 흔드는 꼬리로서 아바타에서 표현될 수 있다.
본 발명의 다양한 예시적 실시예들이 본 명세서에서 설명된다. 비-제한적인 의미로 이러한 예들이 참조된다. 이러한 예들은, 본 발명의 더욱 광범위하게 적용가능한 양상들을 예시하기 위해 제공된다. 본 발명의 사상 및 범위로부터 벗어남 없이, 설명된 본 발명에 다양한 변경들이 이루어질 수 있고, 등가물들이 치환될 수 있다. 부가하여, 특정 상황, 재료, 물질의 구성, 프로세스, 프로세스 동작(들) 또는 단계(들)를 본 발명의 목적(들), 사상 또는 범위로 적응시키기 위해 많은 수정들이 이루어질 수 있다. 추가로, 기술분야의 당업자들에 의해 인정될 바와 같이, 본 발명들의 범위 또는 사상으로부터 벗어남 없이, 본 발명에서 설명 및 예시된 개별 변형들의 그 각각은 이산적인 컴포넌트들 및 피처들을 갖고, 상기 피처들은 다른 여러 실시예들 중 임의의 실시예의 피처들로부터 쉽게 분리될 수 있거나 또는 다른 여러 실시예들 중 임의의 실시예의 피처들과 쉽게 결합될 수 있다. 그러한 수정들 전부는, 이러한 기재와 연관된 청구항들의 범위 내에 있는 것으로 의도된다.
본 발명의 대상 디바이스들을 이용하여 수행될 수 있는 방법들을 포함한다. 방법들은 그러한 적절한 디바이스를 제공하는 동작을 포함할 수 있다. 그러한 제공은 최종 사용자에 의해 수행될 수 있다. 다시 말해, 대상 방법에서 필수 디바이스를 제공하기 위해, "제공하는" 동작은 단지, 최종 사용자가 획득하거나, 액세스하거나, 접근하거나, 포지셔닝하거나, 셋-업하거나, 활성화하거나, 파워-업하거나 또는 다른 방식으로 동작할 것을 요구한다. 본 명세서에서 언급된 방법들은 논리적으로 가능한, 언급된 이벤트들의 임의의 순서로, 뿐만 아니라 이벤트들의 언급된 순서로 수행될 수 있다.
재료 선택 및 제조에 관한 세부사항들과 함께, 본 발명의 예시적 양상들이 위에서 전개되었다. 본 발명의 다른 세부사항들에 대해서와 같이, 이들은 위에서-인용된 특허들 및 공보들과 관련하여 인정될 수 있을 뿐만 아니라 기술분야의 당업자들에 의해 일반적으로 알려질 수 있거나 또는 인정될 수 있다. 동일한 내용이, 공통으로 또는 논리적으로 사용되는 바와 같이 부가의 동작들 면에서 본 발명의 방법-기반 양상들에 대하여 적용될 수 있다.
부가하여, 본 발명이 다양한 피처들을 선택적으로 포함하는 여러 예들을 참조하여 설명되었지만, 본 발명은 본 발명의 각각의 변형에 대하여 고려된 바와 같이 설명되거나 또는 표시되는 것으로 제한되지 않을 것이다. 본 발명의 참인 사상 및 범위로부터 벗어남 없이, 설명된 본 발명에 다양한 변경들이 이루어질 수 있고, 등가물들(본 명세서에서 언급되든지 또는 어떤 간결성을 위해 포함되지 않든지)이 치환될 수 있다. 부가하여, 값들의 범위가 제공되는 경우, 그 범위의 상한치와 하한치 사이 그리고 그 언급된 범위에 있는 임의의 다른 언급된 또는 중간의 값 사이의 모든 각각의 중간 값이 본 발명 내에 포함된다는 것이 이해된다.
또한, 설명된 본 발명의 변형들의 임의의 선택적 피처가 본 명세서에서 설명된 피처들 중 임의의 하나 또는 그 초과와 독립적으로 또는 결합하여 전개 및 청구될 수 있다는 것이 고려된다. 단일 항목에 대한 참조는 복수의 동일한 아이템들이 존재할 가능성을 포함한다. 더욱 구체적으로, 본 명세서에서 그리고 그에 연관된 청구항들에서 사용된 바와 같이, 단수 형태들 "하나의", "임의의", "상기" 및 "그"는 그렇지 않다고 구체적으로 언급되지 않는 한 복수의 지시 대상물들을 포함한다. 다시 말해, 관사들의 사용은 위의 설명뿐만 아니라 이러한 기재와 연관된 청구항들에서 대상 아이템의 "적어도 하나"를 허용한다. 그러한 청구항들이 임의의 선택적 엘리먼트를 배제하도록 드래프트될 수 있음이 추가로 주의된다. 이와 같이, 이러한 진술은, 청구항 엘리먼트들의 언급 또는 "네거티브" 제한의 사용과 관련하여 "오로지", "유일하게" 등등으로서 그러한 배타적 용어의 사용을 위해 선행하는 기초로서의 역할을 하도록 의도된다.
그러한 배타적 용어의 사용 없이, 이러한 기재와 연관된 청구항들에서 용어 "포함하는"은 임의의 부가의 엘리먼트의 포함 ― 주어진 개수의 엘리먼트들이 그러한 청구항들에 열거되는지와 무관하게 ― 을 허용할 것이거나, 또는 피처의 부가가 그러한 청구항들에서 전개되는 엘리먼트의 성질을 트랜스폼하는 것으로서 간주될 수 있다. 본 명세서에서 구체적으로 정의된 바를 제외하고, 본 명세서에 사용된 모든 기술적 민 과학적 용어들은, 청구항 유효함을 유지하면서, 가능한 한 넓은, 보통 이해되는 의미로서 주어질 것이다.
본 발명의 폭넓음은 제공된 예들 및/또는 대상 사양으로 제한되는 것이 아니라, 이러한 기재와 연관된 청구항 언어의 범위에 의해서만 제한된다.
Claims (18)
- 둘 또는 그 초과의 사용자들이 가상 세계 데이터를 포함하는 가상 세계 내에서 대화하는 것을 가능케 하기 위한 시스템으로서,
하나 또는 그 초과의 컴퓨팅 디바이스들을 포함하는 컴퓨터 네트워크 ― 상기 하나 또는 그 초과의 컴퓨팅 디바이스들은 메모리, 프로세싱 회로, 그리고 적어도 부분적으로 상기 메모리에 저장되고, 상기 가상 세계 데이터의 적어도 일부분을 프로세싱하기 위해 상기 프로세싱 회로에 의해 실행가능한 소프트웨어를 포함함 ―; 및
사용자 디스플레이 컴포넌트를 갖는 사용자 디바이스 ― 상기 사용자 디바이스는 상기 컴퓨터 네트워크에 동작가능하게 커플링됨 ―;
를 포함하고,
상기 가상 세계 데이터의 적어도 제1 일부분은 제1 사용자의 시야 내에 물리적으로 존재하는 물리적 객체에 의해 트리거링되는 가상 객체를 포함하고, 상기 컴퓨터 네트워크는 제2 사용자와 연관된 상기 사용자 디바이스로 상기 가상 세계 데이터의 제1 부분을 전송하도록 동작하고, 그리고
상기 제1 사용자의 시야 내의 상기 물리적 객체의 시각적 표현이 상기 제2 사용자의 시야에 시각적으로 제시되도록 상기 사용자 디스플레이 컴포넌트가 상기 제2 사용자에게 상기 가상 객체를 디스플레이하도록 구성되는,
시스템. - 제 1 항에 있어서,
상기 제1 사용자 및 상기 제2 사용자는 서로에게 상이한 시야들을 제공하는 상이한 물리적 위치들에 있는,
시스템. - 제 1 항에 있어서,
상기 가상 세계의 적어도 일부분은 상기 제1 사용자의 시야 내의 물리적 객체에 응답하여 변하는,
시스템. - 제 3 항에 있어서,
상기 가상 세계의 상기 일부분에서의 변화는 상기 물리적 객체와 미리결정된 관계를 갖는 상기 가상 객체를 표현하는,
시스템. - 제 4 항에 있어서,
상기 가상 세계의 상기 일부분에서의 변화는 상기 미리결정된 관계에 따라 상기 제2 사용자로의 제시를 위해 상기 사용자 디바이스에 제시되는,
시스템. - 제 1 항에 있어서,
상기 가상 세계는 사용자 디바이스 또는 컴퓨터 서버 중 적어도 하나에 의해 렌더링되도록 동작하는,
시스템. - 제 1 항에 있어서,
상기 가상 세계는 2-차원 포맷으로 제시되는,
시스템. - 제 1 항에 있어서,
상기 가상 세계는 3-차원 포맷으로 제시되는,
시스템. - 제 1 항에 있어서,
상기 사용자 디바이스는 증강 현실 모드에서 사용자와 상기 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작하는,
시스템. - 제 1 항에 있어서,
상기 사용자 디바이스는 가상 현실 모드에서 사용자와 상기 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작하는,
시스템. - 제 9 항에 있어서,
상기 사용자 디바이스는 증강 및 가상 현실 모드의 결합에서 사용자와 상기 가상 세계 사이의 대화를 가능케 하기 위한 인터페이스를 제공하도록 동작하는,
시스템. - 제 1 항에 있어서,
상기 가상 세계 데이터는 데이터 네트워크를 경유해 전송되는,
시스템. - 제 1 항에 있어서,
상기 컴퓨터 네트워크는 사용자 디바이스로부터 상기 가상 세계 데이터의 적어도 일부분을 수신하도록 동작하는,
시스템. - 제 1 항에 있어서,
상기 가상 세계 데이터의 적어도 일부분은 상기 사용자 디바이스에 전송되고 그리고 상기 가상 세계의 적어도 일부분을 생성하기 위한 명령들을 포함하는,
시스템. - 제 1 항에 있어서,
상기 가상 세계 데이터의 적어도 일부분은 프로세싱 또는 분배 중 적어도 하나를 위해 게이트웨이에 전송되는,
시스템. - 제 15 항에 있어서,
상기 하나 또는 그 초과의 컴퓨팅 디바이스들 중 적어도 하나가 상기 게이트웨이에 의해 분배된 가상 세계 데이터를 프로세싱하도록 동작하는,
시스템. - 삭제
- 삭제
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161552941P | 2011-10-28 | 2011-10-28 | |
US61/552,941 | 2011-10-28 | ||
PCT/US2012/062500 WO2013085639A1 (en) | 2011-10-28 | 2012-10-29 | System and method for augmented and virtual reality |
Related Child Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187022042A Division KR101917630B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020177030368A Division KR101964223B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020197002451A Division KR102005106B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140093970A KR20140093970A (ko) | 2014-07-29 |
KR101944846B1 true KR101944846B1 (ko) | 2019-02-01 |
Family
ID=48224484
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147014448A KR101944846B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020197002451A KR102005106B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020187022042A KR101917630B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020177030368A KR101964223B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197002451A KR102005106B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020187022042A KR101917630B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
KR1020177030368A KR101964223B1 (ko) | 2011-10-28 | 2012-10-29 | 증강 및 가상 현실을 위한 시스템 및 방법 |
Country Status (12)
Country | Link |
---|---|
US (14) | US9215293B2 (ko) |
EP (6) | EP2771877B1 (ko) |
JP (7) | JP6110866B2 (ko) |
KR (4) | KR101944846B1 (ko) |
CN (2) | CN106484115B (ko) |
AU (6) | AU2012348348B2 (ko) |
BR (1) | BR112014010230A8 (ko) |
CA (4) | CA3207408A1 (ko) |
IL (5) | IL232281B (ko) |
IN (1) | IN2014CN03300A (ko) |
RU (2) | RU2017115669A (ko) |
WO (1) | WO2013085639A1 (ko) |
Families Citing this family (771)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US9658473B2 (en) * | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
GB0522968D0 (en) | 2005-11-11 | 2005-12-21 | Popovich Milan M | Holographic illumination device |
GB0718706D0 (en) | 2007-09-25 | 2007-11-07 | Creative Physics Ltd | Method and apparatus for reducing laser speckle |
US9370704B2 (en) * | 2006-08-21 | 2016-06-21 | Pillar Vision, Inc. | Trajectory detection and feedback system for tennis |
US9812096B2 (en) | 2008-01-23 | 2017-11-07 | Spy Eye, Llc | Eye mounted displays and systems using eye mounted displays |
US9335604B2 (en) | 2013-12-11 | 2016-05-10 | Milan Momcilo Popovich | Holographic waveguide display |
US11726332B2 (en) | 2009-04-27 | 2023-08-15 | Digilens Inc. | Diffractive projection apparatus |
KR20100138700A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
US8694553B2 (en) * | 2010-06-07 | 2014-04-08 | Gary Stephen Shuster | Creation and use of virtual places |
WO2012136970A1 (en) | 2011-04-07 | 2012-10-11 | Milan Momcilo Popovich | Laser despeckler based on angular diversity |
WO2016020630A2 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Waveguide laser illuminator incorporating a despeckler |
US10670876B2 (en) | 2011-08-24 | 2020-06-02 | Digilens Inc. | Waveguide laser illuminator incorporating a despeckler |
EP2995986B1 (en) | 2011-08-24 | 2017-04-12 | Rockwell Collins, Inc. | Data display |
CA3207408A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
WO2013067526A1 (en) | 2011-11-04 | 2013-05-10 | Remote TelePointer, LLC | Method and system for user interface for interactive devices using a mobile device |
WO2013102759A2 (en) | 2012-01-06 | 2013-07-11 | Milan Momcilo Popovich | Contact image sensor using switchable bragg gratings |
US8692840B2 (en) * | 2012-02-05 | 2014-04-08 | Mitsubishi Electric Research Laboratories, Inc. | Method for modeling and estimating rendering errors in virtual images |
EP2817920A4 (en) | 2012-02-23 | 2015-09-02 | Tyco Electronics Ltd Uk | OVERLAY-BASED FACILITY REPORTING AND IDENTIFICATION SYSTEM |
US9170648B2 (en) * | 2012-04-03 | 2015-10-27 | The Boeing Company | System and method for virtual engineering |
CN106125308B (zh) | 2012-04-25 | 2019-10-25 | 罗克韦尔柯林斯公司 | 用于显示图像的装置和方法 |
WO2013167864A1 (en) | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9129404B1 (en) * | 2012-09-13 | 2015-09-08 | Amazon Technologies, Inc. | Measuring physical objects and presenting virtual articles |
US20140128161A1 (en) * | 2012-11-06 | 2014-05-08 | Stephen Latta | Cross-platform augmented reality experience |
JP5787099B2 (ja) * | 2012-11-06 | 2015-09-30 | コニカミノルタ株式会社 | 案内情報表示装置 |
US8764532B1 (en) | 2012-11-07 | 2014-07-01 | Bertec Corporation | System and method for fall and/or concussion prediction |
US11270498B2 (en) * | 2012-11-12 | 2022-03-08 | Sony Interactive Entertainment Inc. | Real world acoustic and lighting modeling for improved immersion in virtual reality and augmented reality environments |
US9933684B2 (en) * | 2012-11-16 | 2018-04-03 | Rockwell Collins, Inc. | Transparent waveguide display providing upper and lower fields of view having a specific light output aperture configuration |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
US20140198130A1 (en) * | 2013-01-15 | 2014-07-17 | Immersion Corporation | Augmented reality user interface with haptic feedback |
US9526443B1 (en) * | 2013-01-19 | 2016-12-27 | Bertec Corporation | Force and/or motion measurement system and a method of testing a subject |
US8704855B1 (en) * | 2013-01-19 | 2014-04-22 | Bertec Corporation | Force measurement system having a displaceable force measurement assembly |
US10231662B1 (en) | 2013-01-19 | 2019-03-19 | Bertec Corporation | Force measurement system |
US10413230B1 (en) | 2013-01-19 | 2019-09-17 | Bertec Corporation | Force measurement system |
US10856796B1 (en) | 2013-01-19 | 2020-12-08 | Bertec Corporation | Force measurement system |
US11311209B1 (en) | 2013-01-19 | 2022-04-26 | Bertec Corporation | Force measurement system and a motion base used therein |
US10646153B1 (en) | 2013-01-19 | 2020-05-12 | Bertec Corporation | Force measurement system |
US11857331B1 (en) | 2013-01-19 | 2024-01-02 | Bertec Corporation | Force measurement system |
US8847989B1 (en) * | 2013-01-19 | 2014-09-30 | Bertec Corporation | Force and/or motion measurement system and a method for training a subject using the same |
US11052288B1 (en) | 2013-01-19 | 2021-07-06 | Bertec Corporation | Force measurement system |
US11540744B1 (en) | 2013-01-19 | 2023-01-03 | Bertec Corporation | Force measurement system |
US9770203B1 (en) | 2013-01-19 | 2017-09-26 | Bertec Corporation | Force measurement system and a method of testing a subject |
US9081436B1 (en) | 2013-01-19 | 2015-07-14 | Bertec Corporation | Force and/or motion measurement system and a method of testing a subject using the same |
US10010286B1 (en) | 2013-01-19 | 2018-07-03 | Bertec Corporation | Force measurement system |
US9449340B2 (en) * | 2013-01-30 | 2016-09-20 | Wal-Mart Stores, Inc. | Method and system for managing an electronic shopping list with gestures |
JP6281495B2 (ja) * | 2013-02-01 | 2018-02-21 | ソニー株式会社 | 情報処理装置、端末装置、情報処理方法及びプログラム |
KR20230173231A (ko) | 2013-03-11 | 2023-12-26 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
EP2967623B1 (en) | 2013-03-14 | 2021-07-21 | SRI International | Compact robotic wrist |
KR102560629B1 (ko) | 2013-03-15 | 2023-07-26 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9092954B2 (en) * | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
KR102257034B1 (ko) | 2013-03-15 | 2021-05-28 | 에스알아이 인터내셔널 | 하이퍼덱스트러스 수술 시스템 |
US11181740B1 (en) | 2013-03-15 | 2021-11-23 | Percept Technologies Inc | Digital eyewear procedures related to dry eyes |
US10209517B2 (en) | 2013-05-20 | 2019-02-19 | Digilens, Inc. | Holographic waveguide eye tracker |
US9764229B2 (en) | 2013-05-23 | 2017-09-19 | Disney Enterprises, Inc. | Unlocking of digital content based on geo-location of objects |
US9977256B2 (en) * | 2013-05-30 | 2018-05-22 | Johnson & Johnson Vision Care, Inc. | Methods for manufacturing and programming an energizable ophthalmic lens with a programmable media insert |
JP6179592B2 (ja) * | 2013-05-31 | 2017-08-16 | 日本電気株式会社 | 画像認識装置、その処理方法、およびプログラム |
US9685003B2 (en) * | 2013-06-03 | 2017-06-20 | Microsoft Technology Licensing, Llc | Mixed reality data collaboration |
US10905943B2 (en) * | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
KR102098277B1 (ko) | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US10175483B2 (en) * | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
US9440143B2 (en) | 2013-07-02 | 2016-09-13 | Kabam, Inc. | System and method for determining in-game capabilities based on device information |
US9014639B2 (en) * | 2013-07-11 | 2015-04-21 | Johnson & Johnson Vision Care, Inc. | Methods of using and smartphone event notification utilizing an energizable ophthalmic lens with a smartphone event indicator mechanism |
US9952042B2 (en) | 2013-07-12 | 2018-04-24 | Magic Leap, Inc. | Method and system for identifying a user location |
US9727772B2 (en) | 2013-07-31 | 2017-08-08 | Digilens, Inc. | Method and apparatus for contact image sensing |
US9415306B1 (en) | 2013-08-12 | 2016-08-16 | Kabam, Inc. | Clients communicate input technique to server |
US9656172B2 (en) * | 2013-08-16 | 2017-05-23 | Disney Enterprises, Inc. | Unlocking of virtual content through geo-location |
US20150062158A1 (en) | 2013-08-28 | 2015-03-05 | Qualcomm Incorporated | Integration of head mounted displays with public display devices |
CN105814626B (zh) * | 2013-09-30 | 2018-03-13 | Pcms控股公司 | 用于提供增强信息的方法和设备 |
US11165842B2 (en) | 2013-10-25 | 2021-11-02 | Louis Gurtowski | Selective capture with rapid sharing of user or mixed reality actions and states using interactive virtual streaming |
US10027731B2 (en) | 2013-10-25 | 2018-07-17 | Louis Gurtowski | Selective capture with rapid sharing of user computer or mixed reality actions, states using interactive virtual streaming |
US9704295B2 (en) * | 2013-11-05 | 2017-07-11 | Microsoft Technology Licensing, Llc | Construction of synthetic augmented reality environment |
US9623322B1 (en) | 2013-11-19 | 2017-04-18 | Kabam, Inc. | System and method of displaying device information for party formation |
US9996973B2 (en) | 2013-11-30 | 2018-06-12 | Empire Technology Development Llc | Augmented reality objects based on biometric feedback |
US9295916B1 (en) | 2013-12-16 | 2016-03-29 | Kabam, Inc. | System and method for providing recommendations for in-game events |
WO2015095507A1 (en) * | 2013-12-18 | 2015-06-25 | Joseph Schuman | Location-based system for sharing augmented reality content |
EP2886171A1 (en) * | 2013-12-18 | 2015-06-24 | Microsoft Technology Licensing, LLC | Cross-platform augmented reality experience |
KR102355118B1 (ko) | 2014-01-06 | 2022-01-26 | 삼성전자주식회사 | 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법 |
WO2020220720A1 (zh) | 2019-04-30 | 2020-11-05 | 深圳市韶音科技有限公司 | 一种声学输出装置 |
WO2015102464A1 (ko) * | 2014-01-06 | 2015-07-09 | 삼성전자 주식회사 | 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법 |
US9993335B2 (en) | 2014-01-08 | 2018-06-12 | Spy Eye, Llc | Variable resolution eye mounted displays |
JP6299234B2 (ja) * | 2014-01-23 | 2018-03-28 | 富士通株式会社 | 表示制御方法、情報処理装置、および表示制御プログラム |
US10983805B2 (en) * | 2014-02-21 | 2021-04-20 | Nod, Inc. | Contextual keyboard located on a remote server for implementation on any content delivery and interaction application |
US9677840B2 (en) * | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
US11138793B2 (en) | 2014-03-14 | 2021-10-05 | Magic Leap, Inc. | Multi-depth plane display system with reduced switching between depth planes |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US9536352B2 (en) * | 2014-03-27 | 2017-01-03 | Intel Corporation | Imitating physical subjects in photos and videos with augmented reality virtual objects |
WO2015161307A1 (en) * | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9767615B2 (en) * | 2014-04-23 | 2017-09-19 | Raytheon Company | Systems and methods for context based information delivery using augmented reality |
US9672416B2 (en) * | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
US9430038B2 (en) * | 2014-05-01 | 2016-08-30 | Microsoft Technology Licensing, Llc | World-locked display quality feedback |
US9690370B2 (en) * | 2014-05-05 | 2017-06-27 | Immersion Corporation | Systems and methods for viewport-based augmented reality haptic effects |
WO2015171887A1 (en) * | 2014-05-07 | 2015-11-12 | Tyco Electronics Corporation | Hands-free asset identification, location and management system |
CA2891742C (en) * | 2014-05-15 | 2023-11-28 | Tyco Safety Products Canada Ltd. | System and method for processing control commands in a voice interactive system |
US10600245B1 (en) * | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
EP3926589A1 (en) * | 2014-06-03 | 2021-12-22 | Apple Inc. | Method and system for presenting a digital information related to a real object |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US10055876B2 (en) * | 2014-06-06 | 2018-08-21 | Matterport, Inc. | Optimal texture memory allocation |
US10852838B2 (en) | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
EP3699736B1 (en) * | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10248992B2 (en) | 2014-07-26 | 2019-04-02 | Audi Ag | Presentation device for carrying out a product presentation |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
WO2016020632A1 (en) | 2014-08-08 | 2016-02-11 | Milan Momcilo Popovich | Method for holographic mastering and replication |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
WO2016032807A1 (en) | 2014-08-25 | 2016-03-03 | Google Inc. | Methods and systems for augmented reality to display virtual representations of robotic device actions |
JP6467698B2 (ja) * | 2014-08-28 | 2019-02-13 | 学校法人立命館 | 野球の打撃練習支援システム |
US20170255018A1 (en) * | 2014-09-11 | 2017-09-07 | Selaflex Ltd | An apparatus and method for displaying an output from a display |
WO2016042283A1 (en) | 2014-09-19 | 2016-03-24 | Milan Momcilo Popovich | Method and apparatus for generating input images for holographic waveguide displays |
US10423222B2 (en) | 2014-09-26 | 2019-09-24 | Digilens Inc. | Holographic waveguide optical tracker |
WO2016054079A1 (en) | 2014-09-29 | 2016-04-07 | Zyomed Corp. | Systems and methods for blood glucose and other analyte detection and measurement using collision computing |
KR102688893B1 (ko) | 2014-09-29 | 2024-07-29 | 매직 립, 인코포레이티드 | 상이한 파장의 광을 도파관 밖으로 출력하기 위한 아키텍쳐 및 방법 |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
CN105892620A (zh) * | 2014-10-28 | 2016-08-24 | 贵州师范学院 | 一种基于Kinect的体感遥控智能小汽车的方法 |
WO2016075782A1 (ja) * | 2014-11-12 | 2016-05-19 | 富士通株式会社 | ウェアラブルデバイス、表示制御方法、及び表示制御プログラム |
CN104391574A (zh) * | 2014-11-14 | 2015-03-04 | 京东方科技集团股份有限公司 | 视线处理方法、系统、终端设备及穿戴式设备 |
US10055892B2 (en) | 2014-11-16 | 2018-08-21 | Eonite Perception Inc. | Active region determination for head mounted displays |
EP3218074A4 (en) * | 2014-11-16 | 2017-11-29 | Guy Finfter | System and method for providing an alternate reality ride experience |
US11250630B2 (en) | 2014-11-18 | 2022-02-15 | Hallmark Cards, Incorporated | Immersive story creation |
TWI621097B (zh) * | 2014-11-20 | 2018-04-11 | 財團法人資訊工業策進會 | 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體 |
US10235714B2 (en) * | 2014-12-01 | 2019-03-19 | Verizon Patent And Licensing Inc. | Customized virtual reality user environment control |
US20160195923A1 (en) * | 2014-12-26 | 2016-07-07 | Krush Technologies, Llc | Gyroscopic chair for virtual reality simulation |
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
EP3245551B1 (en) | 2015-01-12 | 2019-09-18 | DigiLens Inc. | Waveguide light field displays |
CN107873086B (zh) | 2015-01-12 | 2020-03-20 | 迪吉伦斯公司 | 环境隔离的波导显示器 |
JP6867947B2 (ja) | 2015-01-20 | 2021-05-12 | ディジレンズ インコーポレイテッド | ホログラフィック導波路ライダー |
US9852546B2 (en) | 2015-01-28 | 2017-12-26 | CCP hf. | Method and system for receiving gesture input via virtual control objects |
US10725297B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US10726625B2 (en) | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for improving the transmission and processing of data regarding a multi-user virtual environment |
US9779512B2 (en) * | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
CN104759015A (zh) * | 2015-02-11 | 2015-07-08 | 北京市朝阳区新希望自闭症支援中心 | 基于计算机控制的视觉训练系统 |
US9632226B2 (en) | 2015-02-12 | 2017-04-25 | Digilens Inc. | Waveguide grating device |
US11468639B2 (en) * | 2015-02-20 | 2022-10-11 | Microsoft Technology Licensing, Llc | Selective occlusion system for augmented reality devices |
TWI567670B (zh) * | 2015-02-26 | 2017-01-21 | 宅妝股份有限公司 | 切換虛擬實境模式與擴增實境模式的管理方法以及系統 |
US10838207B2 (en) | 2015-03-05 | 2020-11-17 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10180734B2 (en) | 2015-03-05 | 2019-01-15 | Magic Leap, Inc. | Systems and methods for augmented reality |
US20160259404A1 (en) | 2015-03-05 | 2016-09-08 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10684485B2 (en) | 2015-03-06 | 2020-06-16 | Sony Interactive Entertainment Inc. | Tracking system for head mounted display |
US10088895B2 (en) | 2015-03-08 | 2018-10-02 | Bent Reality Labs, LLC | Systems and processes for providing virtual sexual experiences |
NZ773812A (en) | 2015-03-16 | 2022-07-29 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
WO2016146963A1 (en) | 2015-03-16 | 2016-09-22 | Popovich, Milan, Momcilo | Waveguide device incorporating a light pipe |
US10296086B2 (en) | 2015-03-20 | 2019-05-21 | Sony Interactive Entertainment Inc. | Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments |
WO2016156776A1 (en) | 2015-03-31 | 2016-10-06 | Milan Momcilo Popovich | Method and apparatus for contact image sensing |
US11501244B1 (en) | 2015-04-06 | 2022-11-15 | Position Imaging, Inc. | Package tracking systems and methods |
US11416805B1 (en) * | 2015-04-06 | 2022-08-16 | Position Imaging, Inc. | Light-based guidance for package tracking systems |
US10853757B1 (en) | 2015-04-06 | 2020-12-01 | Position Imaging, Inc. | Video for real-time confirmation in package tracking systems |
JP6433844B2 (ja) * | 2015-04-09 | 2018-12-05 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、中継装置、情報処理システム、およびソフトウェアアップデート方法 |
KR102063895B1 (ko) | 2015-04-20 | 2020-01-08 | 삼성전자주식회사 | 서버, 사용자 단말 장치 및 그 제어 방법 |
KR102313485B1 (ko) | 2015-04-22 | 2021-10-15 | 삼성전자주식회사 | 가상현실 스트리밍 서비스를 위한 영상 데이터를 송수신하는 방법 및 장치 |
US9958903B2 (en) * | 2015-04-29 | 2018-05-01 | Sony Mobile Communications Inc. | Providing a representation of orientation and movement of an item being moved in space |
KR102327044B1 (ko) | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
WO2016176574A1 (en) | 2015-04-30 | 2016-11-03 | Google Inc. | Wide-field radar-based gesture recognition |
KR102002112B1 (ko) | 2015-04-30 | 2019-07-19 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
CN105739106B (zh) * | 2015-06-12 | 2019-07-09 | 南京航空航天大学 | 一种体感多视点大尺寸光场真三维显示装置及方法 |
US10832479B2 (en) | 2015-06-15 | 2020-11-10 | Sony Corporation | Information processing apparatus, information processing method, and program |
IL295566B2 (en) | 2015-06-15 | 2024-01-01 | Magic Leap Inc | Display system with optical components for coupling multiple light streams |
US9977493B2 (en) * | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
JP2017010387A (ja) * | 2015-06-24 | 2017-01-12 | キヤノン株式会社 | システム、複合現実表示装置、情報処理方法及びプログラム |
EP3112991B1 (en) * | 2015-07-01 | 2020-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for context based application grouping in virtual reality |
US10799792B2 (en) * | 2015-07-23 | 2020-10-13 | At&T Intellectual Property I, L.P. | Coordinating multiple virtual environments |
EP3325233A1 (en) | 2015-07-23 | 2018-05-30 | SRI International Inc. | Robotic arm and robotic surgical system |
US9916506B1 (en) | 2015-07-25 | 2018-03-13 | X Development Llc | Invisible fiducial markers on a robot to visualize the robot in augmented reality |
US9919427B1 (en) | 2015-07-25 | 2018-03-20 | X Development Llc | Visualizing robot trajectory points in augmented reality |
CN111450521B (zh) * | 2015-07-28 | 2023-11-24 | 弗丘伊克斯控股公司 | 对输入进行软解耦的系统和方法 |
CN105117931A (zh) * | 2015-07-30 | 2015-12-02 | 金华唯见科技有限公司 | 一种目标驱动虚拟现实生态系统 |
CN105183147A (zh) * | 2015-08-03 | 2015-12-23 | 众景视界(北京)科技有限公司 | 头戴式智能设备及其建模三维虚拟肢体的方法 |
US10609438B2 (en) | 2015-08-13 | 2020-03-31 | International Business Machines Corporation | Immersive cognitive reality system with real time surrounding media |
US10701318B2 (en) | 2015-08-14 | 2020-06-30 | Pcms Holdings, Inc. | System and method for augmented reality multi-view telepresence |
US11481911B2 (en) | 2015-08-18 | 2022-10-25 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
EP3337383B1 (en) | 2015-08-21 | 2024-10-16 | Magic Leap, Inc. | Eyelid shape estimation |
JP6918781B2 (ja) | 2015-08-21 | 2021-08-11 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 眼ポーズ測定を用いた眼瞼形状推定 |
US10373392B2 (en) | 2015-08-26 | 2019-08-06 | Microsoft Technology Licensing, Llc | Transitioning views of a virtual model |
US10491711B2 (en) | 2015-09-10 | 2019-11-26 | EEVO, Inc. | Adaptive streaming of virtual reality data |
JP2017059891A (ja) * | 2015-09-14 | 2017-03-23 | ミライアプリ株式会社 | 状態特定プログラム、状態特定装置、ウェアラブルデバイス及び管理装置 |
CA3169076A1 (en) * | 2015-09-16 | 2017-03-23 | Magic Leap, Inc. | Head pose mixing of audio files |
JP6144738B2 (ja) * | 2015-09-18 | 2017-06-07 | 株式会社スクウェア・エニックス | ビデオゲーム処理プログラム、ビデオゲーム処理システム及びビデオゲーム処理方法 |
JP6876683B2 (ja) | 2015-09-23 | 2021-05-26 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 軸外イメージャを用いた眼の撮像 |
JP6944441B2 (ja) * | 2015-09-25 | 2021-10-06 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム |
EP3335070B1 (en) * | 2015-09-30 | 2020-11-25 | Sony Interactive Entertainment Inc. | Methods for optimizing positioning of content on a screen of a head mounted display |
WO2017060665A1 (en) | 2015-10-05 | 2017-04-13 | Milan Momcilo Popovich | Waveguide display |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
CN105214309B (zh) * | 2015-10-10 | 2017-07-11 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、终端及计算机存储介质 |
NZ741863A (en) | 2015-10-16 | 2019-05-31 | Magic Leap Inc | Eye pose identification using eye features |
AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
WO2017079329A1 (en) | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Dynamic display calibration based on eye-tracking |
US11231544B2 (en) | 2015-11-06 | 2022-01-25 | Magic Leap, Inc. | Metasurfaces for redirecting light and methods for fabricating |
USD785656S1 (en) * | 2015-11-24 | 2017-05-02 | Meditech International Inc. | Display screen or portion thereof with graphical user interface |
CN106802712A (zh) * | 2015-11-26 | 2017-06-06 | 英业达科技有限公司 | 交互式扩增实境系统 |
US10909711B2 (en) | 2015-12-04 | 2021-02-02 | Magic Leap, Inc. | Relocalization systems and methods |
GB2545275A (en) * | 2015-12-11 | 2017-06-14 | Nokia Technologies Oy | Causing provision of virtual reality content |
US20170169613A1 (en) * | 2015-12-15 | 2017-06-15 | Lenovo (Singapore) Pte. Ltd. | Displaying an object with modified render parameters |
US10037085B2 (en) | 2015-12-21 | 2018-07-31 | Intel Corporation | Techniques for real object and hand representation in virtual reality content |
CN108139801B (zh) * | 2015-12-22 | 2021-03-16 | 谷歌有限责任公司 | 用于经由保留光场渲染来执行电子显示稳定的系统和方法 |
US20170185261A1 (en) * | 2015-12-28 | 2017-06-29 | Htc Corporation | Virtual reality device, method for virtual reality |
JP6894904B2 (ja) | 2016-01-07 | 2021-06-30 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 深度平面にわたって分配される等しくない数の成分色画像を有する仮想および拡張現実システムおよび方法 |
EP3405829A4 (en) | 2016-01-19 | 2019-09-18 | Magic Leap, Inc. | COLLECTION, SELECTION AND COMBINATION OF EYE IMAGES |
CN118605029A (zh) | 2016-01-19 | 2024-09-06 | 奇跃公司 | 利用映像的增强现实系统和方法 |
CN105759958A (zh) * | 2016-01-27 | 2016-07-13 | 中国人民解放军信息工程大学 | 一种数据交互系统及方法 |
CN114063311A (zh) | 2016-01-29 | 2022-02-18 | 奇跃公司 | 三维图像的显示 |
US10120437B2 (en) * | 2016-01-29 | 2018-11-06 | Rovi Guides, Inc. | Methods and systems for associating input schemes with physical world objects |
WO2017134412A1 (en) | 2016-02-04 | 2017-08-10 | Milan Momcilo Popovich | Holographic waveguide optical tracker |
JP2019505926A (ja) * | 2016-02-05 | 2019-02-28 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 拡張現実のためのシステムおよび方法 |
US10083539B2 (en) * | 2016-02-08 | 2018-09-25 | Google Llc | Control system for navigation in virtual reality environment |
IL261102B2 (en) | 2016-02-24 | 2023-10-01 | Magic Leap Inc | Low profile connection for light emitter |
JP6898938B2 (ja) | 2016-02-24 | 2021-07-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 低光漏出を伴う偏光ビームスプリッタ |
CA3014821A1 (en) | 2016-02-26 | 2017-08-31 | Magic Leap, Inc. | Light output system with reflector and lens for highly spatially uniform light output |
CN114002844A (zh) | 2016-02-26 | 2022-02-01 | 奇跃公司 | 具有用于多个光发射器的多个光管的显示系统 |
KR20180117181A (ko) | 2016-03-01 | 2018-10-26 | 매직 립, 인코포레이티드 | 상이한 파장들의 광을 도파관들로 입력하기 위한 반사성 스위칭 디바이스 |
KR20230109789A (ko) | 2016-03-04 | 2023-07-20 | 매직 립, 인코포레이티드 | Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소 |
JP6920329B2 (ja) | 2016-03-07 | 2021-08-18 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | バイオメトリックセキュリティのための青色光調節 |
CN111329553B (zh) | 2016-03-12 | 2021-05-04 | P·K·朗 | 用于手术的装置与方法 |
US10115234B2 (en) * | 2016-03-21 | 2018-10-30 | Accenture Global Solutions Limited | Multiplatform based experience generation |
AU2017236782B2 (en) | 2016-03-22 | 2021-01-28 | Magic Leap, Inc. | Head mounted display system configured to exchange biometric information |
JP6895451B2 (ja) | 2016-03-24 | 2021-06-30 | ディジレンズ インコーポレイテッド | 偏光選択ホログラフィー導波管デバイスを提供するための方法および装置 |
WO2017165848A1 (en) | 2016-03-25 | 2017-09-28 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US9554738B1 (en) | 2016-03-30 | 2017-01-31 | Zyomed Corp. | Spectroscopic tomography systems and methods for noninvasive detection and measurement of analytes using collision computing |
KR20230098927A (ko) * | 2016-03-31 | 2023-07-04 | 매직 립, 인코포레이티드 | 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들 |
CN105892667B (zh) * | 2016-03-31 | 2019-03-29 | 联想(北京)有限公司 | 一种虚拟现实场景下的信息处理方法和电子设备 |
US10762712B2 (en) | 2016-04-01 | 2020-09-01 | Pcms Holdings, Inc. | Apparatus and method for supporting interactive augmented reality functionalities |
WO2017177019A1 (en) * | 2016-04-08 | 2017-10-12 | Pcms Holdings, Inc. | System and method for supporting synchronous and asynchronous augmented reality functionalities |
EP4273615A3 (en) | 2016-04-08 | 2024-01-17 | Magic Leap, Inc. | Augmented reality systems and methods with variable focus lens elements |
EP3433658B1 (en) | 2016-04-11 | 2023-08-09 | DigiLens, Inc. | Holographic waveguide apparatus for structured light projection |
CN105903166B (zh) * | 2016-04-18 | 2019-05-24 | 北京小鸟看看科技有限公司 | 一种3d在线运动竞技方法和系统 |
EP3236336B1 (en) * | 2016-04-21 | 2019-03-27 | Nokia Technologies Oy | Virtual reality causal summary content |
KR102666960B1 (ko) * | 2016-04-21 | 2024-05-17 | 매직 립, 인코포레이티드 | 시야 주위의 시각적 아우라 |
JP6594254B2 (ja) * | 2016-04-26 | 2019-10-23 | 日本電信電話株式会社 | 仮想環境構築装置、仮想環境構築方法、プログラム |
US10261162B2 (en) | 2016-04-26 | 2019-04-16 | Magic Leap, Inc. | Electromagnetic tracking with augmented reality systems |
EP3449340A1 (fr) * | 2016-04-27 | 2019-03-06 | Immersion | Dispositif et procede de partage d'immersion dans un environnement virtuel |
US10204444B2 (en) * | 2016-04-28 | 2019-02-12 | Verizon Patent And Licensing Inc. | Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object |
US10257490B2 (en) * | 2016-04-28 | 2019-04-09 | Verizon Patent And Licensing Inc. | Methods and systems for creating and providing a real-time volumetric representation of a real-world event |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
US10250720B2 (en) | 2016-05-05 | 2019-04-02 | Google Llc | Sharing in an augmented and/or virtual reality environment |
CN109476175B (zh) | 2016-05-06 | 2021-07-30 | 奇跃公司 | 具有用于重定向光的非对称光栅的超表面及其制造方法 |
KR102450362B1 (ko) | 2016-05-09 | 2022-10-04 | 매직 립, 인코포레이티드 | 사용자 건강 분석을 위한 증강 현실 시스템들 및 방법들 |
KR20240027162A (ko) | 2016-05-12 | 2024-02-29 | 매직 립, 인코포레이티드 | 이미징 도파관을 통해 분배된 광 조작 |
US10285456B2 (en) | 2016-05-16 | 2019-05-14 | Google Llc | Interactive fabric |
US10175781B2 (en) | 2016-05-16 | 2019-01-08 | Google Llc | Interactive object with multiple electronics modules |
US10303323B2 (en) * | 2016-05-18 | 2019-05-28 | Meta Company | System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface |
US9983697B1 (en) | 2016-05-18 | 2018-05-29 | Meta Company | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors |
WO2017200760A1 (en) * | 2016-05-19 | 2017-11-23 | Yudofsky Stuart | Methods and devices for behavior modification |
CN109496331B (zh) | 2016-05-20 | 2022-06-21 | 奇跃公司 | 用户界面菜单的情景感知 |
WO2017210419A1 (en) | 2016-06-03 | 2017-12-07 | Magic Leaf, Inc. | Augmented reality identity verification |
US10748339B2 (en) | 2016-06-03 | 2020-08-18 | A Big Chunk Of Mud Llc | System and method for implementing computer-simulated reality interactions between users and publications |
CN106096540B (zh) * | 2016-06-08 | 2020-07-24 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
GB2551323B (en) * | 2016-06-08 | 2021-02-10 | Companion Ltd | System providing a shared environment |
EP3865767B1 (en) | 2016-06-10 | 2024-03-13 | Magic Leap, Inc. | Integrated point source for texture projecting bulb |
KR102362001B1 (ko) * | 2016-06-16 | 2022-02-14 | 애플 인크. | 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품 |
KR102491130B1 (ko) | 2016-06-20 | 2023-01-19 | 매직 립, 인코포레이티드 | 시각적 프로세싱 및 지각 상태들을 포함하는 신경학적 상태들의 평가 및 수정을 위한 증강 현실 디스플레이 시스템 |
US10037077B2 (en) | 2016-06-21 | 2018-07-31 | Disney Enterprises, Inc. | Systems and methods of generating augmented reality experiences |
NZ749449A (en) | 2016-06-30 | 2023-06-30 | Magic Leap Inc | Estimating pose in 3d space |
US10042604B2 (en) * | 2016-07-01 | 2018-08-07 | Metrik LLC | Multi-dimensional reference element for mixed reality environments |
JP6714791B2 (ja) * | 2016-07-13 | 2020-07-01 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
CN109661194B (zh) | 2016-07-14 | 2022-02-25 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
WO2018013200A1 (en) | 2016-07-14 | 2018-01-18 | Magic Leap, Inc. | Deep neural network for iris identification |
IL298851B2 (en) | 2016-07-25 | 2023-12-01 | Magic Leap Inc | Change, display and visualization of imaging using augmented and virtual reality glasses |
KR102520143B1 (ko) | 2016-07-25 | 2023-04-11 | 매직 립, 인코포레이티드 | 광 필드 프로세서 시스템 |
CN110383756B (zh) | 2016-07-29 | 2023-06-09 | 奇跃公司 | 加密签名记录的安全交换 |
US10249089B2 (en) | 2016-08-01 | 2019-04-02 | Dell Products, Lp | System and method for representing remote participants to a meeting |
KR102626821B1 (ko) | 2016-08-02 | 2024-01-18 | 매직 립, 인코포레이티드 | 고정-거리 가상 및 증강 현실 시스템들 및 방법들 |
US10169921B2 (en) * | 2016-08-03 | 2019-01-01 | Wipro Limited | Systems and methods for augmented reality aware contents |
US10089063B2 (en) * | 2016-08-10 | 2018-10-02 | Qualcomm Incorporated | Multimedia device for processing spatialized audio based on movement |
IL310337A (en) | 2016-08-11 | 2024-03-01 | Magic Leap Inc | Automatic positioning of a virtual object in 3D space |
TWI608383B (zh) * | 2016-08-11 | 2017-12-11 | 拓景科技股份有限公司 | 虛擬實境環境中之導引產生方法及系統,及其相關電腦程式產品 |
KR20230167452A (ko) | 2016-08-12 | 2023-12-08 | 매직 립, 인코포레이티드 | 단어 흐름 주석 |
US11017712B2 (en) | 2016-08-12 | 2021-05-25 | Intel Corporation | Optimized display image rendering |
US10290151B2 (en) * | 2016-08-17 | 2019-05-14 | Blackberry Limited | AR/VR device virtualisation |
WO2018039277A1 (en) | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Diffractive eyepiece |
WO2018039076A1 (en) * | 2016-08-22 | 2018-03-01 | Vantedge Group, Llc | Immersive and merged reality experience / environment and data capture via virtural, agumented, and mixed reality device |
KR102529137B1 (ko) | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
US11269480B2 (en) * | 2016-08-23 | 2022-03-08 | Reavire, Inc. | Controlling objects using virtual rays |
CN106484099B (zh) * | 2016-08-30 | 2022-03-08 | 广州大学 | 内容重放装置、具有该重放装置的处理系统及方法 |
US20180063205A1 (en) * | 2016-08-30 | 2018-03-01 | Augre Mixed Reality Technologies, Llc | Mixed reality collaboration |
US10773179B2 (en) | 2016-09-08 | 2020-09-15 | Blocks Rock Llc | Method of and system for facilitating structured block play |
US11436553B2 (en) | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
CA3036208A1 (en) | 2016-09-13 | 2018-03-22 | Magic Leap, Inc. | Sensory eyewear |
CN106249611A (zh) * | 2016-09-14 | 2016-12-21 | 深圳众乐智府科技有限公司 | 一种基于虚拟现实的智能家居定位方法、装置和系统 |
CN106310660A (zh) * | 2016-09-18 | 2017-01-11 | 三峡大学 | 一种基于力学可视化的虚拟足球运动控制系统 |
CN112987303A (zh) | 2016-09-21 | 2021-06-18 | 奇跃公司 | 用于具有出瞳扩展器的光学系统的系统和方法 |
KR20210072157A (ko) | 2016-09-22 | 2021-06-16 | 매직 립, 인코포레이티드 | 증강 현실 분광기 |
CA3036709A1 (en) | 2016-09-26 | 2018-03-29 | Magic Leap, Inc. | Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system |
AU2017335736B2 (en) | 2016-09-28 | 2022-08-11 | Magic Leap, Inc. | Face model capture by a wearable device |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
DE102016118647B4 (de) | 2016-09-30 | 2018-12-06 | Deutsche Telekom Ag | Augmented-Reality-Kommunikationssystem und Augmented-Reality-Interaktionsvorrichtung |
IL293688B2 (en) | 2016-10-04 | 2024-02-01 | Magic Leap Inc | Efficient data layouts for convolutional neural networks |
KR102402467B1 (ko) | 2016-10-05 | 2022-05-25 | 매직 립, 인코포레이티드 | 혼합 현실 교정을 위한 안구주위 테스트 |
US10105619B2 (en) | 2016-10-14 | 2018-10-23 | Unchartedvr Inc. | Modular solution for delivering a virtual reality attraction |
US10192340B2 (en) | 2016-10-14 | 2019-01-29 | Unchartedvr Inc. | Multiple participant virtual reality attraction |
US10514769B2 (en) * | 2016-10-16 | 2019-12-24 | Dell Products, L.P. | Volumetric tracking for orthogonal displays in an electronic collaboration setting |
GB2555378B (en) * | 2016-10-18 | 2021-06-09 | Virtually Live Switzerland Gmbh | HMD delivery system and method |
KR102277438B1 (ko) * | 2016-10-21 | 2021-07-14 | 삼성전자주식회사 | 단말 장치들 간의 멀티미디어 통신에 있어서, 오디오 신호를 송신하고 수신된 오디오 신호를 출력하는 방법 및 이를 수행하는 단말 장치 |
IL311451A (en) | 2016-10-21 | 2024-05-01 | Magic Leap Inc | System and method for displaying image content on multiple depth planes by providing multiple intrapupillary parallax fields of view |
US9983665B2 (en) | 2016-10-25 | 2018-05-29 | Oculus Vr, Llc | Position tracking system that exploits arbitrary configurations to determine loop closure |
US10484568B2 (en) * | 2016-10-26 | 2019-11-19 | Orcam Technologies Ltd. | Providing a social media recommendation based on data captured by a wearable device |
US10110871B2 (en) * | 2016-10-31 | 2018-10-23 | Disney Enterprises, Inc. | Recording high fidelity digital immersive experiences through off-device computation |
JP6913164B2 (ja) | 2016-11-11 | 2021-08-04 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 完全な顔画像の眼球周囲およびオーディオ合成 |
WO2018093796A1 (en) | 2016-11-15 | 2018-05-24 | Magic Leap, Inc. | Deep learning system for cuboid detection |
IL266595B (en) | 2016-11-16 | 2022-08-01 | Magic Leap Inc | Thermal management systems for wearable components |
EP3542213A4 (en) | 2016-11-18 | 2020-10-07 | Magic Leap, Inc. | WAVE GUIDE LIGHT MULTIPLEXER USING CROSSED GRIDS |
WO2018094096A1 (en) | 2016-11-18 | 2018-05-24 | Magic Leap, Inc. | Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges |
CN110192146B (zh) | 2016-11-18 | 2022-09-23 | 奇跃公司 | 空间可变液晶衍射光栅 |
US11067860B2 (en) | 2016-11-18 | 2021-07-20 | Magic Leap, Inc. | Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same |
US10649233B2 (en) | 2016-11-28 | 2020-05-12 | Tectus Corporation | Unobtrusive eye mounted display |
US11813203B2 (en) | 2016-11-28 | 2023-11-14 | Verb Surgical Inc. | Robotic surgical table with relatively high resonant frequency structure to reduce efficiency of energy transmission between attached robotic arms |
EP3548939A4 (en) | 2016-12-02 | 2020-11-25 | DigiLens Inc. | UNIFORM OUTPUT LIGHTING WAVEGUIDE DEVICE |
IL266888B2 (en) | 2016-12-05 | 2024-05-01 | Magic Leap Inc | Virtual user input controls in a mixed reality environment |
US10531220B2 (en) | 2016-12-05 | 2020-01-07 | Magic Leap, Inc. | Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
CN110249256B (zh) | 2016-12-08 | 2023-03-03 | 奇跃公司 | 基于胆甾型液晶的衍射装置 |
WO2018111895A1 (en) | 2016-12-13 | 2018-06-21 | Magic Leap, Inc. | 3d object rendering using detected features |
US11559228B2 (en) | 2016-12-13 | 2023-01-24 | Magic Leap, Inc. | Augmented and virtual reality eyewear, systems, and methods for delivering polarized light and determining glucose levels |
EP3555700B1 (en) | 2016-12-14 | 2023-09-13 | Magic Leap, Inc. | Patterning of liquid crystals using soft-imprint replication of surface alignment patterns |
US10373385B2 (en) * | 2016-12-14 | 2019-08-06 | Microsoft Technology Licensing, Llc | Subtractive rendering for augmented and virtual reality systems |
US10371896B2 (en) | 2016-12-22 | 2019-08-06 | Magic Leap, Inc. | Color separation in planar waveguides using dichroic filters |
WO2018119276A1 (en) | 2016-12-22 | 2018-06-28 | Magic Leap, Inc. | Systems and methods for manipulating light from ambient light sources |
US10746999B2 (en) | 2016-12-28 | 2020-08-18 | Magic Leap, Inc. | Dual depth exit pupil expander |
US11138436B2 (en) | 2016-12-29 | 2021-10-05 | Magic Leap, Inc. | Automatic control of wearable display device based on external conditions |
CN106792133A (zh) * | 2016-12-30 | 2017-05-31 | 北京华为数字技术有限公司 | 虚拟现实服务器、视频数据传输方法及系统 |
EP4122897A1 (en) | 2017-01-05 | 2023-01-25 | Magic Leap, Inc. | Patterning of high refractive index glasses by plasma etching |
US10545346B2 (en) | 2017-01-05 | 2020-01-28 | Digilens Inc. | Wearable heads up displays |
KR102662173B1 (ko) | 2017-01-11 | 2024-04-30 | 매직 립, 인코포레이티드 | 의료 보조기 |
WO2018132804A1 (en) | 2017-01-16 | 2018-07-19 | Lang Philipp K | Optical guidance for surgical, medical, and dental procedures |
CN106774942A (zh) * | 2017-01-18 | 2017-05-31 | 华南理工大学 | 一种实时3d远程人机交互系统 |
CN108334377A (zh) * | 2017-01-20 | 2018-07-27 | 深圳纬目信息技术有限公司 | 一种头戴显示设备的用户使用进度控制方法 |
CN115586652A (zh) | 2017-01-23 | 2023-01-10 | 奇跃公司 | 用于虚拟、增强或混合现实系统的目镜 |
US10812936B2 (en) | 2017-01-23 | 2020-10-20 | Magic Leap, Inc. | Localization determination for mixed reality systems |
AU2018212570B2 (en) | 2017-01-27 | 2023-03-16 | Magic Leap, Inc. | Antireflection coatings for metasurfaces |
US11740690B2 (en) * | 2017-01-27 | 2023-08-29 | Qualcomm Incorporated | Systems and methods for tracking a controller |
KR20240074923A (ko) | 2017-01-27 | 2024-05-28 | 매직 립, 인코포레이티드 | 상이하게 배향된 나노빔들을 갖는 메타표면들에 의해 형성된 회절 격자 |
US10467510B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
US11010601B2 (en) | 2017-02-14 | 2021-05-18 | Microsoft Technology Licensing, Llc | Intelligent assistant device communicating non-verbal cues |
US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4328865A3 (en) | 2017-02-23 | 2024-06-05 | Magic Leap, Inc. | Variable-focus virtual image devices based on polarization conversion |
KR102635437B1 (ko) | 2017-02-28 | 2024-02-13 | 삼성전자주식회사 | 콘텐츠 공유 방법 및 이를 지원하는 전자 장치 |
KR102308937B1 (ko) * | 2017-02-28 | 2021-10-05 | 매직 립, 인코포레이티드 | 혼합 현실 디바이스에서의 가상 및 실제 객체 레코딩 |
US10646767B2 (en) | 2017-03-07 | 2020-05-12 | vSports, LLC | Mixed reality sport simulation and training system |
US10204456B2 (en) | 2017-03-07 | 2019-02-12 | vGolf, LLC | Mixed reality golf simulation and training system |
US10525324B2 (en) | 2017-03-07 | 2020-01-07 | vSports, LLC | Mixed-reality kick tracking and simulation |
US10409363B1 (en) | 2017-03-07 | 2019-09-10 | vGolf, LLC | Mixed-reality golf tracking and simulation |
AU2018234409B2 (en) | 2017-03-14 | 2022-06-30 | Magic Leap, Inc. | Waveguides with light absorbing films and processes for forming the same |
JP7009495B2 (ja) | 2017-03-17 | 2022-01-25 | マジック リープ, インコーポレイテッド | 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 |
JP7009494B2 (ja) | 2017-03-17 | 2022-01-25 | マジック リープ, インコーポレイテッド | カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法 |
CA3055597A1 (en) | 2017-03-17 | 2018-09-20 | Magic Leap, Inc. | Room layout estimation methods and techniques |
CN110431599B (zh) | 2017-03-17 | 2022-04-12 | 奇跃公司 | 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 |
WO2018175488A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Stacked waveguides having different diffraction gratings for combined field of view |
KR102493992B1 (ko) | 2017-03-21 | 2023-01-30 | 매직 립, 인코포레이티드 | 가상, 증강 및 혼합 현실 시스템들을 위한 깊이 감지 기술 |
IL269290B2 (en) | 2017-03-21 | 2024-09-01 | Magic Leap Inc | Methods, devices and systems for illuminating spatial light modulators |
IL269289B2 (en) | 2017-03-21 | 2024-10-01 | Magic Leap Inc | Low profile beam splitter |
AU2018239264B2 (en) | 2017-03-21 | 2023-05-18 | Magic Leap, Inc. | Eye-imaging apparatus using diffractive optical elements |
WO2018175653A1 (en) | 2017-03-21 | 2018-09-27 | Magic Leap, Inc. | Display system with spatial light modulator illumination for divided pupils |
WO2018175620A1 (en) | 2017-03-22 | 2018-09-27 | A Big Chunk Of Mud Llc | Convertible satchel with integrated head-mounted display |
CA3057109A1 (en) | 2017-03-22 | 2018-09-27 | Magic Leap, Inc. | Depth based foveated rendering for display systems |
US10282909B2 (en) * | 2017-03-23 | 2019-05-07 | Htc Corporation | Virtual reality system, operating method for mobile device, and non-transitory computer readable storage medium |
US10410349B2 (en) * | 2017-03-27 | 2019-09-10 | Microsoft Technology Licensing, Llc | Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power |
CN107172047A (zh) * | 2017-04-05 | 2017-09-15 | 杭州优海信息系统有限公司 | 工厂虚拟增强现实3d交互系统及其实现方法 |
AU2018256202A1 (en) | 2017-04-18 | 2019-11-07 | Magic Leap, Inc. | Waveguides having reflective layers formed by reflective flowable materials |
KR102652922B1 (ko) | 2017-04-19 | 2024-03-29 | 매직 립, 인코포레이티드 | 웨어러블 시스템을 위한 멀티모달 임무 실행 및 텍스트 편집 |
TWI610565B (zh) * | 2017-04-21 | 2018-01-01 | 國立臺北科技大學 | 立體影像物件互動方法、系統與立體互動影片後製方法 |
US11163416B2 (en) | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
US11782669B2 (en) | 2017-04-28 | 2023-10-10 | Microsoft Technology Licensing, Llc | Intuitive augmented reality collaboration on visual data |
JP6343779B1 (ja) * | 2017-04-28 | 2018-06-20 | 株式会社コナミデジタルエンタテインメント | サーバ装置、及びそれに用いられるコンピュータプログラム |
JP2020521217A (ja) | 2017-05-19 | 2020-07-16 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想現実ディスプレイシステム、拡張現実ディスプレイシステム、および複合現実ディスプレイシステムのためのキーボード |
US20180349837A1 (en) * | 2017-05-19 | 2018-12-06 | Hcl Technologies Limited | System and method for inventory management within a warehouse |
IL270564B (en) | 2017-05-22 | 2022-07-01 | Magic Leap Inc | Pairing with a companion device |
US10792119B2 (en) | 2017-05-22 | 2020-10-06 | Ethicon Llc | Robotic arm cart and uses therefor |
IL311011A (en) | 2017-05-30 | 2024-04-01 | Magic Leap Inc | Power supply assembly with fan assembly for an electronic device |
CN110945405B (zh) | 2017-05-31 | 2024-01-02 | 奇跃公司 | 眼睛跟踪校准技术 |
US10168789B1 (en) * | 2017-05-31 | 2019-01-01 | Meta Company | Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations |
US10856948B2 (en) | 2017-05-31 | 2020-12-08 | Verb Surgical Inc. | Cart for robotic arms and method and apparatus for registering cart to surgical table |
US10485623B2 (en) | 2017-06-01 | 2019-11-26 | Verb Surgical Inc. | Robotic arm cart with fine position adjustment features and uses therefor |
WO2018227011A1 (en) * | 2017-06-07 | 2018-12-13 | vSports, LLC | Mixed-reality sports tracking and simulation |
AU2018284089B2 (en) | 2017-06-12 | 2022-12-15 | Magic Leap, Inc. | Augmented reality display having multi-element adaptive lens for changing depth planes |
CN107330855B (zh) * | 2017-06-16 | 2021-03-02 | 瑞芯微电子股份有限公司 | Vr交互数据尺寸一致性调节的方法和装置 |
CN107229337B (zh) * | 2017-06-16 | 2020-08-18 | 上海闻泰电子科技有限公司 | Vr显示系统及方法 |
US11861255B1 (en) | 2017-06-16 | 2024-01-02 | Apple Inc. | Wearable device for facilitating enhanced interaction |
US10913145B2 (en) | 2017-06-20 | 2021-02-09 | Verb Surgical Inc. | Cart for robotic arms and method and apparatus for cartridge or magazine loading of arms |
RU2682014C1 (ru) * | 2017-06-29 | 2019-03-14 | Дмитрий Сергеевич Шаньгин | Система виртуальной реальности |
US10449440B2 (en) * | 2017-06-30 | 2019-10-22 | Electronic Arts Inc. | Interactive voice-controlled companion application for a video game |
US10357715B2 (en) * | 2017-07-07 | 2019-07-23 | Buxton Global Enterprises, Inc. | Racing simulation |
US10908680B1 (en) | 2017-07-12 | 2021-02-02 | Magic Leap, Inc. | Pose estimation using electromagnetic tracking |
CN107275904B (zh) * | 2017-07-19 | 2024-05-24 | 北京小米移动软件有限公司 | 虚拟现实眼镜的数据连接线 |
IL271929B (en) | 2017-07-26 | 2022-07-01 | Magic Leap Inc | Neural network training with displays of user interface devices |
US10740804B2 (en) | 2017-07-28 | 2020-08-11 | Magical Technologies, Llc | Systems, methods and apparatuses of seamless integration of augmented, alternate, virtual, and/or mixed realities with physical realities for enhancement of web, mobile and/or other digital experiences |
US11138915B2 (en) | 2017-07-28 | 2021-10-05 | Magic Leap, Inc. | Fan assembly for displaying an image |
US9992449B1 (en) * | 2017-08-10 | 2018-06-05 | Everysight Ltd. | System and method for sharing sensed data between remote users |
KR102360412B1 (ko) * | 2017-08-25 | 2022-02-09 | 엘지디스플레이 주식회사 | 영상 생성 방법과 이를 이용한 표시장치 |
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
US11801114B2 (en) | 2017-09-11 | 2023-10-31 | Philipp K. Lang | Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion |
WO2019055679A1 (en) | 2017-09-13 | 2019-03-21 | Lahood Edward Rashid | METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION |
US11249714B2 (en) | 2017-09-13 | 2022-02-15 | Magical Technologies, Llc | Systems and methods of shareable virtual objects and virtual objects as message objects to facilitate communications sessions in an augmented reality environment |
AU2018337653A1 (en) | 2017-09-20 | 2020-01-16 | Magic Leap, Inc. | Personalized neural network for eye tracking |
AU2018338222A1 (en) | 2017-09-21 | 2020-03-19 | Magic Leap, Inc. | Augmented reality display with waveguide configured to capture images of eye and/or environment |
US11231581B2 (en) | 2017-09-27 | 2022-01-25 | Magic Leap, Inc. | Near eye 3D display with separate phase and amplitude modulators |
CN115167677A (zh) | 2017-09-29 | 2022-10-11 | 苹果公司 | 计算机生成的现实平台 |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
CA3077455A1 (en) | 2017-10-11 | 2019-04-18 | Magic Leap, Inc. | Augmented reality display comprising eyepiece having a transparent emissive display |
CN111466122B (zh) * | 2017-10-12 | 2023-02-28 | 弗劳恩霍夫应用研究促进协会 | 用于虚拟现实应用的音频传递优化 |
KR20190041384A (ko) | 2017-10-12 | 2019-04-22 | 언차티드브이알 인코퍼레이티드 | 격자 기반 가상현실 놀이기구 시스템 |
EP3698214A4 (en) | 2017-10-16 | 2021-10-27 | Digilens Inc. | SYSTEMS AND METHODS FOR MULTIPLICATION OF THE IMAGE RESOLUTION OF A PIXELIZED DISPLAY |
US11966793B1 (en) * | 2017-10-18 | 2024-04-23 | Campfire 3D, Inc. | Systems and methods to extend an interactive space across multiple platforms |
WO2019079826A1 (en) | 2017-10-22 | 2019-04-25 | Magical Technologies, Llc | DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY |
KR20200074172A (ko) | 2017-10-26 | 2020-06-24 | 매직 립, 인코포레이티드 | 액정 가변 초점 엘리먼트를 갖는 증강 현실 디스플레이 그리고 이를 형성하기 위한 롤투롤 방법 및 장치 |
CA3079221A1 (en) | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Broadband adaptive lens assembly for augmented reality display |
CN111373419A (zh) | 2017-10-26 | 2020-07-03 | 奇跃公司 | 用于深度多任务网络中自适应损失平衡的梯度归一化系统和方法 |
WO2019084325A1 (en) | 2017-10-27 | 2019-05-02 | Magic Leap, Inc. | VIRTUAL RETICLE FOR INCREASED REALITY SYSTEMS |
AU2018368279A1 (en) | 2017-11-14 | 2020-05-14 | Magic Leap, Inc. | Meta-learning for multi-task learning for neural networks |
US11720222B2 (en) | 2017-11-17 | 2023-08-08 | International Business Machines Corporation | 3D interaction input for text in augmented reality |
JP7225233B2 (ja) | 2017-12-11 | 2023-02-20 | マジック リープ, インコーポレイテッド | 導波管照明器 |
EP3724855A4 (en) | 2017-12-14 | 2022-01-12 | Magic Leap, Inc. | CONTEXT-BASED REPRESENTATION OF VIRTUAL AVATARS |
WO2019116244A1 (ru) * | 2017-12-15 | 2019-06-20 | ГИОРГАДЗЕ, Анико Тенгизовна | Взаимодействие пользователей в коммуникационной системе с использованием эффектов дополненной реальности |
EP3724713A4 (en) | 2017-12-15 | 2021-08-25 | Magic Leap, Inc. | IMPROVED ITEM DETERMINATION FOR A DISPLAY DEVICE |
CA3084011C (en) | 2017-12-15 | 2024-06-11 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
US10713840B2 (en) * | 2017-12-22 | 2020-07-14 | Sony Interactive Entertainment Inc. | Space capture, modeling, and texture reconstruction through dynamic camera positioning and lighting using a mobile robot |
WO2019130213A1 (ru) * | 2017-12-29 | 2019-07-04 | ГИОРГАДЗЕ, Анико Тенгизовна | Взаимодействие пользователей в коммуникационной системе с использованием объектов дополненной реальности |
CA3085459A1 (en) | 2018-01-04 | 2019-07-11 | Magic Leap, Inc. | Optical elements based on polymeric structures incorporating inorganic materials |
US10824235B2 (en) * | 2018-01-08 | 2020-11-03 | Facebook Technologies, Llc | Methods, devices, and systems for displaying a user interface on a user and detecting touch gestures |
KR20200104402A (ko) | 2018-01-08 | 2020-09-03 | 디지렌즈 인코포레이티드. | 도파관 셀을 제조하기 위한 시스템 및 방법 |
WO2019136476A1 (en) | 2018-01-08 | 2019-07-11 | Digilens, Inc. | Waveguide architectures and related methods of manufacturing |
JP7404243B2 (ja) | 2018-01-08 | 2023-12-25 | ディジレンズ インコーポレイテッド | 導波管セル内のホログラフィック格子の高スループット記録のためのシステムおよび方法 |
US10679412B2 (en) | 2018-01-17 | 2020-06-09 | Unchartedvr Inc. | Virtual experience monitoring mechanism |
CA3087333A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
AU2019209950A1 (en) | 2018-01-17 | 2020-07-09 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
SG11202006693SA (en) * | 2018-01-19 | 2020-08-28 | Esb Labs Inc | Virtual interactive audience interface |
US10558878B2 (en) | 2018-01-19 | 2020-02-11 | Timothy R. Fitzpatrick | System and method for organizing edible or drinkable materials |
US10904374B2 (en) | 2018-01-24 | 2021-01-26 | Magical Technologies, Llc | Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene |
US11348257B2 (en) | 2018-01-29 | 2022-05-31 | Philipp K. Lang | Augmented reality guidance for orthopedic and other surgical procedures |
US10540941B2 (en) | 2018-01-30 | 2020-01-21 | Magic Leap, Inc. | Eclipse cursor for mixed reality displays |
US11398088B2 (en) | 2018-01-30 | 2022-07-26 | Magical Technologies, Llc | Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects |
US11567627B2 (en) | 2018-01-30 | 2023-01-31 | Magic Leap, Inc. | Eclipse cursor for virtual content in mixed reality displays |
JP6453501B1 (ja) * | 2018-02-01 | 2019-01-16 | 株式会社Cygames | 複合現実システム、プログラム、方法、及び携帯端末装置 |
US11210826B2 (en) | 2018-02-02 | 2021-12-28 | Disney Enterprises, Inc. | Systems and methods to provide artificial intelligence experiences |
US10673414B2 (en) | 2018-02-05 | 2020-06-02 | Tectus Corporation | Adaptive tuning of a contact lens |
IL276254B2 (en) | 2018-02-06 | 2024-09-01 | Magic Leap Inc | Systems and methods for augmented reality |
WO2019155311A1 (ru) * | 2018-02-09 | 2019-08-15 | ГИОРГАДЗЕ, Анико Тенгизовна | Коммуникационная система с автоматически возникающими эффектами дополненной реальности |
WO2019155368A1 (ru) * | 2018-02-09 | 2019-08-15 | ГИОРГАДЗЕ, Анико Тенгизовна | Взаимодействие пользователей в коммуникационной системе с использованием эффектов дополненной реальности, возникающих в ответ на выбранные пользователем действия для выполнения объектами дополненной реальности |
CN108427499A (zh) * | 2018-02-13 | 2018-08-21 | 视辰信息科技(上海)有限公司 | 一种ar系统及ar设备 |
US10735649B2 (en) | 2018-02-22 | 2020-08-04 | Magic Leap, Inc. | Virtual and augmented reality systems and methods using display system control information embedded in image data |
EP3759693A4 (en) | 2018-02-27 | 2021-11-24 | Magic Leap, Inc. | MESH PAIRING FOR VIRTUAL AVATARS |
EP3759542B1 (en) | 2018-02-28 | 2023-03-29 | Magic Leap, Inc. | Head scan alignment using ocular registration |
US11014001B2 (en) * | 2018-03-05 | 2021-05-25 | Sony Interactive Entertainment LLC | Building virtual reality (VR) gaming environments using real-world virtual reality maps |
JP7303818B2 (ja) | 2018-03-05 | 2023-07-05 | マジック リープ, インコーポレイテッド | 低遅延瞳孔トラッカーを伴うディスプレイシステム |
JP1618837S (ko) * | 2018-03-06 | 2018-11-26 | ||
WO2019173079A1 (en) | 2018-03-06 | 2019-09-12 | Texas State University | Augmented reality/virtual reality platform for a network analyzer |
CA3090818A1 (en) | 2018-03-07 | 2019-09-12 | Magic Leap, Inc. | Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display |
AU2019231697B2 (en) * | 2018-03-07 | 2020-01-30 | Magic Leap, Inc. | Visual tracking of peripheral devices |
EP3765892A4 (en) | 2018-03-12 | 2021-12-15 | Magic Leap, Inc. | AD BASED ON KIPPARRAY |
WO2019178409A1 (en) | 2018-03-14 | 2019-09-19 | Magic Leap, Inc. | Display systems and methods for clipping content to increase viewing comfort |
US11430169B2 (en) | 2018-03-15 | 2022-08-30 | Magic Leap, Inc. | Animating virtual avatar facial movements |
CN112136094A (zh) | 2018-03-16 | 2020-12-25 | 奇跃公司 | 用于显示系统的基于深度的凹式渲染 |
EP3766004A4 (en) | 2018-03-16 | 2021-12-15 | Magic Leap, Inc. | FACIAL EXPRESSIONS OBTAINED FROM EYE-TRACKING CAMERAS |
EP4372451A3 (en) | 2018-03-16 | 2024-08-14 | Digilens Inc. | Holographic waveguides incorporating birefringence control and methods for their fabrication |
WO2019183399A1 (en) | 2018-03-21 | 2019-09-26 | Magic Leap, Inc. | Augmented reality system and method for spectroscopic analysis |
CN111936959A (zh) | 2018-03-23 | 2020-11-13 | 脸谱科技有限责任公司 | 用于在用户身上显示用户界面并检测触摸手势的方法、设备和系统 |
CN112119334A (zh) | 2018-04-02 | 2020-12-22 | 奇跃公司 | 具有集成光学元件的波导及其制造方法 |
US11460609B2 (en) | 2018-04-02 | 2022-10-04 | Magic Leap, Inc. | Hybrid polymer waveguide and methods for making the same |
WO2019195193A1 (en) | 2018-04-02 | 2019-10-10 | Magic Leap, Inc. | Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same |
US11276219B2 (en) | 2018-04-16 | 2022-03-15 | Magic Leap, Inc. | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters |
WO2019204765A1 (en) | 2018-04-19 | 2019-10-24 | Magic Leap, Inc. | Systems and methods for operating a display system based on user perceptibility |
US10505394B2 (en) | 2018-04-21 | 2019-12-10 | Tectus Corporation | Power generation necklaces that mitigate energy absorption in the human body |
US10789753B2 (en) | 2018-04-23 | 2020-09-29 | Magic Leap, Inc. | Avatar facial expression representation in multidimensional space |
US10895762B2 (en) | 2018-04-30 | 2021-01-19 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US10838239B2 (en) | 2018-04-30 | 2020-11-17 | Tectus Corporation | Multi-coil field generation in an electronic contact lens system |
US11257268B2 (en) | 2018-05-01 | 2022-02-22 | Magic Leap, Inc. | Avatar animation using Markov decision process policies |
US11308673B2 (en) | 2018-05-03 | 2022-04-19 | Magic Leap, Inc. | Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character |
US10803671B2 (en) | 2018-05-04 | 2020-10-13 | Microsoft Technology Licensing, Llc | Authoring content in three-dimensional environment |
WO2019215527A1 (ru) * | 2018-05-10 | 2019-11-14 | ГИОРГАДЗЕ, Анико Тенгизовна | Способ отображения информации об активности пользователя |
US12020167B2 (en) | 2018-05-17 | 2024-06-25 | Magic Leap, Inc. | Gradient adversarial training of neural networks |
US10790700B2 (en) | 2018-05-18 | 2020-09-29 | Tectus Corporation | Power generation necklaces with field shaping systems |
WO2019226494A1 (en) | 2018-05-21 | 2019-11-28 | Magic Leap, Inc. | Generating textured polygon strip hair from strand-based hair for a virtual character |
WO2019226549A1 (en) | 2018-05-22 | 2019-11-28 | Magic Leap, Inc. | Computer generated hair groom transfer tool |
CN112437950A (zh) | 2018-05-22 | 2021-03-02 | 奇跃公司 | 用于对虚拟头像制作动画的骨架系统 |
EP3797345A4 (en) | 2018-05-22 | 2022-03-09 | Magic Leap, Inc. | TRANSMODAL INPUT FUSION FOR A BODY WEARABLE SYSTEM |
US11205508B2 (en) | 2018-05-23 | 2021-12-21 | Verb Surgical Inc. | Machine-learning-oriented surgical video analysis system |
KR102236957B1 (ko) | 2018-05-24 | 2021-04-08 | 티엠알더블유 파운데이션 아이피 앤드 홀딩 에스에이알엘 | 가상 세계를 통해 가상 현실 응용 프로그램을 개발, 테스트하고, 실제 세계로 배포하기 위한 시스템 및 방법 |
JP7082416B2 (ja) | 2018-05-24 | 2022-06-08 | ザ カラニー ホールディング エスエーアールエル | 実世界を表現するリアルタイム3d仮想世界の中でのリアルタイム3d仮想物体の双方向リアルタイム3dインタラクティブ操作 |
WO2019226865A1 (en) | 2018-05-25 | 2019-11-28 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
US10700780B2 (en) * | 2018-05-30 | 2020-06-30 | Apple Inc. | Systems and methods for adjusting movable lenses in directional free-space optical communication systems for portable electronic devices |
US11303355B2 (en) | 2018-05-30 | 2022-04-12 | Apple Inc. | Optical structures in directional free-space optical communication systems for portable electronic devices |
US11651555B2 (en) * | 2018-05-31 | 2023-05-16 | Microsoft Technology Licensing, Llc | Re-creation of virtual environment through a video call |
US12087022B2 (en) | 2018-06-01 | 2024-09-10 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
US11157159B2 (en) | 2018-06-07 | 2021-10-26 | Magic Leap, Inc. | Augmented reality scrollbar |
US10843077B2 (en) * | 2018-06-08 | 2020-11-24 | Brian Deller | System and method for creation, presentation and interaction within multiple reality and virtual reality environments |
CN112567289A (zh) | 2018-06-15 | 2021-03-26 | 奇跃公司 | 宽视场偏振开关和制造具有预倾斜的液晶光学元件的方法 |
JP7336470B2 (ja) | 2018-06-15 | 2023-08-31 | マジック リープ, インコーポレイテッド | プレチルト角を伴う液晶光学要素を用いた広視野偏光スイッチ |
US11694435B2 (en) | 2018-06-18 | 2023-07-04 | Magic Leap, Inc. | Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device |
WO2019246044A1 (en) | 2018-06-18 | 2019-12-26 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
JP7378431B2 (ja) * | 2018-06-18 | 2023-11-13 | マジック リープ, インコーポレイテッド | フレーム変調機能性を伴う拡張現実ディスプレイ |
US20190391647A1 (en) * | 2018-06-25 | 2019-12-26 | Immersion Corporation | Real-world haptic interactions for a virtual reality user |
US20190392641A1 (en) * | 2018-06-26 | 2019-12-26 | Sony Interactive Entertainment Inc. | Material base rendering |
WO2020005757A1 (en) | 2018-06-26 | 2020-01-02 | Magic Leap, Inc. | Waypoint creation in map detection |
WO2020003014A1 (ru) * | 2018-06-26 | 2020-01-02 | ГИОРГАДЗЕ, Анико Тенгизовна | Устранение пробелов в понимании информации, возникающих при взаимодействии пользователей в коммуникационных системах, использующих объекты дополненной реальности |
US11077365B2 (en) | 2018-06-27 | 2021-08-03 | Niantic, Inc. | Low latency datagram-responsive computer network protocol |
USD875729S1 (en) | 2018-06-27 | 2020-02-18 | Magic Leap, Inc. | Portion of an augmented reality headset |
EP3818530A4 (en) | 2018-07-02 | 2022-03-30 | Magic Leap, Inc. | METHODS AND SYSTEMS FOR INTERPOLATION OF VARIOUS INPUTS |
CN108983974B (zh) * | 2018-07-03 | 2020-06-30 | 百度在线网络技术(北京)有限公司 | Ar场景处理方法、装置、设备和计算机可读存储介质 |
US11106033B2 (en) | 2018-07-05 | 2021-08-31 | Magic Leap, Inc. | Waveguide-based illumination for head mounted display system |
CN109308737A (zh) * | 2018-07-11 | 2019-02-05 | 重庆邮电大学 | 一种三阶段式点云配准方法的移动机器人v-slam方法 |
US11137622B2 (en) | 2018-07-15 | 2021-10-05 | Tectus Corporation | Eye-mounted displays including embedded conductive coils |
US10925598B2 (en) * | 2018-07-16 | 2021-02-23 | Ethicon Llc | Robotically-assisted surgical suturing systems |
US11966055B2 (en) | 2018-07-19 | 2024-04-23 | Magic Leap, Inc. | Content interaction driven by eye metrics |
EP3827584A4 (en) | 2018-07-23 | 2021-09-08 | Magic Leap, Inc. | INTRA-FIELD SUB-CODE SYNCHRONIZATION IN SEQUENTIAL FIELD DISPLAYS |
JP7304934B2 (ja) | 2018-07-23 | 2023-07-07 | マジック リープ, インコーポレイテッド | 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 |
CN112513944A (zh) | 2018-07-23 | 2021-03-16 | 奇跃公司 | 用于头部姿势预测的深度预测器循环神经网络 |
CN116300091A (zh) | 2018-07-23 | 2023-06-23 | 奇跃公司 | 用于使用位置向量解析半球模糊度的方法和系统 |
WO2020023303A1 (en) | 2018-07-23 | 2020-01-30 | Magic Leap, Inc. | Coexistence interference avoidance between two different radios operating in the same band |
USD930614S1 (en) | 2018-07-24 | 2021-09-14 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020023404A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Flicker mitigation when toggling eyepiece display illumination in augmented reality systems |
EP3827426A4 (en) | 2018-07-24 | 2022-07-27 | Magic Leap, Inc. | AD SYSTEMS AND PROCEDURES FOR DETERMINING A REGISTRATION BETWEEN AN AD AND A USER'S EYES |
USD918176S1 (en) | 2018-07-24 | 2021-05-04 | Magic Leap, Inc. | Totem controller having an illumination region |
WO2020023491A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Thermal management system for electronic device |
EP3827585A4 (en) | 2018-07-24 | 2022-04-27 | Magic Leap, Inc. | DISPLAY SYSTEMS AND METHODS FOR DETERMINING THE VERTICAL ALIGNMENT BETWEEN LEFT AND RIGHT DISPLAYS AND A USER'S EYES |
CN112703437A (zh) | 2018-07-24 | 2021-04-23 | 奇跃公司 | 具有减轻反弹引起的光损失的衍射光学元件以及相关的系统和方法 |
USD924204S1 (en) | 2018-07-24 | 2021-07-06 | Magic Leap, Inc. | Totem controller having an illumination region |
JP7210180B2 (ja) * | 2018-07-25 | 2023-01-23 | キヤノン株式会社 | 画像処理装置、画像表示装置、画像処理方法、及びプログラム |
US11402801B2 (en) | 2018-07-25 | 2022-08-02 | Digilens Inc. | Systems and methods for fabricating a multilayer optical structure |
JP7459050B2 (ja) | 2018-07-27 | 2024-04-01 | マジック リープ, インコーポレイテッド | 仮想キャラクタの姿勢空間変形のための姿勢空間次元低減 |
US11468640B2 (en) | 2018-08-03 | 2022-10-11 | Magic Leap, Inc. | Depth plane selection for multi-depth plane display systems by user categorization |
CN109255819B (zh) * | 2018-08-14 | 2020-10-13 | 清华大学 | 基于平面镜的Kinect标定方法及装置 |
US10581940B1 (en) | 2018-08-20 | 2020-03-03 | Dell Products, L.P. | Head-mounted devices (HMDs) discovery in co-located virtual, augmented, and mixed reality (xR) applications |
KR102508286B1 (ko) * | 2018-08-27 | 2023-03-09 | 삼성전자 주식회사 | 가상 현실에서 정보를 제공하는 전자 장치 및 방법 |
CN112639579B (zh) | 2018-08-31 | 2023-09-15 | 奇跃公司 | 用于增强现实装置的空间分辨的动态调暗 |
JP6527627B1 (ja) * | 2018-08-31 | 2019-06-05 | 株式会社バーチャルキャスト | コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム |
US11157739B1 (en) | 2018-08-31 | 2021-10-26 | Apple Inc. | Multi-user computer generated reality platform |
US10529107B1 (en) | 2018-09-11 | 2020-01-07 | Tectus Corporation | Projector alignment in a contact lens |
US11103763B2 (en) | 2018-09-11 | 2021-08-31 | Real Shot Inc. | Basketball shooting game using smart glasses |
US11141645B2 (en) | 2018-09-11 | 2021-10-12 | Real Shot Inc. | Athletic ball game using smart glasses |
US10679743B2 (en) | 2018-09-12 | 2020-06-09 | Verb Surgical Inc. | Method and system for automatically tracking and managing inventory of surgical tools in operating rooms |
US11982809B2 (en) | 2018-09-17 | 2024-05-14 | Apple Inc. | Electronic device with inner display and externally accessible input-output device |
USD955396S1 (en) | 2018-09-18 | 2022-06-21 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD934872S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD950567S1 (en) | 2018-09-18 | 2022-05-03 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
USD934873S1 (en) | 2018-09-18 | 2021-11-02 | Magic Leap, Inc. | Mobile computing support system having an illumination region |
US10569164B1 (en) | 2018-09-26 | 2020-02-25 | Valve Corporation | Augmented reality (AR) system for providing AR in video games |
US12050318B2 (en) | 2018-09-26 | 2024-07-30 | Magic Leap, Inc. | Eyewear with pinhole and slit cameras |
WO2020069026A1 (en) | 2018-09-26 | 2020-04-02 | Magic Leap, Inc. | Diffractive optical elements with optical power |
US11500455B2 (en) | 2018-10-16 | 2022-11-15 | Nolo Co., Ltd. | Video streaming system, video streaming method and apparatus |
CN113227879A (zh) | 2018-10-26 | 2021-08-06 | 奇跃公司 | 用于电磁跟踪的环境电磁失真校正 |
US10846042B2 (en) | 2018-10-31 | 2020-11-24 | Hewlett Packard Enterprise Development Lp | Adaptive rendering for untethered multi-user virtual reality |
US11051206B2 (en) | 2018-10-31 | 2021-06-29 | Hewlett Packard Enterprise Development Lp | Wi-fi optimization for untethered multi-user virtual reality |
US11047691B2 (en) * | 2018-10-31 | 2021-06-29 | Dell Products, L.P. | Simultaneous localization and mapping (SLAM) compensation for gesture recognition in virtual, augmented, and mixed reality (xR) applications |
US11592896B2 (en) * | 2018-11-07 | 2023-02-28 | Wild Technology, Inc. | Technological infrastructure for enabling multi-user collaboration in a virtual reality environment |
TWI722332B (zh) * | 2018-11-13 | 2021-03-21 | 晶睿通訊股份有限公司 | 行人偵測方法及其相關監控攝影機 |
JP7389116B2 (ja) | 2018-11-15 | 2023-11-29 | マジック リープ, インコーポレイテッド | 深層ニューラルネットワーク姿勢推定システム |
JP2022509083A (ja) | 2018-11-20 | 2022-01-20 | マジック リープ, インコーポレイテッド | 拡張現実ディスプレイシステムのための接眼レンズ |
US10838232B2 (en) | 2018-11-26 | 2020-11-17 | Tectus Corporation | Eye-mounted displays including embedded solenoids |
CN113330390A (zh) | 2018-11-30 | 2021-08-31 | 奇跃公司 | 用于化身运动的多模态手的位置和取向 |
US10776933B2 (en) | 2018-12-06 | 2020-09-15 | Microsoft Technology Licensing, Llc | Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects |
WO2020124046A2 (en) * | 2018-12-14 | 2020-06-18 | Vulcan Inc. | Virtual and physical reality integration |
US10644543B1 (en) | 2018-12-20 | 2020-05-05 | Tectus Corporation | Eye-mounted display system including a head wearable object |
CN113490873A (zh) | 2018-12-28 | 2021-10-08 | 奇跃公司 | 带有机械致动图像投影仪的可变像素密度显示系统 |
JP7539386B2 (ja) | 2018-12-28 | 2024-08-23 | マジック リープ, インコーポレイテッド | 左眼および右眼のための共有ディスプレイを伴う拡張および仮想現実ディスプレイシステム |
JP2022517207A (ja) | 2019-01-11 | 2022-03-07 | マジック リープ, インコーポレイテッド | 種々の深度における仮想コンテンツの時間多重化された表示 |
CN113614783A (zh) | 2019-01-25 | 2021-11-05 | 奇跃公司 | 使用具有不同曝光时间的图像的眼睛跟踪 |
JP2022523076A (ja) | 2019-02-01 | 2022-04-21 | マジック リープ, インコーポレイテッド | 直列内部結合光学要素 |
US11857378B1 (en) | 2019-02-14 | 2024-01-02 | Onpoint Medical, Inc. | Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets |
US11403823B2 (en) | 2019-02-14 | 2022-08-02 | Lego A/S | Toy system for asymmetric multiplayer game play |
US11553969B1 (en) | 2019-02-14 | 2023-01-17 | Onpoint Medical, Inc. | System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures |
EP3924759A4 (en) | 2019-02-15 | 2022-12-28 | Digilens Inc. | METHODS AND APPARATUS FOR MAKING A HOLOGRAPHIC WAVEGUIDE DISPLAY WITH INTEGRATED GRIDINGS |
JP7349793B2 (ja) * | 2019-02-15 | 2023-09-25 | キヤノン株式会社 | 画像処理装置および画像処理方法、プログラム |
US11420116B2 (en) | 2019-02-25 | 2022-08-23 | Niantic, Inc. | Augmented reality mobile edge computing |
RU2712417C1 (ru) * | 2019-02-28 | 2020-01-28 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Способ и система распознавания лиц и построения маршрута с помощью средства дополненной реальности |
EP3931625B1 (en) | 2019-02-28 | 2024-09-18 | Magic Leap, Inc. | Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays |
US11467656B2 (en) | 2019-03-04 | 2022-10-11 | Magical Technologies, Llc | Virtual object control of a physical device and/or physical device control of a virtual object |
EP4439156A2 (en) | 2019-03-12 | 2024-10-02 | Magic Leap, Inc. | Method of fabricating display device having patterned lithium-based transition metal oxide |
EP3938824A4 (en) | 2019-03-12 | 2022-11-23 | Magic Leap, Inc. | WAVEGUIDES WITH HIGH REFRESHING INDEX MATERIALS AND METHOD FOR THEIR MANUFACTURE |
JP2022525165A (ja) | 2019-03-12 | 2022-05-11 | ディジレンズ インコーポレイテッド | ホログラフィック導波管バックライトおよび関連する製造方法 |
RU2702495C1 (ru) * | 2019-03-13 | 2019-10-08 | Общество с ограниченной ответственностью "ТрансИнжКом" | Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени |
WO2020191170A1 (en) | 2019-03-20 | 2020-09-24 | Magic Leap, Inc. | System for providing illumination of the eye |
EP3712781A1 (en) * | 2019-03-20 | 2020-09-23 | Nokia Technologies Oy | An apparatus and associated methods for presentation of presentation data |
JP2022525922A (ja) | 2019-03-20 | 2022-05-20 | マジック リープ, インコーポレイテッド | 光を収集するためのシステム |
WO2020189903A1 (ko) * | 2019-03-20 | 2020-09-24 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
JP7536781B2 (ja) * | 2019-03-25 | 2024-08-20 | マジック リープ, インコーポレイテッド | 仮想現実および拡張現実のためのシステムおよび方法 |
WO2020214272A1 (en) | 2019-04-15 | 2020-10-22 | Magic Leap, Inc. | Sensor fusion for electromagnetic tracking |
US11107293B2 (en) * | 2019-04-23 | 2021-08-31 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
US11294453B2 (en) * | 2019-04-23 | 2022-04-05 | Foretell Studios, LLC | Simulated reality cross platform system |
US11380011B2 (en) * | 2019-04-23 | 2022-07-05 | Kreatar, Llc | Marker-based positioning of simulated reality |
GB201905847D0 (en) * | 2019-04-26 | 2019-06-12 | King S College London | MRI scanner-compatible virtual reality system |
CN111856751B (zh) | 2019-04-26 | 2022-12-09 | 苹果公司 | 具有低光操作的头戴式显示器 |
EP3734419A1 (en) * | 2019-05-03 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
TWI715026B (zh) * | 2019-05-06 | 2021-01-01 | 宏碁股份有限公司 | 網路虛擬實境之控制方法及應用其之主機 |
WO2020231888A1 (en) | 2019-05-10 | 2020-11-19 | BadVR, Inc. | Novel systems and methods for collecting, locating and visualizing sensor signals in extended reality |
JP7423659B2 (ja) | 2019-05-20 | 2024-01-29 | マジック リープ, インコーポレイテッド | 眼姿勢を推定するためのシステムおよび技法 |
CN111973979A (zh) * | 2019-05-23 | 2020-11-24 | 明日基金知识产权控股有限公司 | 经由持久性虚拟世界系统对现实世界进行实况管理 |
WO2020243014A1 (en) | 2019-05-24 | 2020-12-03 | Magic Leap, Inc. | Variable focus assemblies |
WO2020243169A1 (en) | 2019-05-28 | 2020-12-03 | Magic Leap, Inc. | Thermal management system for portable electronic devices |
USD962981S1 (en) | 2019-05-29 | 2022-09-06 | Magic Leap, Inc. | Display screen or portion thereof with animated scrollbar graphical user interface |
CN112055033B (zh) * | 2019-06-05 | 2022-03-29 | 北京外号信息技术有限公司 | 基于光通信装置的交互方法和系统 |
CN112055034B (zh) * | 2019-06-05 | 2022-03-29 | 北京外号信息技术有限公司 | 基于光通信装置的交互方法和系统 |
WO2020247930A1 (en) | 2019-06-07 | 2020-12-10 | Digilens Inc. | Waveguides incorporating transmissive and reflective gratings and related methods of manufacturing |
WO2020251540A1 (en) * | 2019-06-10 | 2020-12-17 | Brian Deller | System and method for creation, presentation and interaction within multiple reality and virtual reality environments |
US10897564B1 (en) | 2019-06-17 | 2021-01-19 | Snap Inc. | Shared control of camera device by multiple devices |
US12040993B2 (en) | 2019-06-18 | 2024-07-16 | The Calany Holding S. À R.L. | Software engine virtualization and dynamic resource and task distribution across edge and cloud |
CN112100798A (zh) | 2019-06-18 | 2020-12-18 | 明日基金知识产权控股有限公司 | 用于将现实世界元素的虚拟副本部署到持久性虚拟世界系统中的系统和方法 |
US11665317B2 (en) | 2019-06-18 | 2023-05-30 | The Calany Holding S. À R.L. | Interacting with real-world items and corresponding databases through a virtual twin reality |
US12033271B2 (en) | 2019-06-18 | 2024-07-09 | The Calany Holding S. À R.L. | 3D structure engine-based computation platform |
US12039354B2 (en) * | 2019-06-18 | 2024-07-16 | The Calany Holding S. À R.L. | System and method to operate 3D applications through positional virtualization technology |
WO2020257469A1 (en) | 2019-06-20 | 2020-12-24 | Magic Leap, Inc. | Eyepieces for augmented reality display system |
JP7311643B2 (ja) | 2019-06-21 | 2023-07-19 | マジック リープ, インコーポレイテッド | モード式ウィンドウを介したセキュアな認可 |
CN114341687A (zh) | 2019-06-24 | 2022-04-12 | 奇跃公司 | 具有集成间隔物的波导及相关系统和方法 |
US11145126B1 (en) | 2019-06-27 | 2021-10-12 | Facebook Technologies, Llc | Movement instruction using a mirror in an artificial reality environment |
US11036987B1 (en) | 2019-06-27 | 2021-06-15 | Facebook Technologies, Llc | Presenting artificial reality content using a mirror |
US11055920B1 (en) * | 2019-06-27 | 2021-07-06 | Facebook Technologies, Llc | Performing operations using a mirror in an artificial reality environment |
CN110413109A (zh) * | 2019-06-28 | 2019-11-05 | 广东虚拟现实科技有限公司 | 虚拟内容的生成方法、装置、系统、电子设备及存储介质 |
EP3982331A4 (en) * | 2019-06-28 | 2022-11-09 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
US11549799B2 (en) | 2019-07-01 | 2023-01-10 | Apple Inc. | Self-mixing interference device for sensing applications |
US11372474B2 (en) * | 2019-07-03 | 2022-06-28 | Saec/Kinetic Vision, Inc. | Systems and methods for virtual artificial intelligence development and testing |
WO2021007223A1 (en) | 2019-07-07 | 2021-01-14 | Selfie Snapper, Inc. | Selfie camera |
US11029805B2 (en) | 2019-07-10 | 2021-06-08 | Magic Leap, Inc. | Real-time preview of connectable objects in a physically-modeled virtual space |
US11868525B2 (en) | 2019-07-16 | 2024-01-09 | Magic Leap, Inc. | Eye center of rotation determination with one or more eye tracking cameras |
US11340857B1 (en) | 2019-07-19 | 2022-05-24 | Snap Inc. | Shared control of a virtual object by multiple devices |
WO2021016045A1 (en) | 2019-07-19 | 2021-01-28 | Magic Leap, Inc. | Display device having diffraction gratings with reduced polarization sensitivity |
US11460616B2 (en) | 2019-07-19 | 2022-10-04 | Magic Leap, Inc. | Method of fabricating diffraction gratings |
US11907417B2 (en) | 2019-07-25 | 2024-02-20 | Tectus Corporation | Glance and reveal within a virtual environment |
US12118897B2 (en) * | 2019-07-25 | 2024-10-15 | International Business Machines Corporation | Augmented reality tutorial generation |
US11068284B2 (en) * | 2019-07-25 | 2021-07-20 | Huuuge Global Ltd. | System for managing user experience and method therefor |
US10893127B1 (en) | 2019-07-26 | 2021-01-12 | Arkade, Inc. | System and method for communicating interactive data between heterogeneous devices |
US10773157B1 (en) | 2019-07-26 | 2020-09-15 | Arkade, Inc. | Interactive computing devices and accessories |
US10946272B2 (en) | 2019-07-26 | 2021-03-16 | Arkade, Inc. | PC blaster game console |
US11681143B2 (en) | 2019-07-29 | 2023-06-20 | Digilens Inc. | Methods and apparatus for multiplying the image resolution and field-of-view of a pixelated display |
JP2022544067A (ja) | 2019-07-31 | 2022-10-17 | マジック リープ, インコーポレイテッド | 分散型台帳を使用した拡張現実のためのユーザデータ管理 |
US10944290B2 (en) | 2019-08-02 | 2021-03-09 | Tectus Corporation | Headgear providing inductive coupling to a contact lens |
CN114222942A (zh) | 2019-08-12 | 2022-03-22 | 奇跃公司 | 用于虚拟和增强现实的系统和方法 |
US20210056391A1 (en) * | 2019-08-20 | 2021-02-25 | Mind Machine Learning, Inc. | Systems and Methods for Simulating Sense Data and Creating Perceptions |
US11210856B2 (en) * | 2019-08-20 | 2021-12-28 | The Calany Holding S. À R.L. | System and method for interaction-level based telemetry and tracking within digital realities |
EP4022370A4 (en) | 2019-08-29 | 2023-08-30 | Digilens Inc. | VACUUM BRAGG GRATINGS AND METHODS OF MANUFACTURING |
US11030815B2 (en) | 2019-09-05 | 2021-06-08 | Wipro Limited | Method and system for rendering virtual reality content |
JP7420926B2 (ja) | 2019-09-11 | 2024-01-23 | マジック リープ, インコーポレイテッド | 低減された偏光感度を有する回折格子を伴うディスプレイデバイス |
US11176757B2 (en) | 2019-10-02 | 2021-11-16 | Magic Leap, Inc. | Mission driven virtual character for user interaction |
US11276246B2 (en) | 2019-10-02 | 2022-03-15 | Magic Leap, Inc. | Color space mapping for intuitive surface normal visualization |
US11475637B2 (en) * | 2019-10-21 | 2022-10-18 | Wormhole Labs, Inc. | Multi-instance multi-user augmented reality environment |
US10901505B1 (en) | 2019-10-24 | 2021-01-26 | Tectus Corporation | Eye-based activation and tool selection systems and methods |
US11662807B2 (en) | 2020-01-06 | 2023-05-30 | Tectus Corporation | Eye-tracking user interface for virtual tool control |
US11493989B2 (en) | 2019-11-08 | 2022-11-08 | Magic Leap, Inc. | Modes of user interaction |
USD982593S1 (en) | 2019-11-08 | 2023-04-04 | Magic Leap, Inc. | Portion of a display screen with animated ray |
WO2021092068A1 (en) | 2019-11-08 | 2021-05-14 | Magic Leap, Inc. | Metasurfaces with light-redirecting structures including multiple materials and methods for fabricating |
JP2023503257A (ja) | 2019-11-18 | 2023-01-27 | マジック リープ, インコーポレイテッド | パス可能世界のマッピングおよび位置特定 |
US11412050B2 (en) * | 2019-11-20 | 2022-08-09 | Facebook Technologies, Llc | Artificial reality system with virtual wireless channels |
JP7494297B2 (ja) | 2019-11-22 | 2024-06-03 | マジック リープ, インコーポレイテッド | 液晶層をパターン化するための方法およびシステム |
US12094139B2 (en) | 2019-11-22 | 2024-09-17 | Magic Leap, Inc. | Systems and methods for enhanced depth determination using projection spots |
US11681362B2 (en) | 2019-11-26 | 2023-06-20 | Magic Leap, Inc. | Enhanced eye tracking for augmented or virtual reality display systems |
DE102019132173A1 (de) * | 2019-11-27 | 2021-05-27 | Endress+Hauser Conducta Gmbh+Co. Kg | Verfahren zur Konfiguration zur Übertragung von Daten von einem Feldgerät |
EP4070538A4 (en) | 2019-12-06 | 2023-11-29 | Magic Leap, Inc. | CODING A STEREO HOME SCREEN INTO A STATIC IMAGE |
US11442593B2 (en) | 2019-12-06 | 2022-09-13 | Magic Leap, Inc. | Dynamic browser stage |
USD940748S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941353S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD952673S1 (en) | 2019-12-09 | 2022-05-24 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD941307S1 (en) | 2019-12-09 | 2022-01-18 | Magic Leap, Inc. | Portion of a display screen with graphical user interface for guiding graphics |
USD940749S1 (en) | 2019-12-09 | 2022-01-11 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
USD940189S1 (en) | 2019-12-09 | 2022-01-04 | Magic Leap, Inc. | Portion of a display screen with transitional graphical user interface for guiding graphics |
US11288876B2 (en) | 2019-12-13 | 2022-03-29 | Magic Leap, Inc. | Enhanced techniques for volumetric stage mapping based on calibration object |
US11789527B1 (en) * | 2019-12-17 | 2023-10-17 | Snap Inc. | Eyewear device external face tracking overlay generation |
US11489763B2 (en) | 2019-12-20 | 2022-11-01 | Niantic, Inc. | Data hierarchy protocol for data transmission pathway selection |
US11832996B2 (en) | 2019-12-30 | 2023-12-05 | Cilag Gmbh International | Analyzing surgical trends by a surgical system |
US11759283B2 (en) | 2019-12-30 | 2023-09-19 | Cilag Gmbh International | Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto |
US11776144B2 (en) | 2019-12-30 | 2023-10-03 | Cilag Gmbh International | System and method for determining, adjusting, and managing resection margin about a subject tissue |
US11896442B2 (en) | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
US12053223B2 (en) | 2019-12-30 | 2024-08-06 | Cilag Gmbh International | Adaptive surgical system control according to surgical smoke particulate characteristics |
EP3846008A1 (en) | 2019-12-30 | 2021-07-07 | TMRW Foundation IP SARL | Method and system for enabling enhanced user-to-user communication in digital realities |
US12002571B2 (en) | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
US11284963B2 (en) | 2019-12-30 | 2022-03-29 | Cilag Gmbh International | Method of using imaging devices in surgery |
US11744667B2 (en) | 2019-12-30 | 2023-09-05 | Cilag Gmbh International | Adaptive visualization by a surgical system |
AU2020419320A1 (en) | 2019-12-31 | 2022-08-18 | Selfie Snapper, Inc. | Electroadhesion device with voltage control module |
US11095855B2 (en) | 2020-01-16 | 2021-08-17 | Microsoft Technology Licensing, Llc | Remote collaborations with volumetric space indications |
US11340695B2 (en) | 2020-01-24 | 2022-05-24 | Magic Leap, Inc. | Converting a 2D positional input into a 3D point in space |
CN115380236A (zh) | 2020-01-24 | 2022-11-22 | 奇跃公司 | 使用单个控制器的内容移动和交互 |
USD949200S1 (en) | 2020-01-27 | 2022-04-19 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
CN115023738A (zh) | 2020-01-27 | 2022-09-06 | 奇跃公司 | 中性化身 |
USD948574S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with a set of avatars |
USD948562S1 (en) | 2020-01-27 | 2022-04-12 | Magic Leap, Inc. | Portion of a display screen with avatar |
EP4097564A4 (en) | 2020-01-27 | 2024-02-14 | Magic Leap, Inc. | LOOK TIMER BASED EXPANSION OF THE FUNCTIONALITY OF A USER INPUT DEVICE |
US11756509B2 (en) | 2020-01-27 | 2023-09-12 | Magic Leap, Inc. | Enhanced state control for anchor-based cross reality applications |
EP4097711A4 (en) | 2020-01-27 | 2024-01-24 | Magic Leap, Inc. | CURATION OF AN AUGMENTED REALITY MAP |
USD936704S1 (en) | 2020-01-27 | 2021-11-23 | Magic Leap, Inc. | Portion of a display screen with avatar |
EP4097532A4 (en) | 2020-01-31 | 2024-02-21 | Magic Leap, Inc. | AUGMENTED REALITY AND VIRTUAL REALITY DISPLAY SYSTEMS FOR OCULOMETRICAL ASSESSMENTS |
WO2021158600A1 (en) * | 2020-02-04 | 2021-08-12 | Google Llc | Systems, devices, and methods for directing and managing image data from a camera in wearable devices |
CN115087905A (zh) | 2020-02-10 | 2022-09-20 | 奇跃公司 | 在混合现实环境中相对于三维容器的以身体为中心的内容定位 |
US11382699B2 (en) * | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11709363B1 (en) | 2020-02-10 | 2023-07-25 | Avegant Corp. | Waveguide illumination of a spatial light modulator |
CN115398894A (zh) | 2020-02-14 | 2022-11-25 | 奇跃公司 | 用于虚拟和增强现实显示系统的虚拟对象运动速度曲线 |
US11664194B2 (en) | 2020-02-26 | 2023-05-30 | Magic Leap, Inc. | Procedural electron beam lithography |
WO2021174062A1 (en) | 2020-02-28 | 2021-09-02 | Magic Leap, Inc. | Method of fabricating molds for forming eyepieces with integrated spacers |
CN111459267A (zh) * | 2020-03-02 | 2020-07-28 | 杭州嘉澜创新科技有限公司 | 一种数据处理方法、第一服务器、第二服务器与存储介质 |
US11262588B2 (en) | 2020-03-10 | 2022-03-01 | Magic Leap, Inc. | Spectator view of virtual and physical objects |
CN111462335B (zh) * | 2020-03-18 | 2023-12-05 | Oppo广东移动通信有限公司 | 基于虚拟对象交互的设备控制方法及装置、介质和设备 |
WO2021188926A1 (en) | 2020-03-20 | 2021-09-23 | Magic Leap, Inc. | Systems and methods for retinal imaging and tracking |
US11985175B2 (en) | 2020-03-25 | 2024-05-14 | Snap Inc. | Virtual interaction session to facilitate time limited augmented reality based communication between multiple users |
US12101360B2 (en) | 2020-03-25 | 2024-09-24 | Snap Inc. | Virtual interaction session to facilitate augmented reality based communication between multiple users |
WO2021195283A1 (en) | 2020-03-25 | 2021-09-30 | Magic Leap, Inc. | Optical device with one-way mirror |
US11593997B2 (en) * | 2020-03-31 | 2023-02-28 | Snap Inc. | Context based augmented reality communication |
US11348300B2 (en) | 2020-04-03 | 2022-05-31 | Magic Leap, Inc. | Avatar customization for optimal gaze discrimination |
JP2023520461A (ja) | 2020-04-03 | 2023-05-17 | マジック リープ, インコーポレイテッド | ナノワイヤledマイクロディスプレイを伴うウェアラブルディスプレイシステム |
US11577161B2 (en) * | 2020-04-20 | 2023-02-14 | Dell Products L.P. | Range of motion control in XR applications on information handling systems |
US11436579B2 (en) | 2020-05-04 | 2022-09-06 | Bank Of America Corporation | Performing enhanced deposit item processing using cognitive automation tools |
CN111589107B (zh) * | 2020-05-14 | 2023-04-28 | 北京代码乾坤科技有限公司 | 虚拟模型的行为预测方法和装置 |
US11543666B2 (en) | 2020-05-22 | 2023-01-03 | Magic Leap, Inc. | Augmented and virtual reality display systems with correlated in-coupling and out-coupling optical regions for efficient light utilization in at least one waveguide |
JP2023529606A (ja) | 2020-06-05 | 2023-07-11 | マジック リープ, インコーポレイテッド | 画像のニューラルネットワーク分析に基づいて向上された眼追跡技法 |
CN116097367A (zh) * | 2020-06-11 | 2023-05-09 | 康尔福盛303公司 | 免提药物跟踪 |
WO2021252980A1 (en) * | 2020-06-12 | 2021-12-16 | Selfie Snapper, Inc. | Digital mirror |
US11665284B2 (en) * | 2020-06-20 | 2023-05-30 | Science House LLC | Systems, methods, and apparatus for virtual meetings |
USD939607S1 (en) | 2020-07-10 | 2021-12-28 | Selfie Snapper, Inc. | Selfie camera |
US11275942B2 (en) * | 2020-07-14 | 2022-03-15 | Vicarious Fpc, Inc. | Method and system for generating training data |
IL299775A (en) | 2020-07-15 | 2023-03-01 | Magic Leap Inc | Eye tracking using an aspheric cornea model |
RU201742U1 (ru) * | 2020-07-22 | 2020-12-30 | Общество с ограниченной ответственностью "МИКСАР ДЕВЕЛОПМЕНТ" | Очки дополненной реальности, ориентированные на применение в условиях опасного производства |
WO2022032198A1 (en) | 2020-08-07 | 2022-02-10 | Magic Leap, Inc. | Tunable cylindrical lenses and head-mounted display including the same |
WO2022037758A1 (en) * | 2020-08-18 | 2022-02-24 | Siemens Aktiengesellschaft | Remote collaboration using augmented and virtual reality |
CA3190568A1 (en) | 2020-08-24 | 2022-03-03 | Brandon Fayette | Previsualization devices and systems for the film industry |
US12107907B2 (en) * | 2020-08-28 | 2024-10-01 | Tmrw Foundation Ip S.Àr.L. | System and method enabling interactions in virtual environments with virtual presence |
CN111939561B (zh) * | 2020-08-31 | 2023-09-19 | 聚好看科技股份有限公司 | 显示设备及交互方法 |
US11360733B2 (en) | 2020-09-10 | 2022-06-14 | Snap Inc. | Colocated shared augmented reality without shared backend |
EP3968143A1 (en) * | 2020-09-15 | 2022-03-16 | Nokia Technologies Oy | Audio processing |
US11176756B1 (en) * | 2020-09-16 | 2021-11-16 | Meta View, Inc. | Augmented reality collaboration system |
US11554320B2 (en) | 2020-09-17 | 2023-01-17 | Bogie Inc. | System and method for an interactive controller |
EP4222551A4 (en) | 2020-09-29 | 2024-10-23 | Avegant Corp | ARCHITECTURE FOR ILLUMINATION OF A SCREENBOARD |
US20220101002A1 (en) * | 2020-09-30 | 2022-03-31 | Kyndryl, Inc. | Real-world object inclusion in a virtual reality experience |
US11736545B2 (en) * | 2020-10-16 | 2023-08-22 | Famous Group Technologies Inc. | Client user interface for virtual fan experience |
US20220130058A1 (en) * | 2020-10-27 | 2022-04-28 | Raytheon Company | Mission early launch tracker |
CN112363615A (zh) * | 2020-10-27 | 2021-02-12 | 上海影创信息科技有限公司 | 多用户vr/ar交互系统、方法及计算机可读存储介质 |
US11893698B2 (en) * | 2020-11-04 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device, AR device and method for controlling data transfer interval thereof |
US12053247B1 (en) | 2020-12-04 | 2024-08-06 | Onpoint Medical, Inc. | System for multi-directional tracking of head mounted displays for real-time augmented reality guidance of surgical procedures |
WO2022130414A1 (en) * | 2020-12-17 | 2022-06-23 | Patel Lokesh | Virtual presence device which uses trained humans to represent their hosts using man machine interface |
IT202000030866A1 (it) * | 2020-12-18 | 2022-06-18 | Caldarola S R L | Dispositivo e relativo metodo per il supporto e distanziamento in modalità realtà aumentata alla vista e all'udito per ambienti indoor |
EP4268054A4 (en) | 2020-12-22 | 2024-01-24 | Telefonaktiebolaget LM Ericsson (publ) | METHODS AND DEVICES RELATED TO AUGMENTED REALITY |
US12026800B1 (en) | 2020-12-31 | 2024-07-02 | Apple Inc. | Blitting a display-locked object |
US11831665B2 (en) | 2021-01-04 | 2023-11-28 | Bank Of America Corporation | Device for monitoring a simulated environment |
US11042028B1 (en) * | 2021-01-12 | 2021-06-22 | University Of Central Florida Research Foundation, Inc. | Relative pose data augmentation of tracked devices in virtual environments |
RU2760179C1 (ru) * | 2021-01-20 | 2021-11-22 | Виктор Александрович Епифанов | Система дополненной реальности |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
EP4295314A1 (en) | 2021-02-08 | 2023-12-27 | Sightful Computers Ltd | Content sharing in extended reality |
WO2022174263A1 (en) * | 2021-02-12 | 2022-08-18 | Magic Leap, Inc. | Lidar simultaneous localization and mapping |
EP4304490A1 (en) | 2021-03-10 | 2024-01-17 | Onpoint Medical, Inc. | Augmented reality guidance for imaging systems and robotic surgery |
WO2022195322A1 (en) * | 2021-03-15 | 2022-09-22 | One Game Studio S.A.P.I De C.V. | System and method for the interaction of at least two users in an augmented reality environment for a videogame |
US20220308659A1 (en) * | 2021-03-23 | 2022-09-29 | Htc Corporation | Method for interacting with virtual environment, electronic device, and computer readable storage medium |
CN113761281B (zh) * | 2021-04-26 | 2024-05-14 | 腾讯科技(深圳)有限公司 | 虚拟资源处理方法、装置、介质及电子设备 |
CN113194350B (zh) * | 2021-04-30 | 2022-08-19 | 百度在线网络技术(北京)有限公司 | 推送待播报数据、播报数据的方法和装置 |
US11938402B2 (en) * | 2021-05-03 | 2024-03-26 | Rakuten Mobile, Inc. | Multi-player interactive system and method of using |
EP4335121A1 (en) | 2021-05-05 | 2024-03-13 | Telefonaktiebolaget LM Ericsson (publ) | Methods and devices related to extended reality |
US11664923B2 (en) * | 2021-05-12 | 2023-05-30 | T-Mobile Usa, Inc. | Optimizing use of existing telecommunication infrastructure for wireless connectivity |
JP7499974B2 (ja) | 2021-07-02 | 2024-06-14 | 三菱電機株式会社 | 提供システム、および、提供方法 |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US20230058438A1 (en) * | 2021-08-18 | 2023-02-23 | Advanced Neuromodulation Systems, Inc. | Systems and methods for providing digital health services |
US12014030B2 (en) | 2021-08-18 | 2024-06-18 | Bank Of America Corporation | System for predictive virtual scenario presentation |
US11908083B2 (en) | 2021-08-31 | 2024-02-20 | Snap Inc. | Deforming custom mesh based on body mesh |
WO2023034010A1 (en) * | 2021-09-01 | 2023-03-09 | Snap Inc. | Physical action-based augmented reality communication exchanges |
US11663792B2 (en) | 2021-09-08 | 2023-05-30 | Snap Inc. | Body fitted accessory with physics simulation |
US20230083302A1 (en) * | 2021-09-12 | 2023-03-16 | Sony Interactive Entertainment Inc. | Local environment scanning to characterize physical environment for use in vr/ar |
US11798238B2 (en) | 2021-09-14 | 2023-10-24 | Snap Inc. | Blending body mesh into external mesh |
CN113946701B (zh) * | 2021-09-14 | 2024-03-19 | 广州市城市规划设计有限公司 | 一种基于图像处理的城乡规划数据的动态更新方法及装置 |
US11836866B2 (en) | 2021-09-20 | 2023-12-05 | Snap Inc. | Deforming real-world object using an external mesh |
US11836862B2 (en) | 2021-10-11 | 2023-12-05 | Snap Inc. | External mesh with vertex attributes |
US11790614B2 (en) | 2021-10-11 | 2023-10-17 | Snap Inc. | Inferring intent from pose and speech input |
US11763481B2 (en) | 2021-10-20 | 2023-09-19 | Snap Inc. | Mirror-based augmented reality experience |
US11592899B1 (en) | 2021-10-28 | 2023-02-28 | Tectus Corporation | Button activation within an eye-controlled user interface |
US12045940B2 (en) * | 2021-11-03 | 2024-07-23 | Tencent America LLC | Method for streaming dynamic 5G AR/MR experience to 5G devices with updatable scenes |
KR20230103379A (ko) | 2021-12-31 | 2023-07-07 | 삼성전자주식회사 | Ar 처리 방법 및 장치 |
US11619994B1 (en) | 2022-01-14 | 2023-04-04 | Tectus Corporation | Control of an electronic contact lens using pitch-based eye gestures |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US11874961B2 (en) | 2022-05-09 | 2024-01-16 | Tectus Corporation | Managing display of an icon in an eye tracking augmented reality device |
CN115047979B (zh) * | 2022-08-15 | 2022-11-01 | 歌尔股份有限公司 | 头戴显示设备控制系统及交互方法 |
US12032737B2 (en) * | 2022-08-22 | 2024-07-09 | Meta Platforms Technologies, Llc | Gaze adjusted avatars for immersive reality applications |
US11948259B2 (en) | 2022-08-22 | 2024-04-02 | Bank Of America Corporation | System and method for processing and intergrating real-time environment instances into virtual reality live streams |
US12099696B2 (en) | 2022-09-30 | 2024-09-24 | Sightful Computers Ltd | Displaying virtual content on moving vehicles |
US20240115947A1 (en) * | 2022-10-05 | 2024-04-11 | Sony Interactive Entertainment Inc. | Systems and methods for integrating real-world content in a game |
US12101303B2 (en) * | 2022-11-02 | 2024-09-24 | Truist Bank | Secure packet record in multi-source VR environment |
WO2024136743A1 (en) * | 2022-12-22 | 2024-06-27 | Inter Ikea Systems B.V. | Creating a mixed reality meeting room |
US11875492B1 (en) | 2023-05-01 | 2024-01-16 | Fd Ip & Licensing Llc | Systems and methods for digital compositing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182331A (ja) | 2003-12-18 | 2005-07-07 | Sony Corp | 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体 |
US20080024594A1 (en) * | 2004-05-19 | 2008-01-31 | Ritchey Kurtis J | Panoramic image-based virtual reality/telepresence audio-visual system and method |
US20090189974A1 (en) | 2008-01-23 | 2009-07-30 | Deering Michael F | Systems Using Eye Mounted Displays |
Family Cites Families (118)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4852988A (en) | 1988-09-12 | 1989-08-01 | Applied Science Laboratories | Visor and camera providing a parallax-free field-of-view image for a head-mounted eye movement measurement system |
JPH05328260A (ja) * | 1992-05-26 | 1993-12-10 | Olympus Optical Co Ltd | 頭部装着式ディスプレイ装置 |
JP3336687B2 (ja) * | 1993-07-21 | 2002-10-21 | セイコーエプソン株式会社 | 眼鏡型表示装置 |
US5491743A (en) * | 1994-05-24 | 1996-02-13 | International Business Machines Corporation | Virtual conference system and terminal apparatus therefor |
US6847336B1 (en) | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
US6329986B1 (en) | 1998-02-21 | 2001-12-11 | U.S. Philips Corporation | Priority-based virtual environment |
US6118456A (en) | 1998-04-02 | 2000-09-12 | Adaptive Media Technologies | Method and apparatus capable of prioritizing and streaming objects within a 3-D virtual environment |
JP3456419B2 (ja) * | 1998-07-23 | 2003-10-14 | 日本電信電話株式会社 | 仮想空間内における共有空間表示方法及びシステム及び仮想空間内における共有空間表示プログラムを格納した記憶媒体 |
US6215498B1 (en) * | 1998-09-10 | 2001-04-10 | Lionhearth Technologies, Inc. | Virtual command post |
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US6289299B1 (en) * | 1999-02-17 | 2001-09-11 | Westinghouse Savannah River Company | Systems and methods for interactive virtual reality process control and simulation |
US6753857B1 (en) * | 1999-04-16 | 2004-06-22 | Nippon Telegraph And Telephone Corporation | Method and system for 3-D shared virtual environment display communication virtual conference and programs therefor |
US6491391B1 (en) | 1999-07-02 | 2002-12-10 | E-Vision Llc | System, apparatus, and method for reducing birefringence |
EP1060772B1 (en) | 1999-06-11 | 2012-02-01 | Canon Kabushiki Kaisha | Apparatus and method to represent mixed reality space shared by plural operators, game apparatus using mixed reality apparatus and interface method thereof |
CA2316473A1 (en) | 1999-07-28 | 2001-01-28 | Steve Mann | Covert headworn information display or data display or viewfinder |
JP2001197400A (ja) * | 2000-01-12 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 表示装置、頭部装着型表示装置、頭部装着型表示装置の制御方法、頭部装着型表示装置のための画像生成方法、コンピュータおよびプログラム記憶媒体 |
US20020010734A1 (en) | 2000-02-03 | 2002-01-24 | Ebersole John Franklin | Internetworked augmented reality system and method |
US6525732B1 (en) * | 2000-02-17 | 2003-02-25 | Wisconsin Alumni Research Foundation | Network-based viewing of images of three-dimensional objects |
US6891518B2 (en) | 2000-10-05 | 2005-05-10 | Siemens Corporate Research, Inc. | Augmented reality visualization device |
US8316450B2 (en) * | 2000-10-10 | 2012-11-20 | Addn Click, Inc. | System for inserting/overlaying markers, data packets and objects relative to viewable content and enabling live social networking, N-dimensional virtual environments and/or other value derivable from the content |
JP2002157607A (ja) | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
CA2362895A1 (en) | 2001-06-26 | 2002-12-26 | Steve Mann | Smart sunglasses or computer information display built into eyewear having ordinary appearance, possibly with sight license |
DE10132872B4 (de) | 2001-07-06 | 2018-10-11 | Volkswagen Ag | Kopfmontiertes optisches Durchsichtssystem |
US7071897B2 (en) * | 2001-07-18 | 2006-07-04 | Hewlett-Packard Development Company, L.P. | Immersive augmentation for display systems |
US7452279B2 (en) | 2001-08-09 | 2008-11-18 | Kabushiki Kaisha Sega | Recording medium of game program and game device using card |
US20030030597A1 (en) | 2001-08-13 | 2003-02-13 | Geist Richard Edwin | Virtual display apparatus for mobile activities |
US20030179249A1 (en) * | 2002-02-12 | 2003-09-25 | Frank Sauer | User interface for three-dimensional data sets |
US6917370B2 (en) | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
CA2388766A1 (en) | 2002-06-17 | 2003-12-17 | Steve Mann | Eyeglass frames based computer display or eyeglasses with operationally, actually, or computationally, transparent frames |
US6943754B2 (en) | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
WO2004042662A1 (en) | 2002-10-15 | 2004-05-21 | University Of Southern California | Augmented virtual environments |
US7793801B2 (en) | 2002-11-18 | 2010-09-14 | David Carl Drummond | Positive pressure liquid transfer and removal system configured for operation by a hand and by a foot |
US7347551B2 (en) | 2003-02-13 | 2008-03-25 | Fergason Patent Properties, Llc | Optical system for monitoring eye movement |
US7500747B2 (en) | 2003-10-09 | 2009-03-10 | Ipventure, Inc. | Eyeglasses with electrical components |
JP2005061931A (ja) * | 2003-08-11 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 3次元形状の復元方法及びその装置並びに3次元形状の復元プログラム |
US7546343B2 (en) * | 2003-09-23 | 2009-06-09 | Alcatel-Lucent Usa Inc. | System and method for supporting virtual conferences |
JP2005165778A (ja) | 2003-12-03 | 2005-06-23 | Canon Inc | 頭部装着型表示装置、及びその制御方法 |
RU2339083C2 (ru) * | 2003-12-19 | 2008-11-20 | ТиДиВижн Корпорейшн Эс.Эй.ДЕ Си.Ви | Система трехмерной видеоигры |
JP4841250B2 (ja) | 2003-12-19 | 2011-12-21 | ティディヴィジョン コーポレイション エス.エー. デ シー.ヴィ. | 3dビデオゲーム・システム |
CN102068237A (zh) | 2004-04-01 | 2011-05-25 | 威廉·C·托奇 | 监控眼睛运动的系统及方法、控制计算装置的系统及方法 |
US20050289590A1 (en) | 2004-05-28 | 2005-12-29 | Cheok Adrian D | Marketing platform |
JP4677269B2 (ja) * | 2005-04-08 | 2011-04-27 | キヤノン株式会社 | 情報処理方法およびシステム |
US7403268B2 (en) | 2005-02-11 | 2008-07-22 | Deltasphere, Inc. | Method and apparatus for determining the geometric correspondence between multiple 3D rangefinder data sets |
US7642989B2 (en) * | 2005-03-17 | 2010-01-05 | Massachusetts Institute Of Technology | System for and method of motion and force synchronization with time delay reduction in multi-user shared virtual environments |
JP4738870B2 (ja) * | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US9658473B2 (en) | 2005-10-07 | 2017-05-23 | Percept Technologies Inc | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
US7739339B2 (en) * | 2006-06-28 | 2010-06-15 | The Boeing Company | System and method of communications within a virtual environment |
US9205329B2 (en) * | 2006-07-25 | 2015-12-08 | Mga Entertainment, Inc. | Virtual world electronic game |
US8010474B1 (en) * | 2006-09-05 | 2011-08-30 | Aol Inc. | Translating paralinguisitic indicators |
US8726195B2 (en) * | 2006-09-05 | 2014-05-13 | Aol Inc. | Enabling an IM user to navigate a virtual world |
US8012023B2 (en) | 2006-09-28 | 2011-09-06 | Microsoft Corporation | Virtual entertainment |
JP2008108246A (ja) * | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム |
CN101005514A (zh) * | 2006-12-27 | 2007-07-25 | 北京航空航天大学 | 用于网络游戏的多服务器组织方法 |
JP5309448B2 (ja) * | 2007-01-26 | 2013-10-09 | ソニー株式会社 | 表示装置、表示方法 |
US8135018B1 (en) * | 2007-03-29 | 2012-03-13 | Qurio Holdings, Inc. | Message propagation in a distributed virtual world |
US8601386B2 (en) * | 2007-04-20 | 2013-12-03 | Ingenio Llc | Methods and systems to facilitate real time communications in virtual reality |
US8433656B1 (en) * | 2007-06-13 | 2013-04-30 | Qurio Holdings, Inc. | Group licenses for virtual objects in a distributed virtual world |
US20090054084A1 (en) | 2007-08-24 | 2009-02-26 | Motorola, Inc. | Mobile virtual and augmented reality system |
US9111285B2 (en) * | 2007-08-27 | 2015-08-18 | Qurio Holdings, Inc. | System and method for representing content, user presence and interaction within virtual world advertising environments |
US20090083051A1 (en) * | 2007-09-26 | 2009-03-26 | Bokor Brian R | Interactive Self-Contained Business Transaction Virtual Object Generation |
US7792801B2 (en) | 2007-10-12 | 2010-09-07 | International Business Machines Corporation | Controlling and using virtual universe wish lists |
JP4950834B2 (ja) | 2007-10-19 | 2012-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20090109240A1 (en) | 2007-10-24 | 2009-04-30 | Roman Englert | Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment |
US8231465B2 (en) | 2008-02-21 | 2012-07-31 | Palo Alto Research Center Incorporated | Location-aware mixed-reality gaming platform |
US20090232355A1 (en) | 2008-03-12 | 2009-09-17 | Harris Corporation | Registration of 3d point cloud data using eigenanalysis |
US8756530B2 (en) | 2008-05-27 | 2014-06-17 | International Business Machines Corporation | Generation and synchronization of offline 3D virtual world content |
CN101359432B (zh) * | 2008-09-02 | 2011-01-19 | 浙江理工大学 | 交互式三维虚拟物流仿真集成方法及系统 |
EP2163284A1 (en) * | 2008-09-02 | 2010-03-17 | Zero Point Holding A/S | Integration of audio input to a software application |
JP5094663B2 (ja) * | 2008-09-24 | 2012-12-12 | キヤノン株式会社 | 位置姿勢推定用モデル生成装置、位置姿勢算出装置、画像処理装置及びそれらの方法 |
US9480919B2 (en) | 2008-10-24 | 2016-11-01 | Excalibur Ip, Llc | Reconfiguring reality using a reality overlay device |
US20100162121A1 (en) * | 2008-12-22 | 2010-06-24 | Nortel Networks Limited | Dynamic customization of a virtual world |
JP2010169976A (ja) * | 2009-01-23 | 2010-08-05 | Sony Corp | 空間像表示装置 |
CN101539804A (zh) * | 2009-03-11 | 2009-09-23 | 上海大学 | 基于增强虚拟现实与异型屏的实时人机互动方法及系统 |
JP2010217719A (ja) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | 装着型表示装置、その制御方法及びプログラム |
JP5178607B2 (ja) | 2009-03-31 | 2013-04-10 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、口形状制御方法及び口形状制御装置 |
CN101923462A (zh) * | 2009-06-10 | 2010-12-22 | 成都如临其境创意科技有限公司 | 一种基于FlashVR的三维微型场景网络发布引擎 |
US20100325154A1 (en) * | 2009-06-22 | 2010-12-23 | Nokia Corporation | Method and apparatus for a virtual image world |
US8966380B2 (en) * | 2009-07-21 | 2015-02-24 | UnisFair, Ltd. | Apparatus and method for a virtual environment center and venues thereof |
US8939840B2 (en) * | 2009-07-29 | 2015-01-27 | Disney Enterprises, Inc. | System and method for playsets using tracked objects and corresponding virtual worlds |
US20110165939A1 (en) * | 2010-01-05 | 2011-07-07 | Ganz | Method and system for providing a 3d activity in a virtual presentation |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8890946B2 (en) | 2010-03-01 | 2014-11-18 | Eyefluence, Inc. | Systems and methods for spatially controlled scene illumination |
KR101208911B1 (ko) * | 2010-06-24 | 2012-12-06 | 전자부품연구원 | 가상 세계 운용 시스템 및 운용 방법 |
US8531355B2 (en) | 2010-07-23 | 2013-09-10 | Gregory A. Maltz | Unitized, vision-controlled, wireless eyeglass transceiver |
US8941559B2 (en) * | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US8661354B2 (en) | 2010-09-24 | 2014-02-25 | Nokia Corporation | Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices |
US8764571B2 (en) | 2010-09-24 | 2014-07-01 | Nokia Corporation | Methods, apparatuses and computer program products for using near field communication to implement games and applications on devices |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9348141B2 (en) | 2010-10-27 | 2016-05-24 | Microsoft Technology Licensing, Llc | Low-latency fusing of virtual and real content |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8620730B2 (en) * | 2010-12-15 | 2013-12-31 | International Business Machines Corporation | Promoting products in a virtual world |
US9538156B2 (en) * | 2011-01-31 | 2017-01-03 | Cast Group Of Companies Inc. | System and method for providing 3D sound |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
CA2835120C (en) | 2011-05-06 | 2019-05-28 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US8692738B2 (en) * | 2011-06-10 | 2014-04-08 | Disney Enterprises, Inc. | Advanced Pepper's ghost projection system with a multiview and multiplanar display |
US20130050499A1 (en) * | 2011-08-30 | 2013-02-28 | Qualcomm Incorporated | Indirect tracking |
US9323325B2 (en) | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US20130063429A1 (en) | 2011-09-08 | 2013-03-14 | Parham Sina | System and method for distributing three-dimensional virtual world data |
US20130077147A1 (en) | 2011-09-22 | 2013-03-28 | Los Alamos National Security, Llc | Method for producing a partially coherent beam with fast pattern update rates |
US9286711B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
CA3207408A1 (en) | 2011-10-28 | 2013-06-13 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US8611015B2 (en) | 2011-11-22 | 2013-12-17 | Google Inc. | User interface |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US9182815B2 (en) * | 2011-12-07 | 2015-11-10 | Microsoft Technology Licensing, Llc | Making static printed content dynamic with virtual data |
US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
US8638498B2 (en) | 2012-01-04 | 2014-01-28 | David D. Bohn | Eyebox adjustment for interpupillary distance |
US9274338B2 (en) | 2012-03-21 | 2016-03-01 | Microsoft Technology Licensing, Llc | Increasing field of view of reflective waveguide |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
CN104903818B (zh) | 2012-12-06 | 2018-12-14 | 谷歌有限责任公司 | 眼睛跟踪佩戴式设备和使用方法 |
EP2951811A4 (en) | 2013-01-03 | 2016-08-17 | Meta Co | DIGITAL EYES FOR EXTRAMISSIVE SPATIAL IMAGING, PROCESSES AND SYSTEMS FOR VIRTUAL OR ENLARGED VISIBILITY, MANIPULATION, PRODUCTION OR INTERACTION WITH OBJECTS, MATERIALS, OR OTHER UNITS |
US20140195918A1 (en) | 2013-01-07 | 2014-07-10 | Steven Friedlander | Eye tracking user interface |
IL240822B (en) | 2014-09-23 | 2020-03-31 | Heidelberger Druckmasch Ag | Sheet feeding device |
GB2570298A (en) * | 2018-01-17 | 2019-07-24 | Nokia Technologies Oy | Providing virtual content based on user context |
-
2012
- 2012-10-29 CA CA3207408A patent/CA3207408A1/en active Pending
- 2012-10-29 CN CN201610908994.6A patent/CN106484115B/zh active Active
- 2012-10-29 KR KR1020147014448A patent/KR101944846B1/ko active IP Right Grant
- 2012-10-29 KR KR1020197002451A patent/KR102005106B1/ko active IP Right Grant
- 2012-10-29 EP EP12855344.3A patent/EP2771877B1/en active Active
- 2012-10-29 EP EP19219608.7A patent/EP3666352B1/en active Active
- 2012-10-29 BR BR112014010230A patent/BR112014010230A8/pt not_active Application Discontinuation
- 2012-10-29 RU RU2017115669A patent/RU2017115669A/ru not_active Application Discontinuation
- 2012-10-29 EP EP24180270.1A patent/EP4404537A3/en active Pending
- 2012-10-29 AU AU2012348348A patent/AU2012348348B2/en active Active
- 2012-10-29 CA CA3164530A patent/CA3164530C/en active Active
- 2012-10-29 JP JP2014539132A patent/JP6110866B2/ja active Active
- 2012-10-29 CA CA3048647A patent/CA3048647C/en active Active
- 2012-10-29 KR KR1020187022042A patent/KR101917630B1/ko active IP Right Grant
- 2012-10-29 KR KR1020177030368A patent/KR101964223B1/ko active IP Right Grant
- 2012-10-29 RU RU2014121402A patent/RU2621633C2/ru not_active IP Right Cessation
- 2012-10-29 EP EP18182118.2A patent/EP3404894B1/en active Active
- 2012-10-29 CN CN201280064922.8A patent/CN104011788B/zh active Active
- 2012-10-29 WO PCT/US2012/062500 patent/WO2013085639A1/en active Application Filing
- 2012-10-29 CA CA2853787A patent/CA2853787C/en active Active
- 2012-10-29 EP EP21206447.1A patent/EP3974041B1/en active Active
- 2012-10-29 EP EP17184948.2A patent/EP3258671B1/en active Active
- 2012-10-29 US US13/663,466 patent/US9215293B2/en active Active
-
2014
- 2014-04-28 IL IL232281A patent/IL232281B/en active IP Right Grant
- 2014-05-01 IN IN3300CHN2014 patent/IN2014CN03300A/en unknown
- 2014-10-14 US US14/514,115 patent/US20150032823A1/en not_active Abandoned
-
2015
- 2015-12-10 US US14/965,169 patent/US20160100034A1/en not_active Abandoned
-
2016
- 2016-08-16 US US15/238,657 patent/US10021149B2/en active Active
-
2017
- 2017-01-18 JP JP2017006418A patent/JP6345282B2/ja active Active
- 2017-02-16 AU AU2017201063A patent/AU2017201063B2/en active Active
-
2018
- 2018-02-01 IL IL257309A patent/IL257309A/en active IP Right Grant
- 2018-03-13 US US15/920,201 patent/US20180205773A1/en not_active Abandoned
- 2018-04-16 JP JP2018078515A patent/JP6657289B2/ja active Active
- 2018-07-30 IL IL260879A patent/IL260879B/en active IP Right Grant
-
2019
- 2019-01-29 US US16/261,352 patent/US10469546B2/en active Active
- 2019-02-11 IL IL264777A patent/IL264777B/en active IP Right Grant
- 2019-02-28 AU AU2019201411A patent/AU2019201411A1/en not_active Abandoned
- 2019-09-19 JP JP2019170240A patent/JP6792039B2/ja active Active
- 2019-10-07 US US16/594,655 patent/US10637897B2/en active Active
- 2019-10-21 US US16/659,415 patent/US10587659B2/en active Active
- 2019-11-04 US US16/673,880 patent/US10594747B1/en active Active
- 2019-12-18 US US16/719,823 patent/US10841347B2/en active Active
-
2020
- 2020-01-24 US US16/752,577 patent/US10862930B2/en active Active
- 2020-02-04 IL IL272459A patent/IL272459B/en active IP Right Grant
- 2020-10-28 US US17/083,255 patent/US11082462B2/en active Active
- 2020-11-05 JP JP2020185126A patent/JP7246352B2/ja active Active
-
2021
- 2021-01-13 AU AU2021200177A patent/AU2021200177A1/en not_active Abandoned
- 2021-06-29 US US17/362,841 patent/US11601484B2/en active Active
- 2021-12-29 JP JP2021215381A patent/JP7348261B2/ja active Active
-
2023
- 2023-01-23 AU AU2023200357A patent/AU2023200357B2/en active Active
- 2023-02-01 US US18/163,195 patent/US12095833B2/en active Active
- 2023-09-07 JP JP2023145375A patent/JP2023171762A/ja active Pending
-
2024
- 2024-05-24 AU AU2024203489A patent/AU2024203489A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182331A (ja) | 2003-12-18 | 2005-07-07 | Sony Corp | 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体 |
US20080024594A1 (en) * | 2004-05-19 | 2008-01-31 | Ritchey Kurtis J | Panoramic image-based virtual reality/telepresence audio-visual system and method |
US20090189974A1 (en) | 2008-01-23 | 2009-07-30 | Deering Michael F | Systems Using Eye Mounted Displays |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2023200357B2 (en) | System and method for augmented and virtual reality | |
KR102516124B1 (ko) | 증강 및 가상 현실을 위한 시스템 및 방법 | |
NZ764226B2 (en) | System and method for augmented and virtual reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |