RU2771098C2 - Системы и способы для многослойных виртуальных элементов в окружении парка развлечений - Google Patents
Системы и способы для многослойных виртуальных элементов в окружении парка развлечений Download PDFInfo
- Publication number
- RU2771098C2 RU2771098C2 RU2019131372A RU2019131372A RU2771098C2 RU 2771098 C2 RU2771098 C2 RU 2771098C2 RU 2019131372 A RU2019131372 A RU 2019131372A RU 2019131372 A RU2019131372 A RU 2019131372A RU 2771098 C2 RU2771098 C2 RU 2771098C2
- Authority
- RU
- Russia
- Prior art keywords
- display
- virtual
- layer
- elements
- virtual elements
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims abstract description 131
- 230000003190 augmentative effect Effects 0.000 claims abstract description 76
- 230000000694 effects Effects 0.000 claims abstract description 20
- 238000012800 visualization Methods 0.000 claims description 19
- 238000009877 rendering Methods 0.000 claims description 16
- 238000004891 communication Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 4
- 239000007787 solid Substances 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 7
- 239000000126 substance Substances 0.000 abstract 1
- 239000011521 glass Substances 0.000 description 40
- 238000012545 processing Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 6
- 230000000295 complement effect Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000000977 initiatory effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000029058 respiratory gaseous exchange Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 239000002250 absorbent Substances 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 235000013601 eggs Nutrition 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000008674 spewing Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
- A63F13/245—Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
- A63F13/355—Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/837—Shooting of targets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/843—Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G21/00—Chutes; Helter-skelters
- A63G21/04—Chutes; Helter-skelters with fixed rails
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G21/00—Chutes; Helter-skelters
- A63G21/06—Chutes; Helter-skelters with passing arrangements for cars
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G27/00—Russian swings; Great wheels, e.g. Ferris wheels
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G7/00—Up-and-down hill tracks; Switchbacks
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
- A63F2300/6653—Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0145—Head-up displays characterised by optical features creating an intermediate image
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/024—Multi-user, collaborative environment
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Television Signal Processing For Recording (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Motorcycle And Bicycle Frame (AREA)
Abstract
Система (10) для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю включает в себя первый дисплей (30, 32) и второй дисплей (82). Пользователь просматривает окружение реального мира через первый дисплей (30, 32) и второй дисплей (82). Система 10 включает в себя носимое устройство (14) визуализации, которое включает в себя первый дисплей (30, 32), и неподвижное устройство (80) визуализации, которое включает в себя второй дисплей (82). Первый дисплей (30, 32) конфигурируется, чтобы отображать первый слой виртуальных элементов, а второй дисплей (82) конфигурируется, чтобы отображать второй слой виртуальных элементов. Система (10) включает в себя процессор (26), сконфигурированный, чтобы формировать первый слой виртуальных элементов и второй слой виртуальных элементов. Процессор (26) конфигурируется, чтобы оперативно связываться с носимым устройством (14) визуализации и неподвижным устройством (80) визуализации, чтобы координировать представление первого слоя виртуальных элементов и второго слоя виртуальных элементов. 3 н. и 20 з.п. ф-лы, 7 ил.
Description
Область техники
Изобретение, описанное в данном документе, относится к системам и способам для предоставления ощущений дополненной и виртуальной реальности пользователю посредством использования носимого устройства визуализации в координации с неподвижным устройством визуализации.
Уровень техники
Парки развлечений и/или тематические парки могут включать в себя различные развлекательные аттракционы, рестораны и поездки, полезные в предоставлении удовольствия гостям (например, семьям и/или людям всех возрастов) парка развлечений. Области парка развлечений могут иметь различные темы, которые специально нацелены на некоторую аудиторию. Например, некоторые области могут включать в себя темы, которые являются традиционно интересными детям, в то время как другие области могут включать в себя темы, которые являются традиционно интересными более зрелой аудитории. Как правило, местоположения, имеющие темы, ассоциированные с таким парком развлечений, могут называться аттракционом или тематическим аттракционом.
Тематические аттракционы могут быть установлены с помощью неподвижного оборудования, компоновок зданий, реквизита, декораций и т.д., большая часть которого может, в целом, относиться к некоторой теме. В ситуациях, когда другая тема должна быть установлена в том же самом месте, отличительные элементы, ассоциированные со старой темой, могут быть заменены элементами, ассоциированными с более новой темой. В зависимости от сложности темы местоположения это может оказаться очень трудным и затратным по времени, поскольку декорации, мебель, оборудование, реквизит и т.д. могут быть удалены или заменены. Действительно, для некоторых типов аттракционов, относительно сложные темы стали более обычными, чтобы обеспечивать гостям более глубокие ощущения.
Теперь признано, что желательно включать аттракционы, где можно изменять темы аттракционов, или включать или удалять некоторые тематические отличительные признаки в таких аттракционах гибким и эффективным образом относительно традиционных технологий. Также теперь признано, что желательно улучшать иммерсивное восприятие гостей для таких аттракционов и обеспечивать более персонализированное или сугубо индивидуальное восприятие для гостей.
Сущность изобретения
Сущность некоторых вариантов осуществления, описанных в данном документе, излагается ниже. Следует понимать, что эти аспекты представляются просто, чтобы предоставлять читателю краткую сущность этих некоторых вариантов осуществления, и что эти аспекты не предназначены, чтобы ограничивать рамки этого описания. В действительности, это описание может охватывать множество аспектов, которые могут не быть изложены ниже.
В одном варианте осуществления система для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю включает в себя первый дисплей и второй дисплей. Пользователь просматривает окружение реального мира через первый дисплей и второй дисплей. Система включает в себя носимое устройство визуализации, которое включает в себя первый дисплей, и неподвижное устройство визуализации, которое включает в себя второй дисплей. Первый дисплей конфигурируется, чтобы отображать первый слой виртуальных элементов, а второй дисплей конфигурируется, чтобы отображать второй слой виртуальных элементов. Система включает в себя процессор, сконфигурированный, чтобы формировать первый слой виртуальных элементов и второй слой виртуальных элементов. Процессор конфигурируется, чтобы оперативно связываться с носимым устройством визуализации и неподвижным устройством визуализации, чтобы координировать представление первого слоя виртуальных элементов и второго слоя виртуальных элементов.
В одном варианте осуществления система для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю включает в себя транспортное средство для катания пассажиров, неподвижное устройство визуализации и процессор. Транспортное средство для катания пассажиров конфигурируется, чтобы двигаться по пути или треку во время поездки в парке развлечений. Неподвижное устройство визуализации включает в себя прозрачный дисплей, соединенный с транспортным средством для катания пассажиров. Неподвижное устройство визуализации конфигурируется, чтобы накладывать виртуальные элементы на окружение реального мира, которое является видимым сквозь прозрачный дисплей. Процессор конфигурируется, чтобы формировать виртуальные элементы и координировать представление виртуальных элементов с эффектами поездки для поездки.
В одном варианте осуществления способ для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю включает в себя формирование первого слоя виртуальных элементов и второго слоя виртуальных элементов с помощью процессора. Способ также включает в себя отображение в первое время отображения, в ответ на инструкции от процессора, первого слоя виртуальных элементов на первом дисплее. Первый дисплей располагается в носимом устройстве визуализации. Способ дополнительно включает в себя отображение во второе время отображения, в ответ на инструкции от процессора, второго слоя виртуальных элементов на втором дисплее. Второй дисплей располагается в неподвижном устройстве визуализации, которое является физически отдельным от носимого устройства визуализации.
Различные уточнения отличительных признаков, отмеченных выше, могут быть предприняты в отношении различных аспектов настоящего изобретения. Дополнительные отличительные признаки могут также быть включены в эти различные аспекты равным образом. Эти уточнения и дополнительные отличительные признаки могут существовать отдельно или в каком–либо сочетании.
Краткое описание чертежей
Эти и другие признаки, аспекты и преимущества настоящего раскрытия сущности должны становиться более понятными после прочтения нижеприведенного подробного описания со ссылками на прилагаемые чертежи, при этом аналогичные номера ссылок представляют аналогичные части на всех чертежах, на которых:
Фиг 1 – иллюстрация варианта осуществления носимого устройства визуализации и системы формирования компьютерной графики, которые могут быть использованы в системе дополненной реальности (AR) или виртуальной реальности (VR), в соответствии с настоящими вариантами осуществления;
Фиг. 2 – покомпонентный вид в перспективе варианта осуществления носимого устройства визуализации с фиг. 1, в соответствии с настоящими вариантами осуществления;
Фиг. 3 – покомпонентный вид в перспективе варианта осуществления носимого устройства визуализации с фиг. 1, в соответствии с настоящими вариантами осуществления;
Фиг. 4 - иллюстрация неподвижного устройства визуализации и носимого устройства визуализации системы дополненной реальности (AR) или виртуальной реальности (VR) с фиг. 1, которые могут быть использованы в транспортном средстве для катания пассажиров, в соответствии с настоящими вариантами осуществления;
Фиг. 5 - вид в перспективе транспортного средства для катания пассажиров с фиг. 4, показывающий вариант осуществления системы дополненной реальности (AR) или виртуальной реальности (VR), имеющей неподвижное устройство визуализации, в соответствии с настоящими вариантами осуществления;
Фиг. 6 - вид в перспективе транспортного средства для катания пассажиров с фиг. 4, показывающий вариант осуществления системы дополненной реальности (AR) или виртуальной реальности (VR), имеющей носимое устройство визуализации и неподвижное устройство визуализации, в соответствии с настоящими вариантами осуществления; и
Фиг. 7 - блок–схема последовательности операций способа работы системы дополненной реальности (AR) или виртуальной реальности (VR) с фиг. 4, в соответствии с настоящими вариантами осуществления.
Подробное описание изобретения
Один или более конкретных вариантов осуществления настоящего изобретения будут описаны ниже. Стремясь предоставить краткое описание этих вариантов осуществления, все признаки фактической реализации могут не быть описаны в спецификации. Должно быть понятно, что в разработке любой такой фактической реализации, как в каком–либо проектировании или опытно–конструкторской работе, многочисленные характерные для реализации решения должны быть выполнены, чтобы добиваться конкретных целей разработчиков, таких как согласование со связанными с системой и связанными с бизнесом ограничениями, которые могут изменяться от одной реализации к другой. Кроме того, должно быть понятно, что такая опытно–конструкторская разработка может быть сложной и занимающей время, но, тем не менее, будет установившаяся практика выполнения проекта, изготовления и производства для обычного специалиста в области техники, имеющего преимущество этого открытия.
Настоящие варианты осуществления относятся к системам и способам предоставления ощущения дополненной реальности (AR), ощущения виртуальной реальности (VR), ощущения смешанной реальности (например, сочетания AR и VR) или их сочетания, как части аттракциона, ассоциированного с парком развлечений или тематическим парком. В соответствии с настоящими вариантами осуществления, аттракционы могут необязательно быть ограничены областями парка развлечений. В действительности, аспекты настоящего изобретения могут также относиться к реализации аттракционов в местах за границами парка развлечений, например, в отеле, ассоциированном с парком развлечений, или в транспортных средствах, которые перевозят гостей в и из парка развлечений и/или отеля.
Настоящие варианты осуществления включают в себя, например, сочетания некоторых конфигураций аппаратных средств, конфигураций программного обеспечения (например, алгоритмические структуры), также как некоторые характерные особенности аттракциона, которые могут быть использованы для реализации AR, VR и/или ощущений смешанной реальности. Такие ощущения могут обеспечивать насыщенное ощущение аттракциона для гостей парка развлечений, которые могут быть сугубо индивидуальными, персонализированными и интерактивными.
Например, настоящие варианты осуществления могут включать в себя устройства просмотра, такие как носимые устройства визуализации (например, электронные очки или дисплеи, очки) и неподвижные устройства визуализации (например, прозрачные дисплеи на светоизлучающих диодах [LED], прозрачные дисплеи на органических светоизлучающих диодах [OLED]), через которые гости парка развлечений и работники могут видеть сцены AR, VR и/или смешанной реальности. Следует понимать, что неподвижные устройства визуализации, описанные в данном документе, могут быть прикреплены и/или присоединены к структуре, такой как транспортное средство для катания пассажиров, стена здания или т.п. Неподвижные устройства визуализации могут быть физически отдельными и отличными от носимых устройств визуализации. Некоторые реализации могут быть использованы, чтобы улучшать ощущения гостей, например, посредством виртуального удаления или добавления элементов в окружении, ассоциированном с парком развлечений, чтобы предоставлять регулируемые виртуальные окружения для различных ощущений в одной и той же поездке, чтобы предоставлять возможность гостю иметь ту же точку обзора, что и другому гостю, и т.д.
Некоторые аттракционы в парке развлечений могут включать в себя транспортные средства для катания пассажиров, которые могут быть специально предназначены для взаимодействия с устройствами просмотра, например, чтобы добавлять дополнительную глубину и/или реализм ощущению AR, VR или смешанной реальности. В одном варианте осуществления неподвижные устройства визуализации могут включать в себя прозрачные дисплеи. В одном варианте осуществления традиционные панели и/или окна (например, стеклянные, акриловые) салона транспортного средства для катания пассажиров могут быть заменены прозрачными дисплеями, которые могут дополнять декорации снаружи салона посредством наложения виртуальных изображений и/или видеоизображений на фрагменты или все прозрачные дисплеи (например, прозрачные LED–дисплеи, прозрачные OLED–дисплеи). Например, в одном варианте осуществления, прозрачные дисплеи могут быть использованы, чтобы отображать запотевание, когда транспортное средство для катания пассажиров проезжает мимо анимированной фигуры (например, дракона), чтобы создавать иллюзию того, что анимированная фигура дышит на транспортное средство для катания пассажиров.
Дополнительно или альтернативно, носимые устройства визуализации могут быть использованы, чтобы дополнять восприятие пассажиром окружающей обстановки. Например, носимые устройства визуализации могут создавать иллюзию того, что анимированная фигура входит в салон (например, дракон лезет внутрь или извергает огонь в салон), что может приводить в результате к более иммерсивному ощущению для гостя. Неподвижные устройства визуализации и носимые устройства визуализации могут быть сконфигурированы, чтобы работать независимо, или могут быть функционально соединены посредством контроллера (например, системы формирования компьютерной графики, одного или более процессоров), который может синхронизировать и/или координировать визуализации, отображаемые на неподвижных устройствах визуализации и носимых устройствах визуализации. Контроллер может также синхронизировать и/или координировать ощущение AR, VR и/или смешанной реальности, обеспечиваемое носимыми устройствами визуализации и/или неподвижными устройствами визуализации с внешней аниматроникой или другими элементами поездки, расположенными около пути транспортного средства для катания пассажиров.
Кроме того, некоторые данные могут быть собраны от носимых устройств визуализации, чтобы предоставлять возможность более эффективного использования вычислительной мощности и/или других ресурсов, для адресной рекламы, предоставлять редкие виртуальные элементы (например, "пасхальные яйца"), для инициирования эффектов или корректировки шоу, и т.д. Например, система управления поездкой может определять, посмотрел ли пассажир, носящий носимое устройство визуализации, в некотором направлении (например, чтобы взглянуть на виртуальное изображение на неподвижном устройстве визуализации), перед инициированием перемещения поездки или инициированием других изменений (например, изменения виртуального изображения на неподвижном устройстве визуализации). Данные визуализации сотрудников могут также собираться. Например, система управления поездкой может определять, взглянул ли сотрудник, управляющий поездкой, в некотором направлении (например, чтобы подтверждать, что гости не начали поездку) перед инициированием перемещения поездки. Устройства визуализации могут также быть использованы, чтобы функционировать в качестве индикации на лобовом стекле (HUD) оператора поездки.
Чтобы помочь иллюстрации, фиг. 1 изображает вариант осуществления AR/VR–системы 10, сконфигурированной, чтобы предоставлять возможность пользователю 12 (например, гостю, сотруднику парка развлечений) ощущать (например, просматривать, взаимодействовать) управляемые сцены AR, VR и/или смешанной реальности. В соответствии с некоторыми вариантами осуществления, пользователь 12 может покупать или иначе обеспечиваться носимым устройством 14 визуализации, которое может, в некоторых вариантах осуществления, включать в себя электронные очки 16 (например, AR/VR–очки, дисплейные очки). Как описано более подробно ниже, носимое устройство 14 визуализации может включать в себя носимый фрагмент 18, иллюстрированный как повязка на голове, сконфигурированная, чтобы размещать, по меньшей мере, фрагмент электронных очков 16.
Носимое устройство 14 визуализации может быть использовано отдельно или в сочетании с другими элементами, чтобы создавать сюрреалистическое окружение 20, которое может включать в себя AR–ощущение, VR–ощущение, ощущение смешанной реальности, ощущение созданной при помощи компьютера реальности, их сочетание или другое аналогичное сюрреалистическое окружение для пользователя 12. В частности, носимое устройство 14 визуализации может быть надето пользователем 12 на протяжении всей поездки (например, в транспортном средстве для катания пассажиров) или в другой предварительно определенный момент, такой как во время игры, на входе конкретной области парка развлечений, во время поездки в отель, ассоциированный с парком развлечений, в отеле, и т.д.
В одном варианте осуществления носимое устройство 14 визуализации может включать в себя устройство, в котором некоторые виртуальные элементы могут быть наложены на прозрачную поверхность (например, очки), или может включать в себя устройство, в котором виртуальные элементы накладываются на видеоизображение практически в реальном времени, или их сочетание (например, носимое устройство 14 визуализации может быть приспособлено для переключения между прозрачной и непрозрачной визуализацией пользователя 12). В одном варианте осуществления носимое устройство 14 визуализации может включать в себя элементы, такие как элементы проецирования света, сконфигурированные, чтобы проецировать свет в один или оба глаза пользователя 12, так что виртуальные элементы накладываются поверх объектов реального мира. Такое носимое устройство 14 визуализации может считаться содержащим дисплей с проецированием на сетчатку глаза.
Таким образом, в одном варианте осуществления, пользователь 12 может просматривать окружение реального мира через практически прозрачный комплект электронных очков 16, с некоторыми виртуальными элементами, наложенными на поверхность электронных очков 16 (или глаза пользователя 12), так что пользователь 12 воспринимает, что виртуальные элементы объединены в физическое окружение. В одном варианте осуществления пользователь 12 может просматривать видеоизображение реального времени физического окружения, имеющее наложенные виртуальные элементы.
В одном варианте осуществления, при ношении носимого устройства 14 визуализации, пользователь 12 может чувствовать себя полностью охваченным сюрреалистическим окружением 20 и может воспринимать сюрреалистическое окружение 20 как физическое окружение реального мира, которое включает в себя конкретные виртуальные элементы. В частности, в одном варианте осуществления, носимое устройство 14 визуализации может полностью управлять просмотром пользователя 12 (например, с помощью непрозрачных поверхностей просмотра), так что сюрреалистическое окружение 20 может быть видеоизображением в реальном времени, включающим в себя изображения 22 реального мира для физического окружения, электронным образом объединенные с одним или более изображениями 24 дополненной или виртуальной реальности (например, виртуальными дополнениями).
Изображения 22 реального мира, в целом, предоставляют то, что пользователь 12 будет видеть, даже когда не носит носимое устройство 14 визуализации. Термин "в реальном времени" указывает, что изображения получаются и/или предоставляются во временных рамках, практически близким к времени фактического наблюдения. Более конкретно, в других вариантах осуществления, носимое устройство 14 визуализации может лишь частично управлять обзором пользователя 12 (например, с помощью прозрачных поверхностей просмотра), так что сюрреалистическое окружение 20 является фактическим физическим окружением с изображениями 24 дополненной или виртуальной реальности, наложенными на прозрачные поверхности, или в глаза пользователя 12. В соответствии с дополнительными вариантами осуществления настоящего изобретения изображения 24 дополнительной и виртуальной реальности могут функционировать, чтобы накладывать объект реального мира, так что объект выглядит больше не присутствующим или удаленным (например, объект реального мира полностью или частично загораживается виртуальным объектом или представлением виртуального окружения).
В одном варианте осуществления, и как иллюстрировано в фрагменте разреза носимого устройства 14 визуализации, чтобы поддерживать создание аспектов сюрреалистического окружения 20, носимое устройство 14 визуализации может включать в себя схему 25 обработки, такую как процессор 26 и память 28. Процессор 26 может быть функционально соединен с памятью 28, чтобы исполнять инструкции для выполнения описываемых в настоящее время технологий, например, формирующие изображения 22 реального мира и/или одно или более изображений 24 дополненной или виртуальной реальности (например, виртуальные элементы или изображения). Эти инструкции могут быть закодированы в программах или коде, сохраненном на материальном энергонезависимом компьютерно–читаемом носителе, таком как память 28 и/или другое запоминающее устройство. Процессор 26 может быть процессором общего назначения, устройством с системой на кристалле (SoC), специализированной интегральной схемой (ASIC) или некоторой другой аналогичной конфигурацией процессора. Вместе, память 28 и процессор 26 могут формировать всю или часть AR/VR–системы 10.
В одном варианте осуществления, как дополнительно иллюстрировано, носимое устройство 14 визуализации может также включать в себя пару дисплеев 30 и 32 (например, которые могут быть предоставлены в оправе перед носимым устройством 14 визуализации, где в ином случае находились бы линзы очков), соответственно соответствующих каждому глазу пользователя 12. В одном варианте осуществления может быть применен объединенный дисплей. Соответствующие дисплеи 30 и 32 могут, каждый, включать в себя, в качестве неограничивающего примера, прозрачные линзы, на которые могут накладываться изображения 24 дополненной или виртуальной реальности. В одном варианте осуществления дисплеи 30 и 32 могут быть поверхностями отображения и могут включать в себя элементы (например, схемы, светоизлучатели), расположенные рядом со своими соответствующими периферийными устройствами, сконфигурированными, чтобы накладывать изображения 24 дополненной или виртуальной реальности.
Дополнительно или альтернативно, дисплеи 30 и 32 могут включать в себя непрозрачный жидкокристаллический дисплей (LCD), непрозрачный дисплей на органических светоизлучающих диодах (OLED) или другой аналогичный дисплей, полезный в отображении изображений 22 реального мира и изображений 24 дополненной или виртуальной реальности пользователю 12. В одном варианте осуществления соответствующие дисплеи 30 и 32 могут, каждый, включать в себя прозрачный (например, видимый насквозь) LED–дисплей или прозрачный (например, видимый насквозь) OLED–дисплей, полезный в предоставлении возможности, например, пользователю 12 просматривать изображения 24 дополненной или виртуальной реальности, появляющиеся на соответствующих дисплеях 30 и 32 как наложение на фактическое и физическое окружение (например, аттракцион, ассоциированный с парком развлечений или интерьер транспортного средства для катания пассажиров). Такая конфигурация может также предоставлять возможность пользователю 12 просматривать другие слои виртуальных изображений, появляющихся на других дисплеях, как обсуждается более подробно ниже.
Камеры 34 и 36 носимого устройства 14 визуализации могут соответственно соответствовать точке обзора пользователя 12 и могут быть использованы для захвата видеоданных в реальном времени (например, живого видеоизображения) или сигналов общего освещения физического окружения. В одном варианте осуществления может быть применена единственная камера. Носимое устройство 14 визуализации может также включать в себя дополнительные камеры, чтобы отслеживать движение глаз пользователя, что может быть особенно полезным для вариантов осуществления, где виртуальные элементы проецируются непосредственно на глаза пользователя 12. Элементы 38 связи (например, включающие в себя беспроводной приемопередатчик) носимого устройства 14 визуализации, могут передавать данные в реальном времени (например, видеоданные, данные отслеживания глаз), захваченные посредством соответствующих камер 34 и 36, процессору 26 и/или системе 40 формирования компьютерной графики для обработки.
Как изображено, носимое устройство 14 визуализации может быть соединено с возможностью передачи данных с системой 40 формирования компьютерной графики (например, сервером в парке развлечений) через беспроводную сеть 42 (например, беспроводные локальные вычислительные сети [WLAN], беспроводные глобальные вычислительные сети [WWAN], связь малого радиуса действия [NFC]). Однако в других вариантах осуществления, видеоданные реального времени, захваченные посредством соответствующих камер 34 и 36, могут быть обработаны на носимом устройстве 14 визуализации посредством процессора 26. Дополнительно, элементы 38 связи (например, беспроводной приемопередатчик, входные/выходные соединители), которые соединяются с процессором 26, могут предоставлять возможность микропрограммному обеспечению и/или программному обеспечению, включенному в процессор 26 и память 28, обновляться и/или конфигурироваться для конкретных использований. В одном варианте осуществления беспроводная сеть 42 может соединять с возможностью обмена данными все или некоторые компоненты AR/VR–системы 10.
Другие элементы носимого устройства 14 визуализации могут передавать данные об ориентации, позиционные данные, данные о точке обзора (например, фокусное расстояние, ориентацию, позу), данные отслеживания движения и т.д., полученные и/или произведенные на основе данных, полученных посредством датчиков носимого устройства 14 визуализации. Такие датчики могут включать в себя датчики ориентации и позиции (например, акселерометры, магнетометры, гироскопы, приемники системы глобального позиционирования [GPS]), датчики отслеживания движения (например, электромагнитные и твердотельные датчики отслеживания движения), инерциальные измерительные блоки (IMU) и другие.
В некоторых вариантах осуществления отличительные признаки носимого устройства 14 визуализации (например, геометрические аспекты или метки) могут наблюдаться посредством системы 41 наблюдения (например, одной или более камер), чтобы определять позицию, местоположение, ориентацию и т.д. носимого устройства 14 визуализации и, в свою очередь, позицию, местоположение, ориентацию и т.д. пользователя 12. Система 41 наблюдения может быть соединена с возможностью обмена данными с системой 40 формирования компьютерной графики и использована, чтобы идентифицировать позицию, местоположение, ориентацию и т.д. пользователя 12 (или множества пользователей).
Система 40 формирования компьютерной графики включает в себя схему 43 обработки, такую как процессор 44 (например, процессор общего назначения или другой процессор) и память 46, и может обрабатывать видеоданные в реальном времени (например, живое видеоизображение), данные об ориентации и позиции, данные о точке обзора, или любое их сочетание, принятые от носимого устройства 14 визуализации и системы 41 наблюдения. В частности, система 40 формирования компьютерной графики может использовать эти данные, чтобы формировать систему координат для точного совмещения изображений 24 дополненной или виртуальной реальности с физическим окружением, например, со сформированными изображениями 22 реального мира. В частности, с помощью системы координат, сформированной на основе данных об ориентации, данных о позиции, данных о точке обзора, данных отслеживания движения и т.д., система 40 формирования графики может затем воспроизводить вид изображений 24 дополненной или виртуальной реальности, и в одном варианте осуществления изображений 22 реального мира, способом, который соответствует во времени и пространстве с тем, что пользователь 12 воспримет, если не будет носить носимое устройство 14 визуализации. Система 40 формирования графики может постоянно обновлять (например, в реальном времени) воспроизведение изображений реального мира, чтобы отражать изменение в соответствующей ориентации, позиции и/или движении соответствующего пользователя 12. В некоторых вариантах осуществления система 40 формирования компьютерной графики может отслеживать такие данные, соответствующие множеству пользователей 12 (например, пассажирам транспортного средства для катания пассажиров), когда каждый пользователь 12 (или, по меньшей мере, некоторые пользователи 12) имеют соответствующее носимое устройство 14 визуализации.
Как изложено выше, носимое устройство 14 визуализации включает в себя несколько компонентов и, в целом, может включать в себя электронные очки 16, сконфигурированные, чтобы носиться на голове пользователя 12. Множество различных конфигураций и реализаций электронных очков 16 могут быть использованы, когда различные конфигурации могут иметь различные размеры и формы, чтобы лучше приспосабливаться к различным размерам для различных пользователей 12, также как различные инерциальные компоненты (например, элементы связи, преобразователи, дисплеи), чтобы приспосабливаться к различным реализациям.
Чтобы предоставлять дополнительную гибкость и поддержку для электронных очков 16, носимый фрагмент 18 носимого устройства 14 визуализации может принимать множество форм, например, варианты осуществления которых изображаются на фиг. 2 и 3. На фиг. 2 носимое устройство 14 визуализации включает в себя повязку на голову в качестве носимого фрагмента 18. Такой вариант осуществления носимого фрагмента 18 может включать в себя различные материалы, сконфигурированные, чтобы приспосабливаться к движению пользователя 12, в то же время обеспечивая комфорт (например, эластичные материалы, впитывающие пот материалы, подкладка) для пользователя 12. В настоящее время признается, что может быть желательным иметь отдельный носимый фрагмент 18 и электронные очки 16, чтобы предоставлять возможность стирать носимый фрагмент 18 без риска для схемы 25 обработки (фиг. 1) носимого устройства 14 визуализации. Однако, в некоторых вариантах осуществления, носимый фрагмент 18 может объединять один или более электронных компонентов схемы 25 обработки. В таких вариантах осуществления электронные компоненты в носимом фрагменте 18 могут быть практически изолированы от окружающей среды, чтобы избегать повреждения.
Вариант осуществления носимого фрагмента 18 на фиг. 2 включает в себя область 60 держателя, сконфигурированную, чтобы принимать электронные очки 16 и поддерживать позицию электронных очков 16 относительно глаз пользователя 12 (фиг. 1) во время использования. В этом отношении, область 60 держателя может, в одном варианте осуществления, включать в себя центральный фрагмент 62, закрепляемый по периметру дисплеев 30, 32 (фиг. 1) электронных очков 16, а также боковые фрагменты 64, сконфигурированные, чтобы окружать (например, частично или полностью) дужки 66 электронных очков 16.
Центральный фрагмент 62 области 60 держателя может включать в себя подушку, чтобы предоставлять возможность комфорта пользователя 12, в то время как повязка на голову обеспечивает достаточное сжимающее усилие по отношению к голове пользователя 12 (например, для поддержания позиции электронных очков 16). Центральный фрагмент 62 может, в одном варианте осуществления, включать в себя один или более материалов, имеющих коэффициент трения о кожу, который обеспечивает подходящее сочетание устойчивости и комфорта. Например, гелевые материалы, обычно используемые в носовой области электронных очков 16, могут быть подходящими.
Как иллюстрировано в варианте осуществления на фиг. 3, носимый фрагмент 18 может включать в себя другие отличительные элементы либо в дополнение к повязке на голову, либо вместо повязки на голову. Как изображено, носимый фрагмент 18 включает в себя кепку 70 для ношения поверх головы пользователя 12, также как элементы, аналогичные повязке на голову, изложенной на фиг. 2. В некоторых вариантах осуществления, и как показано, кепка 70 может включать в себя область 72 закрепления, где кепка 70 перекрывается с фрагментом 74 повязки на голову. Область 72 закрепления может включать в себя застегивающие механизмы, такие как застежки–"липучки", застежки–крючки, кнопки, магнитные полосы и т.д., сконфигурированные, чтобы предоставлять возможность скрепления между кепкой 70 и фрагментом 74 повязки на голову. Таким образом, кепка 70 является отделяемой от фрагмента 74 повязки на голову, что предоставляет возможность использовать их по отдельности, стирать отдельно и т.д. Фрагмент 74 повязки на голову, в одном варианте осуществления, может быть объединенным с кепкой 70 (например, пришит к кепке 70), так что фрагмент 74 повязки на голову не является легко снимаемым с кепки 70.
Иллюстрированный вариант осуществления кепки 70 включает в себя козырек 76, который служит для защиты глаз пользователя 12, также как электронных очков 16 и их ассоциированных дисплеев 30, 32 (фиг. 1) от сильных источников освещения, таких как солнце, верхнего освещения и т.д. Козырек 76 может, например, быть особенно полезен в вариантах осуществления, где дисплеи 30, 32 работают на основе оптического отражения и/или являются прозрачными или полупрозрачными. В таких вариантах осуществления козырек 76 может помогать в улучшении воспринимаемого визуального контраста изображений 24 дополненной или виртуальной реальности (фиг. 1) относительно фона физического окружения.
Иллюстрированный вариант осуществления носимого устройства 14 визуализации на фиг. 3 также включает в себя крышку 78 дисплея, сконфигурированную, чтобы помещаться над дисплеями 30, 32 (фиг. 1) электронных очков 16. Крышка 78 дисплея может обеспечивать тень для дисплеев 30, 32, чтобы защищать дисплеи 30, 32 от физического неправильного обращения, обеспечивать степень затененности для улучшенного контраста и визуализации изображений 24 дополненной или виртуальной реальности, для оптической фильтрации и т.д. Крышка 78 дисплея может включать в себя любой подходящий механизм прикрепления, такой как клипса 79, сконфигурированный, чтобы быть съемным и присоединять крышку 78 дисплея к электронным очкам 16. Могут быть использованы другие элементы закрепления, такие как крепления с временным приклеиванием и/или застежки–"липучки".
Обратимся теперь к фиг. 4, показывающему вариант осуществления AR/VR–системы 10, которая может дополнительно включать в себя неподвижное устройство 80 визуализации, которое может состоять из одного или более прозрачных дисплеев 82. Следует понимать, что неподвижное устройство 80 визуализации, описанное в данном документе, может быть прикреплено и/или присоединено к структуре, такой как транспортное средство 86 для катания пассажиров, стена здания или т.п. Неподвижное устройство 80 визуализации может быть физически отдельным и отличным от носимого устройства 14 визуализации. Неподвижное устройство 80 визуализации может быть использовано вместо, или в сочетании с, носимого устройства 14 визуализации на фиг. 1. По существу, прозрачные дисплеи 82 могут быть использованы, чтобы заменять или улучшать ощущение AR, VR или смешанной реальности, создаваемое посредством носимого устройства 14 визуализации. В одном варианте осуществления неподвижное устройство 80 визуализации может добавлять дополнительный слой элементов дополненной или виртуальной реальности, которые пользователь 12 может воспринимать.
В одном варианте осуществления прозрачные дисплеи 82 могут быть соединены с салоном 84 транспортного средства 86 для катания пассажиров. С учетом вышеупомянутого, может быть полезно сначала описать вариант осуществления установки, в котором AR/VR–система 10 может быть использована в парке 90 развлечений, как показано схематично на фиг. 4. Как иллюстрировано, парк 90 развлечений может включать в себя экстремальный аттракцион 92, комплекс сооружений 94 парка развлечений (например, игровые зоны, отели, рестораны, сувенирные магазины) и дополнительные развлекательные аттракционы 96 (например, колесо обозрения, поездку в темноте). В некоторых вариантах осуществления экстремальный аттракцион 92 может включать в себя американские горки или другой аналогичный экстремальный аттракцион 92 и может, таким образом, дополнительно включать в себя путь, такой как система замкнутых треков 98 (например, мили треков 98), которые располагаются вокруг окружающей физической обстановки 100 (например, сооружений 94 парка, дополнительных развлекательных аттракционов 96). Треки 98 могут быть предоставлены как инфраструктура, по которой транспортное средство 86 для катания пассажиров может перемещаться, например, когда пассажир 102 (например, пользователь 12 на фиг. 1) едет в экстремальном аттракционе 92. Хотя только один пассажир 102 показан в иллюстрированном варианте осуществления, транспортное средство 86 для катания пассажиров может быть сконфигурировано, чтобы размещать 1, 2, 3, 4, 5 или более пассажиров 102.
Треки 98 могут, таким образом, определять движение транспортного средства 86 для катания пассажиров. Однако, в одном варианте осуществления, треки 98 могут быть заменены управляемым путем, на котором движение транспортного средства 86 для катания пассажиров может управляться посредством электронной системы, магнитной системы или другой аналогичной инфраструктурой системы, отличной от треков 98. Другими словами, путь поездки транспортного средства 86 для катания пассажиров может не быть физически ограничен точным путем, тем самым, предоставляя пассажиру 102 некоторую степень управления над путем движения, перспективной обзора и т.д.
Когда транспортное средство 86 для катания пассажиров движется по трекам 98, пассажир 102 может обеспечиваться туром движения для физического окружения 100 в области вокруг или рядом с экстремальным аттракционом 92. Транспортное средство 86 для катания пассажиров может дополнительно перемещаться мимо роботизированных устройств (например, аниматронных фигур 97), которые могут быть сконфигурированы, чтобы имитировать человека или животное или придавать реалистичные характеристики иному неодушевленному объекту. Аниматронные фигуры 97 могут быть расположены около фрагментов трека 98 и могут быть сконфигурированы, чтобы взаимодействовать с пассажиром 102 (например, пугать и/или удивлять пассажира 102), когда транспортное средство 86 для катания пассажиров движется по трекам 98. Аниматронные фигуры 97 могут снабжаться мощностью посредством пневматики, гидравлики, электромоторов или любым другим средством, чтобы приводить в действие аниматронные фигуры 97. В то время как пассажир 102 может находить экстремальный аттракцион 92 очень доставляющим удовольствие, может быть полезным улучшать ощущение от поездки для пассажира 102. В частности, вместо необходимости физического просмотра только физического окружения 100, дополнительных развлекательных аттракционов 96 и/или аниматронных фигур 97, расположенных около треков 98, может быть полезным предоставлять пассажиру 102 дополнительное ощущение AR, VR или смешанной реальности. Это может быть сделано, когда транспортное средство 86 для катания пассажиров движется по трекам 98 экстремального аттракциона 92, посредством использования носимого устройства 14 визуализации, неподвижного устройства 80 визуализации или и того, и другого.
Фиг. 5 иллюстрирует вариант осуществления AR/VR–системы 10, в которой пассажир 102 может использовать неподвижное устройство 80 визуализации. Как изложено выше, прозрачные дисплеи 82 неподвижного устройства 80 визуализации могут быть прозрачными LED–дисплеями, прозрачными OLED–дисплеями или любыми дисплеями, подходящими для применения. Прозрачные дисплеи 82 могут быть в значительной степени и/или полностью прозрачными, когда не снабжаются энергией. По существу, в одном варианте осуществления, прозрачные дисплеи 82 могут быть объединены в фрагмент салона 84, такой как боковая панель 88, которая может создавать иллюзию обычного окна (например, стеклянного окна, акрилового окна). Дополнительно или иначе, прозрачные дисплеи 82 могут быть соединены с любым фрагментом транспортного средства 86 для катания пассажиров (например, передним, задним, крышей, полом). Таким образом, пассажир 102 может просматривать физическое окружение 100 через прозрачные дисплеи 82 (как, например, через традиционное окно). В одном варианте осуществления прозрачные дисплеи 82 могут снабжаться энергией (например, непрерывно или периодически в некоторые моменты времени), чтобы быть в значительной степени и/или полностью непрозрачными, что может создавать иллюзию того, что салон 84 полностью заключен в сплошные стены или панели (например, не имеет традиционных окон).
В одном варианте осуществления некоторые виртуальные элементы могут быть наложены на поверхность прозрачных дисплеев 82. Пассажир 102 может просматривать физическое окружение 100 по одной или более линиям взгляда 110, которые могут создаваться, когда пассажир 102 смотрит через прозрачные дисплеи 82. Прозрачные дисплеи 82 могут быть использованы, чтобы накладывать изображения 112 дополненной или виртуальной реальности на линии взгляда 110 пассажира 102. По существу, пассажир 102 может воспринимать то, что виртуальные элементы объединяются (например, физически присутствуют) в физическом окружении 100. Например, прозрачные дисплеи 82 могут лишь частично преграждать линии взгляда 110 пассажира 102 (например, с помощью прозрачных поверхностей просмотра), так что физическое окружение 100, которое пассажир 102 видит, является фактическим окружением с изображениями 112 дополненной или виртуальной реальности, наложенными на прозрачные поверхности просмотра прозрачных дисплеев 82. В одном варианте осуществления пассажир 102 может просматривать в реальном времени видеоизображение физического окружения 100, имеющего наложенные виртуальные элементы на прозрачных дисплеях 82.
В одном варианте осуществления неподвижное устройство 80 визуализации может быть функционально соединено со схемой 116 обработки, которая может быть соединена с транспортным средством 86 для катания пассажиров. Схема 116 обработки может включать в себя процессор 118 (например, процессор общего назначения или другой процессор), элементы 119 связи (например, беспроводной приемопередатчик) и память 120. Процессор 118 может быть функционально соединен с памятью 120, чтобы выполнять инструкции для выполнения описываемых в настоящее время технологий, например, формирования изображений 121 реального мира (например, видеоизображения физического окружения 100 в реальном времени) и/или изображений 112 дополненной или виртуальной реальности. Эти инструкции могут быть закодированы в программах или коде, сохраненном на материальном энергонезависимом компьютерно–читаемом носителе, таком как память 120 и/или другое запоминающее устройство. Процессор 118 может быть процессором общего назначения, устройством с системой на кристалле (SoC), специализированной интегральной схемой (ASIC) или некоторой другой аналогичной конфигурацией процессора. В одном варианте осуществления пассажир 102 может просматривать изображения 112 дополненной или виртуальной реальности и окружающую физическую среду 100 через прозрачные дисплеи 82, когда транспортное средство 86 для катания пассажиров движется по трекам 98 экстремального аттракциона 92. Схема 116 обработки может быть соединена с возможностью обмена данными с системой 40 формирования компьютерной графики (например, в парке развлечений) через элементы 119 связи и/или беспроводную сеть 42. В одном варианте осуществления схема 116 обработки может работать независимо от системы 40 формирования компьютерной графики. Как обсуждается более подробно в данном документе, неподвижное устройство 80 визуализации может быть функционально соединено с процессором 26 (фиг. 1) носимого устройства 14 визуализации (фиг. 1), таким образом, предоставляя возможность изображениям 112 дополненной или виртуальной реальности неподвижного устройства 80 визуализации синхронизироваться и/или координироваться с изображениями 24 дополненной или виртуальной реальности (фиг. 1) носимого устройства 14 визуализации.
В одном варианте осуществления видеоданные реального времени (например, живые видеоданные) могут приниматься от камер 122, соединенных с внешней стороной транспортного средства 86 для катания пассажиров. Хотя только одна камера 122 изображается в показанном варианте осуществления, транспортное средство 86 для катания пассажиров может поддерживать 1, 2, 3, 4, 5 или более камер 122, чтобы захватывать изображения 121 реального мира для физического окружения 100, окружающего транспортное средство 86 для катания пассажиров. Схема 116 обработки может обрабатывать видеоданные реального времени, чтобы формировать и отображать изображения 121 реального мира на прозрачных дисплеях 82. В одном варианте осуществления изображения 121 реального мира могут быть предварительно записаны и сохранены в памяти 120 схемы 116 обработки. Дополнительно, схема 116 обработки может собирать данные об ориентации и позиции, данные о точке обзора или любое их сочетание, принятые от камер 122 и/или дополнительного датчика 124, который может быть соединен с транспортным средством 86 для катания пассажиров. В частности, схема 116 обработки может использовать эти данные, чтобы формировать систему координат, которая может совмещать и синхронизировать и/или координировать сформированные изображения 112 дополненной или виртуальной реальности с изображениями 121 реального мира и/или физическим окружением 100, которое пассажир 102 может просматривать по линиям взгляда 110.
Например, схема 116 обработки может использовать данные, собранные камерами 122 и/или датчиками 124, чтобы формировать изображения 121 реального мира для физического окружения 100 на прозрачных дисплеях 82. В частности, с помощью системы координат, сформированной на основе данных об ориентации, данных о позиции, данных о точке обзора, данных отслеживания движения и т.д., схема 116 обработки может затем воспроизводить вид изображений 112 дополненной или виртуальной реальности, и в одном варианте осуществления изображения 121 реального мира, способом, который соответствует во времени и пространстве тому, что пассажир 102 воспримет, если будет просматривать окружающую обстановку через традиционное окно (например, стеклянное окно). Схема 116 обработки может постоянно обновлять (например, в реальном времени) воспроизведение изображений 112 дополненной или виртуальной реальности и/или изображения 121 реального мира, чтобы отражать изменение в соответствующих ориентации, позиции и/или перемещении линий взгляда 110 пассажира 102.
Дополнительно или иначе, схема 116 обработки может дополнять физическое окружение 100 или изображения 121 реального мира для физического окружения 100, чтобы улучшать ощущение поездки для пассажира 102 (например, изменять физическое окружение 100, чтобы соответствовать теме трека 98). Например, прозрачные дисплеи 82 могут воспроизводить капли дождя или снегопад, чтобы дополнять физическое окружение 100 посредством прозрачных дисплеев 82. В одном варианте осуществления прозрачные дисплеи 82 могут частично или полностью закрывать вид физического окружения 100 изображениями 112 дополненной или виртуальной реальности фиктивной настройки (например, джунгли, космическое пространство и т.д.).
Схема 116 обработки может управлять синхронизацией эффектов поездки или элементов (например, аниматронных фигур 97), которые могут взаимодействовать с пассажиром 102. В одном варианте осуществления синхронизация эффектов поездки может также управляться посредством системы 40 формирования компьютерной графики, отдельной системы 126 управления поездкой или сочетания обеих. Эффекты поездки могут быть синхронизированы и/или скоординированы с изображениями 112 дополненной или виртуальной реальности, которые отображаются на прозрачных дисплеях 82, когда транспортное средство 86 для катания пассажиров движется по трекам 98. Иммерсивное восприятие экстремального аттракциона 92 может быть улучшено для пассажира 102 посредством синхронизации и/или координации эффектов поездки с изображениями 112 дополненной или виртуальной реальности.
Эффекты поездки могут быть скоординированы, чтобы взаимодействовать с транспортным средством 86 для катания пассажиров, когда транспортное средство 86 для катания пассажиров движется по трекам 98 экстремального аттракциона 92. Например, в одном варианте осуществления, аниматронные фигуры 97 могут временно блокировать треки 98 впереди транспортного средства 86 для катания пассажиров, создавая иллюзию того, что транспортное средство 86 для катания пассажиров может столкнуться с аниматронными фигурами 97. В одном варианте осуществления аниматронная фигура 97 (например, дракон) может быть сконфигурирована, чтобы предоставлять иллюзию атаки транспортного средства 86 для катания пассажиров (например, выдыхая огонь в направлении транспортного средства 86 для катания пассажиров). В то время как пассажир 102 может находить взаимодействие с аниматронными фигурами 97 очень волнующим ощущением, в одном варианте осуществления, может быть полезным улучшать ощущение от поездки для пассажира посредством изображений 112 дополненной или виртуальной реальности, которые могут быть синхронизированы и/или скоординированы с движением аниматронных фигур 97.
Например, в одном варианте осуществления, прозрачные дисплеи 82 могут накладывать трещины 128 стекла или повреждение 130 (например, изменение цвета или обугливание от пламени) на линии взгляда 110 пассажира 102. Это может дополнительно улучшать реализм аниматронных фигур 97, воспринимаемых пассажиром 102. В одном варианте осуществления прозрачные дисплеи 82 могут накладывать запотевание 132 (например, от дышащих животных) на линии взгляда 110, которое может создавать иллюзию, в которой пассажир 102 воспринимает аниматронные фигуры 97 как находящиеся в очень непосредственной близости к транспортному средству 86 для катания пассажиров. Дополнительно или иначе, любые желаемые изображения 112 дополненной или виртуальной реальности могут быть сформированы на прозрачных дисплеях 82, которые могут улучшать реализм специальных эффектов. Например, изображения 112 дополненной или виртуальной реальности могут включать в себя разбрызгивание насекомых, повреждение градом и/или покрытие пылью, которые могут улучшать реализм экстремального аттракциона 92.
Фиг. 6 иллюстрирует вариант осуществления AR/VR–системы 10, в которой процессор 102 одновременно использует и носимое устройство 14 визуализации на фиг. 1, и неподвижное устройство 80 визуализации на фиг. 5. Как изложено выше, носимое устройство 14 визуализации может быть использовано вместе с неподвижным устройством 80 визуализации, чтобы улучшать иммерсивное ощущение AR, VR и/или смешанной реальности для пассажира 102. Например, в одном варианте осуществления, носимое устройство 14 визуализации может быть использовано, чтобы улучшать физическое окружение 100 в салоне 84 посредством наложения виртуальных элементов, таких как изображения 24 дополненной или виртуальной реальности, на глаза пассажира 102. По существу, носимое устройство 14 визуализации может создавать сюрреалистическое окружение 20 в салоне 84 транспортного средства 86 для катания пассажиров. В одном варианте осуществления прозрачные дисплеи 82 могут улучшать физическое окружение 100 снаружи салона 84 посредством наложения виртуальных элементов, таких как изображения 112 дополненной или виртуальной реальности, на линии взгляда 110 пассажира 102. Таким образом, пассажир 102 может просматривать изображения 24 дополненной или виртуальной реальности на носимом устройстве 14 визуализации и изображения 112 дополненной или виртуальной реальности на прозрачных дисплеях 82 неподвижного устройства 80 визуализации одновременно или скоординированным образом. Альтернативно, носимое устройство 14 визуализации может создавать сюрреалистическое окружение 20 снаружи салона 84 транспортного средства 86 для катания пассажиров. Таким образом, прозрачные дисплеи 82 могут накладывать виртуальные элементы на переднем плане, а носимое устройство 14 визуализации может дополнять детали на заднем плане.
В одном варианте осуществления прозрачные дисплеи 82 могут показывать окружающую среду, такую как трещины 128 стекла, повреждение 130 и/или запотевание 132, появляющиеся, чтобы воздействовать на внешнюю сторону транспортного средства 86 для катания пассажиров. В одном варианте осуществления носимое устройство 14 визуализации может дополнительно формировать иллюзию среды (например, такую как влага или запотевание 132), поступающей в салоне 84 транспортного средства 86 для катания пассажиров. Это может создавать множество слоев виртуальных элементов в AR–ощущении, VR–ощущении, ощущении смешанной реальности, ощущения созданной при помощи компьютера реальности или их сочетания. Хотя только два слоя описываются в иллюстрированном варианте осуществления, AR/VR–система 10 может быть сконфигурирована, чтобы формировать 1, 2, 3, 4 или более слоев виртуальных элементов, с которыми пассажир 102 может взаимодействовать. Например, множество прозрачных дисплеев 82 могут быть соединены с салоном 84 транспортного средства 86 для катания пассажиров в последовательных слоях (например, уложенных друг на друга), так что каждый прозрачный дисплей 82 может формировать слой виртуальных элементов.
Например, пассажир 102 может смотреть через электронные очки 16 (фиг. 1) носимого устройства 14 визуализации, которое может формировать первый слой виртуальных элементов (например, изображения 24 дополненной или виртуальной реальности). Пассажир 102 может дополнительно просматривать прозрачные дисплеи 82 неподвижного устройства 80 визуализации (например, через электронные очки 16 носимого устройства 14 визуализации), которое может создавать второй слой виртуальных элементов (например, изображения 112 дополненной или виртуальной реальности). AR/VR–система 10 может быть сконфигурирована, чтобы формировать первый слой виртуальных элементов, второй слой виртуальных элементов, дополнительный слой виртуальных элементов или любое их сочетание, чтобы создавать ощущение AR, VR и/или смешанной реальности для пассажира 102.
По существу, в одном варианте осуществления, AR/VR–система 10 может изменять окружающее физическое окружение 100 (например, парк 90 развлечений), воспринимаемое пассажиром 102 через изображения 112 дополненной или виртуальной реальности, сформированные посредством неподвижного устройства 80 визуализации, и AR/VR–система 10 может создавать сюрреалистическое окружение 20 в салоне 84 посредством использования носимого устройства 14 визуализации. В одном варианте осуществления носимое устройство 14 визуализации может дополнительно изменять окружающее физическое окружение 100 либо в сочетании с, либо вместо, прозрачными дисплеями 82.
Изображения 24 и/или 112 дополненной или виртуальной реальности носимого устройства 14 визуализации и неподвижного устройства 80 визуализации, соответственно, могут быть синхронизированы и/или скоординированы посредством процессора 26 (фиг. 1) носимого устройства 14 визуализации, процессора 44 (фиг. 1) системы 40 формирования компьютерной графики, процессора 118 неподвижного устройства 80 визуализации, дополнительного внешнего процессора (например, такого как в системе 126 управления поездкой), или любого их сочетания. Синхронизация и/или координация могут подразумевать корректировку системы координат виртуальных элементов на основе данных об ориентации, позиционных данных, данных о точке обзора, данных отслеживания движения или дополнительных данных, собранных посредством AR/VR–системы 10.
Процессоры 26, 44, 118 или любое их сочетание, могут связываться через беспроводную сеть 42 и могут дополнительно синхронизировать и/или координировать изображения 24 и/или 112 дополненной или виртуальной реальности с эффектами поездки (например, аниматронными фигурами 97). В одном варианте осуществления отдельная компьютерная система синхронизации (например, система 126 управления поездкой) может быть использована для синхронизации и/или координации изображений 24 и/или 112 дополненной или виртуальной реальности и эффектов поездки.
В одном варианте осуществления схема 116 обработки неподвижного устройства 80 визуализации может освобождать долю мощности обработки, которая может потребоваться схеме 25 обработки (фиг. 1) носимого устройства 14 визуализации. Схема 116 обработки неподвижного устройства 80 визуализации может иметь меньшие пространственные ограничения по сравнению со схемой 25 обработки носимого устройства 14 визуализации. Это может предоставлять возможность схеме 116 обработки неподвижного устройства 80 визуализации реализовывать больший и/или более мощный процессор 118. По существу, прозрачные дисплеи 82 могут формировать и отображать большинство изображений 112 дополненной или виртуальной реальности, требуемых во время экстремального аттракциона 92, в то время как носимое устройство 14 визуализации может формировать лишь меньшие детали (например, создавать сюрреалистическое окружение 20 в салоне 84).
Кроме того, неподвижное устройство 80 визуализации может воспроизводить некоторые виртуальные элементы более эффективно по сравнению с носимым устройством 14 визуализации. Например, может быть желательным создавать иллюзию того, что аниматронная фигура 97 придает отличительный элемент 136 (например, пробивает дыру) окну салона 84 транспортного средства 86 для катания пассажиров, как часть спецэффекта экстремального аттракциона 92. В одном варианте осуществления неподвижное устройство 80 визуализации может быть использовано, чтобы создавать иллюзию того, что отличительный элемент 136 был придан окну (например, прозрачному дисплею 82) салона 84. Для того, чтобы такие элементы 136 предоставлялись посредством носимого устройства 14 визуализации, носимое устройство 14 визуализации может нуждаться в постоянном приеме изображений 22 реального мира и обновлении позиции элемента 136 на электронных очках 16, что может требовать существенной мощности обработки. Например, для того, чтобы гарантировать, что элемент 136 остается неподвижным (например, дыра не перемещается относительно окна салона 84), когда точка обзора пассажира 102 изменяется (например, пассажир 102 поворачивается или перемещается относительно окна), носимое устройство 14 визуализации может нуждаться в постоянном приеме изображений 22 реального мира и/или обновлении позиции элемента 136 на электронных очках 16. В таких случаях, предоставление элемента 136 посредством неподвижного устройства 80 визуализации может быть более эффективным.
В одном варианте осуществления AR/VR–система 10 может вместо этого предоставлять элемент 136 на прозрачном дисплее 82. В одном варианте осуществления AR/VR–система 10 может использовать электронные очки 16, чтобы накладывать изображения 24 дополненной или виртуальной реальности для деталей, которые могут быть связаны с элементом 136 (например, осколок стекла, происходящий из дыры в окне), на глаза пассажира 102, так что детали могут появляться в соответствующей позиции относительно элемента 136. По существу, в одном варианте осуществления, носимое устройство 14 визуализации может формировать лишь меньшие изображения 24 дополненной или виртуальной реальности (например, детали, такие как осколок стекла), в то время как неподвижное устройство 80 визуализации может формировать большинство изображений 112 дополненной или виртуальной реальности, включающих в себя элементы, которые остаются неподвижными относительно транспортного средства 86 для катания пассажиров (например, элементы 136, такие как дыра). В эксплуатации, пассажир 102 может просматривать внутренность салона 84 и элемент 136, сформированный посредством прозрачных дисплеев 82, через практически прозрачные электронные очки 16 (фиг. 1). По существу, позиция элемента 136 относительно окна (например, прозрачных дисплеев 82) транспортного средства 86 для катания пассажиров может оставаться постоянной, независимо от ориентации и/или точки обзора пассажира 102. Это может значительно снижать мощность обработки, требуемую носимым устройством 14 визуализации, по сравнению с использованием носимого устройства 14 визуализации для формирования элементов, таких как элемент 136. Таким образом, сочетание носимого элемента 14 визуализации и неподвижного устройства 80 визуализации, и координация этих устройств 14, 80 посредством AR/VR–системы 10, предоставляет более динамическую и эффективную систему, которая преодолевает проблемы с использованием носимого устройства 14 визуализации отдельно для создания ощущения AR, VR и/или смешанной реальности для пользователя 102.
В одном варианте осуществления изображения 24 дополненной или виртуальной реальности, сформированные посредством носимого устройства 14 визуализации, и изображения 112 дополненной или виртуальной реальности, сформированные посредством неподвижного устройства 80 визуализации, синхронизируются и/или координируются, когда транспортное средство 86 для катания пассажиров пересекает экстремальный аттракцион 92, так что виртуальные элементы, ощущаемые пассажиром 102, могут быть восприняты как более реалистичные по сравнению с использованием либо носимого устройства 14 визуализации, либо неподвижного устройства 80 визуализации отдельно. Например, анимированный элемент (например, взрыв) может быть объединен как часть темы экстремального аттракциона 92. Анимированный элемент может сначала быть сформирован посредством прозрачных дисплеев 82 и наложен на окружающее физическое окружение 100, просматриваемое пассажиром 102. Прозрачные дисплеи 82 могут затем формировать иллюзию элементов, таких как трещина 128 в стекле (например, прозрачных дисплеях 82), и может впоследствии формировать иллюзию того, что окно разбивается (например, создаются осколки стекла). Носимое устройство 14 визуализации может затем формировать иллюзию мусора (например, осколков стекла), проплывающего через салон 84 транспортного средства 86 для катания пассажиров. По существу, носимое устройство 14 визуализации и неподвижное устройство 80 визуализации могут создавать ощущение многослойной дополненной или виртуальной реальности для пользователя 102.
Фиг. 7 иллюстрирует блок–схему последовательности операций варианта осуществления процесса 140, чтобы предоставлять AR/VR–улучшения гостям парка развлечений (например, пассажиру 102). Процесс 140 может быть полезен в создании AR–ощущения, VR–ощущения и/или ощущения смешанной реальности во время ощущения парка развлечений, такого как экстремальный аттракцион 92. Процесс 140 может быть образцом инициируемого кода или инструкций, сохраненных на энергонезависимом компьютерно–читаемом носителе (например, памяти 28, 46, 120) и исполняемых, например, посредством процессора 26 носимого устройства 14 визуализации, процессора 44 системы 40 формирования компьютерной графики и/или процессора 118 неподвижного устройства 80 визуализации. Процессоры 26, 44 и/или 118 могут быть соединены с возможностью обмена данными через сеть, такую как беспроводная сеть 42, чтобы принимать и отправлять инструкции, описанные ниже.
Процесс 140 может начинаться с блока 142, формирующего AR/VR–улучшения (например, виртуальные элементы), такие как изображения 24, 112 дополненной или виртуальной реальности. AR/VR–улучшения могут быть предоставлены посредством носимого устройства 14 визуализации, неподвижного устройства 80 визуализации, дополнительного устройства визуализации или любого их сочетания. AR/VR–улучшения могут быть сформированы посредством схемы 25 обработки носимого устройства 14 визуализации, системы 40 формирования компьютерной графики, схемы 116 обработки неподвижного устройства 80 визуализации или любого их сочетания.
В одном варианте осуществления носимое устройство 14 визуализации может включать в себя прозрачные или полупрозрачные поверхности отображения (например, дисплеи 30, 32) и проецировать изображения 24 дополненной или виртуальной реальности в глаза пассажира 102. Дополнительно или альтернативно, как обсуждается более подробно ниже, неподвижные устройства 80 визуализации могут также быть сконфигурированы, чтобы включать в себя прозрачные или полупрозрачные поверхности отображения (например, прозрачные дисплеи 82), которые отображают изображения 112 дополненной или виртуальной реальности на линии взгляда 110 пассажира 102. Например, изображения 112 дополненной или виртуальной реальности могут преграждать фрагмент линий взгляда 110 пассажира 102 (например, пассажир 102 может все еще видеть фрагменты физического окружения 100 через прозрачные дисплеи 82), создавая иллюзию того, что изображения 112 дополненной или виртуальной реальности являются частью физического окружения 100.
Обращаясь теперь к блоку 144, процесс 140 может включать в себя этап, или последовательность этапов, на которых носимое устройство 14 визуализации может покрывать или накладывать (например, посредством дисплеев 30, 32) одно или более изображений 24 дополненной или виртуальной реальности на физическое окружение 100, чтобы формировать первый слой виртуальных элементов, которые должны просматриваться пассажиром 102. Например, процессоры 26, 44, 118 могут покрывать или накладывать изображения 24 дополненной или виртуальной реальности на прозрачные или полупрозрачные поверхности отображения (например, дисплеи 30, 32), через которые пассажир 102 может просматривать физическое окружение 100, таким образом, формируя первый слой виртуальных элементов. В одном варианте осуществления пассажир 102 может просматривать физическое окружение 100 через прозрачные фрагменты дисплеев 30, 32, в то время как носимое устройство 14 визуализации может лишь загораживать фрагмент дисплеев 30, 32 изображениями 24 дополненной или виртуальной реальности. В одном варианте осуществления процессоры 26, 44, 118 могут формировать и/или накладывать изображения дополненной или виртуальной реальности на поток видеоданных изображений 22 реального мира (например, сооружения 94, физическое окружение 100) с помощью одной или более технологий объединения видео и/или оптического объединения.
Обращаясь теперь к блоку 146, процесс 140 может включать в себя этап, или последовательность этапов, на которых неподвижное устройство 80 визуализации может покрывать или накладывать (например, посредством прозрачных дисплеев 82) одно или более изображений 112 дополненной или виртуальной реальности на физическое окружение 100, чтобы формировать второй слой виртуальных элементов, которые должны просматриваться пассажиром 102. Например, процессоры 26, 44, 118 могут покрывать или накладывать изображения 112 дополненной или виртуальной реальности на прозрачные или полупрозрачные поверхности отображения (например, прозрачные дисплеи 82), через которые пассажир 102 может просматривать физическое окружение 100, таким образом, формируя второй слой виртуальных элементов. В одном варианте осуществления пассажир 102 может просматривать физическое окружение 100 через прозрачный дисплей 82, в то время как неподвижное устройство 80 визуализации может лишь загораживать фрагмент прозрачного дисплея 82 изображениями 112 дополненной или виртуальной реальности. В одном варианте осуществления процессоры 26, 44, 118 могут формировать и накладывать изображения 112 дополненной или виртуальной реальности на поток видеоданных изображений 121 реального мира (например, сооружения 94, физическое окружение 100) с помощью одной или более технологий объединения видео и/или оптического объединения. В любом случае, носимое устройство 14 визуализации может формировать первый слой виртуальных элементов (например, через изображения 24 дополненной или виртуальной реальности), и неподвижное устройство 80 визуализации может формировать второй слой виртуальных элементов (например, через изображения 112 дополненной или виртуальной реальности). Дополнительно или иначе, AR/VR–система 10 может быть сконфигурирована, чтобы формировать 1, 2, 3, 4 или более слоев виртуальных элементов.
Обращаясь теперь к блоку 148, процесс 140 может также включать в себя координацию отображения первого слоя и виртуальных элементов и второго слоя виртуальных элементов. Первый слой виртуальных элементов и второй слой виртуальных элементов могут быть синхронизированы и/или координироваться посредством процессоров 26, 44 и/или 118, чтобы улучшать иммерсивное ощущение и реализм виртуальных эффектов, воспринимаемых пассажиром 102 экстремального аттракциона 92. В одном варианте осуществления данные изображения от камер, отличных от камер, расположенных на носимом устройстве 14 визуализации или транспортном средстве 86 для катания пассажиров, могут служить, чтобы обеспечивать синхронизацию и/или координацию между первым слоем виртуальных элементов и вторым слоем виртуальных элементов. Такая синхронизация и/или координация могут быть полезными для триангуляции позиции пассажира 102 на основе известной позиции некоторых неподвижных элементов (например, некоторых мест аттракциона), для определения момента времени некоторых спецэффектов (например, реальных, дополненных или имитируемых фейерверков или взрывов), и других эффектов, описанных ниже.
В одном варианте осуществления процессоры 26, 44, 118 могут принимать и анализировать захваченные в реальном времени данные, такие как данные изображения, позиционные данные и/или входные данные от других электронных устройств. Например, относительно данных изображения, процессоры 26, 44, 118 могут принимать видеоданные реального времени (например, живое видео), захваченные посредством камер 34, 36, 122 носимого устройства 14 визуализации и/или транспортного средства 86 для катания пассажиров. В одном варианте осуществления видеоизображение может быть использовано для формирования изображений 22 и 121 реального времени, которые могут быть отображены на электронных очках 16, или прозрачных дисплеях 82, соответственно. Например, процессоры 26, 44, 118 могут формировать поток видеоданных физического окружения 100 (например, области парка 90 развлечений), который должен отображаться на дисплеях 30, 32 носимого устройства 14 визуализации и/или прозрачных дисплеях 82 неподвижного устройства 80 визуализации.
В одном варианте осуществления процессоры 26, 44, 118 могут воспроизводить первый слой виртуальных элементов и второй слой виртуальных элементов на основе какого–либо одного или сочетания факторов. Такие факторы могут включать в себя позицию или местоположение транспортного средства 86 для катания пассажиров на треках 98 (например, или другое местоположение, когда треки 98 не присутствуют) в любой заданный момент времени во время цикла экстремального аттракциона 92, предварительно определенное расстояние, пройденное транспортным средством 86 для катания пассажиров во время цикла экстремального аттракциона 92, после прохождения предварительно определенного времени, или после того, как одно или более действий были выполнены пассажиром 102 транспортного средства 86 для катания пассажиров.
В других вариантах осуществления носимое устройство 14 визуализации, система 40 формирования компьютерной графики и/или неподвижное устройство 80 визуализации могут выполнять один или более алгоритмов геометрического или фотометрического распознавания по данным видео или изображения, захваченным посредством камер 34, 36, 122, чтобы определять точки расположения пассажира 102 и/или транспортного средства 86 для катания пассажиров. Носимое устройство 14 визуализации, система 40 формирования компьютерной графики и/или неподвижное устройство 80 визуализации могут также использовать эти данные для управления синхронизацией изображений 24, 112 дополненной или виртуальной реальности относительно эффекта поездки (например, аниматронные фигуры 97), чтобы синхронизировать и/или координировать первый слой виртуальных элементов и второй слой виртуальных элементов.
В то время как некоторые варианты осуществления относятся к использованию носимого устройства 14 визуализации и/или неподвижному устройству 80 визуализации в контексте экстремального аттракциона 92, следует понимать, что AR/VR–система 10 может быть использована за пределами экстремального аттракциона 92 и в любом из множества окружений. Например, прозрачные дисплеи 82 могут быть соединены со стенкой, чтобы отображать окна комнаты, и пользователь 12 (например, пассажир 102) может носить электронные очки 16, когда пользователь 12 сидит и/или двигается в комнате, чтобы предоставлять иммерсивое ощущение способом, описанным в данном документе.
В то время как только некоторые отличительные признаки раскрытия были иллюстрированы и описаны в данном документе, множество модификаций и изменений придут на ум специалистам в области техники. Следовательно, следует понимать, что прилагаемая формула изобретения предназначается, чтобы охватывать все такие модификации и изменения как подпадающие под истинный смысл раскрытия.
Технологии, представленные и сформулированные в данном документе, находятся по ссылке и применяются к материальным объектам и конкретным примерам практической природы, которые демонстративно улучшают настоящую техническую область и, по существу, не являются абстрактными, неосязаемыми или чисто теоретическими. Следует отметить, что упоминание признаков в единственном числе не исключает возможности их использования во множественном числе и наоборот.
Claims (32)
1. Система для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю, при этом пользователь просматривает окружение реального мира через первый дисплей и второй дисплей, причем система содержит:
носимое устройство визуализации, содержащее первый дисплей, выполненный с возможностью отображения первого слоя виртуальных элементов;
неподвижное устройство визуализации, содержащее второй дисплей, выполненный с возможностью отображения второго слоя виртуальных элементов; и
процессор, выполненный с возможностью формирования первого слоя виртуальных элементов и второго слоя виртуальных элементов, при этом процессор выполнен с возможностью функциональной связи с носимым устройством визуализации и неподвижным устройством визуализации посредством элементов связи указанной системы, чтобы координировать во времени и пространстве представление первого слоя виртуальных элементов и второго слоя виртуальных элементов.
2. Система по п. 1, в которой первый дисплей является прозрачным или полупрозрачным дисплеем и выполнен с возможностью обеспечения возможности пользователю, при ношении носимого устройства визуализации, просматривать второй дисплей через первый дисплей.
3. Система по п. 1, в которой второй дисплей содержит прозрачный дисплей на светоизлучающих диодах или прозрачный дисплей на органических светоизлучающих диодах.
4. Система по п. 1, в которой второй дисплей соединен с транспортным средством для катания пассажиров.
5. Система по п. 1, в которой процессор выполнен с возможностью координирования представления первого слоя виртуальных элементов и второго слоя виртуальных элементов с элементом, ассоциированным с аттракционом в парке развлечений.
6. Система по п. 1, в которой первый слой виртуальных элементов содержит виртуальное изображение объекта в салоне транспортного средства для катания пассажиров, а второй слой виртуальных элементов содержит виртуальное изображение элемента на окне транспортного средства для катания пассажиров.
7. Система по п. 1, в которой первый слой виртуальных элементов содержит виртуальное изображение объекта, внешнего по отношению к салону транспортного средства для катания пассажиров.
8. Система по п. 1, содержащая одну или более камер или датчиков, выполненных с возможностью наблюдения за окружением реального мира, чтобы обеспечивать координацию представления первого слоя виртуальных элементов и второго слоя виртуальных элементов.
9. Система по п. 1, в которой первый дисплей выполнен с возможностью наложения первого слоя виртуальных элементов на окружение реального мира, видимое пользователем, а второй дисплей выполнен с возможностью наложения второго слоя виртуальных элементов на окружение реального мира, видимое пользователем, при этом процессор выполнен с возможностью координации представления первого слоя виртуальных элементов и второго слоя виртуальных элементов с окружением реального мира, так что первый слой виртуальных элементов, второй слой виртуальных элементов и окружение реального мира одновременно видны пользователю.
10. Система для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю, содержащая:
транспортное средство для катания пассажиров, выполненное с возможностью перемещения по пути во время поездки в парке развлечений;
неподвижное устройство визуализации, содержащее прозрачный дисплей, соединенный с транспортным средством для катания пассажиров, причем неподвижное устройство визуализации выполнено с возможностью наложения виртуальных элементов на окружение реального мира, которое является видимым через прозрачный дисплей; и
процессор, выполненный с возможностью формирования виртуальных элементов и координирования представления виртуальных элементов во времени и пространстве с эффектами поездки для поездки.
11. Система по п. 10, содержащая носимое устройство визуализации, содержащее другой прозрачный дисплей, который выполнен с возможностью отображения дополнительных виртуальных элементов, причем носимое устройство визуализации выполнено с возможностью ношения пользователем в транспортном средстве для катания пассажиров во время поездки.
12. Система по п. 11, в которой процессор выполнен с возможностью координирования представления дополнительных виртуальных элементов с представлением виртуальных элементов и эффектов поездки.
13. Система по п. 10, в которой прозрачный дисплей содержит прозрачный дисплей на светоизлучающих диодах или прозрачный дисплей на органических светоизлучающих диодах.
14. Система по п. 10, в которой процессор выполнен с возможностью координирования представления виртуальных элементов с эффектами поездки, инструктируя неподвижному устройству визуализации накладывать виртуальные элементы в предварительно определенное время во время цикла поездки для поездки.
15. Система по п. 10, в которой виртуальные элементы содержат трещины, запотевание, обугливание, капли дождя, снег или их комбинацию.
16. Система по п. 10, в которой прозрачный дисплей выполнен с возможностью быть непрозрачным при его снабжении энергией, тем самым обеспечивая иллюзию того, что салон транспортного средства для катания пассажиров огорожен сплошными стенками.
17. Система по п. 10, выполненная с возможностью обеспечения пользователю просмотра окружения реального мира через прозрачный дисплей, при этом виртуальные элементы содержат первые элементы, отображенные как движущиеся относительно кабины транспортного средства для катания пассажиров во время части цикла поездки, и вторые элементы, отображенные как неподвижные относительно кабины во время части цикла поездки.
18. Способ для предоставления ощущения дополненной реальности, виртуальной реальности и/или смешанной реальности пользователю, при котором:
формируют с помощью процессора первый слой виртуальных элементов и второй слой виртуальных элементов;
отображают в первое время отображения, в ответ на инструкции от процессора, первый слой виртуальных элементов на первом дисплее, располагаемом в носимом устройстве визуализации; и
отображают во второе время отображения, в ответ на инструкции от процессора, второй слой виртуальных элементов на втором дисплее, располагаемом в неподвижном устройстве визуализации, которое является физически отдельным от носимого устройства визуализации, причем первое время отображения и второе время отображения приводят к координированному во времени и пространстве отображению первого слоя виртуальных элементов и второго слоя виртуальных элементов.
19. Способ по п. 18, при котором второй дисплей содержит прозрачный дисплей, соединенный с транспортным средством для катания пассажиров.
20. Способ по п. 18, при котором первое время отображения и второе время отображения приводят в результате к скоординированному отображению первого слоя виртуальных элементов и второго слоя виртуальных элементов.
21. Способ по п. 18, при котором первое время отображения и второе время отображения приводят в результате к скоординированному отображению первого слоя виртуальных элементов и второму слою виртуальных элементов с эффектом поездки для поездки в парке развлечений.
22. Способ по п. 18, при котором принимают в процессоре сигналы, указывающие окружение реального мира от одной или более камер или датчиков, причем процессор использует принятые сигналы, чтобы определять первое время отображения и второе время отображения, чтобы обеспечивать координацию представления первого слоя виртуальных элементов и второго слоя виртуальных элементов с элементами в окружении реального мира.
23. Способ по п. 18, при котором первый дисплей выполняют с возможностью перекрытия первого слоя виртуальных элементов на втором уровне виртуальных элементов, отображаемых вторым дисплеем, чтобы пользователь мог одновременно просматривать как первый слой виртуальных элементов, так и второй слой виртуальных элементов в составных слоях, наложенных на окружение реального мира, которое пользователь может просматривать через первый и второй дисплеи.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762467817P | 2017-03-06 | 2017-03-06 | |
US62/467,817 | 2017-03-06 | ||
US15/786,359 | 2017-10-17 | ||
US15/786,359 US20180255285A1 (en) | 2017-03-06 | 2017-10-17 | Systems and methods for layered virtual features in an amusement park environment |
PCT/US2018/020949 WO2018165039A1 (en) | 2017-03-06 | 2018-03-05 | Systems and methods for layered virtual features in an amusement park environment |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2019131372A RU2019131372A (ru) | 2021-04-07 |
RU2019131372A3 RU2019131372A3 (ru) | 2021-07-06 |
RU2771098C2 true RU2771098C2 (ru) | 2022-04-26 |
Family
ID=63355058
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019131371A RU2754991C2 (ru) | 2017-03-06 | 2018-03-05 | Система устройства просмотра смешанной реальности и способ для него |
RU2019131372A RU2771098C2 (ru) | 2017-03-06 | 2018-03-05 | Системы и способы для многослойных виртуальных элементов в окружении парка развлечений |
RU2019131143A RU2719237C1 (ru) | 2017-03-06 | 2018-03-06 | Системы и способы управления транспортными средствами для катания в ходе игрового процесса |
RU2019131365A RU2754992C2 (ru) | 2017-03-06 | 2018-03-06 | Система аттракционов для катания, способ предоставления дополненного восприятия в аттракционах парка развлечений и система управления катанием и игрой |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019131371A RU2754991C2 (ru) | 2017-03-06 | 2018-03-05 | Система устройства просмотра смешанной реальности и способ для него |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2019131143A RU2719237C1 (ru) | 2017-03-06 | 2018-03-06 | Системы и способы управления транспортными средствами для катания в ходе игрового процесса |
RU2019131365A RU2754992C2 (ru) | 2017-03-06 | 2018-03-06 | Система аттракционов для катания, способ предоставления дополненного восприятия в аттракционах парка развлечений и система управления катанием и игрой |
Country Status (11)
Country | Link |
---|---|
US (4) | US20180255285A1 (ru) |
EP (4) | EP3592444B1 (ru) |
JP (5) | JP7257960B2 (ru) |
KR (5) | KR102145140B1 (ru) |
CN (5) | CN110352085B (ru) |
CA (4) | CA3054333A1 (ru) |
ES (3) | ES2951475T3 (ru) |
MY (2) | MY196303A (ru) |
RU (4) | RU2754991C2 (ru) |
SG (4) | SG11201907294PA (ru) |
WO (4) | WO2018165041A1 (ru) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2813444C1 (ru) * | 2022-09-28 | 2024-02-12 | Автономная некоммерческая организация высшего образования "Университет Иннополис" | Система взаимодействия человек-робот на основе смешанной реальности |
Families Citing this family (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11960637B2 (en) | 2013-11-11 | 2024-04-16 | Whitewater West Ltd. | Interactive amusement attraction system |
US11487349B2 (en) * | 2013-11-11 | 2022-11-01 | Whitewater West Industries, Ltd. | Interactive amusement attraction system and method |
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
CN109478339A (zh) * | 2016-07-29 | 2019-03-15 | 三菱电机株式会社 | 显示装置、显示控制装置和显示控制方法 |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP4300160A3 (en) | 2016-12-30 | 2024-05-29 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10639557B2 (en) * | 2017-06-22 | 2020-05-05 | Jntvr Llc | Synchronized motion simulation for virtual reality |
US11118930B2 (en) * | 2017-07-14 | 2021-09-14 | Lyft, Inc. | Providing information to users of a transportation system using augmented reality elements |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
US10675766B1 (en) | 2017-08-28 | 2020-06-09 | Disney Enterprises, Inc. | System for introducing physical experiences into virtual reality (VR) worlds |
US10362299B1 (en) * | 2017-08-28 | 2019-07-23 | Disney Enterprises, Inc. | System for introducing physical experiences into virtual reality (VR) worlds |
US11389719B2 (en) * | 2017-11-10 | 2022-07-19 | Whitewater West Industries Ltd. | Water ride attraction incorporating interactive game play |
JP7282090B2 (ja) | 2017-12-10 | 2023-05-26 | マジック リープ, インコーポレイテッド | 光学導波管上の反射防止性コーティング |
KR20200100720A (ko) | 2017-12-20 | 2020-08-26 | 매직 립, 인코포레이티드 | 증강 현실 뷰잉 디바이스용 인서트 |
US10695682B1 (en) * | 2017-12-27 | 2020-06-30 | Disney Enterprises Inc. | Automated dynamic adaptive controls |
US11113887B2 (en) * | 2018-01-08 | 2021-09-07 | Verizon Patent And Licensing Inc | Generating three-dimensional content from two-dimensional images |
US10369483B1 (en) | 2018-01-23 | 2019-08-06 | Universal City Studios Llc | Interactive tower attraction systems and methods |
US10398989B2 (en) | 2018-01-29 | 2019-09-03 | Universal City Studios Llc | Ride with rotating lift |
US10755676B2 (en) | 2018-03-15 | 2020-08-25 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
CN112236713B (zh) | 2018-05-30 | 2023-01-24 | 奇跃公司 | 紧凑的可变聚焦配置 |
WO2019228468A1 (en) | 2018-05-30 | 2019-12-05 | Ke.Com (Beijing) Technology Co., Ltd. | Systems and methods for providing an audio-guided virtual reality tour |
US11885871B2 (en) | 2018-05-31 | 2024-01-30 | Magic Leap, Inc. | Radar head pose localization |
EP3804306B1 (en) | 2018-06-05 | 2023-12-27 | Magic Leap, Inc. | Homography transformation matrices based temperature calibration of a viewing system |
JP7421505B2 (ja) | 2018-06-08 | 2024-01-24 | マジック リープ, インコーポレイテッド | 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
US11510027B2 (en) | 2018-07-03 | 2022-11-22 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
WO2020023543A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Viewing device with dust seal integration |
EP4366337A3 (en) | 2018-07-24 | 2024-07-10 | Magic Leap, Inc. | Application sharing |
EP4270016A3 (en) | 2018-07-24 | 2024-02-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
US11112862B2 (en) | 2018-08-02 | 2021-09-07 | Magic Leap, Inc. | Viewing system with interpupillary distance compensation based on head motion |
US10795458B2 (en) | 2018-08-03 | 2020-10-06 | Magic Leap, Inc. | Unfused pose-based drift correction of a fused pose of a totem in a user interaction system |
DE102018213556A1 (de) * | 2018-08-10 | 2020-02-13 | Audi Ag | Verfahren und System zum Betreiben von zumindest zwei von jeweiligen Fahrzeuginsassen am Kopf getragenen Anzeigeeinrichtungen |
JP7487176B2 (ja) | 2018-08-22 | 2024-05-20 | マジック リープ, インコーポレイテッド | 患者視認システム |
US11583781B2 (en) * | 2018-09-17 | 2023-02-21 | Universal City Studios Llc | Systems and methods for actuating a show element on a ride vehicle |
US10636218B2 (en) | 2018-09-24 | 2020-04-28 | Universal City Studios Llc | Augmented reality for an amusement ride |
US11562539B2 (en) | 2018-09-25 | 2023-01-24 | Universal City Studios Llc | Modular augmented and virtual reality ride attraction |
US11212331B1 (en) * | 2018-10-26 | 2021-12-28 | Snap Inc. | Triggering changes to real-time special effects included in a live streaming video |
JP7472127B2 (ja) | 2018-11-16 | 2024-04-22 | マジック リープ, インコーポレイテッド | 画像鮮明度を維持するための画像サイズによってトリガされる明確化 |
KR102203371B1 (ko) * | 2018-11-30 | 2021-01-15 | 삼성물산 주식회사 | 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 |
CN109725717A (zh) * | 2018-11-30 | 2019-05-07 | 成都理想境界科技有限公司 | 应用于ar设备的图像处理方法及ar设备 |
US10692294B1 (en) | 2018-12-17 | 2020-06-23 | Universal City Studios Llc | Systems and methods for mediated augmented physical interaction |
CN113454507B (zh) | 2018-12-21 | 2024-05-07 | 奇跃公司 | 用于促进波导内的全内反射的气穴结构 |
US11340758B1 (en) * | 2018-12-27 | 2022-05-24 | Meta Platforms, Inc. | Systems and methods for distributing content |
US11318607B2 (en) * | 2019-01-04 | 2022-05-03 | Universal City Studios Llc | Extended reality ride test assembly for amusement park system |
US10839607B2 (en) * | 2019-01-07 | 2020-11-17 | Disney Enterprises, Inc. | Systems and methods to provide views of a virtual space |
US10780359B2 (en) * | 2019-01-08 | 2020-09-22 | Universal City Studios Llc | Systems and methods for a connected augmented environment |
US11200656B2 (en) | 2019-01-11 | 2021-12-14 | Universal City Studios Llc | Drop detection systems and methods |
US10807531B2 (en) * | 2019-01-14 | 2020-10-20 | Universal City Studios Llc | Augmented reality system for an amusement ride |
US11425189B2 (en) | 2019-02-06 | 2022-08-23 | Magic Leap, Inc. | Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
KR102424311B1 (ko) * | 2019-03-27 | 2022-07-22 | 다보(주) | 모바일 기기가 구비된 망원경형 증강현실 관람장치 |
US10816813B1 (en) * | 2019-04-05 | 2020-10-27 | Disney Enterprises, Inc. | Systems and methods for enhancing accuracy of spatial location and rotational orientation determination of wearable head-mounted display device |
CN110013668B (zh) * | 2019-04-24 | 2020-09-11 | 重庆城市管理职业学院 | 基于vr技术的模拟飞行体验娱乐设施热力转盘 |
CN114127837A (zh) | 2019-05-01 | 2022-03-01 | 奇跃公司 | 内容提供系统和方法 |
GB201906340D0 (en) * | 2019-05-04 | 2019-06-19 | Studio Go Go Ltd | A method and system for providing a virtual reality experience |
US11483486B1 (en) * | 2019-05-23 | 2022-10-25 | Disney Enterprises, Inc. | Virtual experience imaging products |
US11391257B2 (en) * | 2019-07-23 | 2022-07-19 | Ford Global Technologies, Llc | Power supply during vehicle startup |
US11529886B2 (en) | 2019-07-23 | 2022-12-20 | Ford Global Technologies, Llc | Power supply during vehicle off state |
US11514673B2 (en) | 2019-07-26 | 2022-11-29 | Magic Leap, Inc. | Systems and methods for augmented reality |
KR20210014813A (ko) | 2019-07-30 | 2021-02-10 | 삼성디스플레이 주식회사 | 표시장치 |
US11481980B2 (en) * | 2019-08-20 | 2022-10-25 | The Calany Holding S.Á´ R.L. | Transitioning from public to personal digital reality experience |
US10976818B2 (en) | 2019-08-21 | 2021-04-13 | Universal City Studios Llc | Interactive attraction system and method for object and user association |
US11442533B2 (en) * | 2019-09-13 | 2022-09-13 | iPMachine, LLC | System for mixed reality experiences |
KR102324845B1 (ko) * | 2019-10-02 | 2021-11-11 | (주)케이시크 | 사용자 게임 연계 자율주행 방법 및 시스템 |
US11861802B2 (en) | 2019-11-11 | 2024-01-02 | Spin Master Ltd. | Augmented reality system |
US11377039B2 (en) * | 2019-11-13 | 2022-07-05 | Universal City Studios Llc | Systems and methods to hold and charge a personal electronic device on a ride vehicle |
US11830460B2 (en) * | 2019-11-14 | 2023-11-28 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
US12033081B2 (en) | 2019-11-14 | 2024-07-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4058979A4 (en) | 2019-11-15 | 2023-01-11 | Magic Leap, Inc. | VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT |
US11145117B2 (en) | 2019-12-02 | 2021-10-12 | At&T Intellectual Property I, L.P. | System and method for preserving a configurable augmented reality experience |
KR102307463B1 (ko) | 2020-02-05 | 2021-09-29 | 이근호 | 사파리 투어 시스템 및 그 시스템의 구동방법 |
CN115699157A (zh) | 2020-02-10 | 2023-02-03 | 奇跃公司 | 虚拟内容的动态共置 |
WO2021163624A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | Tool bridge |
CN115398316A (zh) | 2020-02-14 | 2022-11-25 | 奇跃公司 | 3d对象注释 |
CN117827004A (zh) | 2020-02-14 | 2024-04-05 | 奇跃公司 | 会话管理器 |
US11474602B2 (en) * | 2020-02-26 | 2022-10-18 | Disney Enterprises, Inc. | Gameplay system with play augmented by merchandise |
US20210271881A1 (en) * | 2020-02-27 | 2021-09-02 | Universal City Studios Llc | Augmented reality guest recognition systems and methods |
US11207606B2 (en) * | 2020-03-02 | 2021-12-28 | Universal City Studios Llc | Systems and methods for reactive projection-mapped show robot |
JP2021140085A (ja) * | 2020-03-06 | 2021-09-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
US11196944B2 (en) * | 2020-05-06 | 2021-12-07 | At&T Intellectual Property I, L.P. | System for infinite windows with optical disparity and depth resolution |
CN113694531B (zh) * | 2020-05-21 | 2024-01-19 | 抖音视界有限公司 | 游戏特效的生成方法、装置、电子设备及计算机可读介质 |
EP4158278A4 (en) | 2020-05-27 | 2023-12-06 | Gentex Corporation | MOMENT DETECTION SYSTEM |
WO2021247940A1 (en) * | 2020-06-03 | 2021-12-09 | Mr Fun, Llc | Location based augmented reality gaming system |
US11774770B2 (en) | 2020-06-03 | 2023-10-03 | Universal City Studios Llc | Interface device with three-dimensional (3-D) viewing functionality |
CN111694430A (zh) * | 2020-06-10 | 2020-09-22 | 浙江商汤科技开发有限公司 | 一种ar场景画面呈现方法、装置、电子设备和存储介质 |
CN111603766B (zh) * | 2020-06-29 | 2024-01-09 | 上海完美时空软件有限公司 | 虚拟载具的控制方法及装置、存储介质、电子装置 |
CN111857138A (zh) * | 2020-07-03 | 2020-10-30 | 深圳怡丰自动化科技有限公司 | 载人自动导引车的控制方法及其应用以及相关装置 |
CN112130660B (zh) * | 2020-08-14 | 2024-03-15 | 青岛小鸟看看科技有限公司 | 一种基于虚拟现实一体机的交互方法和系统 |
US11964214B2 (en) * | 2020-08-19 | 2024-04-23 | Universal City Studios Llc | Systems and methods for adjusting an operation of an attraction system |
US11561611B2 (en) | 2020-10-29 | 2023-01-24 | Micron Technology, Inc. | Displaying augmented reality responsive to an input |
KR102420089B1 (ko) * | 2020-11-30 | 2022-07-13 | 방성환 | 이미지 인식 기반의 증강현실 컨텐츠 제공 장치 및 방법 |
JP7538025B2 (ja) | 2020-12-17 | 2024-08-21 | トヨタ自動車株式会社 | 移動体 |
EP4330797A1 (de) * | 2021-03-22 | 2024-03-06 | Manfred Weigl | Vorrichtung zur ansteuerung von aktuatoren |
US12112415B2 (en) * | 2021-04-09 | 2024-10-08 | Universal City Studios Llc | Systems and methods for animated figure display |
US11865440B2 (en) * | 2021-04-15 | 2024-01-09 | Niantic, Inc. | Augmented reality hat |
DE102021111457A1 (de) * | 2021-05-04 | 2022-11-10 | Vr Coaster Gmbh & Co. Kg | Verfahren zum Betreiben eines Fahrgeschäfts sowie Fahrgeschäft |
US20220360938A1 (en) * | 2021-05-06 | 2022-11-10 | Universal City Studios Llc | Systems and methods for layered data reporting in an attraction |
KR20240006061A (ko) * | 2021-05-06 | 2024-01-12 | 유니버셜 시티 스튜디오스 엘엘씨 | 어트랙션에서의 계층화된 데이터 보고를 위한 시스템 및 방법 |
US20220358687A1 (en) * | 2021-05-10 | 2022-11-10 | Cerence Operating Company | Touring circuitry for an immersive tour through a touring theater |
JP7216940B2 (ja) * | 2021-06-02 | 2023-02-02 | 株式会社Nttコノキュー | 通信システム、通信方法及び通信プログラム |
JP7352598B2 (ja) * | 2021-07-01 | 2023-09-28 | 本田技研工業株式会社 | 仮想体験提供システム、及びプログラム |
KR102662250B1 (ko) | 2021-07-13 | 2024-04-30 | 주식회사 리모샷 | Vr 콘텐츠 제공 장치 |
JP7423781B2 (ja) | 2021-08-18 | 2024-01-29 | 株式会社ハシラス | Vrアミューズメントプログラムおよび装置 |
WO2023048605A1 (en) * | 2021-09-22 | 2023-03-30 | Telefonaktiebolaget Lm Ericsson (Publ) | Virtual reality game experience in self-driving vehicle |
CN113908552A (zh) * | 2021-09-29 | 2022-01-11 | 东北电力大学 | 一种虚拟现实结合的闯关式冰雪娱乐系统 |
EP4180100A1 (en) * | 2021-11-11 | 2023-05-17 | Playoke GmbH | System for providing a single- or multi- player game experience |
WO2023107542A1 (en) * | 2021-12-09 | 2023-06-15 | Universal City Studios Llc | Amusement content processing systems and methods |
CA3240128A1 (en) * | 2022-01-04 | 2023-07-13 | Universal City Studios Llc | Facial activity detection for virtual reality systems and methods |
CN114460749A (zh) * | 2022-01-29 | 2022-05-10 | 杭州灵伴科技有限公司 | 头戴式显示装置和载人装置 |
WO2023192517A1 (en) * | 2022-03-31 | 2023-10-05 | Universal City Studios Llc | Show effect system for amusement park attraction system |
US12079384B2 (en) * | 2022-04-21 | 2024-09-03 | Universal City Studios Llc | Artificial intelligence (AI)-assisted and dynamic ride profile head tracking systems and methods |
USD1023209S1 (en) | 2022-05-26 | 2024-04-16 | Sally Industries, Inc. | Indoor amusement ride |
WO2024030444A1 (en) * | 2022-08-03 | 2024-02-08 | Universal City Studios Llc | Systems and methods for operating an amusement park system |
USD1044805S1 (en) | 2022-08-04 | 2024-10-01 | Niantic, Inc. | Augmented reality hat |
WO2024039679A1 (en) * | 2022-08-15 | 2024-02-22 | Universal City Studios Llc | Show effect system for amusement park attraction system |
WO2024054502A1 (en) * | 2022-09-06 | 2024-03-14 | Universal City Studios Llc | Tangible/virtual design systems and methods for amusement park attraction design |
KR20240037662A (ko) | 2022-09-15 | 2024-03-22 | 배재대학교 산학협력단 | 가상 현실 기반 관광지 액티비티 체험 시스템 |
US20240190400A1 (en) * | 2022-12-08 | 2024-06-13 | Disney Enterprises, Inc. | Systems and methods for pre-calculating information regarding interactions between objects during a simulation |
CN118071968B (zh) * | 2024-04-17 | 2024-06-25 | 深圳市赛野展览展示有限公司 | 一种基于ar技术的智能交互深展示方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110025584A1 (en) * | 2009-07-29 | 2011-02-03 | Gm Global Technology Operations, Inc. | Light-emitting diode heads-up display for a vehicle |
US20130130813A1 (en) * | 2008-11-24 | 2013-05-23 | Disney Enterprises, Inc. | System and Method for Providing an Augmented Reality Experience |
US20160048203A1 (en) * | 2014-08-18 | 2016-02-18 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
US20160283081A1 (en) * | 2015-03-27 | 2016-09-29 | Lucasfilm Entertainment Company Ltd. | Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface |
Family Cites Families (190)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5790187A (en) | 1980-11-27 | 1982-06-04 | Matsushita Electric Works Ltd | Multiaction type electronic digital timer |
EP0581943A1 (en) * | 1992-02-24 | 1994-02-09 | Hughes Aircraft Company | Virtual image entertainment |
JPH06176131A (ja) * | 1992-12-03 | 1994-06-24 | Namco Ltd | 画像合成装置及びこれを用いた仮想体験装置 |
JP3491327B2 (ja) * | 1994-04-13 | 2004-01-26 | 株式会社セガ | 遊戯装置 |
TW275590B (en) | 1994-12-09 | 1996-05-11 | Sega Enterprises Kk | Head mounted display and system for use therefor |
JPH08160349A (ja) * | 1994-12-09 | 1996-06-21 | Sega Enterp Ltd | 頭部搭載型映像表示システム、および、頭部搭載型映像表示装置 |
GB9506861D0 (en) | 1995-04-03 | 1995-05-24 | Zeneca Ltd | Method of coating optical fibres |
US6227121B1 (en) | 1995-11-03 | 2001-05-08 | Metero Amusement Corporation | Modularized amusement ride and training simulation device |
US5716281A (en) * | 1995-11-27 | 1998-02-10 | Sega Enterprises, Ltd. | Game apparatus using a vehicle with an optical image synthesizing system |
JPH1015252A (ja) * | 1996-07-04 | 1998-01-20 | Sega Enterp Ltd | ゲームシステムおよびゲーム用車両 |
US5785592A (en) * | 1996-08-12 | 1998-07-28 | Sarcos, Inc. | Interactive target game system |
JP3651204B2 (ja) * | 1996-12-18 | 2005-05-25 | トヨタ自動車株式会社 | 立体画像表示装置、立体画像表示方法及び記録媒体 |
AU6021398A (en) | 1997-01-16 | 1998-08-07 | Orlo J. Fiske | Amusement vehicle |
JPH10309381A (ja) | 1997-05-13 | 1998-11-24 | Yoshimasa Tanaka | 移動体用遊戯装置 |
US6220965B1 (en) | 1998-07-08 | 2001-04-24 | Universal City Studios Inc. | Amusement system |
ES2546929T3 (es) | 1998-12-07 | 2015-09-30 | Universal City Studios Llc | Método de corrección de imágenes para compensar la distorsión de la imagen del punto de vista |
JP2001062154A (ja) * | 1999-08-23 | 2001-03-13 | Kazuo Sawatake | 稼動式遊戯乗り物用視覚効果及び音響効果機能ヘルメット。 |
JP3273038B2 (ja) * | 1999-11-17 | 2002-04-08 | 株式会社ナムコ | 仮想体験型ゲーム装置 |
US6533670B1 (en) | 2000-08-14 | 2003-03-18 | Universal City Studio, Inc. | Amusement ride with pivotable motion base |
US6796908B2 (en) | 2001-06-14 | 2004-09-28 | Creative Kingdoms, Llc | Interactive dark ride |
JP4124995B2 (ja) * | 2001-10-31 | 2008-07-23 | キヤノン株式会社 | 映像合成装置および情報処理方法 |
AU2003218369A1 (en) | 2002-03-22 | 2003-10-13 | David V. Threlkel | Amusement ride |
US6917370B2 (en) * | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US7495638B2 (en) | 2003-05-13 | 2009-02-24 | Research Triangle Institute | Visual display with increased field of view |
JP4378118B2 (ja) * | 2003-06-27 | 2009-12-02 | 学校法人早稲田大学 | 立体映像呈示装置 |
RU2293587C2 (ru) * | 2003-08-06 | 2007-02-20 | Владимир Алексеевич Гнездилов | Аттракцион (варианты) |
US20160098095A1 (en) | 2004-01-30 | 2016-04-07 | Electronic Scripting Products, Inc. | Deriving Input from Six Degrees of Freedom Interfaces |
US8585476B2 (en) * | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
JP4738870B2 (ja) * | 2005-04-08 | 2011-08-03 | キヤノン株式会社 | 情報処理方法、情報処理装置および遠隔複合現実感共有装置 |
US20060250322A1 (en) | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US7955168B2 (en) | 2005-06-24 | 2011-06-07 | Disney Enterprises, Inc. | Amusement ride and video game |
JP2007052484A (ja) * | 2005-08-15 | 2007-03-01 | Dainippon Printing Co Ltd | 画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体 |
US20070106484A1 (en) * | 2005-11-04 | 2007-05-10 | Triverity Corporation | Entertainment ride experience enhancement system |
US8212859B2 (en) | 2006-10-13 | 2012-07-03 | Apple Inc. | Peripheral treatment for head-mounted displays |
ES2300204B1 (es) * | 2006-11-16 | 2009-05-01 | The Movie Virtual, S.L. | Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada. |
FR2911463B1 (fr) * | 2007-01-12 | 2009-10-30 | Total Immersion Sa | Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif |
US20080188318A1 (en) | 2007-02-01 | 2008-08-07 | Piccionelli Gregory A | Ride system with motion simulation and video stream |
CA2712059A1 (en) | 2008-01-22 | 2009-07-30 | The Arizona Board Of Regents On Behalf Of The University Of Arizona | Head-mounted projection display using reflective microdisplays |
US8025581B2 (en) | 2008-05-09 | 2011-09-27 | Disney Enterprises, Inc. | Interactive interface mounting assembly for amusement and theme park rides |
US20120256945A1 (en) * | 2008-06-17 | 2012-10-11 | Digigage Ltd. | System for altering virtual views |
ATE541624T1 (de) | 2008-06-26 | 2012-02-15 | Maurer Friedrich Soehne | Fahrgeschäft, insbesondere achterbahn |
US20100131865A1 (en) | 2008-11-24 | 2010-05-27 | Disney Enterprises, Inc. | Method and system for providing a multi-mode interactive experience |
SG172802A1 (en) * | 2008-12-29 | 2011-08-29 | Red Com Inc | Modular digital camera |
RU2433487C2 (ru) * | 2009-08-04 | 2011-11-10 | Леонид Михайлович Файнштейн | Способ проецирования изображения на поверхности реальных объектов |
US20110141246A1 (en) | 2009-12-15 | 2011-06-16 | Justin Michael Schwartz | System and Method for Producing Stereoscopic Images |
US9901828B2 (en) | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
JP5704931B2 (ja) * | 2011-01-18 | 2015-04-22 | 株式会社三共 | 遊技機 |
WO2012118507A1 (en) * | 2011-03-03 | 2012-09-07 | Research In Motion Limited | Methods and apparatus to generate virtual-world environments |
JP5790187B2 (ja) | 2011-06-16 | 2015-10-07 | ソニー株式会社 | 表示装置 |
WO2013000075A1 (en) | 2011-06-29 | 2013-01-03 | Recon Instruments Inc. | Modular heads-up display systems |
US8491403B2 (en) | 2011-07-08 | 2013-07-23 | Nathan Schreibfeder | Amusement ride system |
US8963957B2 (en) * | 2011-07-15 | 2015-02-24 | Mark Skarulis | Systems and methods for an augmented reality platform |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
JP2013027479A (ja) * | 2011-07-27 | 2013-02-07 | Kunio Goto | 映像投影施設 |
US9352225B2 (en) * | 2011-08-18 | 2016-05-31 | Game Nation, Inc. | System and method for providing a multi-player game experience |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
JP5979507B2 (ja) | 2011-11-24 | 2016-08-24 | パナソニックIpマネジメント株式会社 | 頭部装着型ディスプレイ装置 |
US20130137076A1 (en) | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US8705177B1 (en) | 2011-12-05 | 2014-04-22 | Google Inc. | Integrated near-to-eye display module |
US9497501B2 (en) | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
CN102402005B (zh) | 2011-12-06 | 2015-11-25 | 北京理工大学 | 自由曲面双焦面单目立体头盔显示器装置 |
US20150312561A1 (en) | 2011-12-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Virtual 3d monitor |
US20130032053A1 (en) * | 2012-01-09 | 2013-02-07 | Daniel James Stoker | Hybrid Motion Ride and Ride Simulator Vehicle |
US9092953B1 (en) | 2012-01-24 | 2015-07-28 | Bruce J. P. Mortimer | System and method for providing a remote haptic stimulus |
US8727896B2 (en) * | 2012-03-14 | 2014-05-20 | Anton Frolov | Underground and underwater amusement attractions |
US9183676B2 (en) * | 2012-04-27 | 2015-11-10 | Microsoft Technology Licensing, Llc | Displaying a collision between real and virtual objects |
US9210413B2 (en) * | 2012-05-15 | 2015-12-08 | Imagine Mobile Augmented Reality Ltd | System worn by a moving user for fully augmenting reality by anchoring virtual objects |
US9253524B2 (en) | 2012-07-20 | 2016-02-02 | Intel Corporation | Selective post-processing of decoded video frames based on focus point determination |
US10073201B2 (en) | 2012-10-26 | 2018-09-11 | Qualcomm Incorporated | See through near-eye display |
US9619911B2 (en) * | 2012-11-13 | 2017-04-11 | Qualcomm Incorporated | Modifying virtual object display properties |
US20140146394A1 (en) | 2012-11-28 | 2014-05-29 | Nigel David Tout | Peripheral display for a near-eye display device |
US9851787B2 (en) * | 2012-11-29 | 2017-12-26 | Microsoft Technology Licensing, Llc | Display resource management |
US8867139B2 (en) | 2012-11-30 | 2014-10-21 | Google Inc. | Dual axis internal optical beam tilt for eyepiece of an HMD |
CN105188516B (zh) * | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
US9519144B2 (en) | 2013-05-17 | 2016-12-13 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display having a defect |
US9582922B2 (en) | 2013-05-17 | 2017-02-28 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display |
US10905943B2 (en) | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
CN105359063B (zh) * | 2013-06-09 | 2018-08-17 | 索尼电脑娱乐公司 | 利用追踪的头戴式显示器 |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20150003819A1 (en) | 2013-06-28 | 2015-01-01 | Nathan Ackerman | Camera auto-focus based on eye gaze |
JP6237000B2 (ja) | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US9396618B2 (en) | 2013-09-30 | 2016-07-19 | Whitewater West Industries Ltd. | Interactive play center |
US9630631B2 (en) | 2013-10-03 | 2017-04-25 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
US9536353B2 (en) | 2013-10-03 | 2017-01-03 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
US9715764B2 (en) * | 2013-10-03 | 2017-07-25 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
WO2015051660A1 (zh) | 2013-10-13 | 2015-04-16 | 北京蚁视科技有限公司 | 头戴式立体显示器 |
CN105916560B (zh) | 2013-11-18 | 2017-10-31 | 乌鸦阳光创意股份有限公司 | 塔骑乘设备 |
US9463379B1 (en) * | 2013-12-17 | 2016-10-11 | Thinkwell Group | Ride vehicle mounted interactive game system |
US9569886B2 (en) | 2013-12-19 | 2017-02-14 | Intel Corporation | Variable shading |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
NZ722903A (en) * | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
US9389423B2 (en) | 2014-03-11 | 2016-07-12 | Google Inc. | Head wearable display with adjustable transparency |
CN103977559B (zh) * | 2014-05-23 | 2017-10-17 | 北京智谷睿拓技术服务有限公司 | 交互方法及交互装置 |
US9155971B1 (en) | 2014-05-28 | 2015-10-13 | Disney Enterprises, Inc. | Selective illumination of physical scenery in amusement park rides |
JP2015228050A (ja) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9360671B1 (en) | 2014-06-09 | 2016-06-07 | Google Inc. | Systems and methods for image zoom |
GB2527503A (en) | 2014-06-17 | 2015-12-30 | Next Logic Pty Ltd | Generating a sequence of stereoscopic images for a head-mounted display |
RU2592458C2 (ru) * | 2014-06-26 | 2016-07-20 | Общество с ограниченной ответственностью "АВИАРЕАЛ" | Способ формирования изображения дополненной реальности, обеспечивающий корректное восприятие удаления виртуальных объектов |
JP6361327B2 (ja) * | 2014-07-02 | 2018-07-25 | セイコーエプソン株式会社 | 電気光学装置、及び電子機器 |
CN104102412B (zh) * | 2014-07-24 | 2017-12-12 | 央数文化(上海)股份有限公司 | 一种基于增强现实技术的手持式阅览设备及其方法 |
EP3041591B1 (de) | 2014-08-11 | 2016-11-09 | Mack Rides GmbH & Co. KG | Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgerätes oder dergleichen |
US10261579B2 (en) | 2014-09-01 | 2019-04-16 | Samsung Electronics Co., Ltd. | Head-mounted display apparatus |
KR102230076B1 (ko) | 2014-09-01 | 2021-03-19 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치 |
JP6290754B2 (ja) * | 2014-09-11 | 2018-03-07 | 株式会社パスコ | 仮想空間表示装置、仮想空間表示方法及びプログラム |
US10238979B2 (en) * | 2014-09-26 | 2019-03-26 | Universal City Sudios LLC | Video game ride |
US20160097929A1 (en) | 2014-10-01 | 2016-04-07 | Dawson Yee | See-through display optic structure |
US20160097930A1 (en) | 2014-10-06 | 2016-04-07 | Steven John Robbins | Microdisplay optical system having two microlens arrays |
JP6363928B2 (ja) * | 2014-10-10 | 2018-07-25 | 泉陽興業株式会社 | 遊戯施設 |
WO2016064435A1 (en) * | 2014-10-24 | 2016-04-28 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
JP6216100B1 (ja) | 2014-10-24 | 2017-10-18 | イメージン コーポレイション | マイクロディスプレイベースの没入型ヘッドセット |
US20170072316A1 (en) * | 2014-11-16 | 2017-03-16 | Astral Vision Ltd. | System and method for providing an alternate reality ride experience |
EP3237953A1 (en) | 2014-12-26 | 2017-11-01 | CY Vision Inc. | Near-to-eye display device with variable resolution |
US10108832B2 (en) | 2014-12-30 | 2018-10-23 | Hand Held Products, Inc. | Augmented reality vision barcode scanning system and method |
US9905052B2 (en) | 2015-01-05 | 2018-02-27 | Worcester Polytechnic Institute | System and method for controlling immersiveness of head-worn displays |
US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
CN104627078B (zh) * | 2015-02-04 | 2017-03-08 | 上海咔酷咔新能源科技有限公司 | 基于柔性透明oled的汽车驾驶虚拟系统及其控制方法 |
DE112016000728T5 (de) | 2015-02-12 | 2017-10-26 | Google Inc. | Kombinieren eines Displays mit engem Blickfeld und hoher Auflösung und eines Weitwinkeldisplays mit mittlerer Auflösung |
TWI567670B (zh) * | 2015-02-26 | 2017-01-21 | 宅妝股份有限公司 | 切換虛擬實境模式與擴增實境模式的管理方法以及系統 |
US9358473B2 (en) | 2015-03-24 | 2016-06-07 | Anthony Frolov | Interactive amusement attraction |
US20160314624A1 (en) * | 2015-04-24 | 2016-10-27 | Eon Reality, Inc. | Systems and methods for transition between augmented reality and virtual reality |
US9690374B2 (en) | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
US20160343173A1 (en) * | 2015-05-20 | 2016-11-24 | Daqri, Llc | Acousto-optical display for augmented reality |
US20160349509A1 (en) * | 2015-05-26 | 2016-12-01 | Microsoft Technology Licensing, Llc | Mixed-reality headset |
US9877016B2 (en) | 2015-05-27 | 2018-01-23 | Google Llc | Omnistereo capture and render of panoramic virtual reality content |
US20170363949A1 (en) | 2015-05-27 | 2017-12-21 | Google Inc | Multi-tier camera rig for stereoscopic image capture |
US10038887B2 (en) | 2015-05-27 | 2018-07-31 | Google Llc | Capture and render of panoramic virtual reality content |
US9942539B2 (en) * | 2015-06-01 | 2018-04-10 | Disney Enterprises, Inc. | Scanning laser-based three dimensional (3D) display systems for viewers wearing 3D glasses |
US10366534B2 (en) | 2015-06-10 | 2019-07-30 | Microsoft Technology Licensing, Llc | Selective surface mesh regeneration for 3-dimensional renderings |
US9638921B2 (en) | 2015-06-11 | 2017-05-02 | Oculus Vr, Llc | Strap system for head-mounted displays |
US9977493B2 (en) * | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
DE112016002904T5 (de) | 2015-06-23 | 2018-03-08 | Google Llc | Am Kopf befestigtes Anzeigegerät mit gekrümmten Dualanzeigen |
US10078917B1 (en) * | 2015-06-26 | 2018-09-18 | Lucasfilm Entertainment Company Ltd. | Augmented reality simulation |
WO2017004695A1 (en) | 2015-07-06 | 2017-01-12 | Frank Jones | Methods and devices for demountable head mounted displays |
US9454010B1 (en) | 2015-08-07 | 2016-09-27 | Ariadne's Thread (Usa), Inc. | Wide field-of-view head mounted display system |
US20170039986A1 (en) * | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Mixed Reality Social Interactions |
US9606362B2 (en) | 2015-08-07 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Peripheral field-of-view illumination system for a head mounted display |
US10169917B2 (en) | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US20170053445A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Augmented Reality |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
WO2017061677A1 (en) | 2015-10-08 | 2017-04-13 | Lg Electronics Inc. | Head mount display device |
US9571741B1 (en) | 2015-10-08 | 2017-02-14 | Gopro, Inc. | Smart shutter in low light |
US10724874B2 (en) * | 2015-10-13 | 2020-07-28 | Here Global B.V. | Virtual reality environment responsive to predictive route navigation |
US20170116950A1 (en) | 2015-10-22 | 2017-04-27 | Google Inc. | Liquid crystal display with variable drive voltage |
US9741125B2 (en) | 2015-10-28 | 2017-08-22 | Intel Corporation | Method and system of background-foreground segmentation for image processing |
US10001683B2 (en) | 2015-11-06 | 2018-06-19 | Microsoft Technology Licensing, Llc | Low-profile microdisplay module |
US9763342B2 (en) | 2015-12-09 | 2017-09-12 | Oculus Vr, Llc | Cable retention assembly for a head mounted display |
US10147235B2 (en) | 2015-12-10 | 2018-12-04 | Microsoft Technology Licensing, Llc | AR display with adjustable stereo overlap zone |
US20170176747A1 (en) | 2015-12-21 | 2017-06-22 | Tuomas Heikki Sakari Vallius | Multi-Pupil Display System for Head-Mounted Display Device |
US10229540B2 (en) | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
CN109074234B (zh) | 2016-01-21 | 2022-01-25 | 谷歌有限责任公司 | 混合显示器全局命令接口、对应方法、装置和头戴显示系统 |
US10229541B2 (en) | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US10209785B2 (en) | 2016-02-02 | 2019-02-19 | Microsoft Technology Licensing, Llc | Volatility based cursor tethering |
US20170225084A1 (en) * | 2016-02-05 | 2017-08-10 | S&S Worldwide, Inc. | Immersive mobile theater |
US11112266B2 (en) | 2016-02-12 | 2021-09-07 | Disney Enterprises, Inc. | Method for motion-synchronized AR or VR entertainment experience |
US10169922B2 (en) | 2016-02-16 | 2019-01-01 | Microsoft Technology Licensing, Llc | Reality mixer for mixed reality |
US10473933B2 (en) | 2016-02-19 | 2019-11-12 | Microsoft Technology Licensing, Llc | Waveguide pupil relay |
US9933624B1 (en) | 2016-03-01 | 2018-04-03 | Daryl White | System and method for providing individualized virtual reality for an amusement attraction |
US9778467B1 (en) | 2016-03-01 | 2017-10-03 | Daryl White | Head mounted display |
US9964767B2 (en) | 2016-03-03 | 2018-05-08 | Google Llc | Display with reflected LED micro-display panels |
KR102448919B1 (ko) | 2016-03-16 | 2022-10-04 | 삼성디스플레이 주식회사 | 표시 장치 |
US10133345B2 (en) | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10175487B2 (en) | 2016-03-29 | 2019-01-08 | Microsoft Technology Licensing, Llc | Peripheral display for head mounted display device |
US9946074B2 (en) | 2016-04-07 | 2018-04-17 | Google Llc | See-through curved eyepiece with patterned optical combiner |
US9965899B2 (en) | 2016-04-28 | 2018-05-08 | Verizon Patent And Licensing Inc. | Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration |
US20170323482A1 (en) | 2016-05-05 | 2017-11-09 | Universal City Studios Llc | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
US20170323416A1 (en) | 2016-05-09 | 2017-11-09 | Intel Corporation | Processing image fragments from one frame in separate image processing pipes based on image analysis |
US10496156B2 (en) | 2016-05-17 | 2019-12-03 | Google Llc | Techniques to change location of objects in a virtual/augmented reality system |
US10502363B2 (en) | 2016-05-17 | 2019-12-10 | Occipital, Inc. | Self-contained mixed reality head mounted display |
US10151927B2 (en) | 2016-05-31 | 2018-12-11 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
US9858848B1 (en) * | 2016-06-09 | 2018-01-02 | International Business Machines Corporation | Dynamic display adjustment on a transparent flexible display |
KR102442569B1 (ko) | 2016-07-14 | 2022-09-08 | 매직 립, 인코포레이티드 | 각막 곡률을 이용한 홍채 경계 추정 |
CN106019597A (zh) | 2016-07-27 | 2016-10-12 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
US9922466B2 (en) * | 2016-08-05 | 2018-03-20 | Uber Technologies, Inc. | Virtual reality experience for a vehicle |
CN106154555B (zh) | 2016-08-24 | 2020-08-21 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
TWI622803B (zh) | 2016-08-30 | 2018-05-01 | 廣達電腦股份有限公司 | 頭戴式顯示裝置 |
DE202017105948U1 (de) | 2016-10-03 | 2018-03-07 | Google LLC (n.d.Ges.d. Staates Delaware) | Augmented-Reality- und/oder Virtual-Reality-Headset |
US10459236B2 (en) | 2016-12-09 | 2019-10-29 | Lg Electronics Inc. | Head-mounted display device with earbud holder |
US20180196262A1 (en) | 2017-01-12 | 2018-07-12 | Artavious Cage | Virtual reality system |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
JP7275510B2 (ja) | 2018-09-18 | 2023-05-18 | 日油株式会社 | ソフトビスケット用油脂組成物及びソフトビスケット |
WO2021172454A1 (ja) | 2020-02-26 | 2021-09-02 | ベースフード株式会社 | パン、パン用ミックス粉およびパンの製造方法 |
-
2017
- 2017-10-17 US US15/786,359 patent/US20180255285A1/en active Pending
- 2017-11-20 US US15/818,463 patent/US10572000B2/en active Active
-
2018
- 2018-03-01 US US15/909,694 patent/US10528123B2/en active Active
- 2018-03-05 RU RU2019131371A patent/RU2754991C2/ru active
- 2018-03-05 KR KR1020197029129A patent/KR102145140B1/ko active IP Right Grant
- 2018-03-05 KR KR1020197029080A patent/KR20190123314A/ko active Application Filing
- 2018-03-05 JP JP2019548722A patent/JP7257960B2/ja active Active
- 2018-03-05 EP EP18713458.0A patent/EP3592444B1/en active Active
- 2018-03-05 CN CN201880016468.6A patent/CN110352085B/zh active Active
- 2018-03-05 WO PCT/US2018/020951 patent/WO2018165041A1/en unknown
- 2018-03-05 CA CA3054333A patent/CA3054333A1/en active Pending
- 2018-03-05 CN CN201880016500.0A patent/CN110382066B/zh active Active
- 2018-03-05 US US15/912,281 patent/US10289194B2/en active Active
- 2018-03-05 SG SG11201907294PA patent/SG11201907294PA/en unknown
- 2018-03-05 KR KR1020247009170A patent/KR20240042176A/ko not_active Application Discontinuation
- 2018-03-05 SG SG11201907293SA patent/SG11201907293SA/en unknown
- 2018-03-05 RU RU2019131372A patent/RU2771098C2/ru active
- 2018-03-05 EP EP18713457.2A patent/EP3592442B1/en active Active
- 2018-03-05 JP JP2019548441A patent/JP7497572B2/ja active Active
- 2018-03-05 CA CA3054671A patent/CA3054671A1/en active Pending
- 2018-03-05 ES ES18713457T patent/ES2951475T3/es active Active
- 2018-03-05 WO PCT/US2018/020949 patent/WO2018165039A1/en unknown
- 2018-03-06 CA CA3054336A patent/CA3054336A1/en active Pending
- 2018-03-06 JP JP2019548473A patent/JP7198213B2/ja active Active
- 2018-03-06 ES ES18713478T patent/ES2965043T3/es active Active
- 2018-03-06 MY MYPI2019004785A patent/MY196303A/en unknown
- 2018-03-06 CN CN202310422877.9A patent/CN116474381A/zh active Pending
- 2018-03-06 SG SG11201907988QA patent/SG11201907988QA/en unknown
- 2018-03-06 EP EP18713479.6A patent/EP3592445B1/en active Active
- 2018-03-06 WO PCT/US2018/021165 patent/WO2018165170A1/en unknown
- 2018-03-06 CA CA3054963A patent/CA3054963C/en active Active
- 2018-03-06 MY MYPI2019005051A patent/MY195166A/en unknown
- 2018-03-06 JP JP2019548559A patent/JP6756052B2/ja active Active
- 2018-03-06 EP EP18713478.8A patent/EP3592443B1/en active Active
- 2018-03-06 CN CN201880016523.1A patent/CN110352087A/zh active Pending
- 2018-03-06 WO PCT/US2018/021154 patent/WO2018165165A2/en unknown
- 2018-03-06 KR KR1020197028984A patent/KR102181793B1/ko active IP Right Grant
- 2018-03-06 RU RU2019131143A patent/RU2719237C1/ru active
- 2018-03-06 KR KR1020197028991A patent/KR102145702B1/ko active IP Right Grant
- 2018-03-06 RU RU2019131365A patent/RU2754992C2/ru active
- 2018-03-06 CN CN201880016481.1A patent/CN110352086B/zh active Active
- 2018-03-06 ES ES18713479T patent/ES2974886T3/es active Active
- 2018-03-06 SG SG11201907990YA patent/SG11201907990YA/en unknown
-
2022
- 2022-09-16 JP JP2022147654A patent/JP2022188084A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130130813A1 (en) * | 2008-11-24 | 2013-05-23 | Disney Enterprises, Inc. | System and Method for Providing an Augmented Reality Experience |
US20110025584A1 (en) * | 2009-07-29 | 2011-02-03 | Gm Global Technology Operations, Inc. | Light-emitting diode heads-up display for a vehicle |
US20160048203A1 (en) * | 2014-08-18 | 2016-02-18 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
US20160283081A1 (en) * | 2015-03-27 | 2016-09-29 | Lucasfilm Entertainment Company Ltd. | Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2813444C1 (ru) * | 2022-09-28 | 2024-02-12 | Автономная некоммерческая организация высшего образования "Университет Иннополис" | Система взаимодействия человек-робот на основе смешанной реальности |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2771098C2 (ru) | Системы и способы для многослойных виртуальных элементов в окружении парка развлечений | |
JP7322034B2 (ja) | 遊園地環境にテキストを重ね合わせるためのシステム及び方法 | |
US11670054B2 (en) | Systems and methods for generating stereoscopic, augmented, and virtual reality images | |
JP6995799B2 (ja) | 拡張現実及び仮想現実画像を生成するためのシステム及び方法 | |
CN112739438B (zh) | 娱乐环境中的显示系统 |