KR20210113639A - 연결된 증강 환경을 위한 시스템 및 방법 - Google Patents

연결된 증강 환경을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20210113639A
KR20210113639A KR1020217024800A KR20217024800A KR20210113639A KR 20210113639 A KR20210113639 A KR 20210113639A KR 1020217024800 A KR1020217024800 A KR 1020217024800A KR 20217024800 A KR20217024800 A KR 20217024800A KR 20210113639 A KR20210113639 A KR 20210113639A
Authority
KR
South Korea
Prior art keywords
amusement park
devices
physical
guest
real
Prior art date
Application number
KR1020217024800A
Other languages
English (en)
Inventor
닐 앤드류 레이바
웨이 청 예
트래비스 존 코사에어트
에리카 린 맥케이
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20210113639A publication Critical patent/KR20210113639A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00288
    • G06K9/00302
    • G06K9/00335
    • G06K9/00671
    • G06K9/00771
    • G06K9/228
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서에서 제시된 시스템 및 방법은 증강 경험 시스템을 포함하는 놀이 공원 시스템을 포함한다. 증강 경험 시스템은 놀이 공원의 복수의 손님의, 놀이 공원의 하나 이상의 직원, 하나 이상의 모바일 장치, 하나 이상의 웨어러블(wearable) 장치, 하나 이상의 테마 장치 또는 놀이 공원의 현실 세계 환경 내 배치된 하나 이상의 물리적 객체와의 손님 상호작용을 추적하도록 구성된다. 증강 경험 시스템은 또한, 손님 상호작용에 관한 데이터에 적어도 부분적으로 기초하여, 놀이 공원의 현실 세계 환경을 증강하도록 구성된다.

Description

연결된 증강 환경을 위한 시스템 및 방법
관련 출원과 상호 참조
본 출원은 "연결된 증강 환경을 위한 시스템 및 방법(Systems and Methods for a Connected Augmented Environment)"이라는 명칭으로 2019년 1월 8일에 출원된, 미국 가출원 제62/789,872호에 대한 우선권 및 이익을 주장하며, 이는 모든 목적을 위해 전체가 참조로 통합된다.
기술 분야
본 개시는 일반적으로 연결된 증강 환경의 생성을 위한 시스템 및 방법에 관한 것이다. 더 구체적으로, 본 개시의 실시예는 일반적으로 예를 들어 테마 공원의 손님으로부터 수신된 입력 및 기타 환경적 요인에 기초하여 테마 공원 환경이 시간의 경과에 따라 변화할 수 있게 하는 시스템 및 방법에 관한 것이다.
본 섹션은 이하에서 설명 및/또는 청구되는 본 기술의 다양한 측면과 관련될 수 있는 분야의 다양한 양태를 독자에게 소개하기 위한 것이다. 이러한 논의는 본 개시의 다양한 양태의 더 나은 이해를 용이하게 하는 배경 정보를 독자에게 제공하는 데 도움이 되는 것으로 믿어진다. 따라서, 이러한 진술은 이러한 관점에서 읽어야 하며 선행 기술을 인정하는 것이 아님을 이해하여야 한다.
놀이 공원 및/또는 테마 공원은 놀이 공원의 손님(예컨대, 가족 및/또는 모든 연령의 사람들)에게 즐거움을 제공하는 데 유용한 다양한 유흥 어트랙션(attraction), 식당, 기념품 가게 및 놀이기구를 포함할 수 있다. 놀이 공원의 영역들은 특정 관람객을 특히 대상으로 하는 다양한 테마를 가질 수 있다. 예를 들어, 특정 영역은 전통적으로 어린이가 관심이 있는 테마를 포함할 수 있는 반면, 다른 영역은 전통적으로 성숙한 관람객이 관심이 있는 테마를 포함할 수 있다. 일반적으로 이러한 놀이 공원과 관련된 테마를 갖는 장소는 어트랙션 또는 테마 어트랙션으로 지칭될 수 있다. 이러한 테마 어트랙션은 고정 장비, 건물 레이아웃, 소품, 장식 등을 이용하여 설정될 수 있으며, 대부분은 일반적으로 특정 테마와 관련이 있다. 그러나, 이러한 테마 어트랙션은 자연 내에서 상대적으로 정적인, 예를 들어 하루 중 시간, 손님 상호작용 또는 기타 환경적 요인에 기초하여 시간에 따라 변하지 않는 환경을 종종 포함한다.
이에, 전통적인 기술에 비하여, 유연하고 효율적인 방법으로 테마 어트랙션의 환경을 변화시키는 것이 가능한 테마 어트랙션을 포함하는 것이 바람직하다는 점이 인식된다. 이러한 테마 어트랙션에 대한 손님의 몰입 경험을 강화하고, 손님에게 더 개인화 또는 맞춤화된 경험을 제공하는 것이 바람직할 수 있다는 점 또한 인식된다.
본래의 청구된 주제(subject matter)의 범위에 상응하는 특정 실시예가 아래에 요약된다. 이러한 실시예는 청구된 주제의 범위를 제한하려는 의도가 아니며, 오히려 이러한 실시예는 주제의 가능한 형태의 간략한 요약을 제공하도록 의도된다. 실제로, 주제는 아래에 설명된 실시예와 유사하거나 상이할 수 있는 다양한 형태를 포함할 수 있다.
특정 실시예에서, 놀이 공원 시스템은 증강 경험 시스템을 포함한다. 증강 경험 시스템은, 놀이 공원의 복수의 손님의, 하나 이상의 놀이 공원 직원, 하나 이상의 모바일 장치, 하나 이상의 웨어러블(wearable) 장치, 하나 이상의 테마 장치 또는 놀이 공원의 현실 세계 환경 내 배치된 물리적 객체와의 손님 상호작용(guest interaction)을 추적하도록 구성된다. 증강 경험 시스템은 또한 손님 상호작용과 관련된 데이터에 적어도 부분적으로 기초하여 놀이 공원의 현실 세계 환경을 증강하도록 구성된다.
또한, 특정 실시예에서, 방법은, 놀이 공원의 증강 경험 시스템을 통하여, 놀이 공원의 복수의 손님의, 하나 이상의 놀이 공원 직원, 하나 이상의 모바일 장치, 하나 이상의 웨어러블 장치, 하나 이상의 테마 장치 또는 놀이 공원의 현실 세계 환경 내 배치된 물리적 객체와의 손님 상호작용을 추적하는 것을 포함한다. 방법은 또한 증강 경험 시스템을 통하여, 손님 상호작용과 관련된 데이터에 적어도 부분적으로 기초하여 놀이 공원의 현실 세계 환경을 증강하는 것을 포함한다.
앞서 언급된 특징의 다양한 개선이 본 개시의 다양한 양태와 관련하여 이루어질 수 있다. 추가적인 특징 또한 이러한 다양한 양태에 포함될 수 있다. 이러한 개선 및 추가적인 특징은 개별적으로 또는 임의의 조합으로 존재할 수 있다.
본 개시의 이러한 및 다른 특징, 양태 그리고 이점은, 유사한 문자가 도면 전체에 걸쳐 유사한 부분을 나타내는 첨부 도면을 참조하여, 이하 상세한 설명을 읽을 때 더 잘 이해될 것이다.
도 1은, 본 개시의 실시예에 따른, 하나 이상의 어트랙션을 포함하는 놀이 공원을 도시한다.
도 2는, 본 개시의 실시예에 따른, 놀이 공원의 증강 경험을 제공하기 위한 시스템의 개략도이다.
도 3은, 본 개시의 실시예에 따른, 놀이 공원의 운영일 시작 시의 놀이 공원의 테마 어트랙션을 도시한다.
도 4는, 본 개시의 실시예에 따른, 놀이 공원의 운영일 종료 시의 놀이 공원의 테마 어트랙션을 도시한다.
도 5 내지 도 8은, 본 개시의 실시예에 따른, 도 3 및 도 4에 도시된 시나리오와 관련하여, 손님이 놀이 공원의 현실 세계 환경 내 배치된 모바일 장치, 웨어러블(wearable) 장치, 테마 장치 및/또는 물리적 객체와 상호작용하는 다양한 방법을 도시한다.
도 9는, 본 개시의 실시예에 따른, 본 명세서에서 설명되는 증강 경험 시스템을 작동하는 방법을 도시한다.
본 개시의 하나 이상의 특정 실시예가 이하에서 설명될 것이다. 이러한 실시예의 간결한 설명을 제공하기 위하여, 실제 구현의 모든 특징이 본 명세서에서 설명되지 않을 수 있다. 임의의 이러한 실제 구현의 개발에서, 임의의 공학 또는 설계 프로젝트에서와 같이, 구현마다 달라질 수 있는 시스템 관련 및 비즈니스 관련 제약 준수와 같은 개발자의 특정 목표를 달성하기 위하여 많은 구현 관련 결정을 내려야 한다는 것을 이해하여야 한다. 더욱이, 이러한 개발 노력은 복잡하고 시간 소모적일 수 있지만 그럼에도 불구하고 본 개시의 이점을 갖는 통상의 기술자에게 설계, 제조 및 생산의 일상적인 실시가 될 것이라는 것을 이해하여야 한다. 또한, 수평, 수직과 같은 특정한 용어가 본 명세서에서 사용되는 한, 이러한 용어는 엄격한 수학적 정의에 대하여 특정한 편차를 허용하는 것, 예를 들어 제조 불완전성 및 관련 공차(tolerance)와 관련된 편차를 허용하는 것으로 이해하여야 한다.
본 개시의 다양한 실시예의 구성요소를 설명할 때, 관사 "하나의"("a", "an") 및 "그"("the")는 하나 이상의 구성요소가 있음을 의미하도록 의도된다. 용어 "포함하는"("comprising", "including") 및 "갖는"("having")은 포괄적인 것으로 의도되고, 나열된 구성요소 외에 추가적인 구성요소가 있을 수 있음을 의미한다. 추가적으로, 본 개시의 "일 실시예"에 대한 언급은 인용된 특징 또한 포함하는 추가적인 실시예의 존재를 배제하는 것으로 해석되도록 의도되지 않음을 이해하여야 한다.
본 개시의 실시예는 손님을 위한 더 동적인 상호작용 경험을 가능하게 하며, 여기서 물리적 및 시각적 테마 풍경이 게임 플레이 또는 군중 역학과 같은 외부 변수에 의해 영향을 받을 수 있다. 예를 들어, 본 개시의 실시예는 테마 경험의 물리적 환경이 연결된 경험에 의해 영향을 받는 손님 상호작용, 하루 중 시간 및 다른 환경적 요소에 기초하여 동적으로 변화할 수 있도록 한다. 군중 역학 및 환경과의 상호작용을 기초로 테마 환경의 외형(예컨대, 실시간 렌더링되는 프로젝션 매핑, 비주얼 및 기타 손님 상호작용에 의해 영향을 받는 동적 애니메이션 소품과 같은 연결된 효과)을 결정함으로써, 손님은 하루 중 다른 시간에 동일한 지역으로 돌아올 때 극적으로 다른 풍경을 마주할 수 있다.
예를 들어, 특정 실시예에서, 손님은 이른 아침에 파괴된 도시를 마주할 수 있다. 하루의 과정 동안, 손님은 하루 동안 환경을 재건축하는 연결된 여정(quest)에 참여할 수 있다. 따라서, 저녁에는, 그 지역은 손님의 집합적인 행동의 결과로서 물리적으로 완전한 화려함을 회복할 수 있다. 물리적 환경과의 손님 상호작용 방법은 모바일 장치, 웨어러블(wearable) 장치(예컨대, 시계, 팔찌, 장신구, 반지, 머리띠, 안경 등), 다른 테마 장치, 놀이 공원의 직원과의 상호작용, 물리적 환경 내 물리적 객체와의 직접 상호작용, 또는 물리적 환경 내 수동 추적 장치를 통해 손님 추적을 통할 수 있다. 이러한 상호작용을 통해, 손님은 물리적 풍경을 조작하는 데 자신의 고유한 기여를 할 수 있다(예컨대, 손님이 특정 색상의 물리적 산을 생성할 수 있음). 효과는 손님의 과거와 현재 노력이 풍경을 통해 증강 현실 내 시각화될 수 있는 모바일 장치를 통해 더 나타날 수 있다. 손님은 개별적인 경험으로 구성된 응집력 있는 그룹 경험을 생성한다.
본 실시예는 놀이 공원 또는 테마 공원의 일부로서 증강 경험을 제공하는 시스템 및 방법에 관한 것이다. 예를 들어, 특정 실시예에서 놀이 공원의 손님은, 모바일 장치, 웨어러블 장치 또는 놀이 공원 내 현실 세계 환경 내 배치된 물리적 객체의 물리적 효과의 생성뿐만 아니라 놀이 공원 내 현실 세계 환경에 증강 현실(AR) 이미지의 생성을 포함할 수 있는 증강 경험의 생성을 용이하게 하는 다른 테마 장치를 사용할 수 있다. 추가적으로, 특정 실시예에서, 놀이 공원의 손님은 놀이 공원 내 배치된 물리적 객체와 직접 상호작용하여, 증강 경험을 용이하게 할 수 있다. 추가적으로, 특정 실시예에서, 놀이 공원의 직원과의 손님 상호작용은 추적되어(예를 들어, 손님에 의해 지시되는 대로, 직원의 자신의 모바일 장치, 자신의 웨어러블 장치, 자신의 테마 장치 및/또는 놀이 공원의 현실 세계 환경 내 배치된 물리적 객체와의 상호작용으로), 증강 경험을 용이하게 할 수 있다. 추가적으로 특정 실시예에서, 손님 자신은 놀이 공원 내 배치된 수동 추적 장치를 통해 추적되어, 증강 경험을 용이하게 할 수 있다. 이와 같이, 본 명세서에서 설명되는 시스템 및 방법은, 손님 상호작용과 하루 중 현재 시간, 현재 날짜, 현재 날씨 등과 같은 다른 환경적 요소에 기초하여, 현실 세계 환경이 하루 동안 수정될 수 있도록, 하루의 과정 동안 다양한 방법으로 놀이 공원과의 손님 상호작용을 추적할 수 있다.
특정 실시예에서, 이미지 생성 시스템은, AR 이미지의 실시간 비디오 스트림이 놀이 공원의 현실 세계 환경에 표시되도록 렌더링할 수 있다. 예를 들어, 특정 실시예에서, 이미지 생성 시스템은, 모바일 장치, 웨어러블 장치, 다른 테마 장치 및/또는 놀이 공원 내 배치된 물리적 객체로부터 수신되는 손님 상호작용에 적어도 부분적으로 기초하여 AR 이미지를 렌더링할 수 있고, 여기서 손님 상호작용은 모바일 장치, 웨어러블 장치, 다른 테마 장치 및/또는 놀이 공원 내 배치된 물리적 객체의 손님 조작(예컨대, 입력 장치와의 상호작용), 위치, 방향 및/또는 모바일 장치, 웨어러블 장치, 다른 테마 장치 및/또는 손님 자신의 움직임, 놀이 공원의 현실 세계 환경 내 배치된 특정 물리적 객체에 대한 모바일 장치, 웨어러블 장치, 다른 테마 장치 및/또는 손님 스스로의 근접도(proximity), 손님에 의하여 모바일 장치 및/또는 웨어러블 장치에 입력된 지역(local) 설정, 놀이 공원의 전역(global) 설정(예컨대, 놀이 공원의 소유주에 의해 입력됨), 모바일 장치, 웨어러블 장치 및/또는 다른 테마 장치를 통해 수행된 이전 상호작용, 기타 환경적 요소(예컨대, 하루 중 현재 시간, 현재 날짜, 현재 날씨 등) 등을 포함한다.
특정 실시예에서, 모바일 장치, 웨어러블 장치, 다른 테마 장치, 놀이 공원의 현실 세계 환경에 배치된 물리적 객체 및/또는 손님 스스로는 모니터링 시스템에 의해 모니터링될 수 있고, 이는 모바일 장치, 웨어러블 장치, 다른 테마 장치, 물리적 객체 및/또는 손님 자체에 관한 데이터를, 이미지 생성 시스템과 통신하여, 이미지 생성 시스템이 모바일 장치, 웨어러블 장치, 다른 테마 장치, 물리적 객체 및/또는 손님 자체에 관한 데이터(예컨대, 특정 물리적 객체와의 손님 상호작용, 특정 물리적 객체의 위치, 방향 및/또는 움직임, 특정 물리적 객체와의 근접도 등)에 적어도 부분적으로 기초하여 AR 이미지를 생성할 수 있도록 할 수 있다. 추가적으로, 특정 실시예에서, 모니터링 시스템은, 모바일 장치, 웨어러블 장치, 다른 테마 장치, 물리적 객체 및/또는 손님 자체에 관한 데이터에 적어도 부분적으로 기초하여 놀이 공원의 현실 세계 환경 내 배치된 물리적 객체의 물리적 효과(예컨대, 움직임 효과, 소리 효과, 햅틱 피드백(haptic feedback) 효과, 색상 효과, 향기 효과 등)를 유발하도록 구성된 물리적 상호작용 시스템과 통신하도록 구성될 수 있다. 더 나아가, 특정 실시예에서, 놀이 공원의 특정 직원은, 모바일 장치, 웨어러블 장치, 다른 테마 장치, 물리적 객체 및/또는 손님 자체에 관한 데이터에 적어도 부분적으로 기초하여 자신의 행동을 수정할 수 있다.
이러한 방식으로, 이미지 생성 시스템, 모니터링 시스템 및 물리적 상호작용 시스템은 증강 경험을 생성하는 데 사용될 수 있고, 이는 놀이 공원의 현실 세계 환경 내 배치된 물리적 객체의 물리적 효과의 생성뿐만 아니라, 놀이 공원의 현실 세계 환경에 AR 이미지의 생성을 포함할 수 있으며, 이에 따라 놀이 공원 내 손님의 전반적인 경험을 향상시킨다. 그러나, 본 명세서에서 설명되는 기술은 놀이 공원 어트랙션 애플리케이션에 제한되지 않을 수 있고, 예를 들어 의료 애플리케이션(예컨대, 영상 유도 수술, 비침습적 영상 분석), 공학 설계 애플리케이션(예컨대, 공학 모델 개발), 제조, 건설 및 유지 관리 애플리케이션(예컨대, 제품 제조, 새로운 건물 건설, 자동차 수리), 학업 및/또는 직업 훈련 애플리케이션, 운동 애플리케이션(예컨대, 보디 빌딩 및 체중 감량 모델), 텔레비전(TV) 애플리케이션(예컨대, 날씨 및 뉴스) 등과 같은 임의의 다양한 애플리케이션으로 확장될 수도 있다.
전술한 바를 염두에 두고, 도 1에 도시된 바와 같은 놀이 공원의 일 실시예를 설명하는 것이 유용할 수 있다. 도시된 바와 같이, 놀이 공원(10)은 스릴 놀이기구(12), 놀이 공원 시설(14)(예컨대, 식당, 기념품 가게 등), 추가적인 놀이 공원 어트랙션(16) 및 놀이 공원 직원(17)(예컨대, 테마 캐릭터로서 연기하는)을 포함할 수 있다. 본 명세서에서 더 자세히 설명된 바와 같이, 놀이 공원(10)의 손님(18)에게 놀이 공원(10)의 현실 세계 환경 내 증강 현실이 제공될 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 특정 실시예에서, 놀이 공원(10)의 손님(18)은 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)(예컨대, 동적 애니메이션 소품)와 상호작용하거나, 놀이 공원(10)의 직원(17)(차례로, 손님(18)의 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 물리적 객체(26)와 상호작용하는) 과 상호작용하거나, 모니터링 시스템에 의해 수동으로 추적되어, 본 명세서에서 더 자세히 설명될 바와 같이, 예를 들어 놀이 공원(10)의 운영일 동안 시간이 지남에 따라 변화하는 증강 현실을 생성할 수 있다. 예를 들어, 특정 실시예에서, AR 이미지(30)는, AR 이미지(30)를 표시하도록 구성되는 AR 이미지 디스플레이 및/또는 놀이 공원(10)의 현실 세계 환경에 AR 이미지(30)를 투사하도록 구성되는 AR 이미지 프로젝터와 같은 하나 이상의 AR 이미지 생성기(28)를 통해 생성될 수 있다. 추가적으로, 특정 실시예에서, 하나 이상의 물리적 효과(32)는 놀이 공원(10)의 현실 세계 환경 내 배치된 하나 이상의 물리적 객체(26)에 대해 생성될 수 있다.
특정 실시예에서, 모바일 장치(20)는 휴대용 전화기(예컨대, 스마트폰), 태블릿 컴퓨터, 또는 손님(18)에 의해 놀이 공원(10)에서 휴대될 수 있는 임의의 다른 적합한 장치일 수 있다. 특정 실시예에서, 웨어러블 장치(22)는 시계 유사(watch-like) 전자 기기, 안경, 고글, 팔찌, 장신구, 반지, 머리띠, 모자, 헬멧, 티셔츠, 재킷, 코트, 반바지, 바지, 신발, 부츠 또는 임의의 다른 편리하게 착용할 수 있는 품목일 수 있다. 특정 실시예에서, 테마 장치(24)는, 장난감 총, 칼, 깃발, 지팡이 등과 같은, 놀이 공원 테마 관련 객체일 수 있다. 본 명세서에서 더 자세히 설명되는 바와 같이, 특정 실시예에서, 웨어러블 장치(22) 및/또는 테마 장치(24)는 이들 내에 배치된(예컨대, 의류 재료 내에 봉제되는 등) 회로(예컨대, 작은 칩)를 포함할 수 있거나 또는 모니터링 시스템에 의해서 수동적으로 추적될 수 있는 고유한 패턴(예컨대, 이미지 등)을 포함할 수 있다.
도 2는, 본 개시의 실시예에 따른, 도 1에 도시된 놀이 공원(10)에 증강 경험을 제공하기 위한 증강 경험 시스템(34)의 개략도이다. 도 2에 도시된 바와 같이, 특정 실시예에서, 증강 경험 시스템(34)은 하나 이상의 모바일 장치(20), 하나 이상의 웨어러블 장치(22), 하나 이상의 테마 장치(24) 및/또는 놀이 공원(10)의 손님(18)에 의해(및/또는 손님(18)을 위한 놀이 공원(10)의 직원(17)에 의해) 상호작용될 수 있는 물리적 객체(26)를 포함할 수 있다. 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24), 물리적 객체(26) 및/또는 하나 이상의 AR 이미지 생성기(28)는 이미지 생성 시스템(36), 모니터링 시스템(38) 및/또는 물리적 상호작용 시스템(40)(예컨대, 놀이 공원(10) 내)에 무선 네트워크(42)(예컨대, WLAN(wireless local area network), WWAN(wireless wide area network), NFC(near field communication) 네트워크 또는 임의의 다른 적합한 무선 네트워크)를 통해 통신 가능하도록 연결될 수 있다. 추가적으로, 특정 실시예에서, 물리적 객체(26) 및/또는 AR 이미지 생성기(28)는 이미지 생성 시스템(36), 모니터링 시스템(38) 및/또는 물리적 상호작용 시스템(40)에 무선 네트워크(42)를 통해 및/또는 직접 물리적인 연결(44)(예컨대, 통신 케이블을 이용하여)을 통해 통신 가능하도록 연결될 수 있다.
본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)은, 놀이 공원(10)의 증강 경험을 생성하기 위해 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)와의 손님 상호작용을 사용하도록 협력할 수 있다. 예를 들어, 특정 실시예에서, 이미지 생성 시스템(36)은, 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)와의 손님 상호작용을 사용하여, 놀이 공원(10)의 현실 세계 환경에 표시 및/또는 투사될 수 있는 AR 이미지(30)를 생성하도록 구성될 수 있다. 특정 실시예에서, 이미지 생성 시스템(36)은 AR 이미지(30)와 전자적으로 병합된 현실 세계 이미지(46)를 포함하는 실시간 비디오 스트림을 생성할 수 있다. 용어 "실시간"은 이미지가 실제 관찰 시간에 실질적으로 근접한 시간 프레임에서 획득 및/또는 제공되는 것을 나타낸다.
추가적으로, 특정 실시예에서, 물리적 상호작용 시스템(40)은 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26)와의 손님 상호작용(예컨대, 직접적으로 손님(18)으로부터 또는 간접적으로 직원(17)으로부터) 사용하여 물리적 객체(26)의 물리적 효과(32)를 생성하도록 구성될 수 있다. 또한, 특정 실시예에서, 모니터링 시스템(38)은 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 물리적 객체(26)를 모니터링하여, 모바일 장치(20), 웨어러블 장치(22), 다른 테마 장치(24) 및/또는 물리적 객체(26)와의 손님 상호작용을 감지하고, 손님 상호작용을 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전송하여, 이러한 시스템이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하게 하도록 구성될 수 있다. 또한, 특정 실시예에서, 모니터링 시스템(38)은 손님(18)을 수동 모니터링하고, 수동 모니터링된 손님과 관련된 데이터를 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전송하여 이러한 시스템이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하게 하도록 구성될 수 있다.
특정 실시예에서, 모바일 장치(20)는 위치, 방향, 움직임 등을 추적하는 데 사용될 수 있는 하나 이상의 방향 및 위치 센서(48)(예컨대, 가속도계, 자력계, 자이로스코프, GPS(global positioning system) 수신기, 전자기 및 솔리드 스테이트(solid-state) 움직임 추적 센서와 같은 움직임 추적 센서 등)를 포함할 수 있다. 유사하게, 특정 실시예에서, 모바일 장치(20)의 특징(50)(예컨대, 기하학적 측면 또는 표시)은 모니터링 시스템(38)(예컨대, 특정 실시예에서 하나 이상의 카메라)에 의해 모니터링되어 모바일 장치(20)의 위치, 방향, 움직임 등을 결정할 수 있다. 또한, 특정 실시예에서, 손님(18)은 모니터링 시스템(38)(예컨대, LiDAR(light detection and ranging) 시스템과 같은 카메라 시스템)에 의해 수동 모니터링되어, 손님(18)의 위치, 방향, 움직임 등을 식별하고, 얼굴 인식 등과 같은 손님(18)의 고유한 특징을 검출하는 것 등을 할 수 있다.
추가적으로, 특정 실시예에서, 모바일 장치(20)는 이미지 및 비디오(예컨대, 현실 세계 이미지)를 캡처하고 캡처된 이미지 및 비디오(및 AR 이미지(30))를 모바일 장치(20)의 하나 이상의 디스플레이(58)를 통해 표시하도록 구성된 하나 이상의 카메라(52)를 포함할 수 있다. 특정 실시예에서, 증강 경험의 생성을 지원하기 위하여, 모바일 장치(20)는 프로세서(54) 및 메모리(56)와 같은 처리 회로를 포함할 수 있다. 프로세서(54)는 메모리(56)와 작동 가능하게 연결되어, 특정 실시예에서 모바일 장치(20)의 하나 이상의 디스플레이(58)에 표시되어 손님(18)의 증강 경험을 강화할 수 있는 AR 이미지(30)와 병합된 현실 세계 이미지(46)를 생성하는 현재 개시되는 기술을 적어도 부분적으로 수행하기 위한 명령을 실행할 수 있다. 추가적으로, 특정 실시예에서, 프로세서(54)는 메모리(56)에 저장된 명령을 실행하여 모바일 장치(20)의 하나 이상의 입력(60)을 통해 수신된 손님 상호작용을 처리할 수 있다. 이러한 명령은, 메모리(56) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(54)는 범용 프로세서, SoC(system-on-chip) 장치, ASIC(application-specific integrated circuit) 또는 일부 다른 유사한 프로세서 구성일 수 있다.
특정 실시예에서, 모바일 장치(20)의 하나 이상의 디스플레이(58)는 각각 LCD(liquid crystal display), OLED(organic light emitting diode) 디스플레이 또는 손님(18)에게 현실 세계 이미지(46) 및 AR 이미지(30)를 표시하는 데 유용한 다른 유사한 디스플레이를 포함할 수 있다. 특정 실시예에서, 하나 이상의 디스플레이(58)는 각각, 예를 들어, 손님(18)이 각각의 디스플레이(58)를 통해 놀이 공원(10)의 실제 및 물리적 현실 세계 환경을 볼 수 있는 능력을 유지하면서 디스플레이(58)에 나타나는 현실 세계 이미지(46) 및 AR 이미지(30)를 볼 수 있도록 하는 데 유용한 불투명하거나 또는 투명한 LCD, 또는 불투명하거나 또는 투명한 OLED 디스플레이를 포함할 수 있다.
특정 실시예에서, 모바일 장치(20)의 하나 이상의 카메라(52)는 놀이 공원(10)의 현실 세계 환경의 실시간 비디오 데이터(예컨대, 라이브 비디오)를 캡처하는 데 사용될 수 있다. 특정 실시예에서, 모바일 장치(20)는 그 후 하나 이상의 카메라(52)를 통해 캡처된 실시간 비디오 데이터를 처리하기 위하여 이미지 생성 시스템(36)으로 전송(예컨대, 모바일 장치(20)에 포함된 하나 이상의 통신 인터페이스(62)를 통하여 무선으로)할 수 있다. 추가적으로, 특정 실시예에서, 모바일 장치(20)는 또한, 모바일 장치(20)의 방향 및 위치 센서(48)를 통해 획득된 데이터에 적어도 부분적으로 기초하여 획득 및/또는 유도된 방향 데이터, 위치 데이터, 움직임 추적 데이터 등을, 하나 이상의 통신 인터페이스(62)를 통해 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전송할 수 있다. 또한, 특정 실시예에서, 모바일 장치(20)는 하나 이상의 입력(60)을 통한 모바일 장치와의 손님 상호작용에 관한 데이터를, 하나 이상의 통신 인터페이스(62)를 통해 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전송할 수도 있다.
특정 실시예에서, 웨어러블 장치(22)는 웨어러블 장치(22)의 위치, 방향, 움직임 등을 추적하는 데 사용될 수 있는 하나 이상의 방향 및 위치 센서(64)(예컨대, 가속도계, 자력계, 자이로스코프, GPS 수신기, 전자기 및 솔리드 스테이트 움직임 추적 센서와 같은 움직임 추적 센서 등)를 포함할 수 있다. 다른 실시예에서, 웨어러블 장치(22)는, 예를 들어 방향, 위치 및 움직임이 모니터링 시스템(38)에 의해 추적될 수 있는, 수동 객체(즉, 센서, 제어 회로 등을 포함하지 않음)일 수 있다. 이러한 실시예에서, 웨어러블 장치(22)의 수동적 특징(예컨대, 기하학적 측면 또는 표시, RFID(radio frequency identification) 태그 등) 또는 능동적 특징(예컨대, UWB(ultra-wideband) 무선 송신기와 같은 무선 송신기 등)과 같은 특정 특징(66)은 모니터링 시스템(38)에 의해 모니터링되어 웨어러블 장치(22)의 방향, 위치 및 움직임 등을 결정할 수 있다.
특정 실시예에서, 증강 경험의 생성을 지원하기 위해 웨어러블 장치(22)는 프로세서(68) 및 메모리(70)와 같은 처리 회로를 포함할 수 있다. 프로세서(68)는 메모리(70)와 작동 가능하게 연결되어, 웨어러블 장치의 하나 이상의 입력(72)을 통해 수신된 손님 상호작용을 처리하기 위한 명령을 실행할 수 있다. 이러한 명령은 메모리(70) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(68)는 범용 프로세서, SoC 장치, ASIC 또는 다른 유사한 프로세서 구성일 수 있다.
특정 실시예에서, 웨어러블 장치(22)의 하나 이상의 디스플레이(74)는 각각 LCD, OLED 디스플레이 또는 손님(18)에게 현실 세계 이미지(47) 및 AR 이미지(30)를 표시하는 데 유용한 다른 유사한 디스플레이를 포함할 수 있다. 특정 실시예에서, 하나 이상의 디스플레이(74)는 각각, 예를 들어, 손님(18)이 각각의 디스플레이(74)를 통해 놀이 공원(10)의 실제 및 물리적 현실 세계 환경을 볼 수 있는 능력을 유지하면서 디스플레이(74)에 나타나는 현실 세계 이미지(46) 및 AR 이미지를 볼 수 있도록 하는 데 유용한 불투명하거나 또는 투명한 LCD, 또는 불투명하거나 또는 투명한 OLED 디스플레이를 포함할 수 있다.
특정 실시예에서, 웨어러블 장치(22)는 웨어러블 장치(22)의 방향 및 위치 센서(64)를 통해 획득된 데이터에 적어도 부분적으로 기초하여 획득 및/또는 유도된 방향 데이터, 위치 데이터, 움직임 추적 데이터 등을, 웨어러블 장치(22)의 하나 이상의 통신 인터페이스(76)를 통해 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전송할 수 있다. 또한, 특정 실시예에서, 웨어러블 장치(22)는 하나 이상의 입력(72)을 통한 웨어러블 장치(22)와의 손님 상호작용에 관한 데이터를, 하나 이상의 통신 인터페이스(76)를 통해 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전송할 수도 있다.
특정 실시예에서, 테마 장치(24)는 테마 장치(24)의 위치, 방향, 움직임 등을 추적하는 데 사용될 수 있는 하나 이상의 방향 및 위치 센서(64)(예컨대, 가속도계, 자력계, 자이로스코프, GPS 수신기, 전자기 및 솔리드 스테이트 움직임 추적 센서와 같은 움직임 추적 센서 등)를 포함할 수 있다. 다른 실시예에서, 테마 장치(24)는, 예를 들어 방향, 위치 및 움직임이 모니터링 시스템(38)에 의해 추적될 수 있는, 수동 객체(즉, 센서, 제어 회로 등을 포함하지 않음)일 수 있다. 이러한 실시예에서, 웨어러블 장치(24)의 수동적 특징(예컨대, 기하학적 측면 또는 표시, RFID 태그 등) 또는 능동적 특징(예컨대, UWB 무선 송신기와 같은 무선 송신기 등)과 같은 특정 특징(80)은 모니터링 시스템(38)에 의해 모니터링되어 테마 장치(24)의 방향, 위치 및 움직임 등을 결정할 수 있다. 특정 실시예에서, 테마 장치(24)는 웨어러블 장치(24)의 방향 및 위치 센서(78)를 통해 획득된 데이터에 적어도 부분적으로 기초하여 획득 및/또는 유도된 방향 데이터, 위치 데이터, 움직임 추적 데이터 등을, 웨어러블 장치(24)의 하나 이상의 통신 인터페이스(82)를 통해 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전송할 수 있다.
특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36)은 프로세서(84)(예컨대, 범용 프로세서 또는 다른 프로세서) 및 메모리(86)와 같은 처리 회로를 포함할 수 있으며, 이는 이미지 생성 시스템(36)의 하나 이상의 통신 인터페이스(88)를 통해, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26) 또는 모니터링 시스템(38)으로부터 수신된(예컨대, 손님(18)으로부터 직접적으로 또는 직원(18)으로부터 간접적으로), 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26)와의 손님 상호작용에 관한 데이터를 처리하여, 각각 모바일 장치(20) 및 웨어러블 장치(22)의 디스플레이(58, 74)를 통해 생성 및/또는 AR 이미지 생성기(28)를 통해 생성될 수 있는 AR 이미지(30)를 생성할 수 있다. 또한, 특정 실시예에서, AR 이미지(30)에 추가적으로, 이미지 생성 시스템(36)은 하나 이상의 움직임 효과, 소리 효과, 햅틱 피드백 효과, 색상 효과, 향기 효과 등이 AR 이미지(30)의 외형과 일치할 수 있는 모바일 장치(20), 웨어러블 장치(22) 및/또는 테마 장치(24)의 내부 구성요소를 통해 구현되도록 트리거(trigger)할 수도 있다. 이러한 기능을 수행하는 명령은 메모리(86) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(84)는 범용 프로세서, SoC 장치, ASIC 또는 일부 다른 유사한 프로세서 구성일 수 있다.
특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36)은 현실 세계 이미지(46)에 중첩된 하나 이상의 AR 이미지(30)를 생성 및 렌더링하여, 손님(18)을 위한 완전한 AR 경험을 생성할 수도 있다. 예를 들어, 특정 실시예에서, 이미지 생성 시스템(36)은, 손님(18)이 AR 이미지(30)와 함께 놀이 공원(10)의 현실 세계 물리적 환경을 인식하도록(예컨대, 가상 증강), 비디오 병합 및/또는 광학 병합 기술을 사용하여, AR 이미지(30)를 현실 세계 이미지(46)에 중첩할 수 있다. 구체적으로, 특정 실시예에서, 이미지 생성 시스템(36)은, 현실 세계 이미지(46)가 AR 이미지(30)에 중첩된 배경으로서 나타날 수 있도록, 현실 세계 이미지(46)와 시간적으로 및 공간적으로 어울리는 AR 이미지(30)의 뷰를 렌더링할 수 있다.
특정 실시예에서, 이미지 생성 시스템(36)은, 각각 모바일 장치(20) 및 웨어러블 장치(22)의 입력과의 상호작용, 모바일 장치(20), 웨어러블 장치(22), 테마 장치 및/또는 손님(18) 자체의 위치, 방향 및/또는 움직임, 놀이 공원(1)의 현실 세계 환경에 배치된 특정 물리적 객체(26)에 관한 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 손님(18) 자체의 근접도, 모바일 장치(20) 및/또는 웨어러블 장치(22)에 손님에 의해 입력된 지역 설정, 놀이 공원(10)의 전역 설정(예컨대, 놀이 공원(10)의 소유주에 의해 입력된), 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)를 통해 수행된 이전 상호작용, 다른 환경적 요소(예컨대, 하루 중 현재 시간, 현재 날짜, 현재 날씨 등) 등과 같은, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26)와의 손님 상호작용에 관한 데이터에 적어도 부분적으로 기초하여, 하나 이상의 AR 이미지를 생성하도록 구성된다. 본 명세서에서 더 자세히 설명되는 바와 같이, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26)와의 손님 상호작용(예컨대, 손님(18)으로부터 직접적으로 또는 직원(17)으로부터 간접적으로)에 관한 데이터는 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 내 배치된 물리적 객체(26)로부터 직접 수신될 수 있거나, 모니터링 시스템(38)으로부터 수신될 수 있다.
특정 실시예에서, 이미지 생성 시스템(36)이 하나 이상의 AR 이미지(30)를 생성하면, 이미지 생성 시스템(36)은 생성된 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 AR 이미지 생성기(28)에 전송하여, AR 이미지 생성기(28)가 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 AR 이미지 생성기(28)의 하나 이상의 디스플레이(90)에 표시하거나 또는 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 AR 이미지 생성기(28)의 하나 이상의 프로젝터(92)를 통해 투사할 수 있도록 한다. 추가적으로, 특정 실시예에서, 이미지 생성 시스템(36)이 하나 이상의 AR 이미지(30)를 생성하면, 이미지 생성 시스템(36)은 생성된 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 모바일 장치(20) 및/또는 웨어러블 장치(22)로 전송하여, 모바일 장치(20) 및/또는 웨어러블 장치(22)가 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 각각 모바일 장치(20) 및/또는 웨어러블 장치(22)의 디스플레이(58, 74)에 표시할 수 있도록 한다.
특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36)은, 모니터링 시스템(38)에 의해 검출될 수 있는, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 손님(18) 자체의 방향 데이터, 위치 데이터 및 움직임 추적 데이터에 적어도 부분적으로 기초하여, 하나 이상의 AR 이미지(30)를 생성 및 렌더링할 수 있다. 예를 들어, 특정 실시예에서, 모니터링 시스템(38)은 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 손님(18) 자체의 방향 데이터, 위치 데이터 및 움직임 추적 데이터를 검출하도록 구성된 하나 이상의 추적 장치(94)(예컨대, 특정 실시예에서, LiDAR 시스템과 같은 하나 이상의 카메라)를 포함할 수 있다. 그 다음, 모니터링 시스템(38)은 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 손님(18)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터를, 모니터링 시스템(38)의 하나 이상의 통신 인터페이스(96)를 통해 이미지 생성 시스템(36)과 통신할 수 있고, 이미지 생성 시스템(36)은 AR 이미지(30)를 생성하여, 모바일 장치(20), 웨어러블 장치(22) 및/또는 테마 장치(24)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터에 적어도 부분적으로 기초하여 AR 이미지 생성기(28)를 통해 생성 및/또는 모바일 장치(20) 및/또는 웨어러블 장치(22)의 디스플레이(58, 74)에 표시되도록 할 수 있다. 또한, 특정 실시예에서, 하나 이상의 추적 장치(94)는 손님(18)의 신원, 손님(18)의 감정 등을 검출하는 손님(18)의 얼굴 인식을 수행하도록 구성될 수 있고, 모니터링 시스템(38)은 손님(18)의 얼굴 인식에 관한 데이터를 모니터링 시스템(38)의 하나 이상의 통신 인터페이스(96)를 통해 이미지 생성 시스템(36)과 통신할 수 있으며, 이미지 생성 시스템(36)은 AR 이미지(30)를 생성하여, 손님(18)의 얼굴 인식에 적어도 부분적으로 기초하여 AR 이미지 생성기(28)를 통해 생성 및/또는 모바일 장치(20) 및/또는 웨어러블 장치(22)의 디스플레이(58, 74)에 표시되도록 할 수 있다.
또한, 특정 실시예에서, 모니터링 시스템(38)은, 프로세서(98)(예컨대, 범용 프로세서 또는 다른 프로세서) 및 메모리(100)와 같은 처리 회로를 포함할 수 있으며, 예를 들어 데이터를 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 적합한 유형으로 변환하는 하나 이상의 추적 장치(94)에 의해 검출된 모바일 장치, 웨어러블 장치, 테마 장치 및/또는 손님(18)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터(및/또는 손님(18)의 얼굴 인식에 관한 데이터)를 처리할 수 있다. 이러한 기능을 수행하는 명령은 메모리(100) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드로 인코딩될 수 있다. 특정 실시예에서, 프로세서(98)는 범용 프로세서, SoC 장치, ASIC 또는 일부 다른 유사한 프로세서 구성일 수 있다.
유사하게, 특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36)은, 모니터링 시스템(38)에 의해 검출될 수 있는, 손님(18)(및/또는 손님(18)의 얼굴 인식)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터에 적어도 부분적으로 기초하여 하나 이상의 AR 이미지(30)를 생성 및 렌더링할 수 있다. 예를 들어, 특정 실시예에서, 모니터링 시스템(38)의 하나 이상의 추적 장치(94)는 손님(18)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터를 검출할 수 있다(예컨대, 손님(18)의 신체 검출, 손님(18)의 손 제스처의 패턴 검출 등을 포함함). 그 후, 모니터링 시스템(38)은 손님(18)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터를, 모니터링 시스템(38)의 하나 이상의 통신 인터페이스(96)를 통해, 이미지 생성 시스템(36)과 통신할 수 있고, 이미지 생성 시스템(36)은 AR 이미지(30)를 생성하여, 손님(18)의 방향 데이터, 위치 데이터 및 움직임 추적 데이터에 적어도 부분적으로 기초하여 AR 이미지 생성기(28)를 통해 생성 및/또는 모바일 장치(20) 및/또는 웨어러블 장치의 디스플레이(58, 74)에 표시될 수 있다. 또한, 본 명세서에서 설명되는 바와 같이, 하나 이상의 추적 장치(94)는 손님(18)의 얼굴 인식을 수행하여 손님(18)의 신원, 손님(18)의 감정 등을 검출하도록 구성될 수 있고, 모니터링 시스템(38)은 손님(18)의 얼굴 인식에 관한 데이터를, 모니터링 시스템(38)의 하나 이상의 통신 인터페이스(96)를 통해 이미지 생성 시스템(36)과 통신할 수 있으며, 이미지 생성 시스템(36)은 AR 이미지(30)를 생성하여, 손님(18)의 얼굴 인식에 적어도 부분적으로 기초하여, AR 이미지 생성기(28)를 통해 생성 및/또는 모바일 장치(20) 및/또는 웨어러블 장치(22)의 디스플레이(58, 74)에 표시될 수 있다. 또한, 특정 실시예에서, 모니터링 시스템(38)의 처리 회로는 하나 이상의 추적 장치(94)에 의해 검출된 데이터를 처리하여, 예를 들어 데이터를 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 적합한 유형으로 변환한다.
또한, 특정 실시예에서, AR 이미지 생성기(28)는 프로세서(132) 및 메모리(134)와 같은 처리 회로를 포함할 수 있다. 프로세서(132)는 메모리(134)에 작동 가능하도록 연결되어 특정 AR 이미지 생성기(28)에 대한 특정 작동 상태를 결정 및/또는 설정하기 위한 명령을 실행한다. 이러한 명령은 메모리 134 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드에 인코딩될 수 있다. 특정 실시예에서, 프로세서(132)는 범용 프로세서, SoC 장치, ASIC 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 특정 AR 이미지 생성기(28)의 프로세서(132)는 이미지 생성 시스템(36)으로부터 수신(예컨대, AR 이미지 생성기(28)의 하나 이상의 통신 인터페이스(136)를 통해)된 AR 이미지(30)가 생성되도록 하여, AR 이미지 생성기(28)의 하나 이상의 디스플레이(90)에 AR 이미지(30)(및, 특정 실시예에서, 현실 세계 이미지(46))를 표시 또는 AR 이미지 생성기(28)의 하나 이상의 프로젝터(92)를 통해 AR 이미지(및, 특정 실시예에서, 현실 세계 이미지(46))를 투사하도록 구성될 수 있다.
또한, 특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 이미지 생성 시스템(36)은 놀이 공원(10)의 특정 물리적 객체(26)에 관한 데이터에 적어도 부분적으로 기초하여 하나 이상의 AR 이미지를 생성 및 렌더링할 수 있다. 예를 들어, 특정 실시예에서, 물리적 객체(26)는 프로세서(102) 및 메모리(104)와 같은 처리 회로를 포함할 수 있다. 프로세서(102)는 메모리(104)에 작동 가능하도록 연결되어, 특정 물리적 객체(26)의 특정 작동 상태를 결정 및/또는 설정하기 위한 명령을 실행할 수 있다. 이러한 명령은 메모리(104) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드에 인코딩될 수 있다. 특정 실시예에서, 프로세서(102)는 범용 프로세서, SoC 장치, ASIC 또는 일부 다른 유사한 프로세서 구성일 수 있다. 특정 실시예에서, 특정 물리적 객체(26)의 프로세서(102)는 특정 물리적 효과(32)가 물리적 객체(26)에 의해서 활성화되었는지 여부를 결정하고, 이 결정을 물리적 객체(26)의 하나 이상의 통신 인터페이스(106)를 통해 이미지 생성 시스템(36)에 전달하도록 구성될 수 있으며, 이미지 생성 시스템(36)은 AR 이미지(30)를 생성하여, 이 결정에 적어도 부분적으로 기초하여, AR 이미지 생성기(28)를 통해 생성 및/또는 모바일 장치(20) 및/또는 웨어러블 장치(22)의 디스플레이(58, 74)에 표시되도록 할 수 있다.
이와 같이, 물리적 상호작용 시스템(40)은 놀이 공원(10)의 특정 물리적 객체(26)의 물리적 효과(32)(예컨대, 움직임 효과, 소리 효과, 햅틱 피드백 효과, 색상 효과, 향기 효과 등)의 생성을 가능하게 한다. 구체적으로, 물리적 상호작용 시스템(40)은 놀이 공원(10)의 특정 물리적 객체(26)의 물리적 효과(32)를 생성하는 데 사용될 수 있다. 특정 실시예에서, 본 명세서에서 더 자세히 설명되는 바와 같이, 프로세서(108)(예컨대, 범용 프로세서 또는 다른 프로세서) 및 메모리(110)와 같은 처리 회로를 포함할 수 있는, 물리적 상호작용 시스템(40)은 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24), 물리적 객체(26), 이미지 생성 시스템(36) 및 모니터링 시스템(38)으로부터의 데이터를 처리하여 특정 물리적 객체(26)에 대해 생성되어야 하는 물리적 효과(32)의 유형을 결정할 수 있다. 구체적으로, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24), 물리적 객체(26), 이미지 생성 시스템(36) 및 모니터링 시스템(38) 사이에서 통신되는 것으로 앞에서 설명된 모든 상이한 유형의 데이터는 놀이 공원(10) 그러한 구성 요소 및 물리적 상호작용 시스템(40)의 하나 이상의 통신 인터페이스(112)로/로부터 통신될 수 있고, 물리적 상호작용 시스템(40)은 이러한 데이터에 적어도 부분적으로 기초하여 특정 물리적 객체(26)에 대해 생성되어야 하는 특정 물리적 효과(32)를 결정 및 물리적 효과(32)를 생성(예컨대, 구현)하는 그러한 물리적 객체(26)에 제어 신호를 전달할 수 있다는 것을 이해할 것이다. 이러한 명령은 메모리(110) 및/또는 다른 저장 장치와 같은 유형의(tangible) 비일시적 컴퓨터 판독가능 매체에 저장된 프로그램 또는 코드에 인코딩될 수 있다. 특정 실시예에서, 프로세서(108)는 범용 프로세서, SoC 장치, ASIC 또는 일부 다른 유사한 프로세서 구성일 수 있다.
이와 같이, 특정 실시예에서, 하나 이상의 물리적 객체(26)에 대해 구현될 물리적 효과(32)는 물리적 상호작용 시스템(40)에 의해 결정될 수 있고, 물리적 상호작용 시스템(40)은 특정 물리적 객체(26)와 통신(예컨대, 통신 인터페이스(106, 112)를 통해)하여, 예를 들어 물리적 객체(26)와 연관된 물리적 작동 메커니즘(114)을 통해 물리적 효과(32)가 구현되도록 할 수 있다. 예를 들어, 특정 실시예에서, 물리적 효과(32)는 전원에 의해 생성되는 물리적 객체(26)로부터 발산하는 전기 스파크, 점화 시스템에 의해 생성되는 물리적 객체(26)로부터 발산하는 화염, 물리적 객체(26)의 일부의 움직임 등일 수 있다.
이와 같이, 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)은 협력하여 함께 작동하여 놀이 공원(10)의 손님(18)을 위한 증강 경험을 생성하도록 구성되며, 여기서 놀이 공원(10)의 현실 세계 환경은, 예를 들어 놀이 공원(10)의 현실 세계 환경에서 AR 이미지(30)의 생성 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)의 물리적 효과(32)의 생성을 통해 증강된다. 특히, 각각 이미지 생성 시스템(36) 및 물리적 상호작용 시스템(40)에 의해 생성되는 AR 이미지(30) 및 물리적 효과(32)는, 예를 들어 놀이 공원의 하루 운영 동안 주어진 시기간 동안 발생하는, 본 명세서에서 설명된 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 놀이 공원(10)의 현실 세계 환경 내 배치된 물리적 객체(26)와의 모든 손님 상호작용(예컨대, 손님(18)으로부터 직접적으로 또는 직원(17)으로부터 간접적으로)을 고려함으로써 결정될 수 있다. 예를 들어, 특정 실시예에서, 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)은 본 명세서에서 설명되는 손님 상호작용을 놀이 공원(10)의 운영하는 내내 집합적으로 모니터링하여, 본 명세서에서 설명되는 증강 경험을 생성할 때 본 명세서에서 설명되는 모든 손님 상호작용이 고려될 수 있도록 한다.
본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)이 협업하여 증강 경험을 생성하는 방법의 예시를 도시하기 위하여, 본 개시의 실시예에 따라, 도 3은 놀이 공원(10)의 운영일 시작 시 놀이 공원(10)의 테마 어트랙션(116)을 도시하고, 도 4는 놀이 공원(10)의 운영일 종료 시 놀이 공원(10)의 테마 어트랙션(116)을 도시한다. 도 3에 도시된 바와 같이, 놀이 공원(10)의 운영일 시작 시, AR 이미지 생성기(28)는 파괴된 구조물(118)(예컨대, 집 또는 다른 유형의 빌딩 또는 건물)을 도시하는 AR 이미지(30)를 생성하는 중일 수 있고, 다양한 물리적 객체(26)는 상승된 위치에 있지 않은 다양한 진영 깃발(faction flag)(120)(즉, 물리적 객체(26)임)을 포함할 수 있다. 반대로, 도 4에 도시된 바와 같이, 놀이 공원(10)의 운영일 종료 시, AR 이미지 생성기(28)는 저장된 구조물(118) 및 예를 들어 하루 동안 놀이 공원(10)의 운영 과정 동안 해당하는 진영에 투표한 손님(18)의 수에 대응하는 상이한 높이로 상승(즉, 물리적 상호작용 시스템(40)에 의해 지시된 대로 생성된 물리적 효과(32)로서)된 다양한 진영 깃발(120)을 묘사하는 AR 이미지(30)를 생성하는 중일 수 있다.
이와 같이, 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)은, 예를 들어 놀이 공원(10)의 운영일 동안, 놀이 공원(10)의 손님(18)의 집합적인 행동을 추적하여, 손님(18)이 연결된 증강 경험을 제공받도록 할 수 있다. 특히, 놀이 공원(10)에서 하루의 운영 과정 동안 특정 테마 어트랙션(116)과 상호작용함으로써(예컨대, 직접적으로 또는 직원(17)을 통해 간접적으로), 손님(18)은 그들에게 가장 중요한 놀이 공원(10)의 테마 어트랙션(116)에 상당한 기여를 했다는 것을 느낄 수 있다. 그러나, 예를 들어, 운영일 전체를 단일 테마 어트랙션(116)과 상호작용하는 데 보냄으로써, 특정 손님(18)이 특정 테마 어트랙션(116)을 본질적으로 제어하는 것을 방지하기 위하여, 특정 실시예에서, 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)은 특정 테마 어트랙션(116)과의 손님 상호작용에 상호작용 "쿨다운(cooldown)"을 부과할 수 있다. 다시 말해, 예를 들어, 손님(18)이 특정 테마 어트랙션(116)과 상호작용하면, 그 특정 손님(18)은 일정한 시간 동안(예컨대, 15분, 30분, 1시간 등) 그 특정 테마 어트랙션(116)과 다른 상호작용을 하는 것이 방지될 수 있다.
도 3 및 도 4에 도시된 바와 같이, 특정 실시예에서, 복원된 구조물(118)의 묘사된 특징이, 예를 들어 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와 상호작용함으로써 각 진영에 투표한 손님(18)의 상대적인 수에 적어도 부분적으로 기초하도록, 구조물(118)이 복원된 것으로 묘사(즉, 이미지 생성 시스템(36)에 의해 지시된 대로, AR 이미지 생성기(28)에 의해 생성된 AR 이미지(30)에 의해)된다. 예를 들어, 특정 실시예에서, 제 1 진영 깃발(120A)은 제 1 진영과 관련될 수 있고, 이는 일반적으로 상대적으로 "선(good)" 진영으로 인식(예컨대, 테마 어트랙션(116)의 테마에 기초함)될 수 있는 반면, 제 2 진영 깃발(120B)은 제 2 진영과 관련될 수 있고, 이는 일반적으로 상대적으로 "악(evil)" 진영으로 인식(예컨대, 또한 테마 어트랙션(116)의 테마에 기초함)될 수 있다. 이와 같이, 하루 동안 놀이 공원(10)의 운영 과정 동안, 손님(18)(예컨대, 직접적으로 또는 직원(17)을 통해 간접적으로)은 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와 상호작용하여, 그들의 선택의 진영에 투표, 또는 그들의 지지를 표시할 수 있다. 이러한 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와의 손님 상호작용(즉, 손님 진영 투표)에 기초하여, 구조물(118)은 손님 진영 투표와 일치하는 방식으로 복원되도록, AR 이미지 생성기(28)(예컨대, 또한 이미지 생성 시스템(36)에 의해 지시된 대로)에 의해 생성되는 AR 이미지(30)에 의해 점진적으로 묘사될 수 있다.
예를 들어, 더 많은 손님(18)이 제 1(즉, 상대적으로 "선"인) 진영에 투표하는 경우, 구조물(118)은 상대적으로 밝은 색상과 상대적으로 샤프한(sharp) 기하학적 특징으로 복원되는 것으로 묘사될 수 있다. 반대로, 더 많은 손님(18)이 제 2(즉, 상대적으로 "악"인) 진영에 투표하는 경우, 구조물(118)은 상대적으로 어두운 색상과 상대적으로 부식된(eroded) 기하학적 특징으로 복원되는 것으로 묘사될 수 있다. 추가적으로, 더 많은 표를 받는 진영에 대응하는 해당 진영 깃발(120)은, 더 적은 표를 받는 진영에 대응하는 진영 깃발(120)보다 더 높은 높이로 상승(예컨대, 물리적 상호작용 시스템(40)에 의해 지시된 대로, 생성된 물리적 효과(32)로서)할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, 제 1 진영이 놀이 공원(10)의 운영 과정 동안(즉, 운영일 동안) 제 2 진영보다 더 많은 손님 진영 투표를 받았기 때문에, 제 1(즉, 상대적으로 "선"인) 진영에 대응하는 진영 깃발(120A)은 제 2(즉, 상대적으로 "악"인) 진영에 대응하는 진영 깃발(120B) 보다 더 높은 높이로 상승한다. 추가적으로, 또한 도 4에 도시되는 바와 같이, 제 1(즉, 상대적으로 "선"인) 진영이 놀이 공원(10)의 운영일 동안 제 2(즉, 상대적으로 "악"인) 진영보다 더 많은 손님 진영 투표를 받았기 때문에, 구조물(118)은 AR 이미지 생성기(28)에 의해 생성된 AR 이미지(30)에 의해 상대적으로 샤프한 기하학적 특징을 갖는 것으로 묘사된다.
이와 같이, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와의 다양한 손님 상호 작용은, 놀이 공원(10)의 운영 과정 동안(예컨대, 운영일 동안) 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템(40)에 의해 집합적으로 추적되어, AR 이미지 생성기(28)(즉, 이미지 생성 시스템(36)에 의해 지시된 대로)에 의해 생성될 수 있는 AR 이미지(30)를 결정하고, 물리적 객체(예컨대, 물리적 상호작용 시스템(40)에 의해 지시된 대로, 진영 깃발(120))에 의해 생성될 수 있는 물리적 효과(32)를 결정할 수 있다. 구체적으로, 도 3 및 도 4에 도시된 시나리오에서, 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와의 다양한 손님 상호작용은, 놀이 공원(10)의 운영 과정 동안(예컨대, 운영일 동안) 이미지 생성 시스템(36), 모니터링 시스템(38) 및 물리적 상호작용 시스템에 의해 집합적으로 추적되어, 구조물(118)이 어떻게 AR 이미지 생성기(28)(즉, 이미지 생성 시스템(36)에 의해 지시된 대로)에 의해 생성되는 AR 이미지(30)를 이용하여 복원되는 것으로 묘사되어야 하는지를 결정하고, 진영 깃발(120)(즉, 물리적 객체(26)로서)이 상승(즉, 물리적 상호작용 시스템(40)에 의해 지시되는 물리적 효과(32)로서)할 수 있는 상대적인 높이를 결정할 수 있다.
도 5 내지 도 8은, 본 개시의 실시예에 따라, 도 3 및 도 4에 도시된 시나리오와 관련하여, 손님(18)이 놀이 공원(10)의 현실 세계 내 배치된 모바일 장치(20), 웨어러블 장치(22), 테마 장치(24) 및/또는 물리적 객체(26)(예컨대, 진영 깃발(120)을 포함함)와 상호작용할 수 있는 다양한 방법을 도시한다. 예를 들어, 도 5는 모바일 장치(20)의 디스플레이(58)에 표시될 수 있고, 손님(18)(또는 손님(18)에 의해 지시된 대로, 직원(17))이 모바일 장치(20)를 사용하여 손님(18)의 선호하는 진영을 선택(즉, 투표)할 수 있게 하는 옵션을 포함하는 그래픽 사용자 인터페이스(122)를 도시한다. 모바일 장치(20)를 사용하여 손님(18)에 의해/대해 이루어지는 선택은, 모바일 장치(20)에 의해서 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 모바일 장치(20)를 통해 손님(18)에 의해/대해 이루어지는 선택에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다는 것을 이해할 것이다.
다른 예시로서, 도 6은 웨어러블 장치(22)를 착용하는 손님(18)이 선호하는 진영에 대응하는 물리적 객체(26)(예컨대, 도시된 실시예에서 진영 깃발(120))와의 상대적으로 가까운 곳으로 옮겨지는(특정 실시예에서, 3피트 내, 2피트 내, 1발자국 내 또는 더 좁은 간격과 같은, 주어진, 사전결정된 간격 내) 웨어러블 장치(22)를 도시한다. 특정 실시예에서, 웨어러블 장치(220)를 착용하는 손님(18)이 선호하는 특정 진영 깃발(120)과의 웨어러블 장치(22)의 상대적인 근접도는 모니터링 시스템(38)에 의해 검출(예컨대, 모니터링 시스템(38)의 하나 이상의 추적 장치(94)를 통해)될 수 있고, 진영 깃발(120)과의 웨어러블 장치(22)의 검출된 근접도는, 모니터링 시스템(38)에 의해서 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 웨어러블 장치(22)가 상대적으로 가까운 곳으로 옮겨지는 진영 깃발(120)에 대응하는 깃발에 대한 투표를 나타내는, 진영 깃발(120)과의 웨어러블 장치(22)의 검출된 근접도에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다.
그러나, 다른 실시예에서, 웨어러블 장치(22)를 착용하는 손님(18)이 선호하는 특정 진영 깃발(120)과의 웨어러블 장치(22)의 근접도는, 예를 들어 웨어러블 장치(22)가 센서(124)에 가까운 곳으로 옮겨지거나 또는 실제로 탭할 때 검출하도록 구성된 진영 깃발(120)의 일부(예컨대, 특정 실시예에서 받침대(126)) 상에 또는 내에 배치된 센서(124)에 의해 검출될 수 있다. 또한 진영 깃발(120)과의 웨어러블 장치(22)의 검출된 근접도는, 진영 깃발(120)에 의해(예컨대, 진영 깃발(120)의 하나 이상의 통신 인터페이스(106)를 통해), 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 웨어러블 장치(22)가 상대적으로 가까운 곳으로 옮겨지는 진영 깃발(120)에 대응하는 깃발에 대한 투표를 나타내는, 진영 깃발(120)과의 웨어러블 장치(22)의 검출된 근접도에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다.
또 다른 실시예에서, 손님(18)이 선호하는 특정 진영 깃발(120)과의 손님(18)의 상대적인 근접도는 모니터링 시스템(38)의 하나 이상의 추적 장치(94)에 의해 검출될 수 있고, 진영 깃발(120)과의 웨어러블 장치(22)의 검출된 근접도는, 모니터링 시스템(38)에 의해, 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 손님(18)이 상대적으로 가까운 곳으로 가는 진영 깃발(120)에 대응하는 진영에 대한 투표를 나타내는, 진영 깃발(120)과의 손님(18)의 검출된 근접도에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다.
또 다른 예시로서, 도 7은, 손님(18)이 특정 진영을 선호한다는 것을 나타내는, 손님(18)에 의해(또는 손님(18)에 의해 지시되는 대로 직원(17)에 의해) 조작되는 테마 장치(24)를 도시한다. 예를 들어, 특정 실시예에서, 도 7에 도시되는 바와 같이, 테마 장치(24)는 마법 지팡이의 형태일 수 있고, 손님(18)(또는 손님(18)에 의해 지시되는 직원(17))은 테마 장치(24)를 손님(18)이 선호하는 특정 진영과 관련되는 것으로 알려진 특정 패턴(128)(예컨대, 마법 지팡이가 특정 주문을 시전하는 것처럼)으로 움직일 수 있다. 특정 실시예에서, 테마 장치(24)의 움직임(즉, 패턴(128)에 대응하는)은 모니터링 시스템(38)에 의해(예컨대, 모니터링 시스템(38)의 하나 이상의 추적 장치를 통해) 검출될 수 있고, 테마 장치(24)의 검출된 움직임은, 모니터링 시스템(38)에 의해, 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)으로 전달되어, 패턴(128)에 대응하는 진영에 대한 투표를 나타내는, 테마 장치(24)의 검출된 움직임에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다. 그러나, 다른 실시예에서, 테마 장치(24)의 움직임(즉, 패턴(128)에 대응하는)은 테마 장치(24)의 하나 이상의 방향 및 위치 센서(78)에 의해 검출될 수 있고, 테마 장치(24)의 검출된 움직임은, 테마 장치(24)에 의해(예컨대, 테마 장치(24)의 하나 이상의 통신 인터페이스를 통해), 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 패턴(128)에 대응하는 진영에 대한 투표를 나타내는, 테마 장치(24)의 검출된 움직임에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다.
또 다른 예시로서, 도 8은 물리적 객체(26), 예를 들어, 손님(18)의 선호하는 진영에 대응하는 특정 진영 깃발(120)과 상호작용하는 손님(18)(또는 손님(18)에 의해 지시되는 직원(17))을 도시한다. 예를 들어, 도 8에 도시되는 바와 같이, 특정 실시예에서, 손님은 특정 진영 깃발(120)과 관련되는 입력(130)(예컨대, 버튼, 노브, 스위치 등)과 상호작용(예컨대, 누르기, 당기기, 회전, 뒤집기 등)하여 특정 진영 깃발(120)과 관련된 특정 진영에 대한 투표를 행사할 수 있다. 물리적 객체(26)와의 직접 상호작용(즉, 도 8에 도시된 실시예에서 진영 깃발(120)의 입력(130))은, 물리적 객체(26)(즉, 진영 깃발(120))에 의해, 본 명세서에서 설명되는 바와 같은 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)에 전달되어, 손님(18)에 의해, 예를 들어 진영 깃발(120)의 입력(130)과의 직접 상호작용을 통해, 이루어진 선택에 적어도 부분적으로 기초하여, 이미지 생성 시스템(36) 및/또는 물리적 상호작용 시스템(40)이 각각 AR 이미지(30) 및/또는 물리적 효과(32)를 생성하는 것을 용이하게 할 수 있다는 것을 이해할 것이다.
도 9는, 본 개시의 실시예에 따른, 본 명세서에서 설명되는 증강 경험 시스템(34)을 작동하는 방법(138)을 도시한다. 예를 들어, 특정 실시예에서, 방법(138)은, 증강 경험 시스템(34)을 통해, 놀이 공원(10)의 하나 이상의 직원(17), 하나 이상의 모바일 장치(20), 하나 이상의 웨어러블 장치(22), 하나 이상의 테마 장치(24) 또는 놀이 공원(10)의 현실 세계 환경 내 배치된 하나 이상의 물리적 객체(26)와의, 놀이 공원(10)의 복수의 손님(18)의 손님 상호작용을 추적하는 단계(블록 140)를 포함한다. 추가적으로, 특정 실시예에서, 방법(138)은, 증강 경험 시스템(34)을 통해, 손님 상호작용에 관한 데이터에 적어도 부분적으로 기초하여 놀이 공원(10)의 현실 세계 환경을 증강하는 단계(블록 142)를 포함한다.
오직 특정 특징만이 본 명세서에서 도시되고 설명되었지만, 통상의 기술자에게 많은 수정 및 변경이 일어날 것이다. 따라서, 첨부된 청구범위는 이러한 모든 수정 및 변경은 본 개시의 진정한 사상에 포함되는 것으로 의도된 것을 이해하여야 한다.
본 명세서에서 제시되고 청구된 기술은 현재 기술 분야를 명백하게 개선하는 물질적인 객체 및 실제적 성격의 구체적인 예시에 참조 및 적용되고, 이로써 단순히 추상적이거나 무형적이거나 순전히 이론적인 것이 아니다. 또한, 본 명세서의 끝에 첨부된 임의의 청구범위가, "~[기능]을 [수행]하기 위한 수단" 또는 "~[기능]을 [수행]하기 위한 단계"로 나타낸 하나 이상의 구성요소를 포함하는 경우, 이러한 구성 요소는 35 U.S.C § 112(f)에 따라 해석되어야 하는 것이 의도된다. 그러나, 임의의 다른 방식으로 나타낸 구성요소를 포함하는 임의의 청구범위의 경우, 이러한 구성요소는 35 U.S.C § 112(f)에 따라 해석되어야 하지 않아야 하는 것이 의도된다.

Claims (23)

  1. 놀이 공원 시스템으로서,
    증강 경험 시스템을 포함하되,
    상기 증강 경험 시스템은,
    놀이 공원의 복수의 손님의, 놀이 공원의 하나 이상의 직원, 하나 이상의 모바일 장치, 하나 이상의 웨어러블(wearable) 장치, 하나 이상의 테마 장치 또는 상기 놀이 공원의 현실 세계 환경 내 배치된 하나 이상의 물리적 객체와의 손님 상호작용을 추적하고,
    상기 손님 상호작용에 관한 데이터에 적어도 부분적으로 기초하여, 상기 놀이 공원의 상기 현실 세계 환경을 증강하도록 구성되는,
    놀이 공원 시스템.
  2. 제 1 항에 있어서,
    상기 증강 경험 시스템은, 상기 놀이 공원의 모든 운영 시간 동안, 상기 손님 상호작용을 추적하도록 구성되는,
    놀이 공원 시스템.
  3. 제 1 항에 있어서,
    상기 손님 상호작용은, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 물리적 객체의 입력과의 상호작용을 포함하는,
    놀이 공원 시스템.
  4. 제 1 항에 있어서,
    상기 손님 상호작용은, 상기 복수의 손님, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치의 위치, 방향 또는 움직임을 포함하는,
    놀이 공원 시스템.
  5. 제 4 항에 있어서,
    상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치의 상기 위치, 방향 또는 움직임은, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치 내 배치된 방향 및 위치 센서에 의해 검출되는,
    놀이 공원 시스템.
  6. 제 4 항에 있어서,
    상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치의 상기 위치, 방향 또는 움직임은, 상기 놀이 공원의 상기 현실 세계 환경 내 배치된 모니터링 시스템에 의해 검출되는,
    놀이 공원 시스템.
  7. 제 1 항에 있어서,
    상기 손님 상호작용은, 적어도 상기 복수의 손님, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치의, 상기 하나 이상의 물리적 객체와의 근접도(proximity)를 포함하는,
    놀이 공원 시스템
  8. 제 1 항에 있어서,
    상기 증강 경험 시스템은, 이미지 생성 시스템을 포함하되,
    상기 이미지 생성 시스템은,
    상기 손님 상호작용에 관한 상기 데이터에 적어도 부분적으로 기초하여, 하나 이상의 증강 현실(AR) 이미지를 생성하고,
    상기 AR 이미지를 상기 놀이 공원의 상기 현실 세계 환경 내 배치된 하나 이상의 AR 이미지 생성기로 전송하도록 구성되는,
    놀이 공원 시스템.
  9. 제 8 항에 있어서,
    상기 이미지 생성 시스템은, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치에 저장된 지역(local) 설정에 적어도 부분적으로 기초하여, 상기 하나 이상의 AR 이미지를 생성하도록 구성되는,
    놀이 공원 시스템.
  10. 제 8 항에 있어서,
    상기 이미지 생성 시스템은, 상기 놀이 공원의 전역(global) 설정에 적어도 부분적으로 기초하여, 상기 하나 이상의 AR 이미지를 생성하도록 구성되는,
    놀이 공원 시스템.
  11. 제 8 항에 있어서,
    상기 이미지 생성 시스템은, 상기 놀이 공원의 상기 현실 세계 환경의, 하루 중 현재 시간, 현재 날짜 또는 현재 날씨에 적어도 부분적으로 기초하여, 상기 하나 이상의 AR 이미지를 생성하도록 구성되는,
    놀이 공원 시스템.
  12. 제 1 항에 있어서,
    상기 증강 경험 시스템은 물리적 상호작용 시스템을 포함하되,
    상기 물리적 상호작용 시스템은,
    상기 손님 상호작용에 관한 상기 데이터에 적어도 부분적으로 기초하여, 상기 하나 이상의 물리적 객체에 대해 구현될 하나 이상의 물리적 효과를 결정하고,
    상기 하나 이상의 물리적 객체에 하나 이상의 제어 신호를 전송하여, 상기 결정된 하나 이상의 물리적 효과를 구현하도록 구성되는,
    놀이 공원 시스템.
  13. 제 12 항에 있어서,
    상기 물리적 상호작용 시스템은, 상기 하나 이상의 모바일 장치, 상기 하나 이상의 웨어러블 장치 또는 상기 하나 이상의 테마 장치에 저장된 지역 설정에 적어도 부분적으로 기초하여, 상기 하나 이상의 물리적 효과를 결정하도록 구성되는,
    놀이 공원 시스템.
  14. 제 12 항에 있어서,
    상기 물리적 상호작용 시스템은, 상기 놀이 공원의 전역 설정에 적어도 부분적으로 기초하여, 상기 하나 이상의 물리적 효과를 결정하도록 구성되는,
    놀이 공원 시스템.
  15. 제 12 항에 있어서,
    상기 물리적 상호작용 시스템은, 상기 놀이 공원의 상기 현실 세계 환경의, 하루 중 현재 시간, 현재 날짜 또는 현재 날씨에 적어도 부분적으로 기초하여, 상기 하나 이상의 물리적 효과를 결정하도록 구성되는,
    놀이 공원 시스템.
  16. 제 1 항에 있어서,
    상기 하나 이상의 모바일 장치는, 하나 이상의 휴대 전화 또는 태블릿 컴퓨터를 포함하는,
    놀이 공원 시스템.
  17. 제 1 항에 있어서,
    상기 하나 이상의 웨어러블 장치는, 하나 이상의 시계 유사(watch-like) 전자 장치, 팔찌, 장신구, 반지, 머리띠, 안경, 모자, 헬멧, 티셔츠, 재킷, 코트, 반바지, 바지, 신발, 부츠 또는 기타 웨어러블 품목을 포함하는,
    놀이 공원 시스템.
  18. 제 1 항에 있어서,
    상기 하나 이상의 테마 장치는, 장난감 총, 칼, 깃발 또는 지팡이를 포함하는,
    놀이 공원 시스템.
  19. 제 1 항에 있어서,
    상기 증강 경험 시스템은, 상기 놀이 공원의 상기 현실 세계 환경 내 배치된 하나 이상의 모바일 장치, 하나 이상의 웨어러블 장치, 하나 이상의 테마 장치 또는 하나 이상의 물리적 객체를 통해, 상기 놀이 공원의 상기 하나 이상의 직원으로부터 상기 손님 상호작용에 관한 상기 데이터에 관한 입력을 수신하도록 구성되는,
    놀이 공원 시스템.
  20. 방법으로서,
    놀이 공원의 증강 경험 시스템을 통해, 상기 놀이 공원의 복수의 손님의, 상기 놀이 공원의 하나 이상의 직원, 하나 이상의 모바일 장치, 하나 이상의 웨어러블 장치, 하나 이상의 테마 장치 또는 상기 놀이 공원의 현실 세계 환경 내 배치된 하나 이상의 물리적 객체와의 손님 상호작용을 추적하는 단계와,
    상기 증강 경험 시스템을 통해, 상기 손님 상호작용에 관한 데이터에 적어도 부분적으로 기초하여, 상기 놀이 공원의 현실 세계 환경을 증강하는 단계를 포함하는,
    방법.
  21. 제 20 항에 있어서,
    상기 놀이 공원의 상기 현실 세계 환경을 증강하는 단계는,
    이미지 생성 시스템을 통해, 상기 손님 상호작용에 관한 상기 데이터에 적어도 부분적으로 기초하여, 하나 이상의 증강 현실(AR) 이미지를 생성하는 단계와,
    상기 이미지 생성 시스템을 통해, 상기 AR 이미지를, 상기 놀이 공원의 상기 현실 세계 환경 내 배치된 하나 이상의 AR 이미지 생성기로 전송하는 단계를 포함하는,
    방법.
  22. 제 20 항에 있어서,
    상기 놀이 공원의 상기 현실 세계 환경을 증가하는 단계는,
    물리적 상호작용 시스템을 통해, 상기 손님 상호작용에 관한 상기 데이터에 적어도 부분적으로 기초하여, 상기 하나 이상의 물리적 객체에 대해 구현될 하나 이상의 물리적 효과를 결정하는 단계와,
    상기 물리적 상호작용 시스템을 통해, 상기 하나 이상의 물리적 객체에 하나 이상의 제어 신호를 전송하여, 상기 결정된 하나 이상의 물리적 효과를 구현하는 단계를 포함하는,
    방법.
  23. 제 20 항에 있어서,
    상기 놀이 공원의 상기 증강 경험 시스템을 통해, 상기 놀이 공원의 모든 운영 시간 동안, 상기 손님 상호작용을 추적하는 단계를 포함하는,
    방법.
KR1020217024800A 2019-01-08 2020-01-03 연결된 증강 환경을 위한 시스템 및 방법 KR20210113639A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962789872P 2019-01-08 2019-01-08
US62/789,872 2019-01-08
US16/293,351 US10780359B2 (en) 2019-01-08 2019-03-05 Systems and methods for a connected augmented environment
US16/293,351 2019-03-05
PCT/US2020/012160 WO2020146202A1 (en) 2019-01-08 2020-01-03 Systems and methods for a connected augmented environment

Publications (1)

Publication Number Publication Date
KR20210113639A true KR20210113639A (ko) 2021-09-16

Family

ID=71403453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217024800A KR20210113639A (ko) 2019-01-08 2020-01-03 연결된 증강 환경을 위한 시스템 및 방법

Country Status (8)

Country Link
US (2) US10780359B2 (ko)
EP (1) EP3908387A1 (ko)
JP (1) JP2022516930A (ko)
KR (1) KR20210113639A (ko)
CN (1) CN113272036A (ko)
CA (1) CA3124882C (ko)
SG (1) SG11202106457XA (ko)
WO (1) WO2020146202A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360419B1 (en) 2018-01-15 2019-07-23 Universal City Studios Llc Interactive systems and methods with tracking devices
WO2019210415A1 (en) * 2018-05-01 2019-11-07 D-Box Technologies Inc. Multi-platform vibro-kinetic system
US10780359B2 (en) * 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment
US11140102B1 (en) * 2019-03-29 2021-10-05 Verizon Media Inc. Systems and methods for initiating communication between users based on machine learning techniques
US11474602B2 (en) 2020-02-26 2022-10-18 Disney Enterprises, Inc. Gameplay system with play augmented by merchandise
US11630505B2 (en) * 2020-10-26 2023-04-18 Universal City Studios Llc Interactive energy effect attraction
WO2023107542A1 (en) * 2021-12-09 2023-06-15 Universal City Studios Llc Amusement content processing systems and methods
US20230367988A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Guest-specific artificial intelligence entity systems and methods

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191450B2 (en) 2007-09-20 2015-11-17 Disney Enterprises, Inc. Measuring user engagement during presentation of media content
US9839856B2 (en) 2008-03-11 2017-12-12 Disney Enterprises, Inc. Method and system for providing interactivity based on sensor measurements
US9741145B2 (en) 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
JP2016502694A (ja) 2012-10-04 2016-01-28 ディズニー エンタープライゼス インコーポレイテッド 没入型環境用のインタラクティブ型オブジェクト
WO2014075028A1 (en) 2012-11-09 2014-05-15 Whitewater West Industries, Ltd. Mobile application for an amusement park or waterpark
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9155971B1 (en) 2014-05-28 2015-10-13 Disney Enterprises, Inc. Selective illumination of physical scenery in amusement park rides
US9504930B2 (en) 2014-08-26 2016-11-29 Universal City Studios Llc Special effects techniques
US9990777B2 (en) 2015-05-14 2018-06-05 Magic Leap, Inc. Privacy-sensitive consumer cameras coupled to augmented reality systems
CN205581781U (zh) * 2016-03-13 2016-09-14 上海盟云移软网络科技股份有限公司 一种增强现实飞行体验系统
US10512845B2 (en) 2016-09-20 2019-12-24 Disney Enterprises, Inc. Real-time manipulation of gameplay through synchronous signal consumption in non-interactive media
CN106383587B (zh) * 2016-10-26 2020-08-04 腾讯科技(深圳)有限公司 一种增强现实场景生成方法、装置及设备
US10004984B2 (en) 2016-10-31 2018-06-26 Disney Enterprises, Inc. Interactive in-room show and game system
US10484547B2 (en) 2016-11-01 2019-11-19 Disney Enterprises, Inc. Systems and methods of distributing image effects for user experiences
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US10656704B2 (en) * 2017-05-10 2020-05-19 Universal City Studios Llc Virtual reality mobile pod
US10699084B2 (en) * 2018-01-15 2020-06-30 Universal City Studios Llc Local interaction systems and methods
US10818152B2 (en) * 2018-01-15 2020-10-27 Universal City Studios Llc Interactive systems and methods with feedback devices
US10360419B1 (en) * 2018-01-15 2019-07-23 Universal City Studios Llc Interactive systems and methods with tracking devices
US10780359B2 (en) * 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment

Also Published As

Publication number Publication date
US11173408B2 (en) 2021-11-16
CA3124882C (en) 2024-06-04
US20200376397A1 (en) 2020-12-03
EP3908387A1 (en) 2021-11-17
JP2022516930A (ja) 2022-03-03
CN113272036A (zh) 2021-08-17
SG11202106457XA (en) 2021-07-29
CA3124882A1 (en) 2020-07-16
US20200215442A1 (en) 2020-07-09
WO2020146202A8 (en) 2021-02-18
US10780359B2 (en) 2020-09-22
WO2020146202A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
US11173408B2 (en) Systems and methods for a connected augmented environment
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
US10269180B2 (en) Information processing apparatus and information processing method, display apparatus and display method, and information processing system
JP2022036116A (ja) 拡張現実及び仮想現実画像を生成するためのシステム及び方法
CN105188516B (zh) 用于增强和虚拟现实的系统与方法
CN106484115B (zh) 用于增强和虚拟现实的系统和方法
US20140055352A1 (en) Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing
CN106383587A (zh) 一种增强现实场景生成方法、装置及设备
CN105637529A (zh) 图像捕获输入和投影输出
JP6321263B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20210271881A1 (en) Augmented reality guest recognition systems and methods
JP2018124826A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US10692294B1 (en) Systems and methods for mediated augmented physical interaction
Chague et al. Digital cloning for an increased feeling of presence in collaborative virtual reality environments
JP2018192238A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
RU2021123328A (ru) Системы и способы для связанной дополняемой среды
CN118170246A (zh) 虚拟场景图像的显示方法、装置、存储介质及设备
JP2018121132A (ja) 映像提供システム、映像提供方法及び映像提供プログラム