KR102588344B1 - 가상 현실 이동식 포드 - Google Patents

가상 현실 이동식 포드 Download PDF

Info

Publication number
KR102588344B1
KR102588344B1 KR1020197036317A KR20197036317A KR102588344B1 KR 102588344 B1 KR102588344 B1 KR 102588344B1 KR 1020197036317 A KR1020197036317 A KR 1020197036317A KR 20197036317 A KR20197036317 A KR 20197036317A KR 102588344 B1 KR102588344 B1 KR 102588344B1
Authority
KR
South Korea
Prior art keywords
user
attraction
vehicle
assisted
assisted vehicle
Prior art date
Application number
KR1020197036317A
Other languages
English (en)
Other versions
KR20200004875A (ko
Inventor
저스틴 마이클 슈와르츠
로스 알랜 오스터맨
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20200004875A publication Critical patent/KR20200004875A/ko
Application granted granted Critical
Publication of KR102588344B1 publication Critical patent/KR102588344B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/27Output arrangements for video game devices characterised by a large display in a public venue, e.g. in a movie theatre, stadium or game arena
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G33/00Devices allowing competitions between several persons, not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Electromagnetism (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

일 실시형태에 따르면, 시스템은 가상 현실 어트랙션 시스템을 포함한다. 가상 현실 어트랙션 시스템은 사용자에게 가상 현실(VR) 이미지 및/또는 증강 현실(AR) 이미지를 디스플레이하도록 구성되는 VR 및/또는 AR 헤드기어, 및 사용자를 수용하도록 구성되는 적어도 하나의 사용자-보조 차량을 포함한다. 차량은 사용자가 어트랙션 내에서 차량을 이동시키기 위해 적어도 부분적인 원동력을 제공하는 것을 허용하도록 구성되는 프레임을 포함한다. 프레임은 사용자 주위의 경계를 규정한다. 또한, 차량은, 프레임에 결합되며 사용자가 차량에 있을 때 사용자에게 지지부를 제공하도록 구성되는 하니스, 및 가상 현실(VR) 및/또는 증강 현실(AR) 이미지를 VR 및/또는 AR 헤드기어에 통신하도록 구성되는 차량 제어기를 포함한다.

Description

가상 현실 이동식 포드
본 개시물은 일반적으로 놀이 공원 분야에 관한 것이다. 보다 구체적으로, 본 개시물의 실시형태들은 놀이 공원 게임 또는 탈것과 함께 사용되는 방법 및 장비에 관한 것이다.
놀이 공원(또는 테마 파크)은 실질적으로 20세기 초반부터 인기가 높아져 왔다. 놀이 공원 어트랙션(attraction)의 일 유형은 탑승 내러티브(ride narrative)를 강화하는 사전 설정된 효과를 포함하는 탑승 환경 내의 소정의 경로 내에서 주행할 때 다수의 고객이 개별 카에 고정되는 다크 라이드(dark ride)로 구성될 수 있다. 예를 들어, 투사된 이미지, 연기 효과, 및/또는 동작 효과가 탑승 몰입감을 생성하는 데 사용될 수 있다. 동시에, 예컨대 소비자 엔터테인먼트를 위해 가상 현실(VR) 및 증강 현실(AR) 엔터테인먼트 시스템의 사용이 증가하고 있다. 특정 유형의 어트랙션은 탑승 내러티브를 강화하는 방식으로 대체 우주에서의 몰입감을 높이기 위해 고객이 착용하는 VR/AR 헤드세트를 포함할 수 있다.
원래 청구된 청구 대상의 범위에 상응하는 특정 실시형태들을 아래에서 요약한다. 이들 실시형태는 본 개시물의 범위를 제한하려는 것이 아니며, 오히려 이들 실시형태는 개시된 특정 실시형태들의 간단한 개요를 제공하려는 것이다. 실제로, 본 개시물은 아래에서 설명되는 실시형태들과 유사하거나 또는 상이할 수 있는 다양한 형태를 포함할 수 있다.
일 실시형태에 따르면, 시스템은 가상 현실 어트랙션 시스템을 포함한다. 가상 현실 어트랙션 시스템은 사용자에게 가상 현실(VR) 이미지 및/또는 증강 현실(AR) 이미지를 디스플레이하도록 구성되는 VR 및/또는 AR 헤드기어, 및 사용자를 수용하도록 구성되는 적어도 하나의 사용자-보조 차량을 포함한다. 적어도 하나의 사용자-보조 차량은 사용자가 어트랙션 내에서 적어도 하나의 사용자-보조 차량을 이동시키기 위해 적어도 부분적인 원동력을 제공하는 것을 허용하도록 구성되는 프레임을 포함한다. 프레임은 사용자 주위의 경계를 규정한다. 또한, 적어도 하나의 사용자-보조 차량은, 프레임에 결합되며 사용자가 적어도 하나의 사용자-보조 차량에 있을 때 사용자에게 지지부를 제공하도록 구성되는 하니스(harness), 및 적어도 하나의 사용자-보조 차량에 배치되며 가상 현실(VR) 및/또는 증강 현실(AR) 헤드기어에 AR 및/또는 VR 이미지를 통신하도록 구성되는 차량 제어기를 포함한다.
다른 실시형태에 있어서, 가상 현실 어트랙션 시스템은 어트랙션 내에 다수의 사용자-보조 차량을 포함한다. 각각의 사용자-보조 차량은 차량 제어기, 및 AR 및/또는 VR 이미지를 어트랙션에 제공하고 AR 및/또는 VR 이미지를 다수의 사용자-보조 차량에 통신하도록 구성되는 어트랙션 제어기를 포함한다. 어트랙션 제어기는, 실행시에, 시간에 따라 다수의 사용자-보조 차량 각각으로부터 제1 위치 정보 세트를 수신하고, 제1 사용자-보조 차량이 제2 사용자-보조 차량의 소정의 거리 내에 있다고 결정하고, 제1 사용자-보조 차량이 제2 사용자-보조 차량의 소정의 거리 내에 있다는 결정에 기초하여 제1 및 제2 사용자-보조 차량 중 하나 또는 둘 모두의 차량 제어기에 업데이트된 AR 및/또는 VR 이미지를 출력하도록 동작하는 명령어를 저장하는 프로세서를 포함한다.
다른 실시형태에 있어서, 가상 현실 어트랙션 시스템은 다수의 어트랙션 구조물을 갖는 어트랙션 환경 및 사용자를 수용하도록 구성되는 적어도 하나의 사용자-보조 차량을 포함한다. 적어도 하나의 사용자-보조 차량은 사용자가 어트랙션 내에서 적어도 하나의 사용자-보조 차량을 이동시키기 위해 적어도 부분적으로 원동력을 제공하는 것을 허용하도록 구성된 프레임을 포함한다. 프레임은 사용자 주위의 경계를 규정하고, 하니스는 프레임에 결합되며 사용자가 적어도 하나의 사용자-보조 차량에 있을 때 사용자에게 지지부를 제공하도록 구성된다. 또한, 프레임은 적어도 하나의 사용자-보조 차량에 배치되며 증강 현실(AR) 및/또는 가상 현실(VR) 이미지를 사용자가 착용한 VR 및/또는 AR 헤드기어에 통신하도록 구성되는 차량 제어기를 포함한다. 프레임은, 어트랙션 제어기로 하여금, 차량 제어기와 통신해서 AR 및/또는 VR 이미지를 적어도 하나의 사용자-보조 차량 제어기에 제공하게 하고; 환경 내에서 적어도 하나의 사용자-보조 차량의 위치를 나타내는 위치 정보를 수신하게 하고; 위치 정보에 기초하여 AR 및/또는 VR 이미지를 업데이트하게 하는 명령어를 실행하도록 구성되는 프로세서를 갖는 어트랙션 제어기를 더 포함한다.
본 개시물의 이들 및 다른 특징, 양태, 및 장점은 도면 전체에 걸쳐 유사한 문자가 유사한 부분을 나타내는 첨부 도면을 참조하여 하기의 상세한 설명을 읽을 때 더욱 양호하게 이해될 것이다.
도 1은 본 기술에 따른 증강 현실(AR) 또는 가상 현실(VR) 이동식 포드(mobile pod)를 이용할 수 있는 게임 환경의 실시형태의 설명도이고;
도 2는 본 기술에 따른 도 1의 게임 환경과 함께 사용될 수 있는 VR 시나리오의 실시형태의 설명도이고;
도 3은 본 기술에 따른 도 1의 게임 환경과 함께 사용될 수 있는 가상 현실 어트랙션 시스템의 블록도이고;
도 4는 본 기술에 따른 도 1의 게임 환경과 함께 사용될 수 있는 VR 이동식 포드의 실시형태의 설명도이고;
도 5는 본 기술에 따른 도 1의 게임 환경 내의 효과 스테이션의 블록도이고;
도 6은 본 기술에 따른 도 1의 게임 환경 내의 하나 이상의 VR 이동식 포드의 위치를 모니터링하는 방법의 흐름도이다.
가상 현실(VR) 및/또는 증강 현실(AR) 시스템은 몰입형 엔터테인먼트를 제공하는 것을 목표로 하지만, 사용자가 자신의 경험에 완전히 몰입되는 것을 방지하는 특정 과제가 존재한다. 일반적인 VR 사용자는 실제 환경의 이미지를 가상 환경으로 대체하는 헤드세트를 착용한다. 사용자가 실제 환경을 볼 수 없기 때문에, 사용자는 의도치 않은 접촉을 피하기 위해 경계, 장애물, 또는 다른 사용자가 환경 내의 어디에 있는지를 확인할 수 없다. 이러한 의도치 않은 접촉을 방지하기 위해, 어트랙션은 사용자가 구속되어 있는 차량에 제어된 탑승 경로를 제공함으로써 사용자의 이동을 제한할 수 있다. 그러나, 사용자가 가상 환경 내에서 자유롭게 이동하는 것을 허용하지 않음으로써, 사용자는 진정으로 몰입적인 경험을 할 수 없게 된다. 다른 유형의 엔터테인먼트 시스템은 사용자를 한 장소에 유지하면서 자유롭게 이동한다는 착각을 주기 위해 트레드밀(treadmill) 또는 슬라이딩-타입의 보행 표면을 사용할 수 있다. 그러나, 이러한 시스템은 특정 사용자에게는 자연스러운 보행 동작같은 느낌을 주지 못한다. 다른 유형의 엔터테인먼트 시스템은 VR 경험이 지원되지 않는 경계에 도달했을 때 사용자에게 경고를 제공한다. 그러나, 경고는 사용자를 해당 경험으로부터 벗어나게 한다.
본 명세서에서는 VR 또는 AR 게임 또는 어트랙션 내에서 사용하기 위한 이동식 포드가 제공된다. 특정 실시형태들이 VR과 관련하여 개시되지만, 개시된 실시형태들은 대안으로서 또는 부가적으로 VR 및/또는 AR 게임 또는 어트랙션과 함께 사용될 수 있다는 점을 이해해야 한다. 또한, 특정 실시형태들이 놀이 공원 또는 테마 파크와 관련하여 개시될 수 있지만, 이동식 포드는 다른 맥락에서, 예컨대, 엔터테인먼트 장소, 가정용 엔터테인먼트 용도 등에 사용될 수 있다.
본 명세서에 개시된 실시형태들은 하나 이상의 사용자가 VR 어트랙션의 환경을 탐색하는 AR 및/또는 VR 어트랙션 시스템을 제공한다. 이동식 포드는 어트랙션 내에서의 의도치 않은 접촉을 제한하도록 사용자 주변에 자연스러운 경계를 제공할 수 있다. 예를 들어, 각각의 사용자는 각각의 이동식 포드 내에 위치된 채로 환경을 경험할 수 있다. 이러한 방식으로, 이동식 포드의 구조체 자체는 장애물과 접촉할 수 있지만, 이동식 포드 내에 위치된 사용자가 장애물과 직접 접촉하는 일은 제한된다. 따라서, 사용자는 약간의 충돌 또는 감속을 경험할 수 있지만, 예를 들어, 경계 벽 또는 다른 사용자와의 접촉을 직접적으로 느끼지는 못할 수도 있다. 또한, 충돌 또는 감속은 사용자가 어트랙션의 내러티브 내에서의 자연스러운 이벤트로서 충돌 또는 감속을 경험하도록 VR 이미지로 증강될 수 있다.
일 실시형태에 있어서, 이동식 포드는 VR 헤드기어가 장착되거나 또는 VR 헤드기어와 함께 사용될 수 있고, 사용자가 이동식 포드의 이동에 적어도 부분적으로 동력을 공급하기 위해 환경의 표면 위를 보행하는 것을 허용할 수 있다. 또한, 이동식 포드는 이동식 포드 내의 사용자를 위한 지지부(예컨대, 하니스)를 제공할 수 있다. 예를 들어, 사용자가 환경의 불규칙한 표면 위를 보행하게 되더라도, 지지부는 사용자가 발을 헛디디거나 및/또는 넘어지는 것을 방지할 수 있다. 또한, 사용자가 의도한 게임 또는 다른 가상 환경을 더욱 충분히 경험하는 것을 돕기 위해, 이동식 포드에는 특수 효과 시스템이 장착될 수 있다. 특수 효과 시스템은 유체 시스템, 음향 시스템, 진동 시스템, 에어 시스템 등을 포함하는 효과를 제공할 수 있다.
가상 환경은 다양한 서로 다른 상호적인 오브젝트들을 제공할 수 있다. 예를 들어, 가상 환경은 사용자가 VR 헤드기어를 통해 게임 캐릭터로서 인식할 수 있는 하나 이상의 구조물을 가질 수 있다. 또한, 가상 환경은 사용자에 의해 조작될 수 있는 하나 이상의 게임용 부재를 이용할 수도 있다. 일부 실시형태에 있어서, 사용자가 다른 오브젝트(예컨대, 제2 사용자, 가상 구성물)의 거리 임계치 내로 이동하면, 특정한 효과가 트리거될 수 있다. 예를 들어, 이동식 포드가 구조물의 거리 임계치 내로 이동(예컨대, 조향)되면, 해당 구조물은 프로세서에 의해 다양한 방식으로 해석될 수 있는 동작을 수행할 수 있다. 해석은 VR 헤드기어를 통해 사용자에게 디스플레이될 수 있다. 또한, 가상 환경은 다양한 테마에 적용 가능하도록 재구성될 수 있다.
가상 어트랙션의 양태들은 하나 이상의 제어기에 의해 처리될 수 있다. 예를 들어, 어트랙션 제어기는 각각의 VR 이동식 포드 상의 포드 제어기와 통신할 수 있다. 하나 이상의 제어기는 VR 헤드기어를 통해 사용자에게 디스플레이되는 이미지, 환경/이동식 포드의 특수 효과, 및 환경/이동식 포드의 전체 제어와 관련된 정보를 처리할 수 있다.
개시된 VR 어트랙션 시스템은 쇼, 탈것, 게임, 홍보 등을 포함하는 놀이 공원 어트랙션으로 구현될 수 있다. VR 어트랙션 시스템을 종래의 비디오 게임과 같은 특정 테마와 함께 사용함으로써, 고객은 놀이 공원을 방문하도록 자극받고, 놀이 공원에서 제공하는 테마와 관련된 경험을 더욱 즐길 수 있게 된다. 또한, VR 어트랙션 시스템은 융통성이 있기 때문에, 하나의 게임 경기장이 다양한 여러 테마를 갖는 게임을 호스팅하도록 구성될 수 있다.
전술한 내용을 염두에 두고, 도 1은 본 개시물에 따른 어트랙션(10)(예컨대, 가상 현실/대체 현실(VR/AR) 스릴 게임)의 실시형태를 예시한다. 어트랙션(10)은 어트랙션(10)의 환경(14) 주위에 배치되는 다양한 상호적인 오브젝트(12)를 포함할 수 있다. 예를 들어, 하나 이상의 구조물(16), 아이템(18), 및 리필 스테이션(20)이 환경(14) 주위에 배치될 수 있다. 어트랙션(10)은 또한, 어트랙션(10)의 테마에 따라 다양한 배경 이미지(21)를 포함할 수 있다. 본 실시형태에 있어서, 상호적인 오브젝트(12)들은 평평하고 균일한 표면을 갖는 단순한 구조이다. 일부 실시형태에 있어서, 상호적인 오브젝트는 환경의 테마를 따를 수 있다. 예를 들어, 환경의 테마가 공룡 테마일 경우, 구조물(16)은 공룡 모델일 수 있고, 아이템(18)은 공룡 알일 수 있으며, 리필 스테이션(20)은 수역일 수 있다. 실제로, 상호적인 오브젝트는 장소, 크기, 형상 등에 있어서 무한히 맞춤화될 수 있다. 일부 실시형태에 있어서, 상호적인 오브젝트(12)는 테마에 따라 이동하도록 기계적으로 구동될 수 있다. 예를 들어, 공룡 테마의 실시형태에 있어서, 구조물(16)(예컨대, 공룡 모델)은 그 머리 또는 꼬리를 흔들도록 기계적으로 구동될 수 있다. 일부 실시형태에 있어서, 상호적인 오브젝트(12)는 환경(14)의 표면에 결합(예컨대, 볼트로 고정)될 수 있다. 부가적으로, 또는 대안으로서, 상호적인 오브젝트(12)는 어트랙션(10)의 사용자들에 의해 조작(예컨대, 획득, 이용 등)될 수 있다.
어트랙션(10)의 사용자(22)는 포드(24)(예컨대, 사용자-보조 차량, 이동식 포드) 내에 위치된 채로 환경(14)을 탐색할 수 있다. 전반적으로 후술되는 바와 같이, 사용자(22)는 포드(24)의 한계(예컨대, 경계) 내에서 환경(14) 주위를 보행할 수 있다. 사용자(22)는 목표를 달성하기 위해, 또는 게임 목적상 환경(14)을 탐색할 수 있다. 목표, 또는 게임 목적은 VR/AR 헤드기어(26)를 통해, 및/또는 특정 실시형태들에 있어서는, 각각의 포드(24)와 연계되는 디스플레이 스크린을 통해 디스플레이되는 이미지를 통해 사용자에게 통신될 수 있다. 사용자(22)는 VR/AR 헤드기어(26)를 통해 환경의 테마에 따른 VR/AR 이미지를 볼 수 있다. VR/AR 헤드기어(26)를 통해 사용자(22)에게 보이는 VR/AR 시나리오의 실시형태는 도 2에서 확인할 수 있다.
도 2는 도 1의 실시형태(14)의 VR/AR 시나리오(30)의 실시형태의 설명도이다. 전반적으로 후술되는 바와 같이, VR/AR 시나리오(30)의 이미지들은 VR/AR 헤드기어(26)를 통해 사용자에게 통신될 수 있다. VR/AR 시나리오(30)는 현실-세계 이미지(예컨대, 환경(14)의 이미지)뿐만 아니라 많은 VR 및/또는 AR 영상을 포함할 수 있다. 예를 들어, VR/AR 시나리오(30)는 VR/AR 생물(32), VR/AR 배경 피처(34), VR/AR 오브젝트(36), VR/AR 자연 효과(38), VR/AR 포드(40), 멀리 있는 VR/AR 오브젝트(39) 등과 같은 VR/AR 컴포넌트(80)를 포함할 수 있다. VR/AR 컴포넌트(80)는 환경(14)의 물리적인 오브젝트, 예컨대, 상호적인 오브젝트(12)를 대신해서 나타날 수 있다. 예를 들어, 사용자(22)는 물리적인 현실-세계 구조물(16) 대신 VR/AR 생물(32)을 볼 수 있다. 유사하게, 사용자(22)는 리필 스테이션(20) 또는 아이템(18) 대신, 제각기 VR/AR 자연 효과(38) 및 VR/AR 오브젝트(36)를 볼 수 있다. 일부 실시형태에 있어서, VR 환경 내에서, 포드(24)는 VR/AR 포드(40)로서 나타날 수 있다. VR/AR 포드(40)는 전술한 환경의 테마와 일치하는 방식으로 사용자(22)에게 묘사될 수 있다. 특정 실시형태에 있어서, 사용자(22)는 환경의 테마에 따라 다른 사용자(22)들에게는 생물로서 나타날 수 있다. 예를 들어, VR/AR 포드(40) 이미지는 사용자(22)들이 서로의 임계 거리 내에 있을 경우에 트리거될 수 있다. 다른 실시예들에 있어서, 물리적인 현실-세계 포드(24)는 로봇 구조체, 차량 등으로 보일 수 있다.
전술한 바와 같이, VR/AR 시나리오(30)의 영상을 현실-세계 아이템에 대응시키는 것에는 특정한 이점이 있을 수 있다. 이렇게 현실-세계 오브젝트에 대응하는 VR/AR 생물(32)의 한 가지 이점은 사용자가 VR/AR 생물(32)과 어느 정도는 상호적일 수 있다는 점이다. 예를 들어, VR/AR 포드(40)와 함께 위치되어 있는 사용자(22)가 VR/AR 생물(32)에 충돌/접근하면, 사용자(22)는 포드(24)가 실제로 물리적인 오브젝트(예컨대, 구조물(16))에 접촉하기 때문에 충돌로부터의 반력을 경험할 수 있다. 어트랙션 내러티브의 맥락에 따라, 이러한 충돌은 몰입 효과를 강화할 수 있다. 예를 들어, 범퍼 카 내러티브에서는, 현실-세계 충돌이 게임 목표를 반영할 수 있다. 또한, 현실-세계 물리적 조우는 사용자가 보는 VR/AR 이미지를 통해서 뿐만 아니라, 본 명세서에서 제공되는 각각의 포드(24)를 통해 전달되는 효과에 의해서도 증강될 수 있다.
일부 실시형태에 있어서, 사용자(22)는 물리적인 오브젝트와 접촉하지 않고도 어트랙션 내러티브에 따라 계속해서 반응을 경험할 수 있다. 예를 들어, 상세하게 후술되는 바와 같이, 포드(24)는 포드(24)의 휠(41)의 제동 시스템 및/또는 잠금/조작을 이용할 수 있다. 이러한 방식으로, 사용자(22)가 다른 물리적인 오브젝트(예컨대, 구조물(16), 다른 사용자(22) 등)의 임계 거리에 있을 경우, 제동 시스템의 브레이크들이 (예컨대, 휠(41)의 잠금을 통해) 맞물릴 수도 있고, 및/또는 사용자(22)가 물리적인 오브젝트와 충돌하는 것을 피하도록 휠(41)의 방향이 변경될 수 있다. 어트랙션 내러티브에 따라, 브레이크들의 맞물림 및/또는 휠(41)의 조작은 몰입 효과를 강화할 수 있다.
VR/AR 생물(32)(예컨대, 구조물(16))과의 상호작용은 VR/AR 생물(32)이 포효하거나, 발을 구르거나, 또는 사용자(22)쪽으로 시선을 돌리거나 하는 등의 이벤트(예컨대, 특수 효과)가 일어나게 할 수 있다. 유사하게, 사용자가 VR 자연 효과(38)의 강(42) 또는 웅덩이(44)를 가로지르는 경우, 사용자(22)는 말 그대로 리필 스테이션(20)을 가로질러 보행할 수 있고, 그와 같이 함으로써 젖게 될 수 있다. 현실-세계 아이템에 대응하는 VR/AR 시나리오(30)의 영상의 추가적인 이점은 사용자가 VR/AR 오브젝트(36)를 조작할 수 있다는 점이다. 예를 들어, 사용자는 포드(24)의 제어를 통해 VR/AR 오브젝트(36)(예컨대, 아이템(18))를 들어올릴 수 있다. 전술한 공룡 테마에 따르면, 사용자(22)는 알, 아기 공룡 등을 들어올리는 것을 볼 수 있다. 일부 실시형태에 있어서, 사용자가 VR/AR 오브젝트(36)에 충돌하면, 사용자는 알, 아기 공룡 등을 치는 것을 볼 수 있다.
특정 실시형태들에 있어서, VR/AR 시나리오(30)의 모든 영상이 환경(14)의 상호적인 오브젝트(12)에 대응할 수 있는 것은 아니다. 예를 들어, 사용자(22)는 배경 피처(34) 또는 멀리 있는 다른 VR/AR 오브젝트(39)의 VR/AR 이미지를 볼 수 있다. 일부 실시형태에 있어서, 멀리 있는 VR/AR 이미지(39)는 하늘에서 손이 닿지 않는 곳에 있는 것으로 보일 수 있기 때문에, 멀리 있는 VR/AR 오브젝트(39)가 환경(14)의 현실-세계 오브젝트에 대응하는 것은 유리하지 않을 수도 있다. 일부 실시형태에 있어서, 배경 피처(34)는 환경(14)의 경계(예컨대, 벽)에 대응할 수 있다. 상세하게 후술하는 바와 같이, 사용자(22)는 특정 실시형태들에 있어서 (예컨대, 충돌을 통해) 환경과 상호작용할 수 있기 때문에, 포드(24)는 지지부 및 프레임을 제공할 수 있다. 후술하는 바와 같이, 포드(24)는 환경(14)의 요소들에 충돌하고 그 위를 보행하는 것 이외의 방식으로 사용자(22)와 환경(14) 및/또는 VR/AR 시나리오(30) 사이의 추가적인 상호작용 방법을 제공할 수 있다.
이를 염두에 두고, 도 3은 도 1의 어트랙션(10)의 가상 현실 어트랙션 시스템(50)의 블록도이다. 각각의 사용자(22)에게는, VR/AR 헤드기어(26)와 별개일 수 있거나 또는 결합될 수 있는 포드(24)(예컨대, 사용자-보조 차량)가 제공될 수 있다. 일부 실시형태에 있어서, VR/AR 헤드기어(26)는 헬멧, 바이저, 헤드밴드, 눈가리개, 하나 이상의 안대, 및/또는 사용자(22)가 착용할 수 있는 그 밖의 모자류 또는 안경류의 일부로서 포함될 수 있다. 묘사된 바와 같이, VR/AR 헤드기어(26)는 무선 네트워크(예컨대, WLAN(wireless local area networks), WWAN(wireless wide area networks), NFC(near field communication))를 통해 마스터 제어기(58)의 어트랙션 제어기(56) 및 환경(14)에 통신 가능하게 연결된 포드(24)의 차량 제어기(52)에 통신 가능하게 연결될 수 있다. 차량 제어기(52), 헤드기어(26), 및 어트랙션 제어기(56)는 사용자(22)가 어트랙션(10)을 이용할 때 AR 경험, VR 경험, 혼합 현실(예컨대, AR 및 VR의 조합) 경험, 컴퓨터-매개 현실 경험, 이들의 조합, 또는 사용자(22)를 위한 그 밖의 유사한 초현실적 환경을 포함할 수 있는 VR/AR 시나리오(30)를 생성하는 데 사용될 수 있다. 구체적으로, VR/AR 헤드기어(26)는, 사용자(22)가 VR/AR 시나리오(30)에 완전히 둘러싸인 것처럼 느낄 수 있고 VR/AR 시나리오(30)를 현실-세계 물리적 환경으로 인식할 수 있도록, 게임의 지속 시간 내내 사용자(22)에 의해 착용될 수 있다. 구체적으로, 추가로 이해되는 바와 같이, VR/AR 시나리오(30)는, 하나 이상의 AR 또는 VR 이미지(예컨대, 가상 증강)와 전자적으로 병합되는 VR/AR 헤드기어(26)를 착용하지 않는 경우에도 사용자(22)가 보게 되는 환경(14)의 현실-세계 이미지를 포함하는 실시간 비디오일 수 있다. "실시간(real-time)"이라는 용어는 이미지가 실질적으로 실제 관찰 시간에 가까운 시간 프레임으로 취득 및/또는 제공된다는 것을 나타낸다.
특정 실시형태들에 있어서, VR/AR 헤드기어(26)는 어트랙션(10)의 스릴 팩터, 및 더 나아가, 어트랙션(10)에 있는 동안의 사용자(22)의 경험을 강화하기 위한 AR 경험, VR 경험, 및/또는 그 밖의 컴퓨터-매개 경험을 생성하는 데 유용할 수 있는 다양한 웨어러블 전자 장치들 중 어느 하나일 수 있다. 본 명세서에서 논의되는 바와 같은 VR/AR 헤드기어(26)는 종래의 헤드-마운트형 디스플레이(HMD) 및/또는 헤드-업 디스플레이(HUD)와 같은 종래의 장치와는 별개이며, 그에 비해 많은 이점을 제공할 수 있다는 점을 이해해야 한다. 예를 들어, 추가로 이해되는 바와 같이, VR/AR 헤드기어(26)는 어트랙션(10)의 한 사이클 동안 사용자(22)의 위치, 방위, 및 동작을 추적하는 데 사용될 수 있는 다수의 방위 및 위치 센서(57), 예컨대, 가속도계, 자기력계, 자이로스코프, GPS(Global Positioning System) 수신기를 포함할 수 있다.
일부 실시형태에 있어서, VR/AR 헤드기어(26)(예컨대, 거기에 배치된 표시기)는 VR/AR 헤드기어(26)의, 그리고 사용자(22)의 위치, 장소, 방위 등을 결정하기 위해 모니터링 시스템(예컨대, 하나 이상의 카메라(55))에 의해 모니터링될 수 있다. 모니터링 시스템은 가상 현실 어트랙션 시스템(50)에 통신 가능하게 결합될 수 있으며 사용자(22)의 위치, 장소, 방위 등을 식별하는 데 사용될 수 있다. 대안으로서 또는 부가적으로, 포드(24)는 각각의 사용자(22)의 시점 및/또는 장소를 결정하기 위해 가상 현실 어트랙션 시스템(50)에 대하여 각각의 사용자(22)를 모니터링하는 데 유용할 수 있는 하나 이상의 센서(59)(예컨대, 중량 센서, 질량 센서, 동작 센서, 초음파 센서, 위치 센서)를 포함할 수도 있다. 유사하게, 환경(14)은 각각의 사용자(22)의 시점 및/또는 장소를 결정하기 위해 가상 현실 어트랙션 시스템(50)에 대하여 각각의 사용자(22)를 모니터링하는 데 유용할 수 있는 하나 이상의 센서(61)(예컨대, 중량 센서, 질량 센서, 동작 센서, 초음파 센서, 카메라)를 포함할 수도 있다.
특정 실시형태에 있어서, VR/AR 시나리오(30)의 생성을 지원하기 위해, 포드(24)의 차량 제어기(52)는 프로세서(62) 및 메모리(64)와 같은 처리 회로를 포함할 수 있다. 유사하게, 마스터 제어기(58)의 어트랙션 제어기(56)는 프로세서(66) 및 메모리(68)와 같은 처리 회로를 포함할 수 있다. 프로세서(62, 66)는 어트랙션(10)의 스릴 팩터, 및 더 나아가, 어트랙션(10)에 있는 동안의 사용자(22)의 경험을 강화하기 위해 VR/AR 시나리오(30)를 생성하는 본 발명에 개시된 기술을 수행하기 위한 명령어를 실행하도록, 제각기 메모리(64, 68)에 동작 가능하게 결합될 수 있다. 이러한 명령어는 메모리(64, 68) 및/또는 다른 스토리지와 같은, 유형의 비일시적인 컴퓨터 판독 가능 매체에 저장되는 프로그램 또는 코드로 인코딩될 수 있다. 프로세서(62, 66)는 범용 프로세서, 시스템-온-칩(SoC) 디바이스, 주문형 집적 회로(ASIC), 또는 일부 다른 유사한 프로세서 구성일 수 있다.
특정 실시형태들에 있어서, 더 예시되는 바와 같이, VR/AR 헤드기어(26)는 또한, 사용자(22)의 각각의 눈에 제각기 대응하는 한 쌍의 디스플레이(70)를 포함할 수 있다. 다른 실시형태들에 있어서는, 통합 디스플레이(70)가 채용될 수 있다. 디스플레이(70)는 환경(14)의 실시간 이미지 및 VR/AR 시나리오(30)를 사용자(22)에게 디스플레이하는 데 유용한 불투명 LCD(liquid crystal display), 불투명 OLED(organic light emitting diode) 디스플레이, 또는 그 밖의 유사한 디스플레이를 포함할 수 있다. 다른 실시형태에 있어서, 디스플레이(70)는, 예를 들어, 사용자(22)가 디스플레이(70)를 통해 실제 및 물리적인 현실-세계 환경(예컨대, 환경(14))을 볼 수 있는 능력을 유지하면서, 디스플레이(70) 상에 나타나는 환경(14)의 실시간 이미지 및 VR/AR 시나리오(30)를 볼 수 있게 하는 데 유용한 시스루(see-through) LCD 또는 시스루 OLED를 포함한다.
카메라(들)(72)는 제각기 사용자(22)의 각각의 시점에 대응할 수 있고, 환경(14)의 실시간 비디오 데이터(예컨대, 라이브 비디오)를 캡처하는 데 사용될 수 있다. 구체적으로, 예시된 실시형태에 있어서, VR/AR 헤드기어(26)의 카메라(들)(70)는 각각의 사용자(22)의 시점으로부터 각각의 사용자(22)에 의해 인식되는 현실-세계 물리적 환경(14)의 실시간 이미지를 캡처하는 데 사용될 수 있다. 추가로 이해되는 바와 같이, VR/AR 헤드기어(26)는 카메라(들)(70)를 통해 캡처되는 실시간 비디오 데이터를 (예컨대, 제어기(52 및 56)의 GPU(graphics processing unit)를 통한) 처리를 위해 차량 제어기(52) 및/또는 어트랙션 제어기(56)에 (예컨대, VR/AR 헤드기어(26)에 포함되는 하나 이상의 통신 인터페이스를 통해 무선으로) 전송할 수 있다. 부가적으로, VR/AR 헤드기어(26)는 또한, VR/AR 헤드기어(26), 포드(24), 및 환경(14)에 포함될 수 있는 방위 및 위치 센서(57, 59, 61, 55)(예컨대, 가속도계, 자기력계, 자이로스코프, GPS(Global Positioning System) 수신기, 동작-캡처 카메라 등), 동작 추적 센서(예컨대, 전자기 및 고체 동작 추적 센서) 등을 통해 취득되는 데이터에 기초하여 취득 및/또는 도출되는 방위 데이터, 위치 데이터, 시점 데이터(예컨대, 초점 길이, 방위, 포즈 등), 동작 추적 데이터 등을 전송할 수 있다.
특정 실시형태들에 있어서, 앞서 주지된 바와 같이, 차량 및/또는 어트랙션 제어기(52, 56)는 포드(24)로부터 수신되는 실시간 비디오 데이터(예컨대, 라이브 비디오), 방위 및 위치 데이터 및/또는 시점 데이터를 처리할 수 있다. 구체적으로, 차량 및/또는 어트랙션 제어기(52, 56)는 생성된 VR/AR 시나리오(30)에 실시간 비디오 데이터를 등록하기 위한 기준 프레임을 생성하기 위해 이 데이터를 사용할 수 있다. 구체적으로, 방위 데이터, 위치 데이터, 시점 데이터, 동작 추적 데이터 등에 기초하여 생성되는 기준 프레임을 사용해서, 차량 및/또는 어트랙션 제어기(52, 56)는 각각의 사용자(22)가 VR/AR 헤드기어(26)를 착용하지 않은 경우에 인식하게 되는 것과 시간적 및 공간적으로 상응하는 VR/AR 시나리오(30)의 뷰를 렌더링할 수 있다. 차량 및/또는 어트랙션 제어기(52, 56)는 각각의 사용자(22)의 각각의 방위, 위치, 및/또는 동작의 변화를 반영하기 위해 현실-세계 이미지의 렌더링을 지속적으로 (예컨대, 실시간으로) 업데이트할 수 있다.
예를 들어, 특정 실시형태들에 있어서, 차량 및/또는 어트랙션 제어기(52, 56)는 이미지(예컨대, VR/AR 시나리오(30))를 대략 20 FPS(초당 프레임 수) 이상, 대략 30 FPS 이상, 대략 40 FPS 이상, 대략 50 FPS 이상, 대략 60 FPS 이상, 대략 90 FPS 이상, 또는 대략 120 FPS 이상의 실시간 속도로 렌더링할 수 있다. 또한, 차량 및/또는 어트랙션 제어기(52, 56)는 각각의 사용자(22)가 착용한 각각의 VR/AR 헤드기어(26) 각각에 대하여 환경(14)의 현실-세계 이미지를 생성할 수 있다(각각의 사용자(22)의 각각의 방위, 위치, 및 시점에 대하여 조정됨).
특정 실시형태들에 있어서, 전술한 바와 같이, 차량 및/또는 어트랙션 제어기(52, 56)는 또한, 사용자(22)에 대하여 완전한 AR 경험, VR 경험, 혼합 현실, 및/또는 그 밖의 컴퓨터-매개 경험을 생성하기 위해 환경(14)의 현실-세계 이미지에 중첩되는 VR/AR 시나리오(30)의 하나 이상의 VR/AR 그래픽 이미지를 생성 및 렌더링할 수 있다. 예를 들어, 특정 실시형태들에 있어서, 차량 및/또는 어트랙션 제어기(52, 56)는, 포드(24)가 어트랙션(10)을 횡단할 때 사용자(22)가 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지와 함께 어트랙션(10)의 현실-세계 물리적 환경(14)(예컨대, 디스플레이(70)를 통해 렌더링된 비디오 데이터로서 제공됨)을 인식하도록(예컨대, 가상 증강), VR/AR 시나리오(30)의 VR/AR 그래픽 이미지를 환경(14)의 현실-세계 이미지에 중첩하기 위한 논의된 비디오 병합 및/또는 광학 병합 기술들 중 하나 이상을 이용할 수 있다. 구체적으로, 현실-세계 이미지의 렌더링에 대하여 전술한 바와 같이, 차량 및/또는 어트랙션 제어기(52, 56)는, 환경(14)의 현실-세계 이미지가 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지와 오버레이되는 배경으로서 나타날 수 있도록, 환경(14)의 현실-세계 이미지와 시간적 및 공간적으로 상응하는 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지의 뷰를 렌더링할 수 있다. 실제로, 모델은 임의의 이용 가능한 시점에 대한 컴퓨터 생성 이미지를 제공할 수 있고, VR/AR 헤드기어(26)의 검출된 방위에 기초한 디스플레이를 위해 특정 이미지가 VR/AR 헤드기어(26)에 제공될 수 있다.
특정 실시형태들에 있어서, 차량 및/또는 어트랙션 제어기(52, 56)는 또한, 환경(14)의 현실-세계 이미지 및 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지를 렌더링함에 있어서 현실-세계 물리적 환경(14)의 콘트라스트 및 밝기(예컨대, 맑은 날, 부분적으로 흐린 날, 흐린 날, 저녁, 밤)를 정확하게 반영하도록 조정되는 환경(14)의 현실-세계 이미지 및 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지를 생성하기 위해 하나 이상의 밝기, 조명, 또는 음영 모델, 및/또는 사실적인 렌더링 모델을 생성할 수 있다. 예를 들어, 환경의 현실-세계 이미지 및 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지의 사실감을 증가시키기 위해, 차량 및/또는 어트랙션 제어기(52, 56)는, 일부 실시형태에 있어서, 하나 이상의 일기 예보 및/또는 예측 시스템(글로벌 예보 시스템(Global Forecast System), 도플러 레이더(Doppler radars) 등)으로부터 날씨 관련 데이터를 수신할 수 있다. 차량 및/또는 어트랙션 제어기(52, 56)는 날씨 관련 데이터 또는 다른 유사한 데이터를 사용해서 환경의 현실-세계 이미지 및/또는 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지의 콘트라스트, 밝기, 및/또는 그 밖의 조명 효과를 조정할 수 있다.
다른 실시형태들에 있어서, 차량 및/또는 어트랙션 제어기(52, 56)는 환경(14)의 현실-세계 이미지 및/또는 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지의 콘트라스트, 밝기, 및/또는 그 밖의 조명 효과를, VR/AR 헤드기어(26) 및/또는 포드(24)에 포함되는 하나 이상의 광 센서로부터 검출되는 조명에 기초하여 또는 카메라(72)에 의해 캡처되는 실시간 비디오 데이터에 기초하여 조정할 수 있다. 또한, 앞서 주지된 바와 같이, 차량 및/또는 어트랙션 제어기(52, 56)는 각각의 사용자(22)의 각각의 방위, 위치, 시점, 및/또는 동작의 변화를 반영하기 위해 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지의 렌더링을 지속적으로 (예컨대, 실시간으로) 업데이트할 수 있다. 예를 들어, 차량 및/또는 어트랙션 제어기(52, 56)는 각각의 사용자(22)의 각각의 가변적인 위치, 시점, 및 동작에 대하여 조정되는 각각의 사용자(22)가 착용하는 각각의 헤드기어(26)의 각각의 디스플레이(들)(70)에 VR/AR 시나리오의 VR/AR 그래픽 이미지를 렌더링할 수 있다.
추가로 이해되는 바와 같이, 차량 및/또는 어트랙션 제어기(52, 56)는 또한, 사용자가(22)가 환경(14) 내의 소정의 지점을 가로지를 때 VR/AR 시나리오(30)의 VR/AR 그래픽 이미지를 생성할 수 있다. 따라서, 특정 실시형태들에 있어서, 차량 및/또는 어트랙션 제어기(52, 56)는 수신된 위치 데이터, 시점 데이터, 동작 데이터를 GPS 데이터 또는 지리 정보 시스템(GIS) 데이터와 함께 사용해서, 예를 들어, 어트랙션(10)의 조명 맵을 도출할 수 있다. 차량 및/또는 어트랙션 제어기(52, 56)는 사용자(22)가 환경(14)을 횡단할 때 특정한 소정의 지점(예컨대, 장소, 거리, 또는 시간에 기초한 지점)에서 해당 맵을 사용하여 VR/AR 시나리오(30)의 특정 VR/AR 그래픽 이미지를 도입할 수 있다. 또한, 특정 실시형태들에 있어서, 카메라(들)(72)를 통해 캡처되는 비디오 또는 이미지 데이터는 사용자(22)의 장소의 지점들 및 VR/AR 시나리오(30)의 특정한 VR/AR 그래픽 이미지를 도입할 시기를 결정하기 위해 차량 및/또는 어트랙션 제어기(52, 56)에 의해 사용될 수 있다. 예를 들어, 제어기(52 및 56)의 GPU는 하나 이상의 기하학적 인식 알고리즘(예컨대, 형상 또는 오브젝트 인식) 또는 광도측정 인식 알고리즘(예컨대, 안면 인식 또는 특정 오브젝트 인식)을 수행해서 사용자(22)의 시청 위치뿐만 아니라 사용자(22)의 위치 또는 장소를 결정할 수 있다. 일부 실시형태에 있어서, 차량 제어기(52)는 사용자(22)가 착용할 수 있는 운반 장치(에컨대, 배낭) 내에 배치될 수 있다. 일부 실시형태에 있어서, 차량 제어기(52) 및/또는 어트랙션 제어기(56)는 VR/AR 헤드기어(26)와 무선으로 통신할 수 있다. 또한, 일부 실시형태에 있어서, 차량 제어기(52)는 VR/AR 헤드기어(26)와 일체로 결합될 수 있다. 또한, 전술한 실시형태들은 별도의 차량 제어기(52) 및/또는 어트랙션 제어기(56)를 이용할 수 있지만, 일부 실시형태는 본 명세서에서 설명되는 바와 같은 차량 제어기(52)의 동작 및 어트랙션 제어기(56)의 동작을 수행하도록 구성되는 단일의 제어기를 이용할 수 있다는 점에도 유의해야 한다. 일부 실시형태에 있어서, 단일의 제어기는 포드(24)에 또는 어트랙션(10) 내의 다른 어딘가에 배치될 수 있다.
전술한 요소들 외에, 포드(24)는 디스플레이 모듈(74), 특수 효과 시스템(76)(예컨대, 특수 효과 전달 시스템), 하니스(77)(에컨대, 사용자 지지부), 및 제동 시스템(90)을 포함할 수 있다. 디스플레이 모듈(74)은 포드(24)의 프레임(81) 상에서 사용자의 전방에 위치될 수 있다. 디스플레이 모듈(74)은 사용자에게 다양한 정보를 통신할 수 있다. 예를 들어, 일부 실시형태에 있어서, 디스플레이 모듈(74)은 VR/AR 시나리오(30)의 개요(예컨대, 위성 뷰)를 설명하는 맵을 통신할 수 있다. 맵은 도 2에서 알 수 있듯이 VR/AR 시나리오(30)의 다양한 컴포넌트(80)(예컨대, 다른 사용자(22), VR/AR 자연 효과(38), VR/AR 생물(32), VR/AR 오브젝트(36) 등)의 장소를 나타내는 하나 이상의 아이콘을 디스플레이할 수 있다. 디스플레이 모듈(74)은 또한, 사용자(22)에게 다양한 메시지를 통신할 수도 있다. 예를 들어, 디스플레이 모듈은 어트랙션(10)의 목적, 사용자가 특정 장소(예컨대, 게임 경계, 컴포넌트(80) 등)에 접근하고 있음을 나타내는 메시지, 어트랙션(10)의 목적의 상태(예컨대, 지점, 잔여 시간, 게임 오브젝트의 소지 등)를 나타내는 메시지를 디스플레이할 수 있다. 일부 실시형태에 있어서, 디스플레이 모듈(74)은 사용자를 위한 입력/출력 장치로서 기능할 수 있다. 따라서, 디스플레이 모듈(74)은 사용자가 어트랙션(10) 내에서 다양한 기능(예컨대, 상호작용, 이동 등)을 수행하도록 이용할 수 있는 하나 이상의 입력 장치(예컨대, 하나 이상의 터치스크린, 손잡이, 다이얼, 버튼, 스위치 등)를 포함할 수 있다. 그러나, 일부 실시형태에 있어서, 디스플레이 모듈(74)은 사용자(22)가 VR/AR 헤드기어(26)를 착용하고 있지 않을 경우에만 이용될 수 있다. 이러한 실시형태들에 있어서, 디스플레이 모듈(74)은 VR/AR 헤드기어(26)를 착용 및 저장하기 위한 명령을 사용자(22)에게 통신할 수 있다.
특수 효과 시스템(76)은 유체 효과 시스템(78), 진동 효과 시스템(79), 음향 효과 시스템(82), 에어 효과 시스템(84), 또는 이들의 임의의 조합을 포함할 수 있다. 유사한 특수 효과 시스템(76)은 또한, 환경(14)의 다양한 양태(예컨대, 컴포넌트(80)) 내에 포함될 수도 있다. 유체 효과 시스템(78)은 유체(예컨대, 특수 효과 재료, 물, 향기 유체 등)를 포함할 수 있는 블래더(86)(예컨대, 저장소)를 포함할 수 있다. 일부 실시형태에 있어서, 특수 효과 시스템(76)은 환경(14)의 하나 이상의 컴포넌트(80)를 통해 이용될 수 있다. 블래더(86)는 포드(24)의 프레임(81) 내에 밀봉되어 배치될 수 있다. 따라서, 블래더(86)에는 사용자(22)가 접근하지 못할 수도 있다. 실제로, 일부 실시형태에 있어서, 블래더(86)에 접근하려면 별도의 도구가 필요해질 수 있다. 일부 실시형태에 있어서, 블래더(86)는 프레임(81)의 외부에 배치될 수 있다. 유체 효과 시스템(78)은 사용자에게 특수 효과를 제공하는 데 이용하기 위해 블래더(86)로부터 유체(예컨대, 물)를 끌어낼 수 있다. 예를 들어, 일부 실시형태에 있어서, 유체 효과 시스템(78)은 미스트를 방출할 수 있다. 미스트는 사용자(22)가 컴포넌트(80)(예컨대, VR/AR 자연 효과(38), VR/AR 생물(32)) 가까이를 탐색할 때 트리거될 수 있다. 유체 효과 시스템(78)을 이용하면, 사용자에게 고유한 경험을 제공할 수 있다. 예를 들어, 사용자(22)는, 다른 적절한 유체 효과들 중에서도 사용자가 말 그대로 마치 공룡의 입(예컨대, VR 생물(32)의 입)으로부터의 호흡 또는 그로부터 비산되는 침을 느끼고 있고, VR/AR 자연 효과(38)로부터의 비말(예컨대, 강(42) 및/또는 웅덩이(44)로부터의 비말/물방울)을 느끼고 있는 것처럼 느낄 수 있다. 일부 실시형태에 있어서, 상세하게 후술되는 바와 같이, 사용자는 하나 이상의 리필 스테이션(20)으로부터 물을 끌어와서 블래더(86)를 리필할 수 있다. 전술한 바와 같이, 리필 스테이션(20)은 VR/AR 시나리오(30)에서의 VR/AR 물 이미지(예컨대, 웅덩이(44) 및 강(42))에 대응할 수 있다. 이렇게, 사용자(22)는 웅덩이(44) 및/또는 강(42)의 하나 이상을 탐색해서 블래더(86)를 리필할 수 있다. 블래더(86)를 리필하기 위해, 블래더(86)는 수원으로부터 물을 끌어오는 데 필요한 펌프, 튜브, 및 임의의 다른 컴포넌트에 결합될 수 있다. 일부 실시형태에 있어서, 디스플레이 모듈(74)은 공급물(예컨대, 물)이 적다는 것을 사용자(22)에게 통신할 수 있고, 하나 이상의 리필 스테이션(20)(예컨대, VR/AR 시나리오(30)에서의 웅덩이(44) 및/또는 강(42))으로부터 리필하라고 사용자(22)에게 지시할 수 있다. 일부 실시형태에 있어서, 사용자(22)는 또한, 어트랙션(10)의 테마에 따라 하나 이상의 VR/AR 양태(예컨대, 탄약, 에어, 연료 등)를 리필하기 위해 리필 스테이션(20)을 탐색할 수도 있다.
진동, 음향, 및 에어 효과 시스템(79, 82, 84)은 유체 효과 시스템(78)과 유사한 방식으로 사용자에게 고유한 경험을 제공할 수 있다. 사용자가 하나 이상의 컴포넌트(80)의 소정의 거리 내에서 탐색하고 있을 경우, 진동 효과 시스템(79), 음향 효과 시스템(82), 및 에어 효과 시스템(84), 또는 이들의 임의의 조합이 활성화될 수 있다. 사용자(22)가 VR 생물(32)에 접근하면, 사용자(22)는 공룡의 포효를 충분히 경험할 수 있다. 예를 들어, 사용자(22)는 음향 효과 시스템(82)의 스피커를 통해 공룡의 포효를 들을 수 있거나, 진동 효과 시스템(79)을 통해 및/또는 음향 효과 시스템(82)의 서브우퍼를 통해 공룡의 포효로부터의 진동을 느낄 수 있거나, 에어 효과 시스템(84)의 팬을 통해 공룡의 호흡으로부터 몰아치는 바람을 느낄 수 있거나, 에어 효과 시스템(84)의 냄새 첨가물을 통해 공룡의 호흡 냄새를 맡을 수 있거나, 또는 이들의 임의의 조합을 경험할 수 있다. 실제로, 특수 효과 시스템(76)은 다양한 방식으로 적용 가능하며, 임의의 엔터테인먼트 테마(예컨대, 마법, 미라, 수중 모험, 수퍼히어로, 해적 등) 내에서 사용자를 충분히 몰입시키도록 적용될 수 있음을 이해해야 한다.
또한, 차량의 제동 시스템(90)은 어트랙션(10) 내에서 사용자(22)의 경험을 강화하기 위해 다양한 방식으로 이용될 수 있다. 전술한 바와 같이, 제어기(52, 56)는 시간에 따른 사용자(22)의 장소에 관한 정보를 처리할 수 있다. 실제로, 제어기(52, 56) 중 하나 또는 둘 모두는 사용자(22)의 속도(예컨대, 속력 및 방향)에 기초하여 사용자(22)의 현재의 장소뿐만 아니라 사용자(22)의 장래의 장소를 계산할 수 있다. 제어기(52, 56)는 환경(14) 내에 및/또는 포드(24) 상에 배치되는 센서(59, 61, 57)에 의해 제공되는 정보를 이용해서 장소/속도를 계산할 수 있다. 일부 실시형태에 있어서, 제어기(52, 56)는 환경(14) 내에 및/또는 포드(24) 상에 배치되는 동작-캡처 카메라에 의해 제공되는 정보를 이용해서 장소/속도를 계산할 수 있다. 따라서, 제어기(52, 56)는 적어도 사용자의 장소에 기초하여 (예컨대, 구동 신호를 통해) 제동 시스템(90)의 브레이크(91)들을 선택적으로 맞물리게 할 수 있다. 부가적으로, 또는 대안으로서, 제어기(52, 56)는 적어도 사용자의 장소에 기초하여 (예컨대, 구동 신호를 통해) 휠(41)을 조작할 수 있다. 예를 들어, 일부 실시형태에 있어서, 브레이크(91)들은 사용자(22)가 게임 경계 또는 오브젝트를 향하고 있을 경우 사용자(22)의 이동을 늦추도록 일정 정도 맞물릴 수 있다. 맞물림의 정도는 사용자(22)의 속도에 따라 달라질 수 있다. 예를 들어, 브레이크(91)들은 사용자(22)가 오브젝트를 향해 빠르게 이동하고 있으면 이동을 막도록 맞물릴 수 있다. 일부 실시형태에 있어서, 브레이크(91)들은 사용자(22)가 소정의 속력을 초과하지 않게 사용자(22)의 이동을 늦추도록 맞물릴 수 있다. 따라서, 모든 사용자(22)는 소정의 속력을 초과할 수 없다. 일부 실시형태에 있어서, 브레이크(91)들은 사용자(22)가 바람직하지 않은 장소(예컨대, 경계 근처, 목적지에서 먼 곳, VR/AR 머드 등)를 향해 이동하고 있을 경우 사용자(22)의 이동을 지연시키도록 맞물릴 수 있다. 특히, 일부 실시형태에 있어서, 브레이크(91)들은 사용자(22)의 거동에 기초하여 맞물릴 수 있다. 예를 들어, 브레이크(91)들은 사용자(22)가 부적절하게 이동하고 있거나, 빠르게 이동하고 있거나, 불규칙하게 이동하고 있는 등일 경우에 맞물릴 수 있다. 서로에 대한, 그리고 환경 오브젝트에 대한 사용자(들)(22)의 계산된 장소는 서로에 대한 근접 임계치보다 낮은 것으로 결정될 수 있다. 이러한 경우, 제어기(52, 56)에 의해 충돌 또는 근접 신호가 발생될 수 있다. 어트랙션 제어기(56)에 의해 근접 신호가 생성되면, 근접 신호는 차량 제어기(52)에 제공되어 제동 시스템(90)의 맞물림을 야기할 수 있다. 추가로, 또는 대안으로서, 근접 신호는 차량 제어기(52)에 제공되어 휠(41)을 조작(예컨대, 조향)할 수 있다.
전술한 바와 같이, 포드(24)(예컨대, 사용자-보조 포드, 이동식 포드)의 이동은 적어도 부분적으로(또는 완전히) 사용자(예컨대, 사용자(22))에 의해 동력을 공급받을 수 있다. 일부 실시형태에 있어서, 포드(24)의 이동은 적어도 부분적으로 모터(92)에 의해 동력을 공급받을 수 있다. 일부 실시형태에 있어서, 모터(92)는 포드(24)로부터의 저항력을 극복하기에 충분한 동력을 제공할 수 있다. 예를 들어, 포드(24)는 일부 저항력(예컨대, 관성 모멘트, 마찰 등)과 연관될 수 있다. 이렇게, 모터(92)는 사용자(22)가 포드(24)의 저항력의 영향을 느끼지 못하도록 저항력을 극복하기에 충분한 동력을 제공할 수 있다. 일부 실시형태에 있어서, 모터(92)로부터 전달되는 동력의 양은 사용자(22)의 무게에 기초하여 조정될 수 있다. 일부 실시형태에 있어서, 모터(92)가 제공하는 동력의 양은 사용자(22)의 신체적인 능력에 기초하여 조정될 수 있다. 예를 들어, 모터(92)는 사용자(22)가 신체적인 능력이 약하면 포드(24)를 이동시키기 위해 더 많은 동력을 제공할 수 있다. 종합적으로, 모터(92)는 사용자의 능력에 기초하여 개별화된 동력의 양을 각각의 포드(24)에 제공할 수 있다. 따라서, 각각의 사용자(22)는 신처적인 능력이 더 있는 사용자(22)가 신체적인 능력이 약한 사용자(22)에 비해 이점(예컨대, 속력 면에서의 이점)을 갖지 않도록 동일한 속력으로 이동할 수 있다. 전술한 바와 같이, 사용자(22)의 속력은 제동 시스템(90)을 사용해서 부분적으로 조절될 수도 있다. 또한, 포드(24)는, 한정되는 것은 아니지만, 배터리, 태양 전지판, 발전기, 가스 엔진, 또는 이들의 임의의 조합을 포함하는 임의의 적절한 전원(100)에 의해 동력을 공급받을 수 있다. 일부 실시형태에 있어서, 전원(100)은 차량 제어기(52) 내에 위치될 수 있다.
또한, 마스터 제어기(58)는 어트랙션(10)의 일부 피처를 제어할 수 있다. 전술한 어트랙션 제어기(56) 외에, 마스터 제어기(58)는, 일부 실시형태에 있어서 완전히 또는 부분적으로 자동화된, 입력/출력 인터페이스(102) 및 디스플레이(104)를 포함하는 분산 제어 시스템(DCS) 또는 임의의 컴퓨터-기반 워크스테이션을 포함할 수 있다. 특정 게임 정보는 마스터 제어기(58)의 디스플레이(104)를 통해 통신될 수 있다. 예를 들어, 사용자(22)의 상태(예컨대, 장소)가 디스플레이(104)를 통해 디스플레이될 수 있다. 일부 실시형태에 있어서는, 환경(14)의 비디오 스트림이 디스플레이(104) 상에 보여질 수 있다. 일부 실시형태에 있어서, 마스터 제어기(58)의 조작자는 입력/출력 인터페이스(102)로부터 어트랙션(10)의 피처(예컨대, 특수 효과 시스템(76), 컴포넌트(80) 등)를 조절할 수 있다. 일부 실시형태에 있어서, 마스터 제어기(58)의 조작자는 개별 포드(24)를 통제할 수 있다. 예를 들어, 게임 사이클이 종료하게 되면, 조작자는 모든 포드의 이동을 제어해서 모든 포드가 시작 위치로 이동되어 새로운 고객과 함께 다시 게임 사이클을 시작하게 할 수 있다. 일부 실시형태에 있어서는, 새로운 게임 사이클의 시작을 위한 시작 위치로의 모든 포드(24)의 이동이 자동화될 수 있다.
포드(24)는 어트랙션(10) 내에서의 사용자(22)의 경험을 강화하기 위한 피처를 포함할 수 있다. 도 4는 도 1의 이동식 포드(24)들 중 하나의 실시형태의 설명도이다. 일 실시예에 있어서, 포드(24)는 사용자가 비교적 자연스러운 보행 동작을 사용해서 어트랙션 내에서 이동할 수 있게 하는, 전적으로 또는 부분적으로 사용자가 동력을 공급하는 차량으로서 구성된다. 따라서, 포드(24)는 적어도 부분적으로 사용자 자신의 원동력에 의해 환경 내에서 이동되고, 특정 실시형태에 있어서는, 어트랙션의 코스 도중에 완전히 사용자에 의해 동력을 공급받는다. 그러나, 포드(24)는 자동 이동, 예컨대, 사용자를 보조하고, 사용자를 장애물로부터 멀리 안내하고, 및/또는 비어 있는 포드(24)를 다시 베이스로 이동시키는 것을 허용하는 피처를 또한 포함할 수 있다는 것을 마찬가지로 이해해야 한다. 포드(24)에 자기-동력을 부여하기 위해, 사용자는 특정 방향으로 보행하고, 포드(24)는, 예컨대 포드(24) 상의 하나 이상의 휠(41)을 통해 사용자와 함께 환경의 바닥을 따라 슬라이드한다. 또한, 포드(24)는 단일의 사용자를 수용하는 크기 및 형상으로 이루어질 수 있다. 일부 실시형태에 있어서, 포드(24)는 별도의 사용자를 수용할 수 있는 포드(24)에 결합되는 승객용 포드를 포함할 수 있다. 승객용 포드는, 승객용 포드가 조향을 위한 제어부를 포함하지 않을 수 있다는 것을 제외하면, 본 명세서에서 논의되는 포드(24)의 모든 피처를 포함할 수 있다.
전술한 바와 같이, 포드(24)는 차량 제어기(52), 디스플레이 모듈(74), 하니스(77), 및 사용자(22)의 경험을 강화하는 데 사용될 수 있는 그 밖의 피처들을 포함할 수 있다. 차량 제어기(52) 및 디스플레이 모듈(74)은 프레임(81)의 전방측에 배치될 수 있다. 따라서, 사용자(22)는 디스플레이 모듈(74)의 제어부에 (예컨대, 터치스크린, 버튼, 손잡이, 스위치, 별도의 입력/출력 장치 등을 통해) 용이하게 접근할 수 있다. 일부 실시형태에 있어서, 사용자(22)는 전술한 어트랙션(10)의 양태들을 하나 이상의 입력 장치(108)를 통해 제어할 수 있다. 입력 장치(108)는 조이스틱, 버튼, 핸들, 토템(totem) 등일 수 있다. 일부 실시형태에 있어서, 입력 장치(108)는 프레임(81)에 결합될 수 있다. 일부 실시형태에 있어서, 입력 장치(108)는 프레임(81)으로부터 어느 정도까지는 탈착될 수 있다. 입력 장치(108)는 와이어(예컨대, 신축식 와이어)를 통해 프레임(81)에 매여 있을 수 있다. 입력 장치(108)는 VR/AR 시나리오(30)와의 시뮬레이션된 상호작용을 제공하기 위해 들어올려지고 주위로 흔들릴 수 있다. 예를 들어, 사용자(22)는 입력 장치(108)를 이용해서 오브젝트(예컨대, VR/AR 오브젝트(36))를 들어올릴 수 있다. 따라서, 일부 실시형태에 있어서, 입력 장치(108)는 VR/AR 시나리오(30) 내에서 사용자(22)에게 파지용 장치(예컨대, 손, 클램프)로서 나타날 수 있다. 일부 실시형태에 있어서, 입력 장치(108)는 VR/AR 시나리오(30)에서 하나 이상의 몇몇 상이한 유형의 아이템(예컨대, 무기, 도구 등)으로서 나타날 수 있다.
또한, 포드(24)는 사용자(22) 주위에 경계(110)를 형성하도록 구성될 수 있다. 경계는 프레임(81)의 둘레로부터 방사상 바깥쪽으로 0 내지 3 피트(feet) 또는 1 내지 2 피트에 원주방향으로 배치될 수 있다. 일부 실시형태에 있어서, 경계(110)는 프레임(81)에 의해 규정될 수 있다. 경계(110)는 사용자(22)가 격리될 수 있는 사용자(22) 주위의 공간 영역을 규정할 수 있다. 일부 실시형태에 있어서, 경계(110)는 강성의 반투명 배리어(예컨대, 플라스틱) 및/또는 하나 이상의 범퍼로 규정될 수 있다. 따라서, 배리어는 다양한 오브젝트(예컨대, 다른 사용자(22), 구조물(16) 등)가 경계 안쪽으로 들어오는 것을 범퍼를 통해 막을 수 있다. 특히, 범퍼는 포드(24)가 환경(14)의 다양한 오브젝트와 접촉할 때의 충격력을 흡수할 수 있고, 그에 따라 다양한 오브젝트에 접촉한 결과로서 사용자(22)가 경험할 수 있는 힘이 최소화된다. 일부 실시형태에 있어서, 범퍼는 용이하게 교체 가능한 것일 수 있는 마모 아이템일 수 있다.
전술한 바와 같이, 어트랙션(10)은 다양한 특수 효과 시스템(76)을 이용할 수 있다. 하나 이상의 특수 효과(76)가 포드(24)로부터 제공될 수 있다. 예를 들어, 포드(24)에는 에어 효과(84)를 위한 하나 이상의 팬, 유체 효과(78)를 위한 블래더(86), 음향 효과 시스템(82)을 위한 하나 이상의 스피커, 진동 효과(79)의 진동 장치(들) 등이 장착될 수 있다.
마찬가지로 전술한 바와 같이, 사용자(22)(도 1 참조)는 하니스(77) 내에 고정될 수 있다. 하니스(77)는 프레임(81)에 결합될 수 있다. 프레임(81)은, 하니스(77)와 함께, 사용자(22)에 대한 지지부를 제공할 수 있다. 특히, 하니스(77) 및 프레임(81)과 함께, 포드(24)의 디자인은 포드(24), 및 포드(24) 내의 사용자(22)가 넘어지는 것을 방지할 수 있다는 점에도 유의해야 한다. 다시 말해, 포드(24)는 속력/방향의 급격한 변화, 상호적인 오브젝트(12) 및/또는 다른 사용자(22)와의 접촉 등과 관계없이 (예컨대, 수동적으로 및/또는 능동적으로) 안정성이 유지될 수 있도록 설계될 수 있다. 또한, 그에 따라 프레임(81) 및/또는 하니스(77)는 사용자(22)의 키 및/또는 무게에 기초하여 조정될 수 있다. 프레임(81)의 높이는 길이 조정 기술(예컨대, 신축형 세그먼트, 유압식 조정부, 압축/신장 스프링, 선형 액추에이터 등)을 통해 조정될 수 있다. 프레임(81)의 높이는 어트랙션(10)의 사이클의 시작 이후에 제자리에 고정될 수 있다. 또한, 하니스(77)는 사용자(22)의 크기 및 형상에 따라 하나 이상의 조정 지점을 통해 조정될 수 있다. 일부 실시형태에 있어서, 하니스(77)는 하나 이상의 에너지 흡수 시스템(예컨대, 스프링-댐퍼 시스템, 유압 시스템 등)을 통해 프레임에 결합될 수 있다. 종합적으로, 하니스(77)는 사용자(22)가 넘어지지 않도록 지지하면서 사용자(22)가 환경(14) 주위를 자유롭게 이동하게(예컨대, 보행하게) 할 수 있다. 프레임(81) 및 하니스(77)의 높이는 하니스(77)가 실질적으로 사용자(22)를 사용자의 무게 중심 주위로 지지하도록 조정될 수 있다. 일부 실시형태에 있어서, 하니스(77)는 각각의 사용자(22)의 어깨 및/또는 허리로부터 사용자(22)를 지지할 수 있다.
도 5는 도 1의 환경(14) 내의 리필 스테이션(20)의 블록도이다. 전술한 바와 같이, 물이 유체 효과(78)를 통해 특수 효과 시스템(76)에서 사용될 수 있다. 따라서, 유체 효과(78)의 유체를 유지하는 블래더(86)(예컨대, 저장소)가 리필될 수 있다. 전술한 바와 같이, 블래더(86)를 리필하기 위해, 블래더(86)는 리필 스테이션(20)으로부터 유체를 끌어오는 데 필요한 펌프, 튜브, 및 임의의 다른 컴포넌트에 결합될 수 있다. 실제로, 사용자(22)는 리필 스테이션(20)들 중 하나의 위에 포드(24)를 위치시킬 수 있다. 일부 실시형태에 있어서, 사용자(22)는 프레임(81) 상에 및/또는 내에 배치되는 배관을 통해 리필 스테이션(20)으로부터 유체를 끌어오기 위해 프레임(81)의 다리를 리필 스테이션(20) 내에 위치시킬 수 있다. 따라서, 다리 상에/내에 배치되는 배관은 프레임(81)의 입구를 통해 유체를 끌어오는 시스템을 제공할 수 있다. 따라서, 포드(24)(예컨대, 블래더(86))는 유체 저장소(150)로부터 유체를 끌어오는/공급받는 리필 스테이션(20)으로부터 유체를 끌어올 수 있다. 저장소(150)는 환경(14)의 표면 아래에 배치될 수 있다. 일부 실시형태에 있어서는, 각각의 리필 스테이션(20)이 각각의 유체 저장소(150)로부터 유체를 끌어올 수 있다. 일부 실시형태에 있어서는, 다수의 리필 스테이션(20)이 단일의 유체 저장소(150)로부터 물을 끌어올 수 있다.
도 6은 하나 이상의 포드(24)의 위치를 처리하는 흐름도(160)이다. 전술한 바와 같이, 포드(24)의 위치는 환경(14) 전체에 걸쳐 및/또는 포드(24) 상에 배치되는 하나 이상의 센서(59, 57, 61)를 통해 적어도 부분적으로 결정될 수 있다. 블록(162)에서, 차량 제어기(52) 및/또는 어트랙션 제어기(56)(예컨대, 제어기(52, 56))는 센서(59, 57, 61)로부터 하나 이상의 포드(24)의 위치에 관한 정보를 수신할 수 있다. 위치 정보는 무선 네트워크, 예컨대, WLAN(wireless local area networks), WWAN(wireless wide area networks), NFC(near field communication)를 통해 제어기(52, 56)에 전송될 수 있다. 블록(164)에서, 제어기(52, 56)는 장소 데이터를 분석하고 하나 이상의 포드(24) 및/또는 사용자(22)의 장소를 결정할 수 있다.
일부 실시형태에 있어서, 블록(166)에서, 제어기(52, 56)는 포드(24)의 결정된 위치에 기초하여 VR/AR 이미지를 업데이트할 수 있다. 전술한 바와 같이, 제어기(52, 56)는 환경의 특정 장소와 연관되는 사용자(22)에게 (예컨대, 헤드기어(26)를 통해) 특정 VR/AR 이미지를 제공할 수 있다. 예를 들어, 제어기(52, 56)는 사용자(22)가 컴포넌트(80) 근처의 장소에 있을 경우 어떤 식으로든 반응하는 컴포넌트(80)의 이미지를 제공할 수 있다.
일부 실시형태에 있어서, 블록(168)에서, 제어기(52, 56)는 포드(24)의 결정된 위치에 기초하여 선택적으로 하나 이상의 포드(24)의 브레이크(91)를 활성화거나 및/또는 휠(41)을 조작할 수 있다. 예를 들어, 브레이크(91) 및/또는 휠(41)은 사용자(22)의 속력을 제어해서 충돌을 방지하거나, 사용자(22)를 경계로부터 멀어지게 하거나 및/또는 목표를 향하게 하는 것을 돕거나, 또는 이들의 임의의 조합을 위해 맞물릴 수 있다.
일부 실시형태에 있어서, 블록(170)에서, 제어기(52, 56)는 포드(24)의 결정된 위치에 기초하여 하나 이상의 특수 효과 시스템(예컨대, 특수 효과(78, 79, 82, 84, 86))을 활성화할 수 있다. 구체적으로, 전술한 바와 같이, 제어기(52, 56)는 하나 이상의 사용자(22)의 장소에 기초하여 포드(24) 및/또는 환경(14)의 하나 이상의 특수 효과 시스템을 활성화할 수 있다. 예를 들어, 컴포넌트(80)와 연관되는 하나 이상의 특수 효과는 사용자가 컴포넌트(80) 근처에 있을 경우에 활성화될 수 있다.
본 명세서에는 특정한 실시형태들만을 예시 및 설명하고 있지만, 당업자에게는 다양한 수정 및 변경이 가능할 것이다. 따라서, 첨부된 청구범위는 본 발명의 진정한 사상에 속하는 그러한 모든 수정 및 변경을 포함하려는 것임을 이해해야 한다.
본 명세서에 제시되고 청구된 기술은 본 발명의 기술 분야를 실증적으로 개선하고, 그에 따라 추상적이거나, 무형이거나 또는 순수하게 이론적이지 않은 실용적인 성질의 물질적 대상 및 구체적인 실시예에 참조 및 적용된다. 또한, 본 명세서의 말미에 첨부된 임의의 청구항들이 "[기능]을 [수행]하기 위한 수단" 또는 "[기능]을 [수행]하기 위한 단계"로서 지정되는 하나 이상의 요소를 포함하면, 이러한 요소는 35 U.S.C. 112(f) 하에서 해석되어야 한다. 그러나, 임의의 다른 방식으로 지정되는 요소를 포함하는 임의의 청구항들의 경우, 그러한 요소는 35 U.S.C. 112(f) 하에서 해석되지 않아야 한다.

Claims (25)

  1. 가상 현실 어트랙션 시스템으로서,
    가상 현실 또는 증강 현실(VR/AR) 이미지를 사용자에게 디스플레이하도록 구성되는 헤드기어; 및
    상기 사용자를 수용하도록 구성되는 적어도 하나의 사용자-보조 차량
    을 포함하고,
    상기 적어도 하나의 사용자-보조 차량은:
    상기 사용자가 어트랙션 내에서 상기 적어도 하나의 사용자-보조 차량을 이동시키기 위해 적어도 부분적으로 원동력을 제공하는 것을 허용하도록 구성되는 한편, 상기 사용자 주위의 경계를 규정하는 프레임;
    상기 프레임에 결합되며 상기 사용자가 상기 적어도 하나의 사용자-보조 차량에 있을 때 상기 사용자에게 지지부를 제공하도록 구성되는 하니스(harness);
    하나 이상의 특수 효과를 상기 사용자에게 전달하도록 구성되는 특수 효과 전달 시스템 - 상기 특수 효과는 진동 효과, 에어 효과, 유체 효과, 음향 효과 또는 이들의 임의의 조합을 포함함 - ; 및
    상기 VR/AR 이미지를 상기 헤드기어에 통신하고, 상기 VR/AR 이미지를 업데이트하며, 상기 적어도 하나의 사용자-보조 차량과 다른 사용자-보조 차량 또는 환경 내의 오브젝트 사이의 거리를 나타내는 근접 신호에 기초해서 상기 특수 효과 전달 시스템을 활성화시키는 제어기
    를 포함하는
    가상 현실 어트랙션 시스템.
  2. 제1항에 있어서,
    상기 제어기는 상기 적어도 하나의 사용자-보조 차량에 배치되는
    가상 현실 어트랙션 시스템.
  3. 제1항에 있어서,
    상기 프레임 내에 또는 상에 배치되며, 활성화 신호에 응답해서 특수 효과 재료를 방출하도록 구성되는 저장소를 포함하는
    가상 현실 어트랙션 시스템.
  4. 제1항에 있어서,
    상기 어트랙션의 환경은 하나 이상의 특수 효과 리필 스테이션, 하나 이상의 구조물, 하나 이상의 아이템, 또는 이들의 임의의 조합을 포함하는 복수의 상호적인 오브젝트를 포함하는
    가상 현실 어트랙션 시스템.
  5. 제1항에 있어서,
    상기 어트랙션 내에서 상기 적어도 하나의 사용자-보조 차량의 하나 이상의 장소를 나타내는 하나 이상의 신호를 상기 적어도 하나의 사용자-보조 차량에 배치되는 차량 센서들로부터 수신하고, 상기 근접 신호를 상기 적어도 하나의 사용자-보조 차량에 제공하도록 구성되는 어트랙션 제어기를 포함하는
    가상 현실 어트랙션 시스템.
  6. 제5항에 있어서,
    상기 제어기는 상기 근접 신호를 수신하고 상기 근접 신호에 기초하여 제동 신호를 제동 시스템에 제공해서 선택적으로 맞물리게 하도록 구성되는
    가상 현실 어트랙션 시스템.
  7. 제5항에 있어서,
    상기 제어기는 상기 근접 신호를 수신하고 상기 근접 신호에 기초하여 구동 신호를 상기 적어도 하나의 사용자-보조 차량의 휠에 제공해서 선택적으로 상기 휠을 조작하도록 구성되는
    가상 현실 어트랙션 시스템.
  8. 제1항에 있어서,
    상기 제어기는 상기 근접 신호에 기초하여 상기 적어도 하나의 사용자-보조 차량의 제동 시스템 및 휠을 제어하도록 구성되는
    가상 현실 어트랙션 시스템.
  9. 제1항에 있어서,
    상기 원동력은 전적으로 상기 사용자에 의해 제공되는
    가상 현실 어트랙션 시스템.
  10. 가상 현실 어트랙션 시스템으로서,
    어트랙션 내의 복수의 사용자-보조 차량 - 각각의 사용자-보조 차량은 각각 차량 제어기를 포함함 - ;
    가상 현실 또는 증강 현실(VR/AR) 이미지를 어트랙션에 제공하고 상기 VR/AR 이미지를 상기 복수의 사용자-보조 차량에 통신하도록 구성되는 어트랙션 제어기
    를 포함하고,
    상기 어트랙션 제어기는, 실행시에:
    시간에 따라 상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량으로부터 제1 위치 정보 세트를 수신하고;
    상기 복수의 사용자-보조 차량 중 제1 사용자-보조 차량이 상기 복수의 사용자-보조 차량 중 제2 사용자-보조 차량의 소정의 거리 내에 있다고 결정하고;
    상기 제1 사용자-보조 차량이 상기 제2 사용자-보조 차량의 소정의 거리 내에 있다는 결정에 기초하여, 상기 제2 사용자-보조 차량과 연관된 헤드세트에 상기 제1 사용자-보조 차량을 나타내는 VR/AR 이미지의 디스플레이를 트리거하도록
    동작하는 명령어를 저장하는 프로세서를 포함하는
    가상 현실 어트랙션 시스템.
  11. 제10항에 있어서,
    상기 프로세서는, 실행시에:
    제3 사용자-보조 차량이 인공 어트랙션 오브젝트로부터 제2의 소정의 거리 내에 있다고 결정하고;
    상기 제3 사용자-보조 차량이 상기 인공 어트랙션 오브젝트로부터 상기 제2의 소정의 거리 내에 있다는 결정에 기초하여, 상기 제3 사용자-보조 차량와 연관된 헤드세트에 상기 인공 어트랙션 오브젝트와 연관된 액션을 나타내는 VR/AR 이미지의 디스플레이를 트리거하도록
    동작하는 명령어를 저장하는
    가상 현실 어트랙션 시스템.
  12. 제11항에 있어서,
    상기 프로세서는, 실행시에:
    상기 어트랙션의 환경 전체에 걸쳐 배치되는 복수의 동작-캡처 카메라로부터 제2 위치 정보 세트를 수신하고;
    상기 제2 위치 정보 세트의 일부를 상기 어트랙션 제어기의 디스플레이를 통해 디스플레이하도록
    동작하는 명령어를 저장하는
    가상 현실 어트랙션 시스템.
  13. 제11항에 있어서,
    브레이크들이 상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량에 결합되고, 상기 제1 사용자-보조 차량이 상기 제2 사용자-보조 차량의 소정의 거리 내에 있다는 결정에 적어도 기초해서 선택적으로 맞물리도록 구성되는
    가상 현실 어트랙션 시스템.
  14. 제11항에 있어서,
    상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량에 결합되는 휠들을 포함하고, 상기 각각의 사용자-보조 차량은 상기 휠들의 선택적인 맞물림을 통해 선택적으로 조향하도록 구성되고, 상기 선택적인 맞물림은 상기 제1 사용자-보조 차량이 상기 제2 사용자-보조 차량의 소정의 거리 내에 있다는 결정에 적어도 기초하는
    가상 현실 어트랙션 시스템.
  15. 제11항에 있어서,
    브레이크들이 상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량에 결합되고, 상기 제3 사용자-보조 차량이 상기 인공 어트랙션 오브젝트로부터 상기 제2의 소정의 거리 내에 있다는 결정에 적어도 기초하여 선택적으로 맞물리도록 구성되는
    가상 현실 어트랙션 시스템.
  16. 제11항에 있어서,
    상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량에 결합되는 휠들을 포함하고, 상기 각각의 사용자-보조 차량은 상기 휠들의 선택적인 맞물림을 통해 선택적으로 조향하도록 구성되고, 상기 선택적인 맞물림은 상기 제3 사용자-보조 차량이 상기 인공 어트랙션 오브젝트로부터 상기 제2의 소정의 거리 내에 있다는 결정에 적어도 기초하는
    가상 현실 어트랙션 시스템.
  17. 제10항에 있어서,
    상기 프로세서는, 실행시에:
    상기 복수의 사용자-보조 차량 각각의 사용자-보조 차량의 모터 및 조향 시스템을 제어하도록
    동작하는 명령어를 저장하는
    가상 현실 어트랙션 시스템.
  18. 제10항에 있어서,
    상기 프로세서는, 실행시에:
    적어도 상기 제1 위치 정보 세트에 기초하여 하나 이상의 특수 효과를 전개하도록 구성되는 특수 효과 시스템을 제어하도록
    동작하는 명령어를 저장하는
    가상 현실 어트랙션 시스템.
  19. 제10항에 있어서,
    상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량의 이동 방향은 각각의 차량 제어기의 제1 입력 장치를 통해 제어되도록 구성되고, 상기 복수의 사용자-보조 차량의 각각의 사용자-보조 차량은 각각의 차량 제어기의 제2 입력 장치에 응답하여 상기 어트랙션의 환경에서 하나 이상의 상호적인 오브젝트와 상호작용하도록 구성되는
    가상 현실 어트랙션 시스템.
  20. 가상 현실 어트랙션 시스템으로서,
    복수의 어트랙션 구조물을 포함하는 어트랙션 환경;
    사용자를 수용하도록 구성되는 적어도 하나의 사용자-보조 차량 - 상기 적어도 하나의 사용자-보조 차량은:
    상기 사용자가 어트랙션 내에서 상기 적어도 하나의 사용자-보조 차량을 이동시키기 위해 적어도 부분적으로 원동력을 제공하는 것을 허용하도록 구성되는 한편, 상기 사용자 주위의 경계를 규정하는 프레임;
    상기 프레임에 결합되며 상기 사용자가 상기 적어도 하나의 사용자-보조 차량에 있을 때 상기 사용자에게 지지부를 제공하도록 구성되는 하니스; 및
    가상 현실 또는 증강 현실(VR/AR) 이미지를 상기 사용자가 착용한 헤드기어에 통신하도록 구성되는 차량 제어기를 포함함 - ; 및
    프로세서를 포함하는 어트랙션 제어기를 포함하고,
    상기 프로세서는, 상기 어트랙션 제어기로 하여금:
    상기 차량 제어기와 통신해서 상기 VR/AR 이미지를 상기 차량 제어기에 제공하게 하고;
    상기 환경 내에서 상기 적어도 하나의 사용자-보조 차량의 위치를 나타내는 위치 정보를 수신하게 하고;
    상기 위치 정보에 기초하여 상기 VR/AR 이미지를 업데이트하게 하며;
    상기 차량 제어기와 통신해서 상기 위치 정보에 기초하여 상기 사용자-보조 차량을 통해 특수 효과를 활성화하게 하는
    명령어를 실행하도록 구성되는
    가상 현실 어트랙션 시스템.
  21. 제20항에 있어서,
    상기 차량 제어기는 상기 적어도 하나의 사용자-보조 차량 상에 또는 상기 환경 내에 배치되는 하나 이상의 센서로부터 시간에 따라 상기 위치 정보를 수신하는
    가상 현실 어트랙션 시스템.
  22. 제20항에 있어서,
    상기 적어도 하나의 사용자-보조 차량은 상기 사용자로부터의 입력 또는 힘에 응답하여 상기 적어도 하나의 사용자-보조 차량을 조향하도록 구성되는 핸들을 포함하는
    가상 현실 어트랙션 시스템.
  23. 제20항에 있어서,
    상기 프로세서는, 상기 어트랙션 제어기로 하여금:
    상기 위치 정보에 기초하여 상기 적어도 하나의 사용자-보조 차량의 위치를 결정 및 추적하고,
    상기 차량 제어기와 통신해서, 상기 적어도 하나의 사용자-보조 차량의 상기 위치에 기초해서 상기 적어도 하나의 사용자-보조 차량으로부터 특수 효과 재료를 방출하게 하는
    명령어를 실행하도록 구성되는
    가상 현실 어트랙션 시스템.
  24. 제23항에 있어서,
    상기 프로세서는, 상기 어트랙션 제어기로 하여금:
    상기 복수의 어트랙션 구조물 중 하나의 어트랙션 구조물의 위치에 대한 상기 적어도 하나의 사용자-보조 차량의 상기 위치에 기초해서 상기 적어도 하나의 사용자-보조 차량으로부터 상기 특수 효과 재료를 방출하게 하는
    명령어를 실행하도록 구성되는
    가상 현실 어트랙션 시스템.
  25. 제24항에 있어서,
    상기 프로세서는, 상기 어트랙션 제어기로 하여금:
    상기 복수의 어트랙션 구조물 중 상기 하나의 어트랙션 구조물에 대한 상기 적어도 하나의 사용자-보조 차량의 상기 위치에 기초해서 상기 적어도 하나의 사용자-보조 차량과 상기 복수의 어트랙션 구조물 중 상기 하나의 어트랙션 구조물 모두로부터 상기 특수 효과 재료를 방출하게 하는
    명령어를 실행하도록 구성되는
    가상 현실 어트랙션 시스템.
KR1020197036317A 2017-05-10 2018-05-07 가상 현실 이동식 포드 KR102588344B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/591,975 US10656704B2 (en) 2017-05-10 2017-05-10 Virtual reality mobile pod
US15/591,975 2017-05-10
PCT/US2018/031344 WO2018208653A1 (en) 2017-05-10 2018-05-07 Virtual reality mobile pod

Publications (2)

Publication Number Publication Date
KR20200004875A KR20200004875A (ko) 2020-01-14
KR102588344B1 true KR102588344B1 (ko) 2023-10-11

Family

ID=62555169

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197036317A KR102588344B1 (ko) 2017-05-10 2018-05-07 가상 현실 이동식 포드

Country Status (10)

Country Link
US (1) US10656704B2 (ko)
EP (2) EP3621712B1 (ko)
JP (1) JP7141412B2 (ko)
KR (1) KR102588344B1 (ko)
CN (1) CN110582334A (ko)
CA (1) CA3061373A1 (ko)
ES (2) ES2871875T3 (ko)
RU (1) RU2756942C2 (ko)
SG (1) SG11201910030SA (ko)
WO (1) WO2018208653A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140067869A1 (en) * 2012-08-30 2014-03-06 Atheer, Inc. Method and apparatus for content association and history tracking in virtual and augmented reality
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
WO2019188229A1 (ja) * 2018-03-26 2019-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US10692294B1 (en) * 2018-12-17 2020-06-23 Universal City Studios Llc Systems and methods for mediated augmented physical interaction
US10780359B2 (en) * 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment
CN111694430A (zh) * 2020-06-10 2020-09-22 浙江商汤科技开发有限公司 一种ar场景画面呈现方法、装置、电子设备和存储介质
DE102020128395A1 (de) 2020-10-28 2022-04-28 Mack Rides Gmbh & Co Kg Verfahren zum Betreiben eines Freizeitparks sowie Freizeitpark
CN113082728A (zh) * 2021-04-14 2021-07-09 杭州易现先进科技有限公司 游乐车和增强现实交互系统
US11684852B2 (en) * 2021-05-04 2023-06-27 Sony Interactive Entertainment Inc. Create and remaster computer simulation skyboxes
JP7352598B2 (ja) * 2021-07-01 2023-09-28 本田技研工業株式会社 仮想体験提供システム、及びプログラム
CN114428577A (zh) * 2021-12-31 2022-05-03 合众新能源汽车有限公司 一种车载交互方法、车载交互终端及车载系统
WO2023137543A1 (en) * 2022-01-20 2023-07-27 Catalyst Entertainment Technology Virtual reality (vr)-enhanced motion platform, experience venue for such motion platform, and experience content and interactivity ecosystem
CN114625247A (zh) * 2022-02-15 2022-06-14 广州小鹏汽车科技有限公司 基于虚拟现实的场景显示系统、方法及车辆
CN116785694A (zh) * 2022-03-16 2023-09-22 北京罗克维尔斯科技有限公司 区域确定方法及装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000024062A (ja) 1998-07-08 2000-01-25 Shigeo Tanahashi 歩行訓練用自走車
US6179619B1 (en) 1997-05-13 2001-01-30 Shigenobu Tanaka Game machine for moving object
JP2002126359A (ja) 2000-10-26 2002-05-08 Logistics Management Consulting Co Ltd 遊技システム
WO2015195558A2 (en) 2014-06-16 2015-12-23 Universal City Studios Llc Interactive game floor system and method
WO2016189572A1 (ja) 2015-05-27 2016-12-01 泉陽興業株式会社 遊戯施設

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5152730A (en) * 1991-06-04 1992-10-06 Hoffman Roger E Handless walking aid for preventing falls from loss of balance
US5669821A (en) * 1994-04-12 1997-09-23 Prather; James G. Video augmented amusement rides
US5961541A (en) * 1996-01-02 1999-10-05 Ferrati; Benito Orthopedic apparatus for walking and rehabilitating disabled persons including tetraplegic persons and for facilitating and stimulating the revival of comatose patients through the use of electronic and virtual reality units
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US6866278B2 (en) * 2003-04-11 2005-03-15 Malcolm C. Gochioco Small man-powered bump car
US20050183759A1 (en) * 2003-09-02 2005-08-25 Wolfe Mary L. Walker with harness for an elderly, handicapped or convalescent person
TW200718457A (en) * 2005-08-18 2007-05-16 Aruze Corp Gaming machine and terminal device included in gaming machine
US20150041230A1 (en) * 2013-08-12 2015-02-12 GKart Inc. Amusement vehicle, amusement environment for a vehicle and method of using the same
JP2015095197A (ja) * 2013-11-14 2015-05-18 泰章 岩井 情報処理システム、情報処理方法
KR101669239B1 (ko) 2014-05-23 2016-10-25 김신희 가상현실 시뮬레이터
PL3041591T3 (pl) * 2014-08-11 2017-03-31 Mack Rides Gmbh & Co. Kg Sposób obsługi urządzenia, w szczególności urządzenia rozrywkowego, środka transportowego, urządzenia fitness lub podobnego
US9690375B2 (en) 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
WO2016112017A2 (en) 2015-01-05 2016-07-14 Worcester Polytechnic Institute System and method for controlling immersiveness of head-worn displays
US20160349509A1 (en) 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6179619B1 (en) 1997-05-13 2001-01-30 Shigenobu Tanaka Game machine for moving object
JP2000024062A (ja) 1998-07-08 2000-01-25 Shigeo Tanahashi 歩行訓練用自走車
JP2002126359A (ja) 2000-10-26 2002-05-08 Logistics Management Consulting Co Ltd 遊技システム
WO2015195558A2 (en) 2014-06-16 2015-12-23 Universal City Studios Llc Interactive game floor system and method
WO2016189572A1 (ja) 2015-05-27 2016-12-01 泉陽興業株式会社 遊戯施設

Also Published As

Publication number Publication date
RU2019140270A (ru) 2021-06-10
EP3851176A1 (en) 2021-07-21
JP7141412B2 (ja) 2022-09-22
CA3061373A1 (en) 2018-11-15
RU2019140270A3 (ko) 2021-09-01
CN110582334A (zh) 2019-12-17
SG11201910030SA (en) 2019-11-28
KR20200004875A (ko) 2020-01-14
EP3621712A1 (en) 2020-03-18
ES2938078T3 (es) 2023-04-04
US10656704B2 (en) 2020-05-19
US20180329480A1 (en) 2018-11-15
JP2020519366A (ja) 2020-07-02
RU2756942C2 (ru) 2021-10-07
WO2018208653A1 (en) 2018-11-15
EP3621712B1 (en) 2021-03-10
EP3851176B1 (en) 2022-12-14
ES2871875T3 (es) 2021-11-02

Similar Documents

Publication Publication Date Title
KR102588344B1 (ko) 가상 현실 이동식 포드
ES2965043T3 (es) Sistema y método de paseo aumentado
JP6995799B2 (ja) 拡張現実及び仮想現実画像を生成するためのシステム及び方法
CN110869098B (zh) 用于虚拟现实和增强现实路径管理的系统和方法
JP6469915B1 (ja) プログラム、情報処理装置、および方法
JP2018126341A (ja) シミュレーションシステム及びプログラム
US20230092395A1 (en) Physical object integration with extended reality environments
JP6457680B1 (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant