KR20220016978A - 맥락상 중요한 3차원 모델 - Google Patents

맥락상 중요한 3차원 모델 Download PDF

Info

Publication number
KR20220016978A
KR20220016978A KR1020227000299A KR20227000299A KR20220016978A KR 20220016978 A KR20220016978 A KR 20220016978A KR 1020227000299 A KR1020227000299 A KR 1020227000299A KR 20227000299 A KR20227000299 A KR 20227000299A KR 20220016978 A KR20220016978 A KR 20220016978A
Authority
KR
South Korea
Prior art keywords
virtual
camera
amusement park
virtual model
display
Prior art date
Application number
KR1020227000299A
Other languages
English (en)
Inventor
하워드 브루스 몰
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20220016978A publication Critical patent/KR20220016978A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5258Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/23238
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

모니터링 시스템(10)은, 미리 결정된 영역에 위치하고 미리 결정된 영역에서 물리적 위치의 실시간 영상 피드(feed)를 전송하도록 구성된 적어도 하나의 카메라(26)를 포함하는 영상 어셈블리(24)를 포함한다. 모니터링 시스템(10)은 또한 적어도 하나의 카메라(26)로부터 실시간 영상 피드를 수신하도록 구성된 제어 시스템(16)을 포함한다. 제어 시스템(16)은 메모리 장치(68), 및 메모리 장치(68)에 저장된 명령어에 기초하여 미리 결정된 영역의 가상 모델(62)을 생성하도록 구성된 프로세서(66)를 포함하며, 프로세서(66)는, 미리 결정된 영역에서 물리적 위치에 대응하는 가상 모델(62)에서의 가상 위치에서 실시간 영상 피드를 가상 모델(62)에 통합하도록 구성된다. 제어 시스템(16)은 또한 가상 모델(62)을 표시하도록 구성된 표시부(64)를 포함한다.

Description

맥락상 중요한 3차원 모델
관련 출원에 대한 상호 참조
본 출원은 "맥락상 중요한 3차원 모델(Contextually Significant 3-Dimensional Model)"이라는 명칭으로 2019년 6월 6일에 출원된, 미국 가출원 제 62/858,206호에 대한 우선권의 이익을 주장하며, 그 개시내용은 모든 목적을 위해 본 명세서에서 참조로 포함된다.
본 발명은 일반적으로 놀이공원 분야에 관한 것이다. 구체적으로, 본 발명의 실시예들은 놀이공원을 모니터링하고 실시간 화상 데이터를 통합하는 놀이공원 어트랙션(attractions)의 모델을 생성하는 기술에 관한 것이다.
이 섹션은 이하에서 설명되는 본 개시의 다양한 측면과 관련될 수 있는 기술의 다양한 측면을 독자에게 소개하기 위한 것이다. 이러한 논의는 독자에게 배경 기술 정보를 제공해 독자로 하여금 본 개시의 다양한 측면을 이해하는데 도움을 줄 것으로 생각된다. 따라서, 이 섹션의 서술은 이러한 관점에서 해석되어야 하며 선행 기술을 인정하는 것으로 해석되어서는 안 된다.
20세기 초반 이래, 놀이공원에 대한 인기는 상당히 높아지고 있다. 많은 사람들이 놀이공원 어트랙션을 방문하고 있다. 놀이공원 직원은 스케줄 편차(schedule deviations)를 식별하고 고객들이 긍정적인 경험을 할 수 있도록 놀이공원 어트랙션을 모니터링하는 임무를 맡는다. 특정 놀이공원 모니터링 시스템은 놀이공원 직원이 볼 수 있는 영상 피드(feed)를 제공하기 위해 놀이공원 전체에 보안 카메라를 도입한다. 고객이 부주의로 놀이기구 트랙에 물건을 떨어뜨리는 등 정비 대응이 필요한 상황이 발생하면, 놀이공원 직원을 보내 문제를 해결하여 스케줄 편차를 방지하거나 줄인다. 그러나 유지보수 상황이 발생한 특정 위치를 판별하는 것은 복잡할 수 있다. 어트랙션 전체에 걸쳐 다수의 카메라가 분산되어 있는 경우, 보안 모니터링 화면에 표시되는 획득된 화상에서 어트랙션 내 개별 카메라의 물리적 위치를 확인하는 것은 어렵다. 따라서, 이제는 놀이공원 어트랙션 모니터링 시스템 개선에 대한 필요성이 인식되고 있다.
이하의 설명은 최초 청구 대상의 범위에 상응하는 특정 실시예들을 요약한 것이다. 이러한 실시예들은 본 개시의 범위를 제한하려는 것이 아니며, 개시된 특정 실시예들에 대한 간략한 요약을 제공하기 위한 목적으로 서술된다. 실제로, 본 개시는 후술할 실시예들과 유사하거나 상이할 수 있는 다양한 형태를 포함할 수 있다.
일 실시예에 따르면, 모니터링 시스템은, 미리 결정된 영역에 위치하고 미리 결정된 영역에서 물리적 위치의 실시간 영상 피드(feed)를 전송하도록 구성된 적어도 하나의 카메라를 포함하는 영상 어셈블리를 포함한다. 모니터링 시스템은 또한, 적어도 하나의 카메라로부터 실시간 영상 피드를 수신하도록 구성된 제어 시스템을 포함한다. 제어 시스템은 메모리 장치, 및 메모리 장치에 저장된 명령어에 기초하여 미리 결정된 영역의 가상 모델을 생성하도록 구성된 프로세서를 포함한다. 프로세서는, 미리 결정된 영역에서 물리적 위치에 대응하는 가상 모델에서의 가상 위치에서 실시간 영상 피드를 가상 모델에 통합하도록 구성된다. 제어 시스템은 또한 가상 모델을 표시하도록 구성된 표시부를 포함한다.
일 실시예에 따르면, 모니터링 시스템은 미리 결정된 영역에 배치되고 실시간 화상을 포착 및 출력하도록 구성된 적어도 하나의 카메라를 포함하는 영상 어셈블리를 포함한다. 모니터링 시스템은 또한 적어도 하나의 카메라로부터 실시간 화상을 수신하도록 구성된 제어 시스템을 포함한다. 제어 시스템은 메모리 장치, 및 메모리 장치에 저장된 명령어에 기초하여 가상 공간에서 미리 결정된 영역의 가상 모델을 생성하도록 구성된 프로세서를 포함한다. 프로세서는, 실시간 화상에 기초하여 가상 공간에서 적어도 하나의 가상 영상 디스플레이를 생성하도록 구성된다. 가상 공간에서 적어도 하나의 가상 영상 디스플레이의 위치는 미리 결정된 영역에서 적어도 하나의 카메라의 위치에 적어도 부분적으로 기초한다. 제어 시스템은 또한 사용자를 위해 가상 공간을 표시하도록 구성되는 표시부를 포함하는 사용자 인터페이스를 포함한다. 사용자 인터페이스는 또한 적어도 하나의 카메라의 카메라 방향을 제어하기 위해 적어도 하나의 사용자 개시 명령을 프로세서에 제공하도록 구성된 입력 장치를 포함한다.
일 실시예에 따르면, 모니터링 시스템은, 놀이공원 어트랙션에 배치되고 놀이공원 어트랙션의 적어도 일부의 영상 피드를 전송하도록 구성된 적어도 하나의 카메라를 포함하는 영상 어셈블리, 놀이공원 어트랙션에서 놀이기구 차량의 위치를 검출하도록 구성된 센서 어셈블리, 및 적어도 하나의 카메라로부터의 영상 피드 및 놀이기구 차량의 검출된 위치를 수신하도록 구성된 제어 시스템을 포함한다. 제어 시스템은 메모리 장치, 및 메모리 장치에 저장된 명령어에 기초하여 놀이공원 어트랙션의 가상 모델 및 가상 모델에 배치된 가상 놀이기구 차량을 생성하도록 구성된 프로세서를 포함한다. 프로세서는 영상 피드에 기초하여 가상 모델에서 가상 영상 디스플레이를 생성하도록 구성되고, 가상 모델에서 적어도 하나의 가상 영상 디스플레이의 위치는 놀이공원 어트랙션에서 적어도 하나의 카메라의 위치에 적어도 부분적으로 기초한다. 가상 모델에서 가상 놀이기구 차량의 위치는 놀이공원 어트랙션에서 놀이기구 차량의 검출된 위치에 적어도 부분적으로 기초한다. 제어 시스템은 또한 가상 모델을 표시하도록 구성된 표시부를 포함할 수 있다.
본 개시의 이들 특징 및 다른 특징, 양태 및 이점은 도면 전체에 걸쳐 동일한 참조부호는 동일한 구성요소를 나타내는 첨부 도면을 참조하여 후술하는 상세한 설명을 읽었을 때 더 잘 이해될 수 있다.
도 1은 놀이공원 어트랙션에 대한 모니터링 시스템의 일 실시예의 사시도이다.
도 2는 놀이공원 어트랙션의 가상 모델의 일 실시예의 사시도이다.
도 3은 가상 모델에 대해 회전하도록 구성된 가상 디스플레이 화면을 갖는 가상 모델의 일 실시예의 사시도이다.
도 4는 사용자 입력에 적어도 부분적으로 기초하여 재배향된 가상 모델의 일 실시예의 사시도이다.
도 5는 적어도 하나의 가상 디스플레이 화면에 대응하는 영상 피드를 표시하도록 구성된 보기 창(viewing window)을 갖는 가상 모델의 일 실시예의 사시도이다.
도 6은 모니터링 시스템의 일 실시예의 블록도이다.
아래에서는 하나 이상의 특정 실시예를 설명한다. 이러한 실시예들의 간략한 설명을 위해, 본 명세서에서는 실제 구현의 모든 특징들이 기술되지 않을 수 있다. 엔지니어링 또는 설계 프로젝트 등과 같이 실제 구현 개발 시에는 시스템 및 사업 관련 제약사항 준수 등 개발자의 특정한 목표(각각의 구현마다 다를 수 있음)를 달성하기 위해 수많은 구현 관련 결정들이 이루어져야 한다. 또한, 이러한 개발 노력은 복잡하고 시간 소모적일 수 있지만, 본 개시의 이점을 갖는 당업자에게 있어서는 일상적인 설계, 조립 및 제조 행위일 수 있다는 사실이 중요하다.
본 개시의 다양한 실시예들의 구성요소를 소개할 때, "하나의", "그" 및 "상기"라는 단어의 사용은 하나 이상의 구성요소가 존재함을 의미한다. "포함하는" 및 "갖는"이라는 용어는 포괄적인 의미를 가지며, 나열된 구성요소 이외의 추가적인 구성요소가 있을 수 있음을 의미한다. 또한, 본 개시의 "일 실시예"에 대한 언급은, 열거된 특징들을 포함하는 추가 실시예들의 존재를 배제하는 것으로 해석되어서는 안 된다.
테마 파크 또는 놀이공원 직원은 놀이공원 어트랙션, 고객, 및 테마 공원 및 놀이공원의 다른 부분을 모니터링하는 임무를 맡는다. 특정 놀이공원은 놀이공원 직원이 관찰할 수 있도록 표시부에 다수의 라이브 피드를 제공하는 모니터링 시스템을 사용한다. 예컨대, 놀이공원 어트랙션의 다양한 위치에서 포착된 다수의 라이브 피드는 놀이공원 직원을 위해 그리드(grid)로 배열되고 화면에 표시될 수 있다. 놀이공원 직원은 라이브 피드를 볼 때, 그리드의 라이브 피드를 놀이공원 어트랙션에 있는 각각의 물리적 위치와 상관시키기 위해 구조법(organization method), 명명 규칙, 기억 또는 다른 적절한 방법에 의존할 수 있다. 그러나, 이러한 방법들은 사용이 복잡하고, 이러한 방법들을 사용하려면 놀이공원 직원이 각각의 어트랙션의 물리적 배치에 대해 매우 잘 알고 있어야 할 수 있다. 또한, 이러한 방법들은 라이브 피드가 많은 놀이공원 어트랙션에 있어서 더욱더 복잡해질 수 있다. 또한 이러한 방법들은 이동식 카메라(예컨대, 놀이기구 차량, 드론, 쇼 구성요소 등에 부착된 카메라) 또는 다양한 뷰를 갖는 카메라(예컨대, 회전식 헤드(swiveling heads))의 실제 물리적 위치를 정확하게 전달하지 못할 수 있다. 예를 들어, 카메라가 놀이기구 차량에 설치된 경우, 카메라의 물리적 위치는 놀이기구 트랙을 따라 이동하므로 놀이공원 직원은 라이브 피드의 랜드마크를 기반으로 물리적 카메라의 현재 위치를 추측해야 할 수 있다. 더욱이, 일부 놀이공원은 모니터링 시스템의 일부로 다수의 카메라 및/또는 이동식 카메라를 도입할 수 있기 때문에, 그리드의 라이브 피드를 각각의 해당 물리적 위치와 상관시키는 방법은 놀이공원 직원에게 더욱 더 복잡하게 느껴질 수 있으며, 이로 인해, 검출된 사고에 대한 대응이 느려지고, 놀이공원 직원에 대한 훈련이 증가되며, 놀이공원 직원에 의한 오류 위험이 증가될 수 있다.
본 명세서는, 놀이공원 직원이 디스플레이 상에서 볼 수 있는 놀이공원 어트랙션의 가상 모델을 생성하는 모니터링 시스템을 제공한다. 놀이공원 어트랙션에 있는 카메라들로부터의 라이브 피드(예컨대, 실시간 영상 피드)는 놀이공원 어트랙션에 있는 카메라들의 각각의 실제 물리적 위치에 대응하는 모델 내의 위치에서 가상 모델에 표시되어, 놀이공원 직원은 놀이공원 어트랙션의 가상 모델 내에 통합된 카메라들의 지리적 위치에서 라이브 피드를 볼 수 있다. 본 명세서에서 제공되는 가상 모델은, 놀이공원 어트랙션의 렌더링된 모델 또는 개략적인 모델과 라이브 피드의 혼합이 각각의 카메라의 실세계 시계(field of view)에 대응하거나 이를 개략적으로 묘사하는 모델 내의 위치에서 모델에 통합된 것이다. 이러한 방식으로, 놀이공원 직원은 가상 모델에서 라이브 피드를 보면서 라이브 피드의 물리적 위치를 볼 수 있다. 또한, 놀이공원 어트랙션에 있는 이동식 카메라의 실제 위치와 움직임을 기반으로 이동식 카메라에 대한 라이브 피드가 가상 모델에서 위치되고 이동하므로, 놀이공원 직원은 이동식 카메라의 물리적 위치를 정확하게 판단할 수 있다.
도 1은 놀이공원 내의 놀이공원 어트랙션(12)에 대한 모니터링 시스템(10)의 일 실시예의 사시도이다. 모니터링 시스템(10)은 놀이공원 어트랙션(12)을 모니터링하도록 지정된 놀이공원 직원(19)이 볼 수 있는 라이브 피드(예컨대, 실시간 영상 피드 또는 실시간 화상)를 제공한다. 구체적으로, 모니터링 시스템(10)은, 가상 영상 디스플레이를 통해 놀이공원 어트랙션의 가상 모델에서 라이브 피드를 놀이공원 직원(19)에게 표시하도록 구성된다. 일부 실시예들에서, 놀이공원 직원(19)은 추가의 놀이공원 어트랙션, 놀이공원의 다른 부분 또는 놀이공원 전체를 모니터링 할 수 있다. 일부 실시예들에서, 놀이공원 직원(19)은 보안 또는 유지관리 목적으로 라이브 피드를 모니터링 할 수 있다. 예를 들어, 라이브 피드 중 하나 이상의 실시간 영상 피드는 놀이공원의 관계자외 출입 금지 구역(18)을 보여줄 수 있다. 놀이공원 직원(19)은 실시간 영상 피드를 관찰하여 어트랙션 중단 조건으로 간주될 수 있는, 고객(20)이 관계자외 출입 금지 구역(18)으로 들어가는지 여부를 판단할 수 있다. 일부 실시예들에서, 놀이공원 직원(19)은 놀이공원 어트랙션(12)의 어트랙션 조건(예컨대, 스케줄, 클리어 트랙, 차량 운행 조건, 소품 작동 조건)을 판단하기 위해 실시간 영상 피드를 모니터링 할 수 있다. 예를 들어, 놀이공원 직원(19)은 직접 현장 검사를 수행할 필요 없이 쇼 구성요소(22)(예컨대, 애니매트로닉(animatronic) 피규어)가 계획대로 움직이지 않는다고 판단할 수 있다.
모니터링 시스템(10)은 영상 어셈블리를 포함한다. 영상 어셈블리는 놀이공원 어트랙션(12) 주변의 미리 결정된 영역에 배치되고 실시간 영상 또는 화상을 포착하도록 구성된 카메라(26)를 포함할 수 있다. 카메라가 배치될 수 있는 장소의 예에는, 놀이공원 어트랙션(12)의 입구(28), 놀이공원 어트랙션의 승차 구역(32)으로 이어지는 대기선(30) 전체, 놀이공원 어트랙션(12)의 승차 구역(32), 놀이공원 어트랙션의 놀이기구 트랙(34) 상의 다양한 위치, 놀이공원 어트랙션(12)의 쇼 구성요소(22), 놀이공원 어트랙션(12)의 관계자외 출입 금지 구역(18), 놀이공원 어트랙션(12)의 하차 구역(36), 놀이공원 어트랙션(12)의 출구, 또는 놀이공원 어트랙션(12)의 기타 영역이 있다. 또한, 카메라(26)는 놀이공원의 다른 영역에 배치될 수 있다. 예를 들어, 카메라(26)는 놀이공원의 입구/출구, 놀이공원 어트랙션 사이의 통로를 따라, 또는 놀이공원의 기타 영역에 배치될 수 있다.
일부 실시예들에서, 놀이공원 어트랙션(12)은 이동식 카메라(38)를 포함할 수 있다. 일부 실시예들에서, 이동식 카메라(38)는 놀이공원 어트랙션(12)의 놀이기구 차량(40)에 배치되어, 놀이기구 차량(40)이 놀이기구 트랙(34)을 따라 이동함에 따라 이동식 카메라(38)도 놀이기구 트랙(34)을 따라 이동한다. 이동식 카메라(38)는 놀이기구 차량(40)의 승객 부분(42)의 실시간 영상 피드를 전송하도록 구성될 수 있다. 다른 일 실시예에서, 이동식 카메라(38)는, 놀이기구 차량(40)이 놀이공원 어트랙션(12)의 놀이기구 트랙(34)을 따라 이동함에 따라 놀이공원 어트랙션(12)의 실시간 영상 피드를 전송하도록 구성될 수 있다. 추가 실시예들에서, 이동식 카메라(38)는 놀이공원 직원(19)으로부터의 입력에 기초하여 움직이도록 구성될 수 있다. 예를 들어, 이동식 카메라(38)는 놀이공원 직원(19)으로부터의 입력에 응답하여 왼쪽에서 오른쪽으로, 위에서 아래 등으로 회전하도록 구성될 수 있다.
일부 실시예들에서, 이동식 카메라(38)는 항공 드론(44) 상에 배치될 수 있다. 항공 드론(44)은 놀이공원 어트랙션(12) 또는 놀이공원 위의 설정된 비행 경로(46)를 따라가도록 구성될 수 있다. 일부 실시예들에서, 놀이공원 직원(19)은 놀이공원 어트랙션(12)의 원하는 영역을 관찰하기 위해 항공 드론(44)을 직접 제어할 수 있다. 예를 들어, 놀이공원 직원(19)은 카메라(26)에 의해 볼 수 없는 놀이공원의 모니터링 되지 않는 부분(48)을 보기를 원할 수 있다. 놀이공원 직원(19)은 놀이공원 어트랙션(12)의 모니터링 되지 않는 부분(48)의 실시간 영상 피드를 포착하기 위해 항공 드론(44) 중 하나를 놀이공원의 모니터링 되지 않는 부분(48)으로 보낼 수 있다.
일부 실시예들에서, 모니터링 시스템(10)은 센서 어셈블리를 포함한다. 센서 어셈블리는 놀이공원에서 추적 가능한 물체를 검출하도록 구성될 수 있다. 센서 어셈블리는 놀이공원 어트랙션(12)에 있는 고객 장치(예컨대, 액티브 웨어러블), 놀이기구 차량(40), 또는 쇼 구성요소(22)를 추적하도록 구성될 수 있다. 예를 들어, 센서 어셈블리는 놀이공원 어트랙션(12)의 놀이기구 차량(40)의 위치를 검출할 수 있다. 센서 어셈블리는 놀이공원 어트랙션(12)의 놀이기구 트랙(34)을 따라 배치된 센서(52)를 포함할 수 있다. 센서(52)는 적외선 센서, 자기 센서, 전기 센서, 위치 센서, 광학 센서, 압력 센서, 또는 놀이기구 차량(40)을 검출하기 위한 임의의 다른 적절한 센서를 포함할 수 있다.
일부 실시예들에서, 라이브 피드는 실시간 오디오 피드를 포함한다. 이러한 실시예들에서, 모니터링 시스템(10)은 오디오 어셈블리를 포함한다. 오디오 어셈블리는 놀이공원 어트랙션(12) 전체에 걸쳐 배치된 오디오 입력 장치(60)(예컨대, 마이크로폰)를 포함할 수 있다. 각각의 오디오 입력 장치(60)는 카메라(26) 중 하나에 근접하게 위치될 수 있다. 일부 실시예들에서, 오디오 입력 장치(60)는 카메라(26)에 통합될 수 있다. 각각의 오디오 입력 장치(60)는 오디오 입력 장치(60)의 각각의 위치에서 라이브 오디오를 녹음하고, 녹음된 라이브 오디오에 기초하여 놀이공원 어트랙션(12)에 대한 제어 시스템(16)에 실시간 오디오 피드를 전송할 수 있다. 모니터링 시스템(10)은 놀이공원 어트랙션(12)에 있는 오디오 입력 장치(60) 각각으로부터의 실시간 오디오 피드에 기초하여 가상 모델에 대한 오디오 출력 피드를 생성하도록 구성될 수 있다. 일례에서, 가상 모델에서의 음원은 소리가 공간화되는 사용자 인터페이스를 허용한다.
일부 실시예들에서, 모니터링 시스템(10)의 사용자 인터페이스(17)는 표시부(64)(예컨대, 모니터, 개인용 컴퓨팅 장치의 스크린 등) 및 오디오 출력 장치(65)(예컨대, 스피커, 헤드폰 등)를 포함한다. 놀이공원 어트랙션의 실시간 영상 피드를 포함하는 가상 모델(62)은 놀이공원 직원(19)이 놀이공원 어트랙션(12)을 모니터링하도록 표시부(64)에 표시될 수 있다. 또한, 오디오 출력 장치(65)는 놀이공원 직원(19)을 위한 오디오 출력 피드를 출력하도록 구성될 수 있다. 오디오 출력 피드는, 표시부(64) 상에 가장 두드러지게 표시되는 실시간 영상 피드를 제공하는 카메라(26)에 근접하게 배치된 제1 오디오 입력 장치(60)에 대응하는 실시간 오디오 피드를 포함할 수 있다.
일부 실시예들에서, 놀이공원 어트랙션에 대한 모니터링 시스템(10)은 가상 모델(62)에 대한 공간 오디오를 생성할 수 있다. 공간 오디오는 오디오 입력 장치(60)의 위치 및 오디오 입력 장치(60)에 대응하는 실시간 오디오 피드를 사용하여 생성될 수 있다. 공간 오디오는 위치 기반 오디오를 포함한다. 즉, 놀이공원 직원(19)이 가상 카메라(즉, 가상 모델(62)에 배치되고 표시부(64)에 표시되는 화상을 제공하도록 구성된 카메라)를 이동함에 따라 오디오 출력 피드는 가상 모델의 사용자 카메라(예컨대, 가상 카메라)의 위치에 기초하여 변경된다. 오디오 출력 피드는 실시간 영상 피드에 대한 가상 카메라의 위치에 기초하여 변경될 수 있다. 오디오 출력 피드의 방향 및 음량은 실시간 오디오 피드에 대한 가상 카메라의 거리 및 회전에 기초하여 정해질 수 있다. 예를 들어, 가상 카메라의 왼쪽에 배치된 제1 실시간 오디오 피드로부터의 소리는 오디오 출력 장치(65)의 왼쪽 스피커(71)에 의해 출력될 수 있는 반면, 가상 카메라의 오른쪽에 배치된 제2 실시간 오디오 피드로부터의 소리는 오디오 출력 장치(65)의 오른쪽 스피커(73)에 의해 출력될 수 있다. 또한, 가상 카메라에 근접하게 배치된 실시간 오디오 피드로부터의 오디오 출력 피드에서 출력되는 음량은, 가상 카메라에서 더 멀리 배치된 다른 실시간 오디오 피드로부터의 음량보다 일반적으로 더 클 수 있다. 따라서, 음량은 가상 카메라에 대한 실시간 오디오 피드의 근접성에 기초할 수 있다. 놀이공원 직원(19)에게 공간 오디오를 제공함으로써, 놀이공원 직원(19)이, 표시부(64)를 통해 볼 수 있는 실시간 영상 피드에 표시되지 않는 놀이공원 어트랙션(12)의 위치를 모니터링하는 데 도움을 줄 수 있다.
도 2는 개시된 기술에 따른 표시부(64) 상에 나타나는 놀이공원 어트랙션의 가상 모델(62)의 일 실시예의 사시도이다. 가상 모델(62)은, 제어 시스템을 통해 놀이공원 직원(19)에 의해 제어 가능한 가상 카메라(63)의 관점에서 표시부(64) 상에 나타난다. 제어 시스템은 제어 시스템의 메모리 장치에 저장된 명령어에 기초하여 놀이공원 어트랙션의 가상 모델(62)을 생성하도록 구성될 수 있다. 가상 모델(62)은 도 1의 어트랙션(12)의 하나 이상의 영역을 묘사할 수 있는데, 여기에는 놀이공원 어트랙션의 입구(28), 놀이공원 어트랙션의 승차 구역으로 이어지는 대기선(30), 놀이공원 어트랙션의 승차 구역(32), 놀이기구 트랙(34), 놀이기구 차량(40), 쇼 구성요소(22), 놀이공원 어트랙션의 관계자외 출입 금지 구역(18), 놀이공원 어트랙션의 하차 구역(36), 놀이공원 어트랙션의 출구, 및/또는 놀이공원 어트랙션의 기타 다른 부분이 포함된다.
일부 실시예들에서, 가상 모델(62)은 가상 공간(70)에 위치한 놀이공원 어트랙션의 3차원 묘사일 수 있다. 3차원 묘사는 놀이공원 어트랙션의 가상 모형일 수 있다. 일 실시예에서, 3차원 묘사는, 놀이공원 어트랙션의 부분들 사이의 지리 공간적 관계가 가상 모델(62)에서 표현되도록 실제 놀이공원 어트랙션의 축척에 따라 렌더링될 수 있다.
일부 실시예들에서, 가상 모델(62)은 가상 모델(62)을 단순화하기 위해 놀이공원 어트랙션의 다양한 수준의 세부 사항을 생략할 수 있다. 즉, 가상 모델(62)은 특정 구성요소만을 보여주는 어트랙션의 개략적인 버전일 수 있다. 일 실시예에서, 가상 모델(62)은 어트랙션의 벽, 놀이기구 트랙 및 개략적으로 렌더링된 차량을 보여준다. 가상 모델(62)은 컴퓨터로 생성한 선묘(line drawing)로서 적어도 부분적으로 렌더링 될 수 있다. 다른 일 실시예에서, 가상 모델(62)은 놀이공원 어트랙션의 2차원 묘사이다. 예를 들어, 가상 모델(62)은 놀이공원 어트랙션의 평면도일 수 있다. 일부 실시예들에서, 2차원 묘사는 놀이공원 어트랙션의 설명적 묘사일 수 있다. 예를 들어, 평면도가 놀이공원 어트랙션의 부분들을 겹치도록, 놀이공원 어트랙션은 다평면일 수 있다. 설명적 묘사는 놀이공원 어트랙션의 원하는 부분이 가상 모델(62)에서 보일 수 있도록 놀이공원 어트랙션의 부분들을 숨기거나, 이동시키거나 그 크기를 조절할 수 있다. 이러한 묘사(예컨대, 2차원 및 3차원 묘사)들 각각은 모니터링 시스템에 고유한 이점을 제공할 수 있다. 예컨대, 3차원 묘사는 놀이공원 직원에게 보다 정확한 가상 모델(62)을 제공할 수 있고, 2차원 묘사는 보기 쉽도록 놀이공원 직원에게 단일의 설명적 뷰를 제공할 수 있다. 일부 실시예들에서, 모니터링 시스템은 놀이공원 직원을 위해 가상 모델(62)의 3차원 묘사 및 2차원 묘사 모두를 표시하도록 구성될 수 있다.
더욱이, 제어 시스템은 가상 모델(62) 또는 가상 공간(70)에 통합된 하나 이상의 가상 화상 또는 영상 디스플레이(72)를 생성하도록 구성된다. 상기에 서술한 바와 같이, 카메라 및/또는 이동식 카메라는 실시간 영상 피드를 전송하도록 구성될 수 있다. 제어 시스템은 실시간 영상 피드를 수신하고 가상 모델(62) 또는 가상 공간(70)에서 각각의 가상 영상 디스플레이(72)를 생성하도록 구성될 수 있다. 본 명세서에서 제공되는 바와 같이, 가상 영상 디스플레이는 가상 모델(62) 내에 통합된 실시간 영상 피드의 디스플레이를 지칭할 수 있다. 즉, 가상 영상 디스플레이는 획득된 카메라 피드를 표시할 수 있다. 가상 영상 디스플레이(72)는, 놀이공원 어트랙션의 하나 이상의 카메라의 각각의 실제 물리적 위치에 적어도 부분적으로 기초하여 가상 모델(62) 또는 가상 공간(70)의 가상 위치에 배치될 수 있다. 가상 위치는 가상 모델(62)의 관계의 축척에 기초하거나 가상 모델(62) 내의 랜드마크의 상대적 위치에 기초할 수 있다. 예를 들어, 어트랙션이 트랙 주변으로 대략 등거리에 (예컨대, 원형 트랙 주변으로 약 60도마다) 배치된 카메라를 갖는 경우, 이와 유사한 방식으로 가상 디스플레이(72)는 렌더링된 가상 트랙 주변에 분포될 수 있다. 또한, 어트랙션에 하나 이상의 소품이 있고 이러한 소품에 인접하여 배치된 카메라가 있는 경우, 해당 소품은 선묘(line drawings) 또는 단순화된 소품 화상(images)을 사용하여 렌더링될 수 있으며, 인접한 카메라로부터의 가상 영상 디스플레이(72)는 소품 주변으로 포착된 시계(field of view)에 기초하여 위치될 수 있다(예컨대, 소품 앞, 소품 옆).
일 예에서, 도 1의 개별 카메라는 놀이공원 어트랙션의 승차 구역에 근접하게 위치될 수 있다. 따라서, 각각의 제1 가상 영상 디스플레이(72)는 가상 승차 구역(76)에 근접한 것으로서 도시된, 가상 모델(62)의 부분 내에서 렌더링되거나 표시되는 가상 위치에 배치될 수 있다. 또한, 가상 영상 디스플레이(72)는 모델 내에서 카메라 자체의 위치 또는 카메라의 포착된 시계(field of view)에 해당하는 위치에 배치될 수 있다.
일부 실시예들에서, 가상 영상 디스플레이(72)는 3차원 가상 모델 또는 공간에 위치한 2차원 가상 디스플레이를 포함한다. 2차원 가상 디스플레이(예컨대, 제1 가상 영상 디스플레이(74))의 방향은 놀이공원 어트랙션의 하나 이상의 카메라의 방향에 적어도 부분적으로 기초할 수 있다. 예를 들어, 도 1에서, 하나 이상의 카메라는 놀이공원 어트랙션의 승차 구역을 향하도록 배향된다. 2차원 가상 디스플레이가 해당하는 하나 이상의 카메라의 관점에 대응하여 가상 모델(62) 또는 가상 공간(70)에 위치되고 배향되도록, 가상 모델(62)에서 2차원 가상 디스플레이는 놀이공원 어트랙션의 가상 승차 구역(76)을 향하여 배향될 수 있다.
일부 실시예들에서, 제어 시스템은, 가상 영상 디스플레이(72) 각각을 보기 위한 놀이공원 직원으로부터의 입력에 기초하여 가상 공간(70)에서 표시부(64)에 의해 보여지는 카메라 위치 및 각도를 조정하도록 구성된다. 예를 들어, 예시된 실시예에서, 제 2 가상 영상 디스플레이(78)는 놀이공원 운영자에게 보이지 않는다. 그러나, 제2 가상 영상 디스플레이(78)가 놀이공원 운영자에게 보일 수 있도록, 놀이공원 운영자는 가상 모델(62)의 반대쪽에서 가상 모델(62) 또는 가상 공간(70)을 보도록 카메라 위치 및 각도를 조정할 수 있다. 다른 일 실시예에서, 가상 영상 디스플레이(72) 각각을 보기 위해, 제어 시스템은 가상 공간(70)의 카메라 위치 및 각도를 유지하되 가상 모델(62)을 회전, 팬(pan) 촬영 등을 하도록 구성된다.
일부 실시예들에서, 도 1의 하나 이상의 카메라는 파노라마 실시간 영상 피드를 포착 및 출력하도록 구성된다. 제어 시스템은, 가상 모델(62)에서 파노라마 실시간 영상 피드를 표시하도록 구성된 3차원 가상 영상 디스플레이를 생성하도록 구성될 수 있다. 3차원 가상 영상 디스플레이는 가상 공간(70)의 제1 카메라 위치 및 각도에서 가상 모델(62)을 볼 때 파노라마 실시간 영상 피드의 제1 부분을 표시할 수 있고, 제 2 카메라 위치 및 각도에서 가상 모델(62)을 볼 때 파노라마 실시간 영상 피드의 제 2 부분을 표시할 수 있다.
상기에 서술한 바와 같이, 일부 실시예들에서, 모니터링 시스템은 놀이공원에서 추적 가능한 물체(예컨대, 고객 장치, 놀이기구 차량, 쇼 구성요소)를 검출하고 검출 신호를 놀이공원 또는 놀이공원 어트랙션에 대한 제어 시스템에 출력하도록 구성된 센서 어셈블리를 포함한다. 제어 시스템은 검출 신호를 수신하고 검출 신호에 기초하여 가상 모델(62)의 부분들을 이동시키도록 구성될 수 있다. 예를 들어, 센서 어셈블리는 놀이기구 차량의 위치를 검출하고 검출 신호를 제어 시스템에 출력할 수 있다. 제어 시스템은, 검출 신호에 기초하여 가상 모델(62)에서 각각의 가상 놀이기구 차량(80)의 위치를 재배치/업데이트하여, 가상 모델(62) 또는 가상 공간(70)에서의 각각의 가상 놀이기구 차량(80)의 위치가 실제 놀이공원 어트랙션의 놀이기구 차량의 실제 위치를 나타내도록 한다. 일 실시예에서, 가상 놀이기구 차량(80)은 실제 놀이기구 차량이 물리적 트랙을 따라 이동하는 것에 대응하는 방식으로 트랙을 따라 이동한다. 실제 놀이기구 차량이 카메라의 시계에 들어오고 가상 모델(62)의 가상 영상 디스플레이(72)에서 보임에 따라, 가상 놀이기구 차량(80)은 가상 영상 디스플레이(72)에 대응하는 가상 모델의 부분에서 일시적으로 표시되지 않을 수 있다. 실제 놀이기구 차량이 시계 밖으로 이동함에 따라 가상 차량(80)이 다시 표시될 수 있다.
표시부(64) 상의 가상 모델(62)을 보는 운영자는 시간이 지남에 따라 렌더링된 차량 또는 가상 차량(80)이 놀이기구 트랙을 가로지는 것을 볼 수 있으므로, 운영자는 한 눈에 가상 공간(70)에서 각각의 가상 놀이기구 차량(80)의 위치를 파악할 수 있다. 이러한 뷰는 실제 어트랙션의 각 실제 차량이 있는 위치를 상상하는 것을 더욱 쉽게 해, 운영자가 어트랙션을 보다 쉽게 모니터링할 수 있고 어트랙션 공간으로부터 분리된 방식으로 표시되는 다수의 카메라 피드 사이를 전환할 필요가 없게 된다. 또한, 가상 모델(62)의 특정 구성요소(트랙, 벽, 승차 구역)는 서로 다른 운행 주기 사이에 변경되지 않기 때문에, 이러한 모델의 처리 능력은 각 구성요소가 각 운행 주기에 대해 새로 렌더링되는 모델의 처리 능력보다 상대적으로 낮을 수 있다. 그러나, 모델의 특정 부분들이 상대적으로 정적으로 유지되는 동안, 가상 놀이기구 차량과 같은 가상 모델의 이동식 구성요소는 처리 복잡성을 낮추기 위해 개략적인 방식으로 렌더링될 수 있다. 또한, 실시간 영상 피드를 통합하는 것은, 각 운행 주기에 대해 어트랙션 구성요소를 새로 렌더링하는 것에 비해 상대적으로 낮은 처리 능력의 이점을 유지하면서 모델내에 이용가능한 정보를 개선시킨다.
일부 실시예들에서, 센서 어셈블리는 고객에 대응하는 고객 장치를 검출하고 고객 검출 신호를 제어 시스템에 출력할 수 있다. 고객 검출 신호는 놀이공원 어트랙션에 대한 고객 장치의 검출된 위치를 포함할 수 있다. 제어 시스템은 고객 장치의 고객 검출 신호 위치를 수신하고 가상 모델(62) 또는 가상 공간(70)에서 고객 아바타(82)를 생성하도록 구성된다. 가상 모델(62)에서 고객 아바타(82)의 위치는 놀이공원 어트랙션에 있는 고객 장치의 검출된 위치에 적어도 부분적으로 기초하여, 가상 모델(62) 내의 고객 아바타(82)의 위치가 실제 놀이공원 어트랙션에서 검출된 고객 장치에 대응하는 고객의 위치를 나타내도록 한다. 일부 실시예들에서, 고객 아바타(82)의 형태는 메모리 장치에 저장된 명령어에 기초할 수 있다. 일부 실시예들에서, 고객 아바타(82)의 형태는 고객 장치와 연관된 고객 식별 정보에 기초할 수 있다. 예를 들어, 고객 정보는 고객이 성인임을 나타낼 수 있다. 따라서, 제어 시스템은 성인 크기의 아바타를 생성할 수 있다. 다른 실시예들에서, 고객 아바타(82)는 검출된 고객 장치에 대응하는 고객을 나타내도록 구성된 형상(예컨대, 원, 정사각형 등)일 수 있다. 또한, 고객이 물리적 어트랙션 주변을 이동할 때, 가상 모델(62)에서의 아바타(82) 및/또는 차량(80)의 위치는 업데이트된 위치 정보에 기초하여 업데이트될 수 있다.
상기에 서술한 바와 같이, 표시부(64)는 가상 모델(62)을 표시하도록 구성된다. 표시부(64)는 컴퓨터 모니터, 텔레비전, 컴퓨터 스크린, 모바일 장치 스크린(예컨대, 휴대폰 스크린, 태블릿 스크린 등), 또는 다른 적절한 표시부(64)일 수 있다. 그러나, 일부 실시예들에서, 가상 공간(70)은 가상 현실 환경이다. 놀이공원 직원은 가상 현실 헤드셋을 통해 가상 현실 환경에서 가상 모델(62)을 볼 수 있다. 놀이공원 직원은 가상 현실 환경 내부에서 이동하고, 가상 현실 환경에 위치한 가상 영상 디스플레이(72)를 볼 수 있다. 또한, 놀이공원 직원은 가상 현실 환경에서 6자유도로 이동할 수 있다. 다른 실시예들에서, 가상 공간은 증강 현실 환경이다. 놀이공원 직원은 증강 현실 헤드셋을 사용하여 증강 현실 환경에서 가상 모델을 볼 수 있다.
일부 실시예들에서, 놀이공원 운영자는 가상 영상 디스플레이(72)를 통해 이전에 녹화된 피드를 볼 수 있다. 놀이공원 직원이 특정 카메라 위치에서 이전 영상 장면(footage)을 검토할 수 있도록, 놀이공원 운영자는 특정 가상 영상 디스플레이(72)에 대한 이전 녹화 영상 피드를 되감기, 빨리 감기, 저속으로 재생하기 또는 일시 중지할 수 있다. 예를 들어, 놀이공원 운영자는 다수의 가상 영상 디스플레이(72)를 모니터링할 수 있고, 특정 영상 디스플레이를 통한 사건을 보지 못할 수 있다. 놀이공원 운영자는 사건을 보다 종합적으로 파악하기 위해 가상 영상 디스플레이를 통해 특정 카메라 위치에서 이전에 녹화된 피드를 검토할 수 있다.
도 3은 가상 모델(62)에 대해 회전하도록 구성된 가상 영상 디스플레이(72)를 갖는 가상 모델(62)의 일 실시예의 사시도이다. 놀이공원 직원은 현재 표시부(64) 카메라 방향(예컨대, 표시부(64) 상에 보이는 가상 모델(62) 또는 가상 공간(70)에 대한 위치 및 각도)으로부터 특정 가상 영상 디스플레이(예컨대, 제1 가상 영상 디스플레이(74))를 보기를 원할 수 있다. 그러나, 제1 가상 영상 디스플레이(74)는 현재 표시부(64) 카메라 방향에서 보이지 않을 수 있다. 일부 실시예들에서, 가상 영상 디스플레이(72)(예컨대, 제1 가상 영상 디스플레이(74))는 입력 장치로부터의 입력에 적어도 부분적으로 기초하여 가상 공간(70)의 가상 모델(62)에 대해 회전하도록 구성될 수 있다. 예를 들어, 놀이공원 직원은 현재 표시부(64) 카메라 방향에서 제1 가상 영상 디스플레이(74)가 보이도록 제1 가상 영상 디스플레이(74)가 약 90도 회전하도록 입력 장치에 수동으로 입력할 수 있다. 일부 실시예들에서, 가상 영상 디스플레이(72)는 어떤 각도로든 회전하도록 구성될 수 있다.
다른 일 실시예에서, 현재 표시부(64) 카메라 방향에서 각각의 가상 영상 디스플레이(72)가 표시부(64) 상에 보이도록, 가상 영상 디스플레이(72)는 가상 영상 디스플레이(72)를 현재 표시부(64) 카메라 방향과 정렬하기 위해 자동으로 회전하도록 구성될 수 있다. 가상 영상 디스플레이(72)는 현재 표시부(64) 카메라 방향에 대한 변경에 기초하여 자신의 방향을 자동으로 업데이트하도록 구성될 수 있다. 가상 영상 디스플레이(72)를 자동으로 회전시키면 놀이공원 직원이 모든 가상 영상 디스플레이(72)를 동시에 볼 수 있으므로, 가상 영상 디스플레이(72)를 자동으로 회전하면 놀이공원 직원을 위한 모니터링 시스템의 사각지대를 줄일 수 있다.
일부 실시예들에서, 가상 모델(62)은 가상 영상 디스플레이(72)에 근접하게 배치된 방향 표시자(84)를 포함한다. 방향 표시자(84)는 가상 영상 디스플레이(72)에 대한 실시간 영상 피드를 제공하는 카메라의 실제 방향을 나타내도록 구성되어, 놀이공원 직원이 회전된 가상 영상 디스플레이(72)에 대응하는 카메라의 실제 방향을 판단할 수 있도록 한다.
도 4는 사용자 입력에 적어도 부분적으로 기초하여 재배향된 가상 모델(62)의 일 실시예의 사시도이다. 예시된 실시예에서, 가상 모델(62)은 3차원 가상 모델이고, 다수의 2차원 가상 영상 디스플레이(72)는 놀이공원 어트랙션의 카메라(26)의 실제 위치에 기초하여 3차원 가상 모델(62)에 대해 가상 공간(70)에 위치한다. 가상 모델(62)은 표시부(64)를 통해 놀이공원 직원에게 보여질 수 있다. 모니터링 시스템은 사용자 인터페이스를 포함하고, 사용자 인터페이스는 표시부(64)를 포함한다. 또한, 사용자 인터페이스는 하나 이상의 입력 장치를 포함할 수 있다. 입력 장치는 키보드, 마우스, 조이스틱, 터치패드, 또는 임의의 다른 적절한 입력 장치를 포함할 수 있다.
놀이공원 직원은 하나 이상의 입력 장치를 사용하여 표시부(64) 상의 가상 모델(62)의 뷰의 방향을 바꿀 수 있다(예컨대, 표시부(64) 카메라 방향을 변경). 놀이공원 직원은 가상 모델(62)의 뷰의 방향을 바꾸기 위해 하나 이상의 사용자 개시 명령을 하나 이상의 입력 장치에 입력할 수 있다. 일부 실시예들에서, 입력 장치는 가상 공간(70)에서 표시부(64) 카메라 위치를 추가로 제어하도록 구성될 수 있다. 일부 실시예들에서, 하나 이상의 사용자 개시 명령은 6 자유도로 표시부(64) 카메라 방향을 제어하도록 구성된다. 즉, 하나 이상의 사용자 개시 명령은 표시부(64) 카메라 방향의 전후 이동, 상하 이동, 좌우 이동, 롤(roll), 피치(pitch), 및 요(yaw)를 제어하도록 구성된다.
예를 들어, 도 2에 도시된 바와 같은 제1 표시부(64) 카메라 방향은 표시부(64) 카메라를 가상 모델(62)의 제1 측면에 그리고 놀이공원 어트랙션의 가상 모델(62) 위의 공중에 배치할 수 있다. 제1 현재 표시부 카메라는 놀이공원 어트랙션의 가상 모델(62)을 향해 아래쪽으로 배향될 수 있다. 본 실시예에 예시된 바와 같이 제2 표시부(64) 카메라 방향에서, 제2 카메라는 놀이공원 어트랙션의 제2 측면에 위치하고 놀이공원 어트랙션의 가상 모델(62)의 지면에 가깝게 아래에 위치한다. 또한, 제2 표시부(64) 카메라는 가상 모델(62)의 반대편을 향하고 제1 가상 영상 디스플레이(74)를 향한다.
놀이공원 직원은 하나 이상의 입력 장치에 대한 하나 이상의 사용자 개시 명령의 입력을 통해 가상 영상 디스플레이(72)의 크기를 변경할 수 있다. 예를 들어, 놀이공원 직원은 보기 쉽도록 가상 영상 디스플레이(72)를 확대할 수 있다. 다른 예에서, 제1 가상 영상 디스플레이(74)는 현재 표시부(64) 카메라 방향으로부터 제2 가상 영상 디스플레이(86)의 뷰를 가릴 수 있다. 제2 가상 영상 디스플레이(86)를 더 잘 보기 위해 표시부(64) 카메라 방향을 변경하는 대신에, 놀이공원 직원은 제1 가상 영상 디스플레이(74)의 크기를 축소 및/또는 제2 가상 영상 디스플레이(86)의 크기를 확대하여, 현재 표시부(64) 카메라 방향에서 제2 가상 영상 디스플레이(86)가 보이도록 할 수 있다. 일부 실시예들에서, 놀이공원 직원은 각각의 가상 영상 디스플레이(72)의 크기를 개별적으로 변경할 수 있다. 다른 일 실시예에서, 가상 모델(62)에 대한 가상 영상 디스플레이(72)의 크기는 메모리 장치에 저장된 명령어, 입력 장치로부터의 입력, 트리거 이벤트, 또는 이들의 일부 조합에 적어도 부분적으로 기초한다.
더욱이, 가상 모델(62) 및 각각의 가상 영상 디스플레이(72)에 대한 실시간 영상 피드의 렌더링은 세부적 렌더링 수준을 포함하여, 렌더링이 가상 카메라(63)로부터의 거리에 기초해서 가상 모델(62) 및 실시간 영상 피드의 부분들의 복잡성을 점점 감소시키도록 한다. 예를 들어, 가상 카메라(63)에 근접하게 배치된 가상 모델(62)의 부분은 더 멀리 배치된 가상 모델(62)의 부분보다 더 높은 복잡성을 가질 수 있다. 또한, 가상 카메라로부터 멀리 떨어져 배치된 실시간 영상 피드는 낮은 영상 해상도를 가질 수 있으며, 실시간 영상 피드의 영상 해상도는 가상 카메라(63)에 가까이 갈수록 증가할 수 있다. 또한, 카메라(예컨대, 실세계 카메라)에 대응하는 가상 영상 디스플레이(72)에 대한 가상 카메라(63)의 근접성은 실세계 카메라에 의해 출력되는 실시간 영상 피드의 영상 해상도를 제어할 수 있다. 예를 들어, 실세계 카메라는, 가상 카메라(63)가 실세계 카메라에 대응하는 가상 영상 디스플레이(72)에 근접하게 배치될 때, 고해상도 영상을 포착하여 이를 제어 시스템에 출력할 수 있다. 반면에, 가상 카메라(63)가 실세계 카메라에 대응하는 가상 영상 디스플레이(72)로부터 멀어짐에 따라, 실세계 카메라는 실세계 카메라에 의해 포착되고 출력되는 실시간 영상 피드의 품질을 낮출 수 있다. 일부 실세계 카메라의 영상 해상도를 낮추면 전체 네트워크 대역폭이 줄어들 수 있다. 또한, 각각의 실세계 카메라에 대응하는 가상 영상 디스플레이(72)가 가상 카메라(63)의 뷰 범위 내에 있지 않을 때, 제어 시스템은 실세계 카메라를 종료할 수 있다(예컨대, 영상 포착, 실시간 영상 피드 출력, 또는 이들의 일부 조합의 중단).
도 5는 하나 이상의 가상 영상 디스플레이(72)에 대응하는 영상 피드(92)를 표시하도록 구성된 보기 창(viewing window)(90)을 갖는 가상 공간(70)의 일 실시예의 사시도이다. 모니터링 시스템은, 놀이공원 직원이 가상 모델(62)과 독립된 표시부(64)의 고정 부분에서 선택된 영상 피드(92)를 볼 수 있도록 해주는 보기 창(90)을 생성하도록 구성될 수 있다. 보기 창(90)은, 놀이공원 직원이 놀이공원 어트랙션의 가상 모델(62)의 다른 관점 또는 부분을 보기 위해 표시부(64) 카메라 방향을 변경할 때 고정 상태를 유지하도록 구성될 수 있다. 보기 창(90)은 가상 모델(62)을 표시하는 별도의 창 또는 프로그램 창(94)의 일부일 수 있다. 보기 창은 선택된 가상 영상 디스플레이(72)로부터 영상 피드(92)를 수신하고 표시하도록 구성된 사전설정 창(pane)(96)을 가질 수 있다. 놀이공원 직원은 입력 장치를 통해 가상 영상 디스플레이(72)를 선택할 수 있다. 예를 들어, 놀이공원 직원은 가상 공간에서 가상 영상 디스플레이(72)를 클릭하고 가상 영상 디스플레이(72)를 사전설정 창(96)쪽으로 드래그함으로써 가상 영상 디스플레이(72)를 선택할 수 있다. 사용자 개시 명령에 기초하여, 보기 창(90)은, 클릭되고 사전설정 창(96)으로 드래그된 가상 영상 디스플레이(72)에 대응하는 영상 피드(92)를 표시할 수 있다.
일부 실시예들에서, 모니터링 시스템은 입력 장치를 통해 선택 가능한, 보기 창(90)을 숨길 수 있는 옵션을 제공한다. 또한, 모니터링 시스템은 필터 도구(100)를 포함할 수 있다. 필터 도구(100)는 가상 영상 디스플레이(72), 가상 놀이기구 차량(80), 고객 아바타(82), 가상 쇼 구성요소(98), 놀이공원 어트랙션의 가상 모델(62)의 부분 또는 이들의 일부 조합 중 하나 이상을 선택적으로 토글하도록/숨기도록 구성될 수 있다. 필터 도구(100)는 놀이공원 직원이 가상 모델(62)을 선택적으로 단순화하기 위한 도구일 수 있다. 또한, 필터 도구(100)는 가상 영상 디스플레이(72), 가상 놀이기구 차량(80), 고객 아바타(82), 가상 쇼 구성요소(98), 놀이공원 어트랙션의 가상 모델(62)의 부분 또는 이들의 일부 조합의 불투명도를 조정하도록 구성된 도구일 수 있다. 필터 도구(100)는 가상 영상 디스플레이(72)의 불투명도를 개별적으로 조정하도록 구성될 수 있다. 일부 실시예들에서, 필터 도구(100)는 사전 설정된 조건 하에서 하나 이상의 가상 영상 디스플레이(72)의 불투명도를 자동으로 조정하기 위한 조건 기반 옵션을 가질 수 있다. 예를 들어, 표시부 상에 표시된 가상 카메라의 관점에서 제2 가상 영상 디스플레이(78)의 적어도 일부가 제1 가상 영상 디스플레이(74)의 뒤에 있을 때, 필터 도구(100)는 제1 가상 영상 디스플레이(74)의 불투명도를 감소시키도록 구성되어, 제1 가상 영상 디스플레이(74)가 적어도 부분적으로 투명하게 되고 제2 가상 영상 디스플레이(78)가 제 1 가상 영상 디스플레이(74)를 통해 적어도 부분적으로 보이도록 한다.
일부 실시예들에서, 사용자 인터페이스는 오디오 출력 장치(65)를 포함한다. 오디오 출력 장치(65)는 놀이공원 어트랙션 전체에 걸쳐 배치된 오디오 입력 장치에 의해 포착된 오디오를 출력하도록 구성된다. 상기에 서술한 바와 같이, 일부 실시예들에서, 오디오 입력 장치는 각각의 카메라에 근접하게 배치된다. 오디오 입력 장치는 카메라 근처의 오디오를 포착하도록 구성될 수 있다. 일부 실시예들에서, 하나 이상의 카메라에 대응하는 하나 이상의 가상 디스플레이가 입력 장치에 의해 선택될 때, 오디오 출력 장치(65)는 각각의 오디오 입력 장치에 의해 포착된 오디오 피드를 출력하도록 구성된다. 예를 들어, 입력 장치를 통해 가상 영상 디스플레이를 클릭하면, 오디오 출력 장치는, 선택된 가상 영상 디스플레이에 대응하는 카메라에 근접하게 배치된 오디오 입력 장치에 의해 포착된 소리를 출력하여 놀이공원 직원이 모니터링 시스템을 통해 놀이공원 어트랙션 주변의 오디오 들을 수 있게 할 수 있다.
도 6은 모니터링 시스템(10)의 일 실시예의 블록도이다. 모니터링 시스템(10)은 제어 시스템(16) 및 영상 어셈블리(24)를 포함한다. 영상 어셈블리(24)는 실시간 영상 피드 데이터(110)를 포착하여 제어 시스템(16)으로 전송하도록 구성된다. 영상 어셈블리(24)는 카메라(26)를 포함한다. 일부 실시예들에서, 카메라(26)는 포착된 실시간 영상 피드 데이터(110)를 영상 어셈블리의 제어기에 직접 출력하도록 구성된다. 다른 일 실시예에서, 카메라(26)는 포착된 실시간 영상 피드 데이터(110)를 제어 시스템(16)에 직접 출력하도록 구성된다. 제어 시스템(16)은 영상 어셈블리(24) 또는 카메라(26)로부터 실시간 영상 피드 데이터(110) 또는 실시간 화상 데이터(110)를 수신하도록 구성된 통신 회로(112)를 포함할 수 있다. 통신 회로(112)는 안테나, 무선 송수신기 회로, 및 신호 처리 하드웨어 및/또는 소프트웨어(예컨대, 하드웨어 또는 소프트웨어 필터, A/D 변환기, 멀티플렉서 증폭기), 또는 이들의 조합을 포함할 수 있으며, 이는 적외선(IR) 무선 통신, 위성 통신, 방송 라디오, 마이크로파 라디오, 블루투스, 지그비(Zigbee), 와이파이, UHF, NFC 등을 이용해 무선 통신 경로 상에서 통신하도록 구성될 수 있다. 일 실시예에서, 통신 회로(112)는 놀이공원 또는 놀이공원 어트랙션에 배치된 복수의 IR 송수신기를 포함한다.
제어 시스템(16)은 또한 시스템 프로세서(66) 및 메모리(68)를 갖는 시스템 제어기(114)를 포함할 수 있다. 시스템 프로세서(66)는 하나 이상의 처리 장치를 포함할 수 있고, 메모리(68)는 하나 이상의 유형의(tangible), 비일시적, 기계 판독 가능 매체를 포함할 수 있다. 예를 들어, 이러한 기계 판독 가능 매체는 RAM, ROM, EPROM, EEPROM, 또는 광 디스크 저장 장치, 자기 디스크 저장 장치 또는 기타 자기 저장 장치, 또는 원하는 프로그램 코드를 기계 실행 가능 명령어 또는 데이터 구조의 형태로 운반 또는 저장하는데 사용될 수 있고 시스템 프로세서 또는 다른 프로세서 기반 장치(예컨대, 모바일 장치)에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 일부 실시예들에서, 메모리 장치(68)는 실시간 영상 피드 데이터(110)로부터의 영상 장면(footage)을 저장하도록 구성된다. 일부 실시예들에서, 메모리(68)는 다양한 제어 시스템 신호를 출력하기 위해 시스템 프로세서(66)에 의해 실행 가능한 명령어를 저장하도록 구성된다. 예를 들어, 시스템 프로세서는 메모리 장치(68)에 저장된 명령어에 기초하여 미리 결정된 영역의 가상 모델을 생성하기 위한 명령어를 실행할 수 있다.
또한, 시스템 프로세서(66)는 영상 어셈블리(24) 및/또는 카메라(26)로부터 수신된 실시간 영상 피드 데이터(110)에 기초하여 가상 모델에서 가상 영상 디스플레이를 생성하도록 구성된다. 시스템 프로세서(66)는 표시 신호(118)를 통해 가상 모델 및 가상 영상 디스플레이를 사용자 인터페이스(17)의 표시부(64)에 출력하도록 구성된다. 일부 실시예들에서, 시스템 프로세서(66)는 유선 연결을 통해 표시 신호(118)를 사용자 인터페이스(17)의 표시부(64)에 출력하도록 구성된다. 그러나, 일부 실시예들에서, 무선 장치는 표시부(64)를 포함할 수 있다. 따라서, 시스템 프로세서(66)는 통신 회로(112)를 통해 표시 신호(118)를 사용자 인터페이스(17)의 표시부(64)에 출력하도록 구성될 수 있다. 상기에 서술한 바와 같이, 표시부(64)는 컴퓨터 모니터, 텔레비전, 컴퓨터 스크린, 모바일 장치 스크린(예컨대, 휴대폰 스크린, 태블릿 스크린 등), 또는 다른 적절한 표시부를 포함할 수 있다. 표시부(64)는 놀이공원 직원을 위해 가상 공간에 가상 모델 및 가상 영상 디스플레이를 표시하도록 구성된다.
사용자 인터페이스(17)는 또한 하나 이상의 사용자 개시 명령(108)을 시스템 프로세서(66)에 제공하도록 구성된 입력 장치(120)를 포함할 수 있다. 하나 이상의 사용자 명령(108)은 모니터링 시스템(10)의 부분들을 제어하기 위한 명령을 포함할 수 있다. 예를 들어, 하나 이상의 사용자 명령(108)은 가상 공간에서 표시부(64)에 대한 표시부(64) 카메라 방향을 제어할 수 있다. 일부 실시예들에서, 하나 이상의 사용자 명령(108)은 놀이공원 어트랙션에서 카메라(26)의 방향을 변경하기 위해 카메라(26) 중 하나 이상을 작동시키도록 구성된다. 또한, 일부 실시예들에서, 하나 이상의 사용자 명령(108)은 이동식 카메라를 제어하도록 구성될 수 있다. 예를 들어, 이동식 카메라는 드론에 장착된 카메라 또는 놀이기구 차량에 장착된 카메라를 포함할 수 있다. 하나 이상의 사용자 명령(108)은 놀이공원 어트랙션의 특정 부분을 보기 위해 하나 이상의 드론의 비행 경로를 제어하도록 구성될 수 있다.
일부 실시예들에서, 사용자 인터페이스(17)는 또한 오디오 출력 장치(65)를 포함한다. 오디오 출력 장치(65)는, 하나 이상의 사용자 명령에 기초하여 하나 이상의 카메라(26)에 대응하는 하나 이상의 가상 디스플레이가 입력 장치(120)에 의해 선택될 때, 오디오 피드(122)를 출력하도록 구성될 수 있다. 오디오 출력 장치(102)는 스피커 또는 오디오 피드를 출력하기 위한 임의의 다른 적절한 오디오 장치를 포함할 수 있다.
일부 실시예들에서, 모니터링 시스템(10)은 놀이공원 어트랙션 전체에 걸쳐 배치된 센서(52)를 포함할 수 있는 센서 어셈블리(50)를 포함한다. 상기에 서술한 바와 같이, 센서(52)는 놀이공원 어트랙션에서 놀이기구 차량의 위치를 검출하도록 구성될 수 있다. 센서(52) 및/또는 센서 어셈블리(50)는 놀이공원 어트랙션의 제어 시스템(16)의 통신 회로(112)에 놀이기구 차량의 검출 신호(124)를 출력하도록 구성될 수 있다. 제어 시스템(16)은 검출 신호(124)를 수신하고, 놀이공원 어트랙션의 놀이기구 차량의 검출된 위치에 적어도 부분적으로 기초하여 가상 모델에서 가상 놀이기구 차량을 배치하도록 구성될 수 있다. 일부 실시예들에서, 센서(52)는 검출 신호(124)를 센서 어셈블리(50)에 출력하도록 구성된다. 센서(52)는 유선 또는 무선 네트워크를 통해 검출 신호(124)를 출력하도록 구성될 수 있다.
일부 실시예들에서, 모니터링 시스템(10)은 오디오 어셈블리(126)를 포함한다. 오디오 어셈블리(126)는 놀이공원 어트랙션의 하나 이상의 카메라(26)에 근접하게 위치한 하나 이상의 오디오 입력 장치(128)를 포함할 수 있다. 오디오 입력 장치(128) 및/또는 오디오 어셈블리(126)는 오디오 피드(122)를 제어 시스템(16)의 통신 회로(112)로 전송하도록 구성될 수 있다.
본 개시의 특정 특징만이 여기에 예시되고 설명되었지만, 많은 수정 및 변경이 당업자에게 일어날 것이다. 따라서, 첨부된 청구범위는 본 개시내용의 진정한 사상에 포함되는 모든 수정 및 변경을 포괄한다.
본 명세서에서 설명하고 청구하는 기술은 현재 기술 분야를 명백하게 개선하는 물질적 대상과 실제적 성격의 구체적 예들을 참조하고 이들에 적용되며, 따라서 단지 추상적이거나 무형적이거나 순수 이론적인 것이 아니다. 또한, 본 명세서의 마지막 부분에 첨부된 청구항이 "[기능]을 [수행]하기 위한 수단" 또는 "[기능]을 [수행]하기 위한 단계"로 지정되는 하나 이상의 구성요소를 포함하는 경우, 그러한 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어야 한다. 이와는 다른 방식으로 지정된 구성요소들을 포함하는 청구항의 경우, 해당 구성요소는 35 U.S.C. § 112(f)에 따라 해석되어서는 안된다.

Claims (20)

  1. 모니터링 시스템으로서,
    미리 결정된 영역에 위치하고 상기 미리 결정된 영역에서 물리적 위치의 실시간 영상 피드(feed)를 전송하도록 구성된 적어도 하나의 카메라를 포함하는 영상 어셈블리와,
    상기 적어도 하나의 카메라로부터 상기 실시간 영상 피드를 수신하도록 구성된 제어 시스템을 포함하되, 상기 제어 시스템은,
    메모리 장치와,
    상기 메모리 장치에 저장된 명령어에 기초하여 상기 미리 결정된 영역의 가상 모델을 생성하도록 구성된 프로세서 - 상기 프로세서는, 상기 미리 결정된 영역에서 상기 물리적 위치에 대응하는 상기 가상 모델에서의 가상 위치에서 상기 실시간 영상 피드를 상기 가상 모델에 통합하도록 구성됨 - 와,
    상기 가상 모델을 표시하도록 구성된 표시부를 포함하는,
    모니터링 시스템.
  2. 제1항에 있어서,
    상기 가상 위치는 상기 적어도 하나의 카메라의 포착된 시계(field of view)에 대응하고,
    상기 가상 위치는, 조작자가 상기 시계를 조정할 때, 상기 가상 모델 내에서 조정되거나 이동하도록 구성되는,
    모니터링 시스템.
  3. 제1항에 있어서,
    상기 가상 모델은 3차원 가상 모델을 포함하고,
    상기 가상 모델의 특정 방향에서 상기 실시간 영상 피드가 보이지 않도록, 상기 실시간 영상 피드의 디스플레이는 상기 3차원 가상 모델에 위치한 2차원 디스플레이를 포함하는,
    모니터링 시스템.
  4. 제1항에 있어서,
    상기 적어도 하나의 카메라는 파노라마 실시간 영상 피드를 포착 및 출력하도록 구성되고,
    상기 가상 모델에서 상기 파노라마 실시간 영상 피드의 상기 표시된 부분은 상기 가상 모델의 방향에 기초하여 조정되는,
    모니터링 시스템.
  5. 제1항에 있어서,
    상기 가상 모델은 상기 미리 결정된 영역에서의 가상 어트랙션(attraction) 트랙 및 가상 차량의 렌더링을 포함하고,
    상기 가상 모델이 상기 가상 차량으로부터 상기 가상 차량에 대응하는 실제 차량의 실시간 영상 피드로 전환되도록 상기 가상 위치는 상기 가상 어트랙션 트랙에 인접하고, 상기 실제 차량은 상기 가상 위치에 대응하는 상기 물리적 위치를 통과하는,
    모니터링 시스템.
  6. 제1항에 있어서,
    상기 미리 결정된 영역 내의 하나 이상의 이동 요소의 위치를 나타내는 데이터를 전송하도록 구성된 하나 이상의 센서를 포함하고,
    상기 제어 시스템은 상기 위치에 기초하여 상기 가상 모델을 업데이트하도록 구성되는,
    모니터링 시스템.
  7. 모니터링 시스템으로서,
    미리 결정된 영역에 배치되는 적어도 하나의 카메라를 포함하는 영상 어셈블리 - 상기 적어도 하나의 카메라는 실시간 화상(images)을 포착 및 출력하도록 구성됨 - 와,
    상기 적어도 하나의 카메라로부터 상기 실시간 화상을 수신하도록 구성된 제어 시스템을 포함하되, 상기 제어 시스템은,
    메모리 장치와,
    상기 메모리 장치에 저장된 명령어에 기초하여 가상 공간에서 상기 미리 결정된 영역의 가상 모델을 생성하도록 구성된 프로세서와,
    사용자 인터페이스를 포함하고,
    상기 프로세서는, 상기 실시간 화상에 기초하여 상기 가상 공간에서 적어도 하나의 가상 영상 디스플레이를 생성하도록 구성되고, 상기 가상 공간에서 상기 적어도 하나의 가상 영상 디스플레이의 위치는 상기 미리 결정된 영역에서 상기 적어도 하나의 카메라의 위치에 적어도 부분적으로 기초하고,
    상기 사용자 인터페이스는, 사용자를 위해 상기 가상 공간을 표시하도록 구성된 표시부, 및 상기 적어도 하나의 카메라의 카메라 방향을 제어하기 위해 적어도 하나의 사용자 개시 명령을 프로세서에 제공하도록 구성된 입력 장치를 포함하는,
    모니터링 시스템.
  8. 제7항에 있어서,
    상기 적어도 하나의 사용자 개시 명령은 상기 카메라 방향의 전후 이동, 상하 이동, 좌우 이동, 롤(roll), 피치(pitch) 및 요(yaw)를 제어하도록 구성되는,
    모니터링 시스템.
  9. 제7항에 있어서,
    상기 적어도 하나의 가상 영상 디스플레이는, 상기 입력 장치로부터의 입력에 적어도 부분적으로 기초하여 상기 가상 공간에서 상기 모델에 대해 회전하도록 구성되는,
    모니터링 시스템.
  10. 제7항에 있어서,
    상기 프로세서는, 적어도 하나의 선택된 가상 영상 디스플레이를 상기 표시부의 별도의 부분에 표시하도록 구성된 보기 창(viewing window)을 생성하도록 구성되는,
    모니터링 시스템.
  11. 제7항에 있어서,
    상기 가상 모델에 대한 상기 가상 영상 디스플레이의 크기는, 상기 메모리 장치에 저장된 명령어, 상기 입력 장치로부터의 입력, 트리거 이벤트, 또는 이들의 일부의 조합에 적어도 부분적으로 기초하는,
    모니터링 시스템.
  12. 제7항에 있어서,
    상기 적어도 하나의 가상 영상 디스플레이는, 상기 적어도 하나의 가상 영상 디스플레이가 상기 카메라 방향과 정렬되도록 자동으로 회전하도록 구성되어, 복수의 카메라 방향으로부터 상기 가상 영상 디스플레이가 상기 표시부 상에서 보일 수 있도록 하는,
    모니터링 시스템.
  13. 제7항에 있어서,
    상기 적어도 하나의 카메라에 근접하게 위치하고 실시간 오디오 피드를 상기 제어 시스템에 전송하도록 구성된 적어도 하나의 오디오 입력 장치를 포함하는 오디오 어셈블리를 포함하는,
    모니터링 시스템.
  14. 제13항에 있어서,
    상기 사용자 인터페이스는, 상기 적어도 하나의 카메라에 대응하는 상기 적어도 하나의 가상 디스플레이가 상기 입력 장치에 의해 선택될 때, 실시간 오디오 출력 피드를 출력하도록 구성된 오디오 출력 장치를 포함하는,
    모니터링 시스템.
  15. 모니터링 시스템으로서,
    놀이공원 어트랙션(attraction)에 배치되고 상기 놀이공원 어트랙션의 적어도 일부의 영상 피드를 전송하도록 구성된 적어도 하나의 카메라를 포함하는 영상 어셈블리와,
    상기 놀이공원 어트랙션에서 놀이기구 차량의 위치를 검출하도록 구성된 센서 어셈블리와,
    상기 적어도 하나의 카메라로부터의 상기 영상 피드 및 상기 놀이기구 차량의 상기 검출된 위치를 수신하도록 구성된 제어 시스템을 포함하되, 상기 제어 시스템은,
    메모리 장치와,
    상기 메모리 장치에 저장된 명령어에 기초하여, 상기 놀이공원 어트랙션의 가상 모델 및 상기 가상 모델에 배치된 가상 놀이기구 차량을 생성하도록 구성된 프로세서와,
    상기 가상 모델을 표시하도록 구성된 표시부를 포함하고,
    상기 프로세서는 상기 영상 피드에 기초하여 상기 가상 모델에서 가상 영상 디스플레이를 생성하도록 구성되고,
    상기 가상 모델에서 상기 적어도 하나의 가상 영상 디스플레이의 위치는 상기 놀이공원 어트랙션에서 상기 적어도 하나의 카메라의 위치에 적어도 부분적으로 기초하며,
    상기 가상 모델에서 상기 가상 놀이기구 차량의 위치는 상기 놀이공원 어트랙션에서 상기 놀이기구 차량의 상기 검출된 위치에 적어도 부분적으로 기초하는,
    모니터링 시스템.
  16. 제15항에 있어서,
    상기 센서 어셈블리는 고객에 대응하는 고객 장치를 검출하도록 구성되고, 상기 프로세서는,
    상기 고객 장치의 검출된 위치를 수신하고,
    상기 메모리 장치에 저장된 명령어에 기초하여 상기 가상 모델에서 아바타를 생성하고 - 상기 가상 모델에서 상기 아바타의 위치는 상기 놀이공원 어트랙션에서 상기 고객 장치의 상기 검출된 위치에 적어도 부분적으로 기초함 -,
    상기 고객 장치의 업데이트된 위치를 기반으로 상기 가상 모델에서 상기 아바타를 업데이트하도록 구성되는,
    모니터링 시스템.
  17. 제15항에 있어서,
    상기 적어도 하나의 카메라는 상기 놀이공원 어트랙션에서 놀이기구 차량에 배치되고, 상기 적어도 하나의 카메라는 상기 놀이기구 차량의 승객 부분의 영상 피드를 전송하도록 구성되는,
    모니터링 시스템.
  18. 제15항에 있어서,
    상기 가상 모델 내의 상기 놀이기구 차량의 상기 위치는 상기 센서 어셈블리로부터의 업데이트된 위치 정보에 기초하여 업데이트되는,
    모니터링 시스템.
  19. 제15항에 있어서,
    상기 가상 모델은, 상기 적어도 하나의 가상 영상 디스플레이, 상기 가상 놀이기구 차량, 고객에 대응하는 아바타, 또는 이들의 일부 조합의 디스플레이를 선택적으로 토글(toggle)하도록 구성된 필터 도구를 포함하는,
    모니터링 시스템.
  20. 제15항에 있어서,
    상기 제어 시스템은, 상기 놀이기구 차량의 위치가 상기 놀이공원 어트랙션의 일부에 대응하여 상기 가상 영상 디스플레이 내에 상기 놀이기구 차량이 보일 때, 상기 가상 모델 내에 상기 가상 차량이 표시되지 않도록 상기 가상 모델을 업데이트하도록 구성된,
    모니터링 시스템.
KR1020227000299A 2019-06-06 2020-06-03 맥락상 중요한 3차원 모델 KR20220016978A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962858206P 2019-06-06 2019-06-06
US62/858,206 2019-06-06
US16/719,342 2019-12-18
US16/719,342 US11354862B2 (en) 2019-06-06 2019-12-18 Contextually significant 3-dimensional model
PCT/US2020/035830 WO2020247433A1 (en) 2019-06-06 2020-06-03 Contextually significant 3-dimensional model

Publications (1)

Publication Number Publication Date
KR20220016978A true KR20220016978A (ko) 2022-02-10

Family

ID=73650676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227000299A KR20220016978A (ko) 2019-06-06 2020-06-03 맥락상 중요한 3차원 모델

Country Status (8)

Country Link
US (1) US11354862B2 (ko)
EP (1) EP3980147A1 (ko)
JP (1) JP2022535272A (ko)
KR (1) KR20220016978A (ko)
CN (1) CN113924599A (ko)
CA (1) CA3141141A1 (ko)
SG (1) SG11202112375XA (ko)
WO (1) WO2020247433A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
CN112711458B (zh) * 2021-01-15 2022-08-30 腾讯科技(深圳)有限公司 虚拟场景中道具资源的展示方法及装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081273A (en) 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
US6278460B1 (en) 1998-12-15 2001-08-21 Point Cloud, Inc. Creating a three-dimensional model from two-dimensional images
US6778171B1 (en) 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
US6633317B2 (en) 2001-01-02 2003-10-14 Microsoft Corporation Image-based walkthrough system and process employing spatial video streaming
US6831643B2 (en) 2001-04-16 2004-12-14 Lucent Technologies Inc. Method and system for reconstructing 3D interactive walkthroughs of real-world environments
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
IL172995A (en) 2006-01-05 2011-07-31 Gadi Royz Method and device for making a virtual film for use in browsing the site
WO2008002630A2 (en) 2006-06-26 2008-01-03 University Of Southern California Seamless image integration into 3d models
US20110273451A1 (en) * 2010-05-10 2011-11-10 Salemann Leo J Computer simulation of visual images using 2d spherical images extracted from 3d data
US9424371B2 (en) 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US20140240351A1 (en) * 2013-02-27 2014-08-28 Michael Scavezze Mixed reality augmentation
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US11487349B2 (en) * 2013-11-11 2022-11-01 Whitewater West Industries, Ltd. Interactive amusement attraction system and method
DE202015009948U1 (de) * 2014-08-11 2021-11-04 Vr Coaster Gmbh & Co. Kg Fahrgeschäft
US9690375B2 (en) * 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
US10249088B2 (en) * 2014-11-20 2019-04-02 Honda Motor Co., Ltd. System and method for remote virtual reality control of movable vehicle partitions
US9358473B2 (en) * 2015-03-24 2016-06-07 Anthony Frolov Interactive amusement attraction
US20170267099A1 (en) * 2016-03-17 2017-09-21 Calay Venture S.à r.l. Vehicles for providing virtual environments
US10096158B2 (en) * 2016-03-24 2018-10-09 Ford Global Technologies, Llc Method and system for virtual sensor data generation with depth ground truth annotation
WO2017200760A1 (en) * 2016-05-19 2017-11-23 Yudofsky Stuart Methods and devices for behavior modification
US10127730B2 (en) * 2016-09-28 2018-11-13 Jason Kristopher Huddy Augmented reality and virtual reality location-based attraction simulation playback and creation system and processes for simulating past attractions and preserving present attractions as location-based augmented reality and virtual reality attractions
US20190321735A1 (en) * 2016-11-11 2019-10-24 Antonio Zamperla S.P.A. Trackless amusement ride
US10449462B2 (en) * 2016-11-21 2019-10-22 Universal City Studios Llc Amusement park attraction control management system and method
US20180240166A1 (en) * 2017-02-21 2018-08-23 Panasonic Intellectual Property Management Co., Ltd. Virtual reality souvenir and distribution system
US10639557B2 (en) * 2017-06-22 2020-05-05 Jntvr Llc Synchronized motion simulation for virtual reality
US10525364B2 (en) * 2017-11-07 2020-01-07 Universal City Studios Llc Speed simulation effect
US10699485B2 (en) * 2018-01-04 2020-06-30 Universal City Studios Llc Systems and methods for textual overlay in an amusement park environment

Also Published As

Publication number Publication date
EP3980147A1 (en) 2022-04-13
WO2020247433A1 (en) 2020-12-10
US20200388073A1 (en) 2020-12-10
US11354862B2 (en) 2022-06-07
CN113924599A (zh) 2022-01-11
JP2022535272A (ja) 2022-08-05
SG11202112375XA (en) 2021-12-30
CA3141141A1 (en) 2020-12-10

Similar Documents

Publication Publication Date Title
US10237478B2 (en) System and method for correlating camera views
RU2754991C2 (ru) Система устройства просмотра смешанной реальности и способ для него
US8711218B2 (en) Continuous geospatial tracking system and method
US10277813B1 (en) Remote immersive user experience from panoramic video
US9835564B2 (en) Multi-camera pipe inspection apparatus, systems and methods
WO2021098582A1 (en) System and method for displaying virtual reality model
KR102515213B1 (ko) 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐
CA2794057C (en) Effortless navigation across cameras and cooperative control of cameras
US9414153B2 (en) Directivity control apparatus, directivity control method, storage medium and directivity control system
US8994785B2 (en) Method for generating video data and image photographing device thereof
AU2014202889B2 (en) Controlling movement of a camera to autonomously track a mobile object
KR20220016978A (ko) 맥락상 중요한 3차원 모델
US20220301270A1 (en) Systems and methods for immersive and collaborative video surveillance
JP2020120336A (ja) プログラム、方法、および情報処理装置
CN102834848A (zh) 用于监视场景中的活动重点的可视化的方法
JP2016092693A (ja) 撮像装置、撮像装置の制御方法およびプログラム
US20160142621A1 (en) Device and method for camera control
US20160344946A1 (en) Screen System
JP2020205549A (ja) 映像処理装置、映像処理方法、及びプログラム
WO2019228468A1 (en) Systems and methods for providing an audio-guided virtual reality tour
WO2021079402A1 (ja) 映像処理装置、表示システム、映像処理方法、およびプログラム
JP6842968B2 (ja) 監視システム
JP2022509082A (ja) 作業制御システム、作業制御方法、装置及びデバイス
EP2969652A1 (en) System and method for adjusting an image for a vehicle mounted camera
US20220337805A1 (en) Reproduction device, reproduction method, and recording medium