KR20200065802A - 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 - Google Patents
놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 Download PDFInfo
- Publication number
- KR20200065802A KR20200065802A KR1020180152636A KR20180152636A KR20200065802A KR 20200065802 A KR20200065802 A KR 20200065802A KR 1020180152636 A KR1020180152636 A KR 1020180152636A KR 20180152636 A KR20180152636 A KR 20180152636A KR 20200065802 A KR20200065802 A KR 20200065802A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- user
- user terminal
- content
- viewing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4305—Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/63—Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
- H04N21/633—Control signals issued by server directed to the network components or client
- H04N21/6332—Control signals issued by server directed to the network components or client directed to client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/20—Details of the management of multiple sources of image data
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
놀이기구를 가동하는 동안 이미지를 시각화하는 방법 및 장치, 그리고 그 이미지 시각화 장치를 관리하는 방법 및 장치가 제공된다. 일 실시예에 따르면 이미지 시각화 장치는 사용자에 의해 착용된 사용자 단말에 대해 시야 방향을 결정하고, 사용자가 탑승한 놀이기구의 이동 방향을 결정하며, 컨텐츠 이미지로부터 시야 방향 및 이동 방향에 기초하여 결정된 시야각 이미지를 사용자에게 제공할 수 있다.
Description
놀이공원에서 가동되는 놀이기구에서 가상현실을 제공하는 기술이 제공된다.
놀이공원(amusement park) 또는 테마파크(theme park)는 다양한 엔터테인먼트 어트랙션(entertainment attraction)을 포함할 수 있고, 놀이공원의 관객들에게 즐거움을 제공할 수 있다. 예를 들어, 어트랙션은 사용자가 탑승할 수 있는 형태의 놀이기구 어트랙션(ride attraction)을 포함할 수 있다.
놀이기구 어트랙션은 사용자가 탑승한 차량이 미리 정해진 트랙(track)을 따라 이동하거나, 해당 차량이 자유롭게 이동할 수 있도록 구성되는 어트랙션일 수 있다.
최근 가상 현실 기술이 발달하면서, 놀이공원에서 제공되는 어트랙션에서 가상 현실을 제공하는 기술이 요구된다.
일 실시예에 따른 사용자 단말은 시용자의 시야 방향과 함께 놀이기구의 이동 방향도 같이 고려하여 사용자에게 컨텐츠 이미지를 제공할 수 있다.
일 실시예에 따른 사용자 단말은 설정에 따라 최종 시선 방향의 변화를 적용하는 속도 및 빈도를 조정할 수 있다.
일 실시예에 따른 사용자 단말은 마스터 모드 설정에 따라 시야 방향을 측정하는 일반 단말 또는 이동 방향을 측정하는 마스터 단말로 설정될 수 있다.
일 실시예에 따른 마스터 단말은 동일한 그룹으로 지정된 사용자 단말에 대한 이동 방향을 제공할 수 있다.
일 실시예에 따른 관리 서버는 사용자 단말의 상태 정보를 수집하여 시각화할 수 있다.
일 실시예에 따른 관리 서버는 사용자 단말들의 재생을 일괄적으로 관리할 수 있다.
일 실시예에 따른 놀이기구(ride)를 가동하는 동안 이미지를 시각화하는 방법은, 사용자에 의해 착용된 사용자 단말에 대해 시야 방향(sight direction) 을 결정하는 단계; 상기 사용자가 탑승한 상기 놀이기구의 이동 방향(moving direction)을 결정하는 단계; 및 컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향 에 기초하여 결정된 시야각 이미지(FOV image, field of view image)를 상기 사용자에게 제공하는 단계를 포함할 수 있다.
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는, 상기 이동 방향을 기준으로 상기 컨텐츠 이미지를 정렬하는 단계; 상기 정렬된 컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향 간의 방향 차이에 대응하는 상기 시야각 이미지를 결정하는 단계; 및 상기 결정된 시야각 이미지를 시각화하는 단계를 포함할 수 있다.
상기 컨텐츠 이미지를 정렬하는 단계는, 상기 이동 방향에 상기 컨텐츠 이미지의 기준 지점(reference point)을 매칭시키는 단계를 포함할 수 있다.
상기 시야각 이미지를 결정하는 단계는, 상기 시야 방향 및 상기 이동 방향 간의 상기 방향 차이에 기초하여, 상기 사용자의 최종 시선 방향을 산출하는 단계; 및 상기 정렬된 컨텐츠 이미지로부터 상기 산출된 최종 시선 방향에 대응하는 상기 시야각 이미지를 결정하는 단계를 포함할 수 있다.
이미지를 시각화하는 방법은 상기 시야 방향 및 상기 이동 방향 중 적어도 하나를 검출하는 방향 검출 센서에 의해, 상기 놀이기구의 출발 시점에서 검출되는 방향 데이터를 저장하는 단계; 및 상기 저장된 방향 데이터에 기초하여 상기 방향 검출 센서를 보정하는 단계를 포함할 수 있다.
상기 이동 방향을 결정하는 단계는, 사용자 단말의 마스터 모드가 활성화된 경우에 응답하여, 방향 검출 센서를 통해 상기 이동 방향을 검출하는 단계; 및 상기 검출된 이동 방향을 마스터 모드가 비활성화된 다른 사용자 단말로 전송하는 단계를 포함할 수 있다.
상기 시야 방향을 결정하는 단계는, 사용자 단말의 마스터 모드가 비활성화된 경우에 응답하여, 방향 검출 센서를 통해 시야 방향을 검출하는 단계를 포함하고, 상기 이동 방향을 결정하는 단계는, 마스터 모드가 활성화된 다른 사용자 단말로부터 상기 이동 방향을 수신하는 단계를 포함할 수 있다.
복수의 사용자 단말들이 하나 이상의 그룹으로 분류되고, 상기 이동 방향을 결정하는 단계는, 복수의 사용자 단말들 중 대상 사용자 단말이, 마스터 모드가 활성화된 다른 사용자 단말들 중 상기 대상 사용자 단말의 그룹에 대해 지정된 다른 사용자 단말로부터, 상기 이동 방향을 수신하는 단계를 포함할 수 있다.
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는, 상기 시야 방향 및 상기 이동 방향 중 적어도 하나의 방향이 변경되는 경우에 응답하여, 미리 설정된 가중치에 기초하여 상기 방향의 변화량을 점진적으로 상기 사용자의 최종 시선 방향에 적용하는 단계; 및 상기 변화량이 적용된 상기 최종 시선 방향에 대응하는 상기 시야각 이미지를 상기 사용자에게 제공하는 단계를 포함할 수 있다.
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는, 상기 이동 방향의 변화량이 임계 각도 변화를 초과하는 경우에 응답하여, 상기 최종 시선 방향을 업데이트하는 단계를 포함할 수 있다.
일 실시예에 따른 놀이기구를 가동하는 동안 이미지를 시각화하는 사용자 단말은, 사용자에 의해 착용된 사용자 단말에 대한 시야 방향 및 상기 사용자가 탑승한 놀이기구의 이동 방향을 결정하는 프로세서; 및 컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향에 기초하여 결정된 시야각 이미지를 상기 사용자에게 제공하는 디스플레이를 포함할 수 있다.
일 실시예에 따른 놀이기구와 연관된 이미지 시각화 장치를 관리하는 방법에 있어서, 사용자의 시야 방향 및 놀이기구의 이동 방향에 기초하여 컨텐츠 이미지를 제공하는 사용자 단말들과 관리 서버 간의 통신을 수립하는 단계; 및 관리자의 입력에 응답하여, 상기 관리 서버와의 통신이 수립된 사용자 단말들에게, 컨텐츠 재생 목록(contents play list)에 기초한 상기 컨텐츠 이미지의 재생(play)을 명령하는 단계를 포함할 수 있다.
상기 재생을 상기 사용자 단말들에 명령하는 단계는, 상기 사용자 단말들로 시간 세팅 신호를 송신하는 단계; 상기 시간 세팅 신호를 수신한 사용자 단말들로부터 수신된 시간 정보에 기초하여, 상기 사용자 단말들의 동작 시각을 동기화하는 단계; 및 상기 사용자 단말들에게 동기화가 완료되고 미리 설정된 시간이 경과한 후에 상기 컨텐츠 이미지를 재생하도록 명령하는 단계를 포함할 수 있다.
상기 컨텐츠 이미지의 재생을 명령하는 단계는, 상기 사용자 단말들의 각각으로부터 상기 시야 방향을 수신하는 단계; 상기 사용자 단말들 중 마스터 모드가 활성화된 사용자 단말로부터 상기 이동 방향을 수신하는 단계; 상기 시야 방향 및 상기 이동 방향에 기초하여, 상기 사용자 단말들 중 마스터 모드가 비활성화된 사용자 단말의 각각에 대해 사용자의 최종 시선 방향을 결정하는 단계; 및 상기 컨텐츠 이미지에서 상기 결정된 최종 시선 방향에 대응하는 시야각 이미지를 상기 마스터 모드가 비활성화된 사용자 단말에 제공하는 단계를 포함할 수 있다.
상기 컨텐츠 이미지의 재생을 명령하는 단계는, 상기 컨텐츠 재생 목록에 포함된 복수의 컨텐츠 이미지들 중 상기 놀이기구의 이벤트 진행 시간에 기초하여 선택된 컨텐츠 이미지의 시각화를 명령하는 단계를 포함할 수 있다.
이미지 시각화 장치를 관리하는 방법은 상기 관리자의 입력에 응답하여, 상기 컨텐츠 재생 목록에 포함된 컨텐츠 이미지의 순서, 시각화 방식, 시간 길이, 음량 크기, 및 컨텐츠 이미지의 개수 중 적어도 하나를 변경하는 단계를 더 포함할 수 있다.
이미지 시각화 장치를 관리하는 방법은 상기 사용자 단말들로부터 수집된 상기 사용자 단말들의 상태 정보를 관리자에게 제공하는 단계를 포함할 수 있다.
상기 상태 정보를 관리자에게 제공하는 단계는, 상기 사용자 단말들의 재생 상태, 배터리 상태, 연결 상태, 및 온도 상태 중 적어도 하나를 시각화하는 단계를 포함할 수 있다.
상기 상태 정보를 관리자에게 제공하는 단계는, 복수의 사용자 단말들 중 상기 관리자의 입력에 응답하여 선택된 사용자 단말에 대응하는 상태 정보를 확대하여 시각화하는 단계를 포함할 수 있다.
일 실시예에 따른 사용자 단말은 시용자의 시야 방향과 함께 놀이기구의 이동 방향도 같이 고려하여 사용자에게 컨텐츠 이미지를 제공함으로써, 가상현실 체험에서 발생할 수 있는 어지럼증을 방지하고 사용자에게 보다 현실감있는 가상현실을 제공할 수 있다.
일 실시예에 따른 사용자 단말은 설정에 따라 최종 시선 방향의 변화를 적용하는 속도 및 빈도를 조정함으로써, 사용자에게 보다 자연스럽고 실제 같은 가상현실을 제공할 수 있다.
일 실시예에 따른 마스터 모드 설정을 통해 동일한 사양을 가지는 사용자 단말을 필요에 따라 사용자에게 가상현실 이미지를 제공하는 일반 단말로 설정하거나 놀이기구에 장착하는 마스터 단말로 설정함으로써, 비용을 절감할 수 있다.
일 실시예에 따른 마스터 단말은 동일한 그룹으로 지정된 사용자 단말에 대한 이동 방향을 제공함으로써, 복수의 차량으로 구성되는 놀이기구의 각각에 설치된 마스터 단말은 각 차량과 연관된 사용자 단말에 보다 정확한 이동 방향 정보를 제공할 수 있다.
일 실시예에 따른 관리 서버는 사용자 단말의 상태 정보를 수집하여 시각화함으로써, 관리자에 의한 놀이기구 관리의 직관성 및 편리성을 개선할 수 있다.
일 실시예에 따른 관리 서버는 사용자 단말들의 재생을 일괄적으로 관리함으로써, 돌발 상황에 대한 관리자의 신속한 대응을 가능하게 할 수 있다.
도 1은 일 실시예에 따른 놀이기구 시스템(ride system)의 개괄적인 구성을 설명하는 도면이다.
도 2는 일 실시예에 따른 놀이기구 시스템에서 사용자 단말, 마스터 단말, 및 관리 서버를 설명하는 도면이다.
도 3은 일 실시예에 따른 놀이기구를 가동하는 이미지를 시각화하는 방법을 설명하는 흐름도이다.
도 4는 일 실시예에 따른 놀이기구를 가동하는 동안 사용자 단말에 의해 검출되는 초기 방향, 놀이기구의 이동 방향, 사용자 단말의 시야 방향을 도시한다.
도 5a 및 도 5b는 일 실시예에 따라 검출된 놀이기구의 이동 방향을 활용하여 사용자에게 컨텐츠 이미지를 실감나게 제공하는 동작을 설명하는 도면이다.
도 6은 일 실시예에 따른 놀이기구에서 복수의 마스터 단말들이 지정되는 경우, 사용자 단말이 각 마스터 단말에 대응하는 그룹으로 분류되는 구성을 설명하는 도면이다.
도 7은 일 실시예에 따른 사용자 단말의 모드 설정, 가중치 설정, 및 스크린 업데이트 빈도 설정을 설명하는 도면이다.
도 8은 일 실시예에 따른 이미지 시각화 장치를 관리하는 방법을 설명하는 흐름도이다.
도 9 내지 도 13은 일 실시예에 따른 관리 서버에 의해 제공되는 인터페이스 화면을 도시한다.
도 14는 일 실시예에 따른 사용자 단말의 구성을 도시한 블록도이다.
도 15는 일 실시예에 따른 관리 서버의 구성을 도시한 블록도이다.
도 16은 일 실시예에 따른 컴퓨팅 장치의 구성을 도시한 도면이다.
도 2는 일 실시예에 따른 놀이기구 시스템에서 사용자 단말, 마스터 단말, 및 관리 서버를 설명하는 도면이다.
도 3은 일 실시예에 따른 놀이기구를 가동하는 이미지를 시각화하는 방법을 설명하는 흐름도이다.
도 4는 일 실시예에 따른 놀이기구를 가동하는 동안 사용자 단말에 의해 검출되는 초기 방향, 놀이기구의 이동 방향, 사용자 단말의 시야 방향을 도시한다.
도 5a 및 도 5b는 일 실시예에 따라 검출된 놀이기구의 이동 방향을 활용하여 사용자에게 컨텐츠 이미지를 실감나게 제공하는 동작을 설명하는 도면이다.
도 6은 일 실시예에 따른 놀이기구에서 복수의 마스터 단말들이 지정되는 경우, 사용자 단말이 각 마스터 단말에 대응하는 그룹으로 분류되는 구성을 설명하는 도면이다.
도 7은 일 실시예에 따른 사용자 단말의 모드 설정, 가중치 설정, 및 스크린 업데이트 빈도 설정을 설명하는 도면이다.
도 8은 일 실시예에 따른 이미지 시각화 장치를 관리하는 방법을 설명하는 흐름도이다.
도 9 내지 도 13은 일 실시예에 따른 관리 서버에 의해 제공되는 인터페이스 화면을 도시한다.
도 14는 일 실시예에 따른 사용자 단말의 구성을 도시한 블록도이다.
도 15는 일 실시예에 따른 관리 서버의 구성을 도시한 블록도이다.
도 16은 일 실시예에 따른 컴퓨팅 장치의 구성을 도시한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 놀이기구 시스템(ride system)의 개괄적인 구성을 설명하는 도면이다.
놀이공원은 임의의 서비스 공간 내에 복수의 어트랙션들을 포함할 수 있다. 서비스 공간은 서비스 제공자에 의한 서비스가 제공되는 것으로 정의된 공간을 나타낼 수 있고, 어트랙션은 서비스 공간 내에 포함되는 시설(facility)을 나타낼 수 있다. 각 어트랙션은 다양한 타입의 놀이기구 시스템(100)으로 구성될 수 있다.
도 1에 도시된 놀이기구 시스템(100)은 임의의 트랙(110)을 따라 이동하는 놀이기구(120)를 포함할 수 있다. 트랙(110)은 경로(path)라고도 나타낼 수 있다. 놀이기구(120)는 플랫폼(119)의 출발 측으로부터 트랙(110)을 따라 도착 측까지 이동할 수 있다. 다만, 도 1에서 트랙(110)은 폐쇄 루프로 도시되었으나, 이로 한정하는 것은 아니고, 놀이기구(120)가 출발하는 플랫폼(119)과 놀이기구(120)가 도착하는 플랫폼(119)이 상이할 수도 있다. 플랫폼(119)은 놀이기구(120)의 사용자가 탑승하는 장소 내지 시설을 나타낼 수 있다.
또한, 도 1에서 설명의 편의를 위하여 놀이기구(120)가 하나만 도시되었으나, 이로 한정하는 것은 아니고, 놀이기구 시스템(100)은 복수의 놀이기구(120)를 포함할 수도 있다. 복수의 놀이기구(120)들은 동시에 운행되거나, 순차적으로 운행될 수도 있다.
일 실시예에 따른 놀이기구(120)는 복수의 슬롯들(slots)을 포함할 수 있다. 각 슬롯은 사용자가 탑승할 수 있는 물리적인 탑승 공간 또는 사용자에게 서비스를 제공하기 위한 장치가 장착되는 장치 공간에 대응할 수 있고, 기준 슬롯(121), 가상현실 슬롯(122), 및 일반 슬롯(123) 등을 포함할 수 있다. 가상현실 슬롯(122)은, 해당 슬롯에 탑승한 사용자에게 가상현실을 제공하는 슬롯을 나타낼 수 있다. 가상현실 슬롯(122)에 대응하는 공간에는 가상현실을 제공하기 위한 사용자 단말이 비치될 수 있다. 일반 슬롯(123)은 사용자가 탑승할 수 있는 공간만 단순 제공하는 슬롯을 나타낼 수 있다. 기준 슬롯(121)은, 가상현실 슬롯(122)에 탑승한 사용자가 착용하는 사용자 단말로 기준 방향 정보를 제공하기 위한 기준 단말이 설치 또는 장착되는 슬롯을 나타낼 수 있다. 다만, 이러한 슬롯들은 단순한 예시로서, 슬롯의 종류 및 개수 등은 설계에 따라 변경될 수 있다.
또한, 놀이기구(120)는, 해당 놀이기구(120)가 트랙(110)을 따라 이동할 수 있는 동력원(129)(예를 들어, 기관차)을 포함할 수도 있다.
아래에서는, 놀이기구 시스템(100)의 구성을 보다 상세히 설명한다.
도 2는 일 실시예에 따른 놀이기구 시스템에서 사용자 단말, 마스터 단말, 및 관리 서버를 설명하는 도면이다.
도 1에서 설명된 놀이기구 시스템은, 도 2에 도시된 바와 같이, 놀이기구(220) 및 관리 서버(230)를 포함할 수 있다.
놀이기구(220)에는 복수의 사용자 단말들이 탑재될 수 있다. 사용자 단말들은 예를 들어, HMD(head mounted device)로 구현될 수 있고, 사용자의 머리에 착용될 수 있다. 사용자의 머리에 착용된 사용자 단말(222)은 사용자에게 컨텐츠 이미지를 시각화하여 제공할 수 있다. 예를 들어, 사용자 단말(222)은 컨텐츠 이미지로부터 사용자가 바라보는 시야 방향에 대응하는 시야각 이미지를 추출할 수 있고, 추출된 시야각 이미지를 사용자에게 제공할 수 있다. 사용자 단말(222)은 시야각 이미지를 입체 이미지의 형태로 제공할 수 있는데, 입체 이미지는 서로 시차(disparity)를 가지는 좌안 이미지 및 우안 이미지를 포함할 수 있다. 사용자 단말(222)은 사용자의 좌안에 좌안 이미지, 사용자의 우안에 우안 이미지를 제공함으로써, 사용자에게 시야 이미지를 입체적으로 인식시킬 수 있다.
컨텐츠 이미지는 가상현실 컨텐츠(VR contents, virtual reality contents)를 포함할 수 있으나, 이로 한정하는 것은 아니다. 컨텐츠 이미지는 혼합현실(MR, mixed reality) 컨텐츠 및 증강현실(AR, augmented reality) 컨텐츠를 포함할 수도 있다. 예를 들어, 사용자 단말이 사용자에게 증강현실 컨텐츠를 제공하는 경우, 사용자 단말은 사용자의 시야 방향과 나란하게 배치된 카메라 센서를 통해 촬영된 외부 장면(external scene)을 디스플레이에 시각화할 수 있고, 외부 장면의 시각화와 함께 시각화된 외부 장면에 증강현실 객체를 오버레이하여 시각화할 수 있다. 오버레이 동작은 외부 장면(예를 들어, 배경 장면)의 적어도 일부를 가리도록 그래픽 객체를 생성하여 시각화하는 동작을 나타낼 수 있다. 다른 예를 들어, 사용자 단말이 혼합현실 컨텐츠를 제공하는 경우, 사용자 단말은 투과성 디스플레이를 통해, 외부 장면에 대응하는 광선들을 투과시킬 수 있다. 사용자 단말은 투과성 디스플레이 상에 혼합현실 객체를 시각화할 수 있다. 따라서, 사용자는 외부 장면과 그에 결합된 혼합현실 객체를 함께 인식할 수 있다. 외부 장면은, 예를 들어, 사용자 단말 또는 사용자 단말을 착용한 사용자의 정면 방향에 존재하는 환경 중 사용자 단말의 시야각 범위 또는 사용자의 시야각 범위에 대응하는 장면을 나타낼 수 있다.
참고로, 사용자 단말들 중 마스터 모드가 활성화된 사용자 단말(222)은 마스터 단말(221)이라고 지칭될 수도 있다. 마스터 모드의 활성화는 하기 도 7에서 설명한다. 마스터 단말(221)은, 마스터 모드가 비활성화된 다른 사용자 단말(222)로 기준 방향 정보, 예를 들어, 놀이기구(220)의 이동 방향에 관한 정보를 제공할 수 있다. 사용자에게 컨텐츠 이미지를 제공하는 사용자 단말(222)은, 마스터 모드가 비활성화된 사용자 단말(222)일 수 있다.
일 실시예에 따르면 마스터 단말(221)은 놀이기구(220)에 고정될 수 있다. 마스터 단말(221)은 놀이기구(220)에 고정된 채로, 방향 검출 센서를 통해 놀이기구(220)의 이동 방향을 검출할 수 있다. 마스터 단말(221)은 검출된 놀이기구(220)의 이동 방향을, 기준 방향 정보로서 다른 사용자 단말(222)에 제공할 수 있다.
일 실시예에 따르면, 사용자 단말(222) 및 마스터 단말(221)은 관리 서버(230)를 경유하여 통신을 수립할 수 있다. 예를 들어, 사용자 단말(222) 및 마스터 단말(221)은 관리 서버(230)와 통신을 수립할 수 있다. 사용자 단말(222) 및 마스터 단말(221)은 각각 검출된 시야 방향 및 이동 방향을 관리 서버(230)를 경유하여 서로에게 전달할 수 있다. 사용자 단말(222) 및 마스터 단말(221)의 각각은 자신의 상태 정보를 관리 서버(230)에 리포트(report)할 수 있다. 관리 서버(230)는 관리자에게 각 사용자 단말(222) 및 마스터 단말(221)의 상태 정보를 제공하고, 관리자로부터의 입력에 응답하여 사용자 단말들을 제어할 수 있다. 관리 서버(230)의 동작은 하기 도 8에서 설명한다.
또한, 사용자 단말(222) 및 마스터 단말(221)이 관리 서버(230)를 통해서만 통신을 수립한다고 한정하는 것은 아니고, 사용자 단말(222) 및 마스터 단말(221)은 서로 간에 직접 통신을 수립할 수도 있다. 예를 들어, 사용자 단말(222) 및 마스터 단말(221)은 서로 간에 무선 통신(예를 들어, 와이파이 및 블루투스 등)을 수립할 수도 있다. 예를 들어, 사용자 단말(222)은 가속도 센서를 통해 검출된 사용자의 시야 방향을 마스터 단말(221)로 전달할 수 있다. 다른 예를 들어, 마스터 단말(221)은 가속도 센서를 통해 검출된 놀이기구(220)의 이동 방향을 사용자 단말(222)로 전달할 수 있다.
일 실시예에 따르면 사용자 단말(222)이 놀이기구(220)의 이동 방향 및 사용자의 시야 방향에 기초하여, 컨텐츠 이미지로부터 사용자에게 제공될 시야각 이미지를 결정할 수 있다. 다만, 이로 한정하는 것은 아니고, 마스터 단말(221) 또는 관리 서버(230)가 시야각 이미지를 결정하여, 결정된 시야각 이미지를 사용자 단말(222)에 제공할 수도 있다. 이 경우, 마스터 단말(221) 또는 관리 서버(230)는 시야각 이미지를 구성하는 복수의 프레임 이미지들을 사용자 단말(222)로 유선 또는 무선 통신을 통해 스트리밍할 수도 있다. 또한, 마스터 단말(221) 및 관리 서버(230)가 사용자가 바라보는 시야각 범위만을 산출하여 시야각 범위에 관한 데이터를 사용자 단말(222)로 제공할 수도 있다.
아래 도 3에서는 사용자 단말(222)에서의 동작을 설명한다. 참고로, 본 명세서에서 사용자 단말(222)는 이미지 시각화 장치라고 지칭될 수도 있다.
도 3은 일 실시예에 따른 놀이기구를 가동하는 이미지를 시각화하는 방법을 설명하는 흐름도이다.
우선, 단계(310)에서 사용자 단말은 사용자에 의해 착용된 사용자 단말에 대해 시야 방향(sight direction)을 결정할 수 있다. 시야 방향은 사용자 단말을 착용한 사용자가 바라보는 방향을 나타낼 수 있다. 시야 방향 및 다른 방향과의 관계는 하기 도 4에서 설명한다. 일 실시예에 따르면, 마스터 모드가 비활성화된 사용자 단말은, 방향 검출 센서를 통해 시야 방향을 검출할 수 있다. 사용자 단말은 마스터 단말 및 관리 서버로 시야 방향을 전송할 수도 있다.
그리고 단계(320)에서 사용자 단말은 사용자가 탑승한 놀이기구의 이동 방향(moving direction)을 결정할 수 있다. 이동 방향은 트랙을 따라 이동하는 놀이기구가 진행하는 방향을 나타낼 수 있다. 이동 방향 및 다른 방향과의 관계는 하기 도 4에서 설명한다. 일 실시예에 따르면 마스터 모드가 활성화된 사용자 단말(예를 들어, 마스터 단말)은, 방향 검출 센서를 통해 이동 방향을 검출할 수 있다. 마스터 모드가 비활성화된 단말은, 마스터 단말로부터 이동 방향을 수신함으로써, 사용자 단말과 연관된 놀이기구(예를 들어, 사용자 단말이 탑재된 놀이기구)의 이동 방향을 결정할 수 있다.
이어서 단계(330)에서 사용자 단말은 컨텐츠 이미지로부터 시야 방향 및 이동 방향에 기초하여 결정된 시야각 이미지(FOV image, field of view image)를 사용자에게 제공할 수 있다. 본 명세서에서 컨텐츠 이미지는 가상현실과 연관된 컨텐츠를 포함하는 이미지를 나타낼 수 있다. 컨텐츠 이미지는 복수의 프레임 이미지들로 구성되는 비디오 이미지(video image)일 수 있으나, 이로 한정하는 것은 아니고, 단일 이미지로 구성되는 스틸 이미지(still image)일 수도 있다. 사용자의 시야 방향이 변화하면 사용자 단말은 변화된 시야 방향에 대응하는 시야각 범위의 이미지를 사용자에게 제공하여야 하므로, 컨텐츠 이미지는 사용자의 시야각보다 넓은 시야각을 가질 수 있다.
일 실시예에 따르면 사용자 단말은 시야 방향 및 이동 방향 중 적어도 하나의 변화에 응답하여, 사용자의 시야각 범위를 변경할 수 있다. 사용자 단말은 변경된 시야각 범위에 대응하는 시야각 이미지를 사용자에게 제공함으로써, 사용자의 행동(예를 들어, 고개를 돌리는 행위) 및 사용자의 이동(예를 들어, 놀이기구의 이동)에 따른 시야의 변화를 동적으로 반영할 수 있다. 따라서 사용자 단말은 컨텐츠 이미지에 포함된 가상현실 컨텐츠를 사용자에게 실감나게 제공할 수 있다.
또한, 컨텐츠 이미지가 복수의 프레임 이미지들로 구성되는 비디오 이미지인 경우, 사용자 단말은 시간 경과에 따라 사용자에게 연속적으로 각 프레임 이미지들을 순차적으로 제공할 수 있다. 비디오 이미지에서 시간 경과에 따른 각 프레임 이미지는 놀이기구의 진행 시간 경과와 연동될 수 있고, 사용자 단말은 놀이기구의 진행에 따라 보다 실감나는 가상현실 경험을 사용자에게 제공할 수 있다.
도 4는 일 실시예에 따른 놀이기구를 가동하는 동안 사용자 단말에 의해 검출되는 초기 방향, 놀이기구의 이동 방향, 사용자 단말의 시야 방향을 도시한다.
일 실시예에 따르면 사용자 단말(420)은 놀이기구가 출발하기 전에 초기 방향(A)을 검출하여 저장할 수 있다. 예를 들어, 사용자 단말(420)은 시야 방향(C) 및 이동 방향(B) 중 적어도 하나를 검출하는 방향 검출 센서에 의해, 놀이기구의 출발 시점에서 검출되는 방향 데이터를 저장할 수 있다. 출발 시점에서 검출되는 방향 데이터는 초기 방향(A)을 나타낼 수 있다. 사용자 단말(420)은 저장된 방향 데이터에 기초하여 방향 검출 센서를 보정할 수 있다. 마스터 단말은 출발시 초기 이동 방향(A1)을 검출할 수 있고, 사용자 단말(420)은 출발시 초기 시야 방향(A2)을 검출할 수 있다. 사용자 단말(420) 및 마스터 단말은 초기 이동 방향(A1) 및 초기 시야 방향(A2)을 일치시킴으로써, 방향 검출 센서를 보정할 수 있다. 일치된 초기 이동 방향(A1) 및 초기 시야 방향(A2)은 초기 방향(A)으로 통합되어 표현될 수 있다.
예를 들어, 사용자 단말(420)은 놀이기구가 경로(예를 들어, 트랙)을 따라 운행(travel)하는 동안, 놀이기구의 이동 방향(B)을 결정할 수 있다. 도 3에서 상술한 바와 같이, 마스터 모드가 비활성화된 사용자 단말(420)은 마스터 단말로부터 마스터 단말에 의해 검출된 이동 방향(B)을 수신할 수 있다. 사용자 단말(420)은 이동 방향(B)으로부터 초기 방향(A)을 차감함으로써, 방향 검출 센서를 보정할 수 있다. 이동 방향(B)으로부터 초기 방향(A)이 차감된 방향 값을, 보정된 이동 방향(예를 들어, B-A)이라고 나타낼 수도 있다. 사용자 단말(420)은 이동 방향(B) 또는 보정된 이동 방향(예를 들어, B-A)을 기준으로 컨텐츠 이미지를 정렬하여 제공할 수 있다. 컨텐츠 이미지의 정렬은 하기 도 5a 및 도 5b에서 설명한다.
그리고 사용자 단말(420)은 놀이기구가 경로를 따라 운행하는 동안 사용자의 시야 방향(C)도 결정할 수 있다. 도 3에서 상술한 바와 같이 마스터 모드가 비활성화된 사용자 단말(420)은, 방향 검출 센서를 통해 시야 방향(C)을 검출할 수 있다. 사용자 단말(420)은 시야 방향(C) 및 이동 방향(B) 간의 방향 차이(490)에 기초하여, 사용자의 최종 시선 방향을 산출할 수 있다. 사용자 단말(420)은 정렬된 컨텐츠 이미지로부터 산출된 최종 시선 방향에 대응하는 시야각 이미지를 결정할 수 있다.
참고로, 도 4에서는 설명의 편의를 위해 초기 방향(A), 이동 방향(B), 및 시야 방향(C)이 2차원 평면에서 각도를 이루는 것으로 도시되었으나, 이로 한정하는 것은 아니다. 각 방향은 3차원 벡터 성분을 가질 수 있고, 사용자 단말은 3차원 공간 내에서 초기 방향(A)을 이용하여 이동 방향(B)을 보정하고, 시야 방향(C) 및 이동 방향(B) 간의 3차원 방향 차이(490)를 산출할 수 있다. 본 명세서에서 각 방향은 3차원 벡터로 표현될 수 있으나, 이로 한정하는 것은 아니다. 참고로, 본 명세서에서, A, A1, A2, B, 및 C는 방향 검출 센서를 원점으로 하는 방향을 지시하는 방향 벡터를 나타낼 수 있다. B-A는 벡터 B로부터 벡터 A가 차감된 벡터를 나타낼 수 있다. C-(B-A)는 벡터 C로부터 벡터 (B-A)가 차감된 벡터를 나타낼 수 있다.
아래 도 5a 및 도 5b에서는 초기 방향(A), 이동 방향(B), 및 시야 방향(C)에 기초한 컨텐츠 이미지의 정렬 및 시야각 이미지의 제공을 설명한다.
도 5a 및 도 5b는 일 실시예에 따라 검출된 놀이기구의 이동 방향을 활용하여 사용자에게 컨텐츠 이미지를 실감나게 제공하는 동작을 설명하는 도면이다.
도 5a는 일 실시예에 따른 사용자 단말(590)이 이동 방향(B)을 활용하여 사용자에게 컨텐츠 이미지(580)를 제공하는 예시를 설명한다. 예를 들어, 사용자 단말(590)은 이동 방향(B)을 기준으로 컨텐츠 이미지(580)를 정렬할 수 있다. 사용자 단말(590)은 도 5a에 도시된 바와 같이 이동 방향(B)에 컨텐츠 이미지(580)의 기준 지점(581)(reference point)을 매칭시킬 수 있다.
본 명세서에서, 컨텐츠 이미지(580)는 시점(viewpoint)이 향하는 방향 및 시점이 이동하는 방향이 일치되도록 생성된 컨텐츠를 포함할 수 있고, 컨텐츠 이미지(580)의 기준 지점(581)은 시점에 대응할 수 있다. 예를 들어, 컨텐츠 이미지(580)가 임의의 카메라가 이동하면서 광시야각 이미지를 촬영함으로써 생성된 이미지라고 가정해볼 수 있다. 이 때, 컨텐츠 이미지(580)는 비디오 이미지일 수 있다. 이 경우, 카메라의 시야각에서 중심 지점이 시점에 대응할 수 있고, 카메라의 광축(optical axis) 방향이 시점이 향하는 방향에 대응할 수 있다. 카메라가 이동하는 방향은 시점이 이동하는 방향에 대응할 수 있다. 즉, 컨텐츠 이미지(580)는 카메라가 정면을 바라보고 이동하면서 촬영한 이미지일 수 있다. 다만, 컨텐츠 이미지(580)를 이로 한정하는 것은 아니고, 컨텐츠 생산자의 그래픽 작업 등에 의해 생성된 이미지일 수도 있다. 이 경우, 컨텐츠 이미지(580)는 컨텐츠 생산자가 의도한 시점이 향하는 방향 및 시점이 이동하는 방향이 일치되는 이미지일 수 있다. 시점이 이동하는 방향은, 컨텐츠의 진행 방향(589)이라고도 나타낼 수 있다.
사용자 단말(590)은 놀이기구(520)의 이동 방향(B) 및 컨텐츠의 기준 지점(581)을 매칭시킴으로써, 사용자가 체감하게 되는 신체의 진행 방향(599) 및 컨텐츠의 진행 방향(589)을 일치시킬 수 있다. 따라서 사용자 단말(590)은 놀이기구(520)에 탑승한 사용자에게, 사용자 단말(590)을 통해 제공되는 컨텐츠의 진행 방향(589)과 사용자의 신체의 실제 진행 방향(599)(예를 들어, 이동 방향(B))의 일체화를 통해 보다 현실감있는 가상 현실 체험을 제공할 수 있다. 이동 방향(B)는 놀이기구(520)가 이동하는 트랙(510)에 대응할 수 있다.
이후, 사용자 단말(590)은 정렬된 컨텐츠 이미지(580)로부터 시야 방향(C) 및 이동 방향(B) 간의 방향 차이에 대응하는 시야각 이미지(582)를 결정할 수 있다. 참고로, 사용자 단말(590)은 시야각 이미지(582)의 중심 지점이 시야 방향에 매칭하도록, 컨텐츠 이미지(580)로부터 시야각 이미지(582)를 추출할 수 있다. 예를 들어, 사용자 단말(590)은 보정된 이동 방향(예를 들어, B-A)을 시야 방향(C)으로부터 차감함으로써, 최종 시야 방향(예를 들어, C-(B-A))을 결정할 수 있다. 사용자 단말(590)은, 최종 시야 방향(예를 들어, C-(B-A))을 중심 지점으로 하는 시야각 이미지를, 이동 방향(B)을 기준으로 매칭된 컨텐츠 이미지(580)로부터 추출할 수 있다. 따라서, 사용자 단말(590)은 놀이기구(520)의 이동 방향(B)과 일체화된 진행 방향으로 컨텐츠를 제공하는 동안, 사용자의 고개 변화에 대응하여 자연스럽게 시야각 이미지(582)를 변경할 수 있다. 사용자 단말(590)은 결정된 시야각 이미지(582)를 시각화할 수 있다. 예를 들어, 사용자 단말(590)은 시야각 이미지(582)를 디스플레이로 출력할 수 있다.
시야각 이미지(582)는 컨텐츠 이미지(580) 중에서 사용자 단말이 사용자에게 제공하고자 하는 시야각 범위에 대응하는 이미지일 수 있다. 시야각 범위는 사용자가 인식할 수 있는 범위 및 사용자 단말의 디스플레이 크기 및 해상도 등에 기초하여 결정될 수 있다.
반면, 도 5b는 놀이기구의 이동 방향이 고려되지 않는 상황을 도시한다. 만약, 놀이기구의 이동 방향이 제공되지 않는다면, 사용자 단말은 초기 방향(A) 또는 시야 방향(C)을 컨텐츠 이미지(570)의 기준 지점(571)에 매칭시킬 수 밖에 없다. 도 5b는 컨텐츠 이미지(570)의 기준 지점(571)이 초기 방향(A)에 매칭된 상황을 설명한다. 이 경우, 컨텐츠 이미지(570)의 진행 방향(579)은 사용자의 신체의 실제 진행 방향(599)과 불일치할 수 있다. 사용자 단말은 시야 방향(C)에 대응하는 시야각 이미지(572)를 사용자에게 제공할 수 있는데, 컨텐츠 이미지(570)의 진행 방향(579) 및 사용자의 신체의 실제 진행 방향(599) 간의 불일치로 인해 사용자는 어지러움을 느낄 수도 있다. 이는 컨텐츠 이미지(570)의 기준 지점(571)이 시야 방향(C)에 매칭된 경우에도 마찬가지이다.
따라서, 일 실시예에 따른 이미지 시각화 장치(예를 들어, 사용자 단말(590)은 도 5a에서 설명한 바와 같이, 이동 방향(B)을 기준으로 하는 컨텐츠 이미지(580)를 제공함으로써, 사용자에게 최적의 가상 현실 체험을 제공할 수 있다.
도 6은 일 실시예에 따른 놀이기구에서 복수의 마스터 단말들이 지정되는 경우, 사용자 단말이 각 마스터 단말에 대응하는 그룹으로 분류되는 구성을 설명하는 도면이다.
일 실시예에 따르면 트랙에 대응하는 진행 방향(699)을 따라 이동하는 놀이기구(690)에서, 복수의 사용자 단말들은 하나 이상의 그룹으로 분류될 수 있다. 예를 들어, 도 6은 놀이기구(690)와 연관된 복수의 사용자 단말들이 n개의 그룹으로 분류된 것을 도시한다. 여기서, n은 1이상의 정수일 수 있다. 복수의 그룹들의 각각에는 그에 대응하는 마스터 단말이 할당될 수 있다.
예를 들어, 제1 그룹(612)에 속하는 사용자 단말들에는 제1 마스터 단말(611)이 할당될 수 있고, 제n 그룹(632)에 속하는 사용자 단말들에는 제n 마스터 단말(631)이 할당될 수 있다. 일반화하여 표현하면, 제i 그룹(622)에 속하는 사용자 단말들에는 제i 마스터 단말(621)이 할당될 수 있다. 각 그룹의 사용자 단말들의 개수는 서로 동일할 수 있으나, 이로 한정하는 것은 아니고, 설계에 따라 달라질 수 있다. 예를 들어, 제i 마스터 단말(621)은 놀이기구(690)에서 자신이 장착된 부분의 이동 방향을 검출할 수 있고, 검출된 이동 방향을 제i 그룹(622)에 속하는 사용자 단말들에게 공유할 수 있다. 예를 들어 ,복수의 사용자 단말들 중 대상 사용자 단말이, 마스터 모드가 활성화된 다른 사용자 단말들 중 대상 사용자 단말의 그룹에 대해 지정된 다른 사용자 단말로부터, 이동 방향을 수신할 수 있다.
놀이기구(690)가 서로 연결된 복수의 차량들을 포함하는 경우, 놀이기구(690) 시스템은 그룹 별로 이동 방향을 검출하여 사용자 단말들에게 제공함으로써, 개별 사용자에게 보다 정확한 이동 방향을 제공할 수 있다. 예를 들어, 놀이기구(690)가 n개의 차량들을 포함하는 경우, n개의 차량들의 각각에 마스터 단말이 탑재될 수 있다. 각 차량에 탑재된 마스터 단말은, 해당 차량에 탑승하는 사용자들의 사용자 단말들에게 동일한 이동 방향을 전송할 수 있다.
도 7은 일 실시예에 따른 사용자 단말의 모드 설정, 가중치 설정, 및 스크린 업데이트 빈도 설정을 설명하는 도면이다.
일 실시예에 따르면 사용자 단말은 모드 설정 입력에 응답하여, 마스터 모드를 활성화하거나 비활성화할 수 있다. 모드 설정 입력은, 예를 들어, 마스터 모드 설정 객체를 선택하여 실행하는 입력으로서, 터치 입력일 수 있다. 다만, 모드 설정 입력을 이로 한정하는 것은 아니다. 사용자 단말은 기본적으로 마스터 모드를 비활성화할 수 있으며, 컨텐츠 이미지를 재생하는 경우에만 모드 설정 입력에 따라 마스터 모드를 활성화하거나 비활성화된 상태를 유지할 수 있다.
예를 들어, 사용자 단말은, 사용자 단말의 마스터 모드가 활성화된 경우에 응답하여, 방향 검출 센서를 통해 이동 방향을 검출할 수 있다. 사용자 단말은 검출된 이동 방향을 마스터 모드가 비활성화된 다른 사용자 단말로 전송할 수 있다.
다른 예를 들어, 사용자 단말은 사용자 단말의 마스터 모드가 비활성화된 경우에 응답하여, 방향 검출 센서를 통해 시야 방향을 검출할 수 있다. 이 때, 사용자 단말은 마스터 모드가 활성화된 다른 사용자 단말로부터 이동 방향을 수신할 수 있다.
일 실시예에 따르면 사용자 단말은 가중치 설정 입력에 응답하여, 사용자 단말에서 사용자에게 제공되는 시야각 이미지의 시점 변화를 반영하는 속도를 설정할 수 있다. 가중치 설정 입력은, 가중치를 설정하기 위한 객체(720)에 대한 입력을 나타낼 수 있다. 상술한 바와 같이 컨텐츠 이미지의 기준 시점은 이동 방향에 매칭될 수 있고, 시야각 이미지의 중심 지점은 이동 방향 및 시야 방향을 기준으로 결정된 최종 시선 방향에 매칭될 수 있다. 그러므로 시야각 이미지의 시점 변화는 시야 방향 또는 이동 방향의 방향 변화에 의해 유발될 수 있다. 사용자 단말은 시야 방향 및 이동 방향 중 적어도 하나의 방향이 변경되는 경우에 응답하여, 미리 설정된 가중치에 기초하여 방향의 변화량을 점진적으로 사용자의 최종 시선 방향에 적용할 수 있다. 사용자 단말은 변화량이 적용된 최종 시선 방향에 대응하는 시야각 이미지를 사용자에게 제공할 수 있다. 예를 들어, 사용자 단말은 미리 설정된 시점 변화 시간(예를 들어, m초 동안 또는 k개의 프레임) 동안 시점 변화 반영이 완료되도록, 시점 변화가 발생한 초기 시점에는 시점 변화량 중 일부 변화량을 반영하고, 시간이 흐를수록 반영되는 변화량을 가중치에 따라 점진적으로 감소시킬 수 있다. 여기서, m은 실수일 수 있고, k는 1이상의 정수일 수 있다. 사용자 단말은 시점 변화 발생 초기에는 시야 범위를 많이 조정하고, 시간이 경과하면 시야 범위를 조금 조정할 수 있다. 따라서 사용자 단말은 부드럽게 시야각 이미지를 변경할 수 있다.
예를 들어, 도 7에서는 가중치로서 8이 입력되었고, 이는 매 프레임마다 총 시점 변화량의 80%를 반영하라는 의미일 수 있다. 예를 들어, 사용자 단말은 시점 변화가 발생한 직후 첫 프레임에서는 총 시점 변화량 중 80%의 변화량을 반영하여, 컨텐츠 이미지에서 사용자에게 제공되는 시야각 이미지를 조정할 수 있다. 그 다음 프레임에서 사용자 단말은 나머지 20% 변화량 중 80%의 변화량, 예를 들어, 총 시점 변화량 중 16%의 변화량을 반영하여, 시야각 이미지를 조정할 수 있다. 이러한 가중치가 작을수록, 사용자 단말은 시점 변화 발생시 시야각 이미지를 보다 부드럽게 전환할 수 있다.
또한, 사용자 단말은 업데이트 빈도 설정 입력에 응답하여, 사용자 단말에서 이동 방향의 변화가 최종 시선 방향 산출에 적용되는 빈도를 결정할 수 있다. 업데이트 빈도 설정 입력은, 예를 들어, 임계 각도 변화를 설정하기 위한 객체(730)에 대한 입력을 나타낼 수 있다. 예를 들어, 사용자 단말은 이동 방향의 변화량이 임계 각도 변화를 초과하는 경우에 응답하여, 최종 시선 방향을 업데이트할 수 있다. 도 7에서 임계 각도 변화는 1도로 설정된 예시를 설명한다. 사용자 단말은 놀이기구의 이동 방향이 1도 변화할 때마다, 최종 시선 방향을 보정할 수 있다.
가중치 및 임계 각도 변화는 복수의 회전 축들 중 한 회전 축에 대해서만 설정될 수 있다. 예를 들어, 도 7에서 가중치 및 임계 각도 변화와 관련하여 요우잉 축(yaw axis)에 대한 보정(741)이 활성화될 수 있다. 요우잉 축은 사용자 단말이 지면을 기준으로 왼쪽 또는 오른쪽으로 회전하는 축을 나타낼 수 있다. 다른 예를 들어, 가중치 및 임계 각도 변화와 관련하여 피치 축(pitch axis)에 대한 보정(742)이 활성화될 수도 있다. 피치 축은 사용자 단말이 지면을 기준으로 위쪽 또는 아래쪽으로 회전하는 축을 나타낼 수 있다. 사용자 단말은 두 개의 회전 축 중 한 개의 회전 축에 대해서만 가중치 및 임계 각도 변화를 설정함으로써, 사용자에게 정상적인 가상 현실 이미지를 제공할 수 있다.
도 8은 일 실시예에 따른 이미지 시각화 장치를 관리하는 방법을 설명하는 흐름도이다.
우선, 단계(810)에서 관리 서버는 사용자의 시야 방향 및 놀이기구의 이동 방향에 기초하여 컨텐츠 이미지를 제공하는 사용자 단말들과 관리 서버 간의 통신을 수립할 수 있다. 예를 들어, 관리 서버는 도 1 내지 도 7에서 상술한 사용자 단말들과 유선 또는 무선으로 통신을 수립할 수 있다. 관리 서버는 수립된 통신을 통해 사용자 단말들로 이동 방향, 시야 방향, 컨텐츠 이미지, 시야각 이미지 및 컨텐츠 이미지 제공과 연관된 다양한 정보를 송신하거나, 사용자 단말들로부터 수신할 수 있다.
그리고 단계(820)에서 관리 서버는 관리자의 입력에 응답하여, 관리 서버와의 통신이 수립된 사용자 단말들에게, 컨텐츠 재생 목록(contents play list)에 기초한 컨텐츠 이미지의 재생(play)을 명령할 수 있다. 예를 들어, 관리 서버는 놀이기구를 가동하라는 관리자의 입력에 응답하여, 해당 놀이기구와 연관된 사용자 단말들에게 동시에 컨텐츠 이미지를 재생하라는 명령을 전달할 수 있다. 아울러, 관리 서버는 사용자 단말들이 모두 동일한 컨텐츠 이미지를 재생하도록 할 수 있으나, 이로 한정하는 것은 아니다. 예를 들어, 관리 서버는 관리자의 설정에 따라, 사용자 단말들 중 적어도 일부 단말이 나머지 단말과 다른 컨텐츠 이미지를 재생하도록 지시할 수도 있다.
일 실시예에 따른 관리 서버는 사용자 단말들의 시간을 동기화할 수도 있다. 예를 들어, 관리 서버는 사용자 단말들로 시간 세팅 신호를 송신할 수 있다. 시간 세팅 신호는 해당 신호가 송신된 시각에 관한 정보를 포함할 수 있다. 관리 서버는 시간 세팅 신호를 수신한 사용자 단말들로부터 수신된 시간 정보에 기초하여, 사용자 단말들의 동작 시각을 동기화할 수 있다. 사용자 단말들로부터 수신된 시간 정보는, 해당 사용자 단말이 응답한 시각에 관한 정보를 포함할 수 있다. 관리 서버는 사용자 단말들에게 동기화가 완료되고 미리 설정된 시간이 경과한 후에 컨텐츠 이미지를 재생하도록 명령할 수 있다. 예를 들어, 관리 서버는 재생 명령을 송신한 시각(T)로부터 미리 설정된 추가 시간(ta)이 경과한 후에 각 사용자 단말이 컨텐츠 이미지를 재생하도록 설정할 수 있다. 추가 시간(ta)은 동기화를 수행하는데 요구되는 시간보다 큰, 충분한 시간으로 설정될 수 있다.
따라서, 관리 서버는 각 사용자에게 제공되는 화면 및 소리를 동기화할 수 있다. 또한, 각 사용자 단말에서 놀이기구의 이동 방향 및 해당 단말의 시야 방향 간의 방향 차이를 정확하게 산출하기 위해서, 관리 서버는 마스터 단말 및 사용자 단말의 시간을 동기화할 수 있다.
다른 일 실시예에 따르면, 관리 서버는 사용자 단말들의 각각으로부터 시야 방향을 수신할 수 있다. 관리 서버는 사용자 단말들 중 마스터 모드가 활성화된 사용자 단말로부터 이동 방향을 수신할 수 있다. 관리 서버는 시야 방향 및 이동 방향에 기초하여, 사용자 단말들 중 마스터 모드가 비활성화된 사용자 단말의 각각에 대해 사용자의 최종 시선 방향을 결정할 수 있다. 관리 서버는 컨텐츠 이미지에서 결정된 최종 시선 방향에 대응하는 시야각 이미지를 마스터 모드가 비활성화된 사용자 단말에 제공할 수 있다. 예를 들어, 관리 서버는 사용자 단말로 시야각 이미지의 각 프레임 이미지를 스트리밍할 수 있다.
도 9 내지 도 13은 일 실시예에 따른 관리 서버에 의해 제공되는 인터페이스 화면을 도시한다.
도 9는 관리 서버가 관리자에게 제공하는 메인 인터페이스 화면을 도시한다.
예를 들어, 관리 서버는 컨텐츠 재생 목록(910)을 시각화할 수 있다. 관리 서버는 컨텐츠 재생 목록(910)에 포함된 복수의 컨텐츠 이미지들 중 놀이기구의 이벤트 진행 시간에 기초하여 선택된 컨텐츠 이미지의 시각화를 명령할 수 있다. 놀이기구의 이벤트는, 예를 들어, 놀이기구가 트랙을 따라 이동하고 사용자 단말이 사용자에게 컨텐츠 이미지를 제공하는 이벤트를 나타낼 수 있다. 놀이기우의 이벤트는 관리자의 이벤트 시작 명령에 의해 트리거될 수 있다. 예를 들어, 컨텐츠 재생 목록(910)은 복수의 컨텐츠 이미지들을 포함할 수 있고, 관리 서버는 놀이기구의 이벤트 진행 시간이 경과하여 임의의 컨텐츠 이미지의 재생이 종료되면, 컨텐츠 재생 목록(910)에서 그 다음 컨텐츠 이미지를 순차적으로 재생할 수 있다. 이벤트 진행 시간은, 관리자에 의해 이벤트 진행이 트리거된 시점으로부터 경과한 시간을 나타낼 수 있다.
관리 서버는 사용자 단말들로부터 수집된 사용자 단말들의 상태 정보(920)를 관리자에게 제공할 수 있다. 관리 서버는 미리 정한 주기(예를 들어, 200ms)마다 상태 정보(920)를 각 사용자 단말로부터 수신하여 업데이트할 수 있다. 예를 들어, 관리 서버는 상태 정보(920)로서 사용자 단말들의 재생 상태(921), 배터리 상태(923), 연결 상태(922), 및 온도 상태 중 적어도 하나를 시각화할 수 있다. 재생 상태(921)는 각 사용자 단말에서 컨텐츠 이미지가 재생되고 있는지, 정지되어 있는지, 또는 다운로드되고 있는지 등을 나타낼 수 있다. 배터리 상태(923)는 배터리에 남아있는 전력의 양, 배터리의 온도 등을 나타낼 수 있다. 연결 상태(922)는 사용자 단말 및 관리 서버가 무선으로 연결된 경우, 무선 통신 연결의 강도를 나타낼 수 있다.
관리 서버는 사용자 단말의 온도가 임계 온도를 초과하는 경우에 응답하여, 경고창을 관리자에게 제공할 수 있다. 관리 서버는 사용자 단말의 배터리 충전량이 임계 충전량보다 적은 경우에 응답하여, 관리자에게 사용자 단말의 배터리 교체 또는 충전을 요청하는 알림을 제공할 수 있다.
관리 서버는 관리자에게 긴급정지 버튼(930)을 제공할 수 있다. 관리자는 긴급 상황이 발생하는 경우, 긴급정지 버튼(930)을 활성화함으로써, 놀이기구를 정지시키고, 놀이기구과 연관된 사용자 단말들에서 컨텐츠 이미지를 일괄적으로 정지시킬 수 있다. 긴급정지 버튼(930)이 활성화된 경우에 응답하여, 관리 서버는 각 사용자 단말이 비상 소리(예를 들어, 비상벨 소리) 및 비상 영상을 재생하도록, 각 사용자 단말로 비상 명령을 전달할 수 있다.
관리 서버는 놀이기구의 복수의 슬롯들 중 임의의 슬롯과 연관된 사용자 단말에 대한 연결이 수립되지 않은 경우, 미연결 상태(940)를 관리자에게 시각화할 수 있다. 예를 들어, 도 9에서는 놀이기구가 25개의 슬롯들을 가지고 있고, 101번 슬롯과 연관된 사용자 단말만 연결된 상태를 도시할 수 있다.
놀이기구의 복수의 슬롯들 중 한 슬롯은 사운드 출력 전용 기기를 탑재할 수도 있다. 관리 서버는 사운드 출력 전용 기기에 관한 정보(950)를 관리자에게 제공할 수 있다. 사운드 출력 전용 기기는 복수의 사용자들에게 일괄적으로 동일한 사운드를 출력할 수 있다.
관리 서버는 재생 버튼(961), 정지 버튼(962), 및 재정렬 버튼(963)을 관리자에게 제공할 수 있다. 재생 버튼(961)은 컨텐츠 재생 목록(910)을 재생하라는 명령을 생성하기 위한 객체를 나타낼 수 있다. 정지 버튼(962)은 재생 중인 컨텐츠 이미지를 정지하라는 명령을 생성하기 위한 객체를 나타낼 수 있다. 참고로 정지 버튼(962)은 컨텐츠 이미지가 재생되는 경우 관리자에 의해 선택 및 실행될 수 있도록 활성화될 수 있다. 재정렬 버튼(962)은 모든 사용자 단말들에게, 각 사용자 단말이 현재 바라보는 시야 방향을, 정면 방향으로 설정하기 위한 객체를 나타낼 수 있다. 관리자는 놀이기구를 가동하는 시점, 예를 들어, 사용자 단말이 착용되기 전 놀이기구의 각 슬롯에 사용자 단말이 비치되어 있는 상태에서, 재정렬 버튼(962)을 활성화하여, 각 사용자 단말의 방향 검출 센서를 재정렬할 수 있다. 다만, 이로 한정하는 것은 아니고, 관리자로부터 재정렬 입력이 주어지지 않아도, 관리 서버는 놀이기구를 가동할 시 자동으로 각 사용자 단말의 방향을 재정렬할 수도 있다.
관리 서버는 사용자 단말이 비치되는 슬롯에서 사용자의 신체를 틸트(tilt)시킬 수 있는 모션 체어(Motion chair)의 연결 상태(971)를 표시할 수 있다. 관리 서버는 현재 서버와 연결된 사용자 단말의 개수(972)도 시각화할 수 있다. 추가로 관리 서버는 서버 설정 화면으로 이동 버튼(973)도 관리자에게 제공할 수 있다.
일 실시예에 따르면 관리 서버는 사용자 단말과의 연결이 해제되는 경우에 응답하여, 해당 사용자 단말의 동작을 정지시킬 수 있다. 또한, 관리 서버는 사용자 단말의 도난 여부를 검출할 수도 있다. 예를 들어, 관리 서버는 사용자 단말이 미리 결정된 지리적 영역(예를 들어, 서비스 공간 내에서 어트랙션에 할당된 영역)을 벗어나는 경우에 응답하여, 도난 경보를 관리자에게 제공할 수 있다. 따라서, 관리 서버는 사용자 단말의 도난을 방지할 수 있다.
도 10에서 일 실시예에 따른 관리 서버는 복수의 사용자 단말들 중 관리자의 입력(1010)에 응답하여 선택된 사용자 단말에 대응하는 상태 정보를 확대하여 시각화할 수 있다. 관리자는 확대된 상태 창(1030)을 통해, 원하는 사용자 단말의 상태를 보다 편리하게 확인할 수 있다. 이후, 관리 서버는 확대된 상태 창(1030) 이외의 영역에 대한 입력(1020)에 응답하여 초기 인터페이스로 되돌아갈 수 있다.
도 11에서 관리 서버는 컨텐츠 재생 목록 중 현재 재생되고 있는 컨텐츠 이미지의 진행 정도에 관한 그래픽 객체(1110)를 시각화할 수 있다. 따라서, 관리자는 놀이기구의 이벤트 진행 시간 경과에 따른 컨텐츠 이미지의 재생 정도를 직관적으로 확인할 수 있다. 또한, 관리 서버는 각 사용자 단말의 지연 시간(1120)도 제공할 수 있다.
도 12에서 관리 서버는 관리자에게 통계와 관련된 그래픽 객체(1210)를 시각화하고, 통계 관련 데이터(1230)를 제공할 수 있다. 통계와 관련된 그래픽 객체(1210)는 각 사용자 단말의 배터리 충전량 변화 등을 나타낼 수 있다. 관리 서버는 관리자에 의해 선택된 일자(1220)에 대해 통계 정보를 제공할 수 있다.
도 13에서 관리 서버는 컨텐츠 재생 목록을 편집하는 인터페이스를 관리자에게 제공할 수 있다. 예를 들어, 관리 서버는 각 컨텐츠 이미지의 타입을 지정하는 객체(1310), 컨텐츠 이미지를 편집하는 객체(1320) 등을 관리자에게 제공할 수 있다. 관리 서버는 해당 객체에 대한 관리자의 입력에 응답하여, 컨텐츠 재생 목록에 포함된 컨텐츠 이미지의 순서, 시각화 방식, 시간 길이, 음량 크기, 및 컨텐츠 이미지의 개수 중 적어도 하나를 변경할 수 있다. 컨텐츠 이미지의 시각화 방식은, 정지된 이미지를 일정 시간 동안 시각화하는 방식, 비디오 이미지를 2차원으로 시각화하는 방식, 이미지로부터 좌안 이미지 및 우안 이미지를 생성하여 3차원 이미지를 시각화하는 방식 등을 포함할 수 있다. 관리 서버는 관리자의 입력에 응답하여, 컨텐츠 재생 목록에 컨텐츠 이미지를 추가하거나, 컨텐츠 재생 목록으로부터 컨텐츠 이미지를 제거할 수도 있다.
도 14는 일 실시예에 따른 사용자 단말의 구성을 도시한 블록도이다.
사용자 단말(1400)은 방향 검출 센서(1410), 통신부(1420), 프로세서(1430), 메모리(1440), 및 디스플레이(1450)를 포함할 수 있다. 사용자 단말(1400)은, 마스터 모드가 활성화된 경우, 마스터 단말로서 동작할 수도 있다.
방향 검출 센서(1410)는 사용자에 의해 착용된 사용자 단말(1400)에 대한 시야 방향을 검출할 수 있다. 마스터 모드인 경우, 방향 검출 센서(1410)는 사용자가 탑승한 놀이기구의 이동 방향을 검출할 수 있다. 방향 검출 센서(1410)는 예를 들어, 가속도 센서일 수 있으나, 이로 한정하는 것은 아니다.
통신부(1420)는 다른 사용자 단말(1400) 및 관리 서버와 통신을 수립할 수 있다. 통신부(1420)는 이동 방향, 시야 방향, 컨텐츠 이미지, 및 시야 이미지 등을 다른 사용자 단말(1400) 및 관리 서버로 송신하거나 다른 사용자 단말(1400) 및 관리 서버로부터 수신할 수 있다. 통신부(1420)는 유선 통신 또는 무선 통신을 수행할 수 있다.
프로세서(1430)는 사용자에 의해 착용된 사용자 단말(1400)에 대한 시야 방향 및 사용자가 탑승한 놀이기구의 이동 방향을 결정할 수 있다. 프로세서(1430)는 디스플레이(1450)를 제어하여 사용자에게 컨텐츠 이미지를 시각화할 수 있다. 프로세서(1430)의 동작을 이로 한정하는 것은 아니고, 프로세서(1430)는 도 1 내지 도 7에서 상술한 동작들 중 적어도 일부를 수행할 수 있다.
메모리(1440)는 놀이기구를 가동하는 동안 이미지를 시각화하는데 요구되는 데이터를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(1440)는 사용자 단말(1400)에서 검출되는 이동 방향 및 시야 방향을 시간 순서에 따라 누적하여 저장할 수도 있다.
디스플레이(1450)는 컨텐츠 이미지로부터 시야 방향 및 이동 방향에 기초하여 결정된 시야각 이미지를 사용자에게 제공할 수 있다. 예를 들어, 디스플레이(1450)는 프로세서(1430)의 제어에 따라 결정된 시야각 이미지를 출력할 수 있다. 디스플레이(1450)가 입체시 스크린(stereoscopic screen)으로 구성된 경우, 디스플레이(1450)는 좌안 이미지를 사용자의 좌안에 제공하고, 우안 이미지를 사용자의 우안에 제공할 수 있다. 또한, 디스플레이(1450)는 투과성 스크린으로 구성될 수도 있다.
도 15는 일 실시예에 따른 관리 서버의 구성을 도시한 블록도이다.
관리 서버(1500)는 통신부(1520), 프로세서(1530), 및 메모리(1540)를 포함할 수 있다.
통신부(1520)는 사용자 단말들과 통신을 수립할 수 있다. 예를 들어, 통신부(1520)는 사용자 단말들로부터 상태 정보를 수집할 수 있고, 관리자의 입력에 따라 생성된 명령을 사용자 단말들로 전달할 수 있다. 또한, 통신부(1520)는 관리 서버(1500)에 저장된 컨텐츠 이미지를 사용자 단말들에게 전송하거나 스트리밍할 수도 있다.
프로세서(1530)는 관리자의 입력에 응답하여, 관리 서버(1500)와의 통신이 수립된 사용자 단말들에게, 컨텐츠 재생 목록에 기초한 컨텐츠 이미지의 재생을 명령할 수 있다. 예를 들어, 프로세서(1530)는 컨텐츠 재생 목록에서 지정된 재생 순서에 기초하여, 놀이기구의 이벤트 진행 시간이 각 컨텐츠 이미지의 재생 길이를 경과할 때마다 사용자 단말이 다음 컨텐츠 이미지를 재생하도록 지시할 수 있다. 다만, 프로세서(1530)의 동작을 이로 한정하는 것은 아니고, 프로세서(1530)는 도 8 내지 도 13에서 설명한 동작들 중 적어도 일부를 수행할 수 있다.
메모리(1540)는 이미지 시각화 장치를 관리하는데 요구되는 데이터를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(1540)는 통신부(1520)를 통해 수집된 사용자 단말들의 상태 정보를 시간 순서에 따라 누적하여 저장할 수 있다. 메모리(1540)는 상태 정보에 대한 통계 정보, 및 사용자 단말들로 제공할 컨텐츠 이미지 등도 저장할 수 있다.
도 16은 일 실시예에 따른 컴퓨팅 장치의 구성을 도시한 도면이다.
도 16을 참조하면, 컴퓨팅 장치(1600)는 위에서 설명한 사용자 단말 또는 관리 서버일 수 있다. 일 실시예에서, 컴퓨팅 장치(1600)는 도 14에서 설명된 사용자 단말(1400)에 대응할 수 있다. 컴퓨팅 장치(1600)는, 예를 들어 영상 처리 장치, 스마트폰, 웨어러블 기기(wearable device), 태블릿 컴퓨터 등일 수 있다. 컴퓨팅 장치(1600)는 도 14의 데이터 인식 장치(1400)의 기능을 그대로 포함할 수 있다. 다른 일 실시예에 따르면, 컴퓨팅 장치(1600)는 도 15에서 설명된 관리 서버(1500)의 기능을 포함할 수도 있다.
도 16을 참조하면, 컴퓨팅 장치(1600)는 프로세서(1610), 저장 장치(1620), 카메라(1630), 입력 장치(1640), 출력 장치(1650) 및 네트워크 인터페이스(1660)를 포함할 수 있다. 프로세서(1610), 저장 장치(1620), 카메라(1630), 입력 장치(1640), 출력 장치(1650) 및 네트워크 인터페이스(1660)는 통신 버스(1670)를 통해 서로 통신할 수 있다.
프로세서(1610)는 컴퓨팅 장치(1600) 내에서 실행하기 위한 기능 및 인스트럭션들을 실행한다. 예를 들어, 프로세서(1610)는 저장 장치(1640)에 저장된 인스트럭션들을 처리할 수 있다. 프로세서(1610)는 도 1 내지 도 15를 통하여 전술한 하나 이상의 동작을 수행할 수 있다.
저장 장치(1620)는 프로세서의 실행에 필요한 정보 내지 데이터를 저장한다. 저장 장치(1620)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 저장 장치(1620)는 프로세서(1610)에 의해 실행하기 위한 인스트럭션들을 저장할 수 있고, 컴퓨팅 장치(1600)에 의해 소프트웨어 또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다.
카메라(1630)는 복수의 영상 프레임들로 구성되는 영상을 캡쳐할 수 있다. 예를 들어, 카메라(1630)는 컴퓨팅 장치(1600)의 외부에 대하여 외부 장면을 촬영할 수 있다.
입력 장치(1640)는 촉각, 비디오, 오디오 또는 터치 입력을 통해 사용자로부터 입력을 수신할 수 있다. 입력 장치(1640)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 컴퓨팅 장치(1600)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다.
출력 장치(1650)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 컴퓨팅 장치(1600)의 출력을 제공할 수 있다. 출력 장치(1650)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(1660)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
100: 놀이기구 시스템
110: 트랙
119: 플랫폼
120: 놀이기구
121: 기준 슬롯
122: 가상현실 슬롯
123: 일반 슬롯
129: 동력원
110: 트랙
119: 플랫폼
120: 놀이기구
121: 기준 슬롯
122: 가상현실 슬롯
123: 일반 슬롯
129: 동력원
Claims (20)
- 놀이기구(ride)를 가동하는 동안 이미지를 시각화하는 방법에 있어서,
사용자에 의해 착용된 사용자 단말에 대해 시야 방향(sight direction)을 결정하는 단계;
상기 사용자가 탑승한 상기 놀이기구의 이동 방향(moving direction)을 결정하는 단계; 및
컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향에 기초하여 결정된 시야각 이미지(FOV image, field of view image)를 상기 사용자에게 제공하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는,
상기 이동 방향을 기준으로 상기 컨텐츠 이미지를 정렬하는 단계;
상기 정렬된 컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향 간의 방향 차이에 대응하는 상기 시야각 이미지를 결정하는 단계; 및
상기 결정된 시야각 이미지를 시각화하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제2항에 있어서,
상기 컨텐츠 이미지를 정렬하는 단계는,
상기 이동 방향에 상기 컨텐츠 이미지의 기준 지점(reference point)을 매칭시키는 단계
를 포함하는 이미지를 시각화하는 방법. - 제2항에 있어서,
상기 시야각 이미지를 결정하는 단계는,
상기 시야 방향 및 상기 이동 방향 간의 상기 방향 차이에 기초하여, 상기 사용자의 최종 시선 방향을 산출하는 단계; 및
상기 정렬된 컨텐츠 이미지로부터 상기 산출된 최종 시선 방향에 대응하는 상기 시야각 이미지를 결정하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 시야 방향 및 상기 이동 방향 중 적어도 하나를 검출하는 방향 검출 센서에 의해, 상기 놀이기구의 출발 시점에서 검출되는 방향 데이터를 저장하는 단계; 및
상기 저장된 방향 데이터에 기초하여 상기 방향 검출 센서를 보정하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 이동 방향을 결정하는 단계는,
사용자 단말의 마스터 모드가 활성화된 경우에 응답하여, 방향 검출 센서를 통해 상기 이동 방향을 검출하는 단계; 및
상기 검출된 이동 방향을 마스터 모드가 비활성화된 다른 사용자 단말로 전송하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 시야 방향을 결정하는 단계는,
사용자 단말의 마스터 모드가 비활성화된 경우에 응답하여, 방향 검출 센서를 통해 시야 방향을 검출하는 단계
를 포함하고,
상기 이동 방향을 결정하는 단계는,
마스터 모드가 활성화된 다른 사용자 단말로부터 상기 이동 방향을 수신하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
복수의 사용자 단말들이 하나 이상의 그룹으로 분류되고,
상기 이동 방향을 결정하는 단계는,
복수의 사용자 단말들 중 대상 사용자 단말이, 마스터 모드가 활성화된 다른 사용자 단말들 중 상기 대상 사용자 단말의 그룹에 대해 지정된 다른 사용자 단말로부터, 상기 이동 방향을 수신하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는,
상기 시야 방향 및 상기 이동 방향 중 적어도 하나의 방향이 변경되는 경우에 응답하여, 미리 설정된 가중치에 기초하여 상기 방향의 변화량을 점진적으로 상기 사용자의 최종 시선 방향에 적용하는 단계; 및
상기 변화량이 적용된 상기 최종 시선 방향에 대응하는 상기 시야각 이미지를 상기 사용자에게 제공하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항에 있어서,
상기 시야각 이미지를 상기 사용자에게 제공하는 단계는,
상기 이동 방향의 변화량이 임계 각도 변화를 초과하는 경우에 응답하여, 최종 시선 방향을 업데이트하는 단계
를 포함하는 이미지를 시각화하는 방법. - 제1항 내지 제10항 중 어느 한 항의 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
- 놀이기구를 가동하는 동안 이미지를 시각화하는 사용자 단말에 있어서,
사용자에 의해 착용된 사용자 단말에 대한 시야 방향 및 상기 사용자가 탑승한 놀이기구의 이동 방향을 결정하는 프로세서; 및
컨텐츠 이미지로부터 상기 시야 방향 및 상기 이동 방향에 기초하여 결정된 시야각 이미지를 상기 사용자에게 제공하는 디스플레이
를 포함하는 사용자 단말. - 놀이기구와 연관된 이미지 시각화 장치를 관리하는 방법에 있어서,
사용자의 시야 방향 및 놀이기구의 이동 방향에 기초하여 컨텐츠 이미지를 제공하는 사용자 단말들과 관리 서버 간의 통신을 수립하는 단계; 및
관리자의 입력에 응답하여, 상기 관리 서버와의 통신이 수립된 사용자 단말들에게, 컨텐츠 재생 목록(contents play list)에 기초한 상기 컨텐츠 이미지의 재생(play)을 명령하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제13항에 있어서,
상기 재생을 상기 사용자 단말들에 명령하는 단계는,
상기 사용자 단말들로 시간 세팅 신호를 송신하는 단계;
상기 시간 세팅 신호를 수신한 사용자 단말들로부터 수신된 시간 정보에 기초하여, 상기 사용자 단말들의 동작 시각을 동기화하는 단계; 및
상기 사용자 단말들에게 동기화가 완료되고 미리 설정된 시간이 경과한 후에 상기 컨텐츠 이미지를 재생하도록 명령하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제13항에 있어서,
상기 컨텐츠 이미지의 재생을 명령하는 단계는,
상기 사용자 단말들의 각각으로부터 상기 시야 방향을 수신하는 단계;
상기 사용자 단말들 중 마스터 모드가 활성화된 사용자 단말로부터 상기 이동 방향을 수신하는 단계;
상기 시야 방향 및 상기 이동 방향에 기초하여, 상기 사용자 단말들 중 마스터 모드가 비활성화된 사용자 단말의 각각에 대해 사용자의 최종 시선 방향을 결정하는 단계; 및
상기 컨텐츠 이미지에서 상기 결정된 최종 시선 방향에 대응하는 시야각 이미지를 상기 마스터 모드가 비활성화된 사용자 단말에 제공하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제13항에 있어서,
상기 컨텐츠 이미지의 재생을 명령하는 단계는,
상기 컨텐츠 재생 목록에 포함된 복수의 컨텐츠 이미지들 중 상기 놀이기구의 이벤트 진행 시간에 기초하여 선택된 컨텐츠 이미지의 시각화를 명령하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제13항에 있어서,
상기 관리자의 입력에 응답하여, 상기 컨텐츠 재생 목록에 포함된 컨텐츠 이미지의 순서, 시각화 방식, 시간 길이, 음량 크기, 및 컨텐츠 이미지의 개수 중 적어도 하나를 변경하는 단계
를 더 포함하는 이미지 시각화 장치를 관리하는 방법. - 제13항에 있어서,
상기 사용자 단말들로부터 수집된 상기 사용자 단말들의 상태 정보를 관리자에게 제공하는 단계;
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제18항에 있어서,
상기 상태 정보를 관리자에게 제공하는 단계는,
상기 사용자 단말들의 재생 상태, 배터리 상태, 연결 상태, 및 온도 상태 중 적어도 하나를 시각화하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법. - 제18항에 있어서,
상기 상태 정보를 관리자에게 제공하는 단계는,
복수의 사용자 단말들 중 상기 관리자의 입력에 응답하여 선택된 사용자 단말에 대응하는 상태 정보를 확대하여 시각화하는 단계
를 포함하는 이미지 시각화 장치를 관리하는 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152636A KR102203371B1 (ko) | 2018-11-30 | 2018-11-30 | 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 |
US16/533,927 US10841568B2 (en) | 2018-11-30 | 2019-08-07 | Method and device to visualize image during operation of ride in amusement park and method and device to manage corresponding device |
JP2019199979A JP6929338B2 (ja) | 2018-11-30 | 2019-11-01 | 遊園地で乗り物を稼動する間にイメージを視角化する装置、方法、及びイメージ視角化装置を管理する装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152636A KR102203371B1 (ko) | 2018-11-30 | 2018-11-30 | 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200065802A true KR20200065802A (ko) | 2020-06-09 |
KR102203371B1 KR102203371B1 (ko) | 2021-01-15 |
Family
ID=70849513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180152636A KR102203371B1 (ko) | 2018-11-30 | 2018-11-30 | 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10841568B2 (ko) |
JP (1) | JP6929338B2 (ko) |
KR (1) | KR102203371B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11815679B2 (en) * | 2021-04-16 | 2023-11-14 | Industrial Technology Research Institute | Method, processing device, and display system for information display |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150079005A (ko) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | 제약없는 시공간 위치 기반 비디오 컨텐츠를 제공하는 방법 및 장치 |
JP2016153899A (ja) * | 2013-02-22 | 2016-08-25 | ソニー株式会社 | ヘッドマウントディスプレイ |
US20170345198A1 (en) * | 2016-05-31 | 2017-11-30 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
KR101807601B1 (ko) * | 2017-07-13 | 2017-12-11 | 주식회사 이모션허브 | 테마파크 탑승기기에 적용한 가상현실 콘텐츠 서비스 제공 시스템 |
KR20180017736A (ko) * | 2016-08-10 | 2018-02-21 | (주) 씽크브릿지 | Hmd 및 그 hmd의 제어 방법 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10309381A (ja) * | 1997-05-13 | 1998-11-24 | Yoshimasa Tanaka | 移動体用遊戯装置 |
JP4040609B2 (ja) * | 2004-07-14 | 2008-01-30 | 株式会社テクノブレイン | 移動体シミュレーション装置及び移動体シミュレーションプログラム |
US7177706B2 (en) | 2004-08-13 | 2007-02-13 | Disney Enterprises, Inc. | Automated attraction and ride maintenance verification system |
US9547173B2 (en) * | 2013-10-03 | 2017-01-17 | Honda Motor Co., Ltd. | System and method for dynamic in-vehicle virtual reality |
EP3041591B1 (de) * | 2014-08-11 | 2016-11-09 | Mack Rides GmbH & Co. KG | Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgerätes oder dergleichen |
US20170072316A1 (en) * | 2014-11-16 | 2017-03-16 | Astral Vision Ltd. | System and method for providing an alternate reality ride experience |
JPWO2016189572A1 (ja) * | 2015-05-27 | 2018-03-08 | 泉陽興業株式会社 | 遊戯施設 |
US20180359462A1 (en) * | 2015-08-06 | 2018-12-13 | Sony Interactive Entertainment Inc. | Information processing apparatus |
DE102016104337A1 (de) * | 2016-03-09 | 2017-09-14 | Vr Coaster Gmbh & Co. Kg | Positionsbestimmung und Ausrichtung eines Virtual Reality Headsets und Fahrgeschäft mit einem Virtual Reality Headset |
JP2017200536A (ja) * | 2016-05-06 | 2017-11-09 | 泉陽興業株式会社 | 遊戯用乗物装置 |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
JP6794390B2 (ja) * | 2018-02-22 | 2020-12-02 | 株式会社バンダイナムコエンターテインメント | シミュレーションシステム及びプログラム |
-
2018
- 2018-11-30 KR KR1020180152636A patent/KR102203371B1/ko active IP Right Grant
-
2019
- 2019-08-07 US US16/533,927 patent/US10841568B2/en active Active
- 2019-11-01 JP JP2019199979A patent/JP6929338B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016153899A (ja) * | 2013-02-22 | 2016-08-25 | ソニー株式会社 | ヘッドマウントディスプレイ |
KR20150079005A (ko) * | 2013-12-31 | 2015-07-08 | 주식회사 케이티 | 제약없는 시공간 위치 기반 비디오 컨텐츠를 제공하는 방법 및 장치 |
US20170345198A1 (en) * | 2016-05-31 | 2017-11-30 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
KR20180017736A (ko) * | 2016-08-10 | 2018-02-21 | (주) 씽크브릿지 | Hmd 및 그 hmd의 제어 방법 |
KR101807601B1 (ko) * | 2017-07-13 | 2017-12-11 | 주식회사 이모션허브 | 테마파크 탑승기기에 적용한 가상현실 콘텐츠 서비스 제공 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US10841568B2 (en) | 2020-11-17 |
JP6929338B2 (ja) | 2021-09-01 |
US20200177871A1 (en) | 2020-06-04 |
JP2020087448A (ja) | 2020-06-04 |
KR102203371B1 (ko) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109416842B (zh) | 在虚拟现实和增强现实中的几何匹配 | |
US20020075286A1 (en) | Image generating system and method and storage medium | |
US10447899B2 (en) | System and method for 3D projection mapping with robotically controlled objects | |
CN112400150A (zh) | 基于预测扫视着陆点的动态图形渲染 | |
KR20190088545A (ko) | 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들 | |
KR101748401B1 (ko) | 가상현실 어트랙션 제어 방법 및 시스템 | |
US20170103576A1 (en) | Production and packaging of entertainment data for virtual reality | |
US20190130644A1 (en) | Provision of Virtual Reality Content | |
US10754297B2 (en) | Determine and project holographic object path and object movement with multi-device collaboration | |
US20180182261A1 (en) | Real Time Car Driving Simulator | |
WO2021230073A1 (ja) | 情報処理装置、情報処理方法、及び表示装置 | |
US11928251B2 (en) | Motion sickness reduction method and apparatus for VR motion platform | |
KR101808452B1 (ko) | 하이브리드 vr 노래방 시스템 | |
CN106154231A (zh) | 虚拟现实中声场定位的方法 | |
WO2018216402A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240303947A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
JP2023027113A (ja) | プログラム、電子機器および制御方法 | |
KR102203371B1 (ko) | 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법 | |
WO2015033446A1 (ja) | ランニング支援システムおよびこれに用いるヘッドマウントディスプレイ装置 | |
KR101881227B1 (ko) | 무인 비행체를 이용한 비행 체험 방법 및 장치 | |
KR20200052693A (ko) | Vr 재생 장치 및 이를 모니터링하기 위한 통합 관리 시스템 | |
CN114245755A (zh) | 信息处理装置、信息处理方法和记录介质 | |
EP3400992A1 (en) | Providing a location-based mixed-reality experience | |
US10940387B2 (en) | Synchronized augmented reality gameplay across multiple gaming environments | |
US20220414991A1 (en) | Video generation apparatus, method for generating video, and program of generating video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |