KR20210133344A - Apparatus for controlling mixed reality attraction and method thereof - Google Patents

Apparatus for controlling mixed reality attraction and method thereof Download PDF

Info

Publication number
KR20210133344A
KR20210133344A KR1020200051413A KR20200051413A KR20210133344A KR 20210133344 A KR20210133344 A KR 20210133344A KR 1020200051413 A KR1020200051413 A KR 1020200051413A KR 20200051413 A KR20200051413 A KR 20200051413A KR 20210133344 A KR20210133344 A KR 20210133344A
Authority
KR
South Korea
Prior art keywords
motion
mixed reality
moving object
image
information
Prior art date
Application number
KR1020200051413A
Other languages
Korean (ko)
Inventor
이정중
김보영
박수환
박진원
정선애
Original Assignee
주식회사호텔롯데
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사호텔롯데 filed Critical 주식회사호텔롯데
Priority to KR1020200051413A priority Critical patent/KR20210133344A/en
Publication of KR20210133344A publication Critical patent/KR20210133344A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention relates to an apparatus for controlling a mixed reality experience device, which provides a user located in a space separated from a predefined target space with a mixed reality image, which is generated on the basis of surrounding image information of a moving object acquired by an image sensor provided in the moving object when the moving object moves in the target space, on the basis of a communication structure among a central control unit, a mediator unit, and an agent unit. According to the present invention, the central control unit generates a mixed reality image by matching the surrounding image information of a moving object with stored mixed reality content and transfers the generated mixed reality image to the mediator unit along with the motion information of the moving object. The mediator unit controls motion of one or more motion simulators provided to enable a user to ride thereon on the basis of the motion information of the moving object received from the central control unit and displays the mixed reality image received from the central control unit in synchronization with the motion of each motion simulator through a display device possessed by the user riding in each motion simulator. The agent unit updates the mixed reality image displayed through the display device on the basis of an interaction with the user riding in each motion simulator.

Description

혼합 현실 체험 기구의 제어 장치 및 방법{APPARATUS FOR CONTROLLING MIXED REALITY ATTRACTION AND METHOD THEREOF}Apparatus and method for controlling a mixed reality experience apparatus

본 발명은 모션 시뮬레이터에 탑승한 사용자에게 혼합 현실 영상을 제공하는 혼합 현실 체험 기구를 제어하기 위한, 혼합 현실 체험 기구의 제어 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling a mixed reality experience apparatus for controlling a mixed reality experience apparatus that provides a mixed reality image to a user riding a motion simulator.

가상 현실(VR: Virtual Reality)은 컴퓨터를 기반으로 가상의 특정 환경 또는 상황을 입체감 있는 컨텐츠로 제작하여, 사용자로 하여금 가상의 주변 환경과 실제 상호 작용을 체험할 수 있도록 하는 기술을 말하며, 증강 현실(AR: Augmented Reality)은 실제의 주변 환경에 컴퓨터 그래픽 등의 영상 또는 오브젝트를 삽입하여 실제 영상과 가상의 영상을 혼합한 것을 말한다.Virtual reality (VR) refers to a technology that enables a user to experience real interaction with a virtual surrounding environment by producing a specific virtual environment or situation as three-dimensional content based on a computer. (AR: Augmented Reality) refers to a mixture of a real image and a virtual image by inserting an image or object such as computer graphics into the real surrounding environment.

최근에는 가상 현실과 증강 현실이 결합되어, 실제 주변 환경과 상호 작용을 할 수 있다는 증강 현실의 장점과 가상의 물체에 실제와 같은 몰입감을 전할 수 있다는 가상 현실의 장점을 동시에 제공하는 혼합 현실(MR: Mixed Reality)이 주목받고 있으며, 이러한 혼합 현실은 게임, 영화, 공연, 전시, 교육 및 관광 등 광범위한 분야에서 비약적인 발전을 이루고 있다.Recently, by combining virtual reality and augmented reality, mixed reality (MR) provides the advantages of augmented reality in that it can interact with the real surrounding environment and the advantage of virtual reality in that it can convey a realistic immersion feeling to virtual objects. : Mixed Reality) is attracting attention, and this mixed reality is making a leap forward in a wide range of fields such as games, movies, performances, exhibitions, education and tourism.

한편, 어트랙션은 테마파크 등에 설치된 놀이기구로서 사용자가 탑승한 상태로 회전운동, 기울기운동, 등속운동, 가속이동, 수평이동 및 상하이동 등을 다양하게 조합한 움직임을 제공함으로써 사용자에게 즐거움을 제공하는 기구를 지칭하며, 근래에는 전술한 혼합 현실을 어트랙션에 적용하여, 사용자가 탑승한 기구를 기계적인 방식으로 구동하는 것과 동시에 소정 시나리오에 따른 영상을 사용자에게 제공함으로써, 몰입감 있는 혼합 현실을 체험할 수 있게 하는 혼합 현실 체험 기구(또는 혼합현실 어트랙션)가 발전하고 있다.On the other hand, an attraction is a play equipment installed in a theme park, etc., and provides a pleasure to the user by providing various combinations of rotational movement, tilting movement, constant velocity movement, acceleration movement, horizontal movement, and vertical movement while the user is on board. In recent years, by applying the above-mentioned mixed reality to an attraction, the user can experience an immersive mixed reality by driving the device the user rides in a mechanical way and simultaneously providing the user with an image according to a predetermined scenario. A mixed reality experience mechanism (or mixed reality attraction) is developing.

대한민국 공개특허공보 제10-2018-0060451호(발명의 명칭: 미니어처를 이용한 가상 공간 체험 장치, 2018.06.07. 공개, 이하 선행기술문헌)는 미니어처 랜드에서 운행하는 차량을 통해 촬영된 영상이 HMD를 통해 디스플레이되는 가상 공간 체험 장치를 개시하고 있다. 그러나, 위 선행기술문헌에는 가상 공간 체험 장치에 적용되는 통신 구조와, 영상이 디스플레이되는 방법 등 가상 공간 체험 장치가 제어되는 구체적인 동작 및 제어 토폴로지가 부재하다.Republic of Korea Patent Publication No. 10-2018-0060451 (title of the invention: virtual space experience device using a miniature, published on June 7, 2018, hereinafter referred to as the prior art document) discloses that an image taken through a vehicle running in miniature land uses an HMD. Disclosed is a virtual space experience device displayed through However, in the above prior art document, there is no specific operation and control topology for controlling the virtual space experience apparatus, such as a communication structure applied to the virtual space experience apparatus and a method of displaying an image.

본 발명에 따른 혼합 현실 체험 기구의 제어 장치 및 방법은, 사용자가 탑승한 기구를 기계적인 방식으로 구동하는 것과 동시에 소정 시나리오에 따른 혼합 현실 영상을 사용자에게 제공하는 혼합 현실 체험 기구에 적용될 수 있는 통신 구조와, 그 통신 구조를 기반으로 혼합 현실 체험 기구가 제어되는 제어 토폴로지를 제공하는 것을 목적으로 한다.The apparatus and method for controlling a mixed reality experience apparatus according to the present invention are communication that can be applied to a mixed reality experience apparatus that provides a mixed reality image according to a predetermined scenario to a user at the same time as driving the apparatus boarded by the user in a mechanical manner An object of the present invention is to provide a control topology in which a mixed reality experience mechanism is controlled based on the structure and the communication structure.

본 발명의 일 측면에 따른 혼합 현실 체험 기구의 제어 장치는, 중앙 제어부, 미디에이터부 및 에이전트부 간의 통신 구조를 기반으로, 미리 정의된 대상 공간에서 이동체가 이동하는 과정에서 상기 이동체에 구비된 영상 인식 센서에 의해 획득된 상기 이동체의 주변 영상 정보를 기반으로 생성되는 혼합 현실 영상을 상기 대상 공간과 이격된 공간에 위치하는 사용자에게 제공하는 혼합 현실 체험 기구를 제어하는 장치로서, 상기 중앙 제어부는, 상기 이동체의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 상기 혼합 현실 영상을 생성하고, 상기 생성된 혼합 현실 영상을 상기 이동체의 모션 정보와 함께 상기 미디에이터부로 전달하고, 상기 미디에이터부는, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터의 모션을 제어하며, 상기 중앙 제어부로부터 전달받은 혼합 현실 영상을 상기 각 모션 시뮬레이터의 모션과 동기화시켜 상기 각 모션 시뮬레이터에 탑승한 사용자가 소지한 디스플레이 장치를 통해 디스플레이하고, 상기 에이전트부는, 상기 각 모션 시뮬레이터에 탑승한 사용자와의 상호 작용을 기반으로 상기 디스플레이 장치를 통해 디스플레이되는 혼합 현실 영상을 갱신하는 것을 특징으로 한다.A control apparatus for a mixed reality experience apparatus according to an aspect of the present invention recognizes an image provided in a moving object in a process of moving the moving object in a predefined target space based on a communication structure between a central control unit, a mediator unit, and an agent unit A device for controlling a mixed reality experience apparatus that provides a mixed reality image generated based on image information around the moving object acquired by a sensor to a user located in a space separated from the target space, wherein the central control unit comprises: The mixed reality image is generated by matching the surrounding image information of the moving object with the pre-stored mixed reality content, and the generated mixed reality image is transmitted to the mediator unit together with the motion information of the moving object, and the mediator unit is provided from the central control unit. Controls the motion of one or more motion simulators provided for the user's boarding based on the received motion information of the moving object, and synchronizes the mixed reality image received from the central control unit with the motion of each motion simulator. It is displayed through a display device possessed by a user who rides the , and the agent unit updates the mixed reality image displayed through the display device based on an interaction with the user riding each of the motion simulators. .

본 발명에 있어 상기 중앙 제어부는, 상기 이동체, 상기 모션 시뮬레이터, 상기 디스플레이 장치, 상기 미디에이터부 및 상기 에이전트부의 각 동작에 대한 통합 모니터링 및 통합 제어의 마스터 기능을 수행하며, 상기 마스터 기능을 지원하기 위한 통합 데이터베이스로서 통합 모션 데이터베이스, 통합 영상 데이터베이스 및 통합 콘텐츠 데이터베이스를 포함하는 것을 특징으로 한다.In the present invention, the central control unit performs a master function of integrated monitoring and integrated control for each operation of the moving object, the motion simulator, the display device, the mediator unit, and the agent unit, and supports the master function. It is characterized in that it includes an integrated motion database, an integrated image database, and an integrated content database as an integrated database.

본 발명에 있어 상기 통합 콘텐츠 데이터베이스는 상기 혼합 현실 콘텐츠를 저장하고 있으며, 상기 중앙 제어부는, 현재 획득된 상기 이동체의 주변 영상 정보에 매칭되는 혼합 현실 콘텐츠를 상기 통합 콘텐츠 데이터베이스로부터 추출하고, 상기 추출된 혼합 현실 콘텐츠를 상기 현재 획득된 상기 이동체의 주변 영상 정보에 정합하여 상기 혼합 현실 영상을 생성하는 것을 특징으로 한다.In the present invention, the integrated contents database stores the mixed reality contents, and the central control unit extracts the mixed reality contents matching the currently acquired surrounding image information of the moving object from the integrated contents database, and the extracted contents are extracted from the integrated contents database. and generating the mixed reality image by matching the mixed reality content with the currently acquired surrounding image information of the moving object.

본 발명에 있어 상기 이동체에 구비된 영상 인식 센서는 하나 이상의 카메라를 포함하고, 상기 중앙 제어부는, 상기 영상 인식 센서에 의해 획득된 이동체의 주변 영상 정보를 단안 영상 정보 또는 양안 영상 정보로서 상기 통합 영상 데이터베이스에 저장하는 것을 특징으로 한다.In the present invention, the image recognition sensor provided in the moving object includes one or more cameras, and the central control unit uses the image information surrounding the moving object acquired by the image recognition sensor as monocular image information or binocular image information as the integrated image. It is characterized in that it is stored in the database.

본 발명에 있어 상기 중앙 제어부는, 상기 이동체의 주변 영상 정보 및 모션 정보 중 하나 이상에 근거하여 상기 이동체의 이상 동작이 감지된 경우, 상기 이동체 및 상기 모션 시뮬레이터의 각 동작을 중지시키고 상기 이동체의 주변 영상 정보 및 모션 정보 중 하나 이상을 상기 통합 모션 데이터베이스에 저장하는 것을 특징으로 한다.In the present invention, when an abnormal motion of the moving object is detected based on at least one of image information and motion information of the surrounding of the moving object, the central control unit stops each operation of the moving object and the motion simulator, and It is characterized in that at least one of image information and motion information is stored in the integrated motion database.

본 발명에 있어 상기 미디에이터부는, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 각 모션 시뮬레이터의 모션을 동기화하여 제어하는 것을 특징으로 한다.In the present invention, the mediator unit synchronizes and controls the motions of the respective motion simulators based on the motion information of the moving object received from the central control unit.

본 발명에 있어 상기 이동체의 모션 정보는 상기 이동체의 병진 운동 및 회전 운동이 반영된 다축 모션 정보이고, 상기 하나 이상의 모션 시뮬레이터는 각각 상이한 축 구성을 갖는 적어도 두 개의 이기종 모션 시뮬레이터를 포함하며, 상기 미디에이터부는, 상기 다축 모션 정보 중 상기 이기종 모션 시뮬레이터의 축 구성에 대응되는 모션 정보를 선택하고, 상기 선택된 모션 정보를 이용하여 상기 이기종 모션 시뮬레이터의 모션을 제어하는 것을 특징으로 한다.In the present invention, the motion information of the moving object is multi-axis motion information in which the translational and rotational motions of the moving object are reflected, and the one or more motion simulators include at least two heterogeneous motion simulators each having a different axis configuration, and the mediator unit , selects motion information corresponding to an axis configuration of the heterogeneous motion simulator from among the multi-axis motion information, and controls the motion of the heterogeneous motion simulator using the selected motion information.

본 발명에 있어 상기 미디에이터부는, 상기 선택된 모션 정보를 이용하여 상기 이기종 모션 시뮬레이터의 모션을 제어할 때, 상기 이기종 모션 시뮬레이터의 모션 제어 시점을 동기화시켜 제어하는 것을 특징으로 한다.In the present invention, when controlling the motion of the heterogeneous motion simulator using the selected motion information, the mediator unit synchronizes and controls the motion control timing of the heterogeneous motion simulator.

본 발명에 있어 상기 모션 시뮬레이터에 탑승한 사용자의 액션을 센싱하는 액션 센서를 더 포함하고, 상기 에이전트부는, 상기 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 저장하고 있는 로컬 콘텐츠 데이터베이스를 포함하는 것을 특징으로 한다.In the present invention, further comprising an action sensor sensing an action of a user riding on the motion simulator, wherein the agent unit is a local content database storing mixed reality content corresponding to the user's action sensed by the action sensor It is characterized in that it includes.

본 발명에 있어 상기 에이전트부는, 상기 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 상기 로컬 콘텐츠 데이터베이스로부터 추출하고, 상기 디스플레이 장치를 통해 현재 디스플레이되는 혼합 현실 영상에 상기 로컬 콘텐츠 데이터베이스로부터 추출된 혼합 현실 콘텐츠를 반영하는 것을 특징으로 한다.In the present invention, the agent unit extracts the mixed reality content corresponding to the user's action sensed by the action sensor from the local content database, and displays the mixed reality image currently displayed through the display device from the local content database. It is characterized by reflecting the extracted mixed reality content.

본 발명의 일 측면에 따른 혼합 현실 체험 기구의 제어 방법은 중앙 제어부, 미디에이터부 및 에이전트부 간의 통신 구조를 기반으로, 미리 정의된 대상 공간에서 이동체가 이동하는 과정에서 상기 이동체에 구비된 영상 인식 센서에 의해 획득된 상기 이동체의 주변 영상 정보를 기반으로 생성되는 혼합 현실 영상을 상기 대상 공간과 이격된 공간에 위치하는 사용자에게 제공하는 혼합 현실 체험 기구를 제어하는 방법으로서, 중앙 제어부가, 상기 이동체의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 상기 혼합 현실 영상을 생성하고, 상기 생성된 혼합 현실 영상을 상기 이동체의 모션 정보와 함께 상기 미디에이터부로 전달하는 단계; 상기 미디에이터부가, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터의 모션을 제어하며, 상기 중앙 제어부로부터 전달받은 혼합 현실 영상을 상기 각 모션 시뮬레이터의 모션과 동기화시켜 상기 각 모션 시뮬레이터에 탑승한 사용자가 소지한 디스플레이 장치를 통해 디스플레이하는 단계; 및 상기 에이전트부가, 상기 각 모션 시뮬레이터에 탑승한 사용자와의 상호 작용을 기반으로 상기 디스플레이 장치를 통해 디스플레이되는 혼합 현실 영상을 갱신하는 단계;를 포함하는 것을 특징으로 한다.A method for controlling a mixed reality experience apparatus according to an aspect of the present invention is based on a communication structure between a central control unit, a mediator unit, and an agent unit, and an image recognition sensor provided in the moving object in the process of moving the moving object in a predefined target space. A method of controlling a mixed reality experience mechanism that provides a mixed reality image generated based on the surrounding image information of the moving object obtained by generating the mixed reality image by matching surrounding image information with pre-stored mixed reality content, and transmitting the generated mixed reality image together with motion information of the moving object to the mediator unit; The mediator unit controls the motion of one or more motion simulators provided for the user's boarding based on the motion information of the moving object received from the central control unit, and transmits the mixed reality image received from the central control unit to each of the motion simulators. displaying through a display device possessed by a user riding in each of the motion simulators in synchronization with the motion; and updating, by the agent unit, the mixed reality image displayed through the display device based on the interaction with the user riding on each of the motion simulators.

본 발명의 일 측면에 따르면, 본 발명은 중앙 제어부, 미디에이터부 및 에이전트부로 구성되는 3중 통신 구조를 마련하고, 중앙 제어부에 혼합 현실 체험 기구의 통합 모니터링 및 제어를 위해 통합 데이터베이스를 마련하며, 미디에이터부 및 에이전트부에 혼합 현실 체험 기구의 실시간 모니터링 및 영상 처리를 위해 로컬 데이터베이스를 마련함으로써, 혼합 현실 체험 기구의 동작을 위해 실시간으로 생성되는 대용량의 정보에 대한 처리 및 관리 효율성을 향상시킬 수 있으며, 이와 같은 3중 통신 구조를 기반으로 혼합 현실 체험 기구의 제어를 중앙 제어부, 미디에이터부 및 에이전트부로 분담함으로써 그 제어 효율성을 향상시킬 수 있다.According to one aspect of the present invention, the present invention provides a triple communication structure consisting of a central control unit, a mediator unit, and an agent unit, and provides an integrated database for integrated monitoring and control of a mixed reality experience apparatus in the central control unit, and the mediator By providing a local database for real-time monitoring and image processing of the mixed reality experience apparatus in the department and the agent department, it is possible to improve the processing and management efficiency of a large amount of information generated in real time for the operation of the mixed reality experience apparatus, Based on such a triple communication structure, the control efficiency can be improved by dividing the control of the mixed reality experience device into the central control unit, the mediator unit, and the agent unit.

도 1은 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치가 적용되는 혼합 현실 체험 기구를 개괄적으로 설명하기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치를 설명하기 위한 블록구성도이다.
도 3은 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치를 포함하는 중앙 제어부, 미디에이터부 및 에이전트부 간의 유기적인 동작을 설명하기 위한 블록구성도이다.
도 4는 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 방법을 설명하기 위한 흐름도이다.
1 is an exemplary diagram schematically illustrating a mixed reality experience apparatus to which a control apparatus for a mixed reality experience apparatus according to an embodiment of the present invention is applied.
2 is a block diagram illustrating a control apparatus for a mixed reality experience apparatus according to an embodiment of the present invention.
3 is a block diagram illustrating an organic operation between a central control unit, a mediator unit, and an agent unit including a control device for a mixed reality experience apparatus according to an embodiment of the present invention.
4 is a flowchart illustrating a method of controlling a mixed reality experience apparatus according to an embodiment of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 혼합 현실 체험 기구의 제어 장치 및 방법의 실시예를 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, embodiments of an apparatus and method for controlling a mixed reality experience apparatus according to the present invention will be described with reference to the accompanying drawings. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치가 적용되는 혼합 현실 체험 기구를 개괄적으로 설명하기 위한 예시도이고, 도 2는 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치를 설명하기 위한 블록구성도이며, 도 3은 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 장치를 포함하는 중앙 제어부, 미디에이터부 및 에이전트부 간의 유기적인 동작을 설명하기 위한 블록구성도이고, 도 4는 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 방법을 설명하기 위한 흐름도이다.1 is an exemplary diagram for generally explaining a mixed reality experience apparatus to which a control device of a mixed reality experience apparatus according to an embodiment of the present invention is applied, and FIG. 2 is a mixed reality experience apparatus according to an embodiment of the present invention. is a block diagram for explaining the control device of the , and FIG. 3 is a block for explaining the organic operation between the central control unit, the mediator unit, and the agent unit including the control device of the mixed reality experience apparatus according to an embodiment of the present invention It is a configuration diagram, and FIG. 4 is a flowchart for explaining a method of controlling a mixed reality experience apparatus according to an embodiment of the present invention.

먼저, 도 1을 참조하여 본 실시예가 적용되는 혼합 현실 체험 기구를 개괄적으로 설명한다.First, a mixed reality experience mechanism to which this embodiment is applied will be generally described with reference to FIG. 1 .

본 실시예의 혼합 현실 체험 기구는 미리 정의된 대상 공간에서 이동체(VEH)가 이동하는 과정에서 이동체(VEH)에 구비된 영상 인식 센서에 의해 획득된 이동체(VEH)의 주변 영상 정보를 기반으로 생성되는 혼합 현실 영상을 대상 공간과 이격된 공간에 위치하는 사용자에게 제공하는, 테마파크 등에 설치된 혼합 현실 어트랙션에 해당할 수 있다.The mixed reality experience apparatus of this embodiment is generated based on the surrounding image information of the moving object VEH acquired by the image recognition sensor provided in the moving object VEH while the moving object VEH moves in a predefined target space. It may correspond to a mixed reality attraction installed in a theme park, etc. that provides a mixed reality image to a user located in a space separated from the target space.

구체적으로, 도 1(b)에 도시된 것과 같이 상기한 이동체(VEH)는 미니어처 형태의 이동식 축소 모형 차량일 수 있으며, 자동차, 철도차량, 선박 또는 곤돌라 등 다양한 형태의 축소 모형 차량으로 구현될 수 있다(도 1(b)는 이동체(VEH)가 철도차량으로 구현된 예시를 도시하고 있다). 이동체(VEH)에는 주변 영상 정보를 획득하기 위한 영상 인식 센서가 구비되어 있을 수 있으며, 영상 인식 센서는 단안 카메라 및 양안 카메라 중 하나 이상을 포함함으로써 이동체(VEH)가 이동하는 과정에서 그 주변 영상 정보(예: 전방 영상, 후방 영상, 측방 영상 또는 서라운드 뷰 영상)를 획득할 수 있다. 영상 인식 센서에 의해 획득된 이동체(VEH)의 주변 영상 정보는 후술하는 것과 같이 혼합 현실 영상을 생성하는 과정과 이동체(VEH)의 이상 동작을 감지하는 과정에서 활용될 수 있으며, 또한 단안 영상 정보 또는 양안 영상 정보로서 중앙 제어부(100)에 구비되는 통합 영상 데이터베이스(140)에 저장될 수 있다.Specifically, as shown in Fig. 1 (b), the above-mentioned movable body (VEH) may be a miniature type of mobile miniature model vehicle, and may be implemented as a miniature model vehicle of various types such as automobiles, railroad vehicles, ships, or gondolas. Yes (FIG. 1(b) shows an example in which the moving body VEH is implemented as a railroad vehicle). The moving object VEH may be provided with an image recognition sensor for acquiring surrounding image information, and the image recognition sensor includes at least one of a monocular camera and a binocular camera, so that the moving object VEH moves around the image information. (eg, a front image, a rear image, a side image, or a surround view image) can be acquired. The surrounding image information of the moving object VEH acquired by the image recognition sensor may be utilized in the process of generating a mixed reality image and detecting abnormal motion of the moving object VEH as described later, and also monocular image information or As binocular image information, it may be stored in the integrated image database 140 provided in the central controller 100 .

또한, 이동체(VEH)에는 이동체(VEH)의 모션 정보를 획득하기 위한 모션 센서가 구비되어 있을 수 있으며, 모션 센서에 의해 획득되는 이동체(VEH)의 모션 정보는 이동체(VEH)의 병진 운동 및 회전 운동이 반영된 다축 모션 정보, 이를테면 6 DOF(Degrees Of Freedom, 자유도) 모션 정보일 수 있다. 모션 센서로는 6 DOF 모션 정보를 센싱하기 위해 가속도/자이로 센서, 깊이센서, 자기장센서 및 카메라센서 등 다양한 센서가 채용될 수 있으며, 모션 센서에 의해 획득된 이동체(VEH)의 모션 정보는 후술하는 것과 같이 모션 시뮬레이터(MS)의 모션 제어 과정과 이동체(VEH)의 이상 동작을 감지하는 과정에서 활용될 수 있다.In addition, the moving object VEH may be provided with a motion sensor for obtaining motion information of the moving object VEH, and the motion information of the moving object VEH obtained by the motion sensor may include translational motion and rotation of the moving object VEH. It may be multi-axis motion information in which motion is reflected, for example, 6 degrees of freedom (DOF) motion information. As a motion sensor, various sensors such as an acceleration/gyro sensor, a depth sensor, a magnetic field sensor, and a camera sensor can be employed to sense 6 DOF motion information. As such, it can be utilized in the process of controlling the motion of the motion simulator MS and detecting the abnormal motion of the moving object VEH.

이동체(VEH)에 구비된 영상 인식 센서 및 모션 센서를 통해 각각 획득되는 주변 영상 정보 및 모션 정보에는 각 정보가 획득된 시간이 반영된 타임 스탬프(Time Stamp)가 부가되어 있을 수 있으며, 각 정보에 부가된 타임 스탬프는 혼합 현실 영상과 모션 시뮬레이터(MS)의 모션 간 동기화를 위해 활용될 수 있다.A time stamp reflecting the time each information was acquired may be added to the surrounding image information and motion information respectively acquired through the image recognition sensor and motion sensor provided in the moving body (VEH), and added to each information This time stamp may be utilized for synchronization between the mixed reality image and the motion of the motion simulator (MS).

도 1(a)에 도시된 것과 같이 이동체(VEH)가 이동하는 대상 공간은 미니어처 형태의 축소 모형 마을일 수 있으며, 이러한 대상 공간에는 이동체(VEH)가 이동하는 궤도가 되는 미니어처 레일과, 미니어처 레일 주변에 위치하는 미니어처 조형물이 마련될 수 있다. 이동체(VEH)가 철도차량으로 구현된 도 1의 예시에서 이동체(VEH)는 미니어처 레일을 통해 그 동작 전원을 공급받는 방식으로 동력을 확보할 수 있으나 이에 한정되지 않으며, 예를 들어 이동체(VEH)가 곤돌라로 구현되는 예시에서는 별도의 동력으로 움직이는 케이블에 매달려 케이블의 이동에 따라 수동적으로 이동되는 실시예로 구현될 수도 있다.As shown in FIG. 1( a ), the target space to which the mobile body VEH moves may be a miniature model village in the form of a miniature model. Miniature sculptures located nearby may be provided. In the example of FIG. 1 in which the moving body VEH is implemented as a railroad vehicle, the moving body VEH may secure power by receiving its operating power through a miniature rail, but is not limited thereto. For example, the moving body VEH. In an example in which is implemented as a gondola, it may be implemented as an embodiment in which it is hung on a cable that moves by a separate power and is passively moved according to the movement of the cable.

대상 공간에서 이동체(VEH)가 이동하는 과정에서, 이동체(VEH)에 구비된 영상 인식 센서에 의해 이동체(VEH)의 주변 영상 정보가 획득되고, 획득된 주변 영상 정보를 토대로 후술하는 중앙 제어부(100) 및 에이전트부(300)에 의해 혼합 현실 영상이 생성되며, 생성된 혼합 현실 영상은 대상 공간과 이격된 공간에 위치한 모션 시뮬레이터(MS)에 탑승한 사용자에게 디스플레이 장치(DISPLAY)를 통해 제공될 수 있다. 모션 시뮬레이터(MS)는 디스플레이 장치(DISPLAY, 예: HMD(Head Mounted Display))를 구비하여, 사용자가 착용한 디스플레이 장치(DISPLAY)를 통해 제공되는 혼합 현실 영상에 대응되도록 병진 운동 및 회전 운동을 제공함으로써, 사용자가 이동체(VEH)에 실제 탑승한 것과 같은 체험감을 제공하는 기계 장치를 의미한다. 모션 시뮬레이터(MS)는 전술한 대상 공간과 이격된 위치에서 복수의 사용자가 탑승할 수 있도록 사용자별로 복수 개 마련될 수 있으며, 후술하는 것과 같이 복수 개의 모션 시뮬레이터(MS)는 각각 상이한 축 구성을 갖는 이기종 모션 시뮬레이터에 해당할 수 있다.In the process of moving the moving object VEH in the target space, image information around the moving object VEH is obtained by an image recognition sensor provided in the moving object VEH, and the central control unit 100 to be described later based on the obtained surrounding image information. ) and the agent unit 300, a mixed reality image is generated, and the generated mixed reality image can be provided to a user riding in a motion simulator (MS) located in a space separated from the target space through a display device (DISPLAY). have. The motion simulator (MS) is provided with a display device (DISPLAY, for example, a Head Mounted Display (HMD)), and provides translational and rotational motions to correspond to the mixed reality image provided through the display device (DISPLAY) worn by the user. By doing so, it refers to a mechanical device that provides a feeling of experience as if the user actually boarded the moving body VEH. A plurality of motion simulators (MS) may be provided for each user so that a plurality of users can ride in a position spaced apart from the above-described target space, and as will be described later, a plurality of motion simulators (MS) each have a different axis configuration. It may correspond to a heterogeneous motion simulator.

상기와 같은 혼합 현실 체험 기구는 도 2에 도시된 중앙 제어부(100), 미디에이터부(200) 및 에이전트부(300) 간의 통신 구조를 기반으로 본 실시예의 제어 장치에 의해 제어되며, 전술한 내용을 바탕으로 이하에서는 본 실시예에 따른 혼합 현실 체험 기구의 제어 장치의 동작에 대하여 도 3을 참조하여 구체적으로 설명한다.The mixed reality experience mechanism as described above is controlled by the control device of this embodiment based on the communication structure between the central control unit 100, the mediator unit 200, and the agent unit 300 shown in FIG. Based on this, the operation of the control device of the mixed reality experience apparatus according to the present embodiment will be described in detail with reference to FIG. 3 .

중앙 제어부(100)는 이동체(VEH)의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 혼합 현실 영상을 생성하고, 생성된 혼합 현실 영상을 이동체(VEH)의 모션 정보와 함께 미디에이터부(200)로 전달할 수 있다. 중앙 제어부(100)는 이동체(VEH), 모션 시뮬레이터(MS), 디스플레이 장치(DISPLAY), 미디에이터부(200) 및 에이전트부(300)의 각 동작에 대한 통합 모니터링(예: 이상 동작 모니터링) 및 통합 제어(예: 전원 온오프 제어)의 마스터 기능을 수행하는 관제 서버로 구현될 수 있다. 도 3에 도시된 것과 같이 중앙 제어부(100)는 상기의 마스터 기능을 지원하기 위한 통합 데이터베이스로서 통합 모션 데이터베이스(130), 통합 영상 데이터베이스(140) 및 통합 콘텐츠 데이터베이스(150)를 포함할 수 있으며, 또한 혼합 현실 영상을 생성하기 위한 제1 영상 처리 모듈(120)과, 이동체(VEH)로부터 전달되는 주변 영상 정보 및 모션 정보에 대하여 각 통합 데이터베이스(130, 140, 150), 제1 영상 처리 모듈(120) 및 미디에이터부(200)와 매개하는 기능을 수행하는 제1 컨트롤러(110)를 포함할 수 있다. 도 3에는 제1 영상 처리 모듈(120)과 제1 컨트롤러(110)를 분리된 구성으로 도시하였으나, 실시예에 따라서는 중앙 제어부(100) 내에서 통합된 구성으로 구현될 수도 있다. 이하에서는 도 3의 예시에 따라 제1 영상 처리 모듈(120)과 제1 컨트롤러(110)가 분리되어 구현되는 실시예를 기준으로 설명한다.The central control unit 100 generates a mixed reality image by matching the surrounding image information of the moving object VEH with pre-stored mixed reality content, and the mediator unit 200 uses the generated mixed reality image together with the motion information of the moving object VEH. can be passed to The central control unit 100 performs integrated monitoring (eg, abnormal operation monitoring) and integration for each operation of the moving object (VEH), the motion simulator (MS), the display device (DISPLAY), the mediator unit 200 and the agent unit 300 . It can be implemented as a control server that performs a master function of control (eg, power on/off control). As shown in FIG. 3 , the central control unit 100 may include an integrated motion database 130 , an integrated image database 140 and an integrated content database 150 as an integrated database for supporting the master function, In addition, the first image processing module 120 for generating a mixed reality image, the integrated databases 130 , 140 , 150 , and the first image processing module ( 120 ) and a first controller 110 performing a function to mediate with the mediator unit 200 . Although the first image processing module 120 and the first controller 110 are illustrated in separate configurations in FIG. 3 , they may be implemented as an integrated configuration within the central control unit 100 according to an exemplary embodiment. Hereinafter, an embodiment in which the first image processing module 120 and the first controller 110 are separately implemented according to the example of FIG. 3 will be described.

중앙 제어부(100)가 혼합 현실 영상을 생성하는 동작을 그 하위 구성으로 구체적으로 설명하면, 제1 컨트롤러(110)는 이동체(VEH)의 주변 영상 정보를 이동체(VEH)로부터 실시간으로 전달받아 제1 영상 처리 모듈(120)로 전달하고, 제1 영상 처리 모듈(120)은 현재 획득된 이동체(VEH)의 주변 영상 정보에 매칭되는 혼합 현실 콘텐츠(3D 객체 모델 정보로서 VR 콘텐츠 및 AR 리소스를 포함할 수 있다)를 통합 콘텐츠 데이터베이스(150)로부터 추출하며, 추출된 혼합 현실 콘텐츠를 현재 획득된 이동체(VEH)의 주변 영상 정보에 정합하여 혼합 현실 영상을 생성할 수 있다.If the operation of the central control unit 100 for generating the mixed reality image is described in detail as a sub-configuration thereof, the first controller 110 receives the surrounding image information of the moving object VEH from the moving object VEH in real time and receives the first transmitted to the image processing module 120, and the first image processing module 120 includes VR content and AR resources as mixed reality content (3D object model information as 3D object model information) matching the currently acquired surrounding image information of the moving object VEH. ) from the integrated content database 150 , and the extracted mixed reality content may be matched with the currently acquired surrounding image information of the moving object VEH to generate a mixed reality image.

구체적으로, 이동체(VEH)의 이동이 개시된 시점으로부터 이동이 완료되는 시점까지 모션 시뮬레이터(MS)의 디스플레이 장치(DISPLAY)를 통해 사용자에게 제공되는 혼합 현실 영상의 전체적인 시나리오는 미리 정의되어 있을 수 있으며, 상기와 같이 미리 정의된 시나리오에 따라, 이동체(VEH)의 주변 영상 정보에 정합되는 혼합 현실 컨텐츠는 특정 시점 또는 특정 위치에서의 이동체(VEH)의 주변 영상 정보별로 매칭되어 통합 콘텐츠 데이터베이스(150)에 미리 저장되어 있을 수 있다. 이에 따라, 제1 영상 처리 모듈(120)은 현재 획득된 이동체(VEH)의 주변 영상 정보에 매칭되어 저장되어 있는 혼합 현실 컨텐츠를 통합 콘텐츠 데이터베이스(150)로부터 추출하여(즉, VR 콘텐츠 및 AR 리소스 중 하나 이상을 현재 획득된 이동체(VEH)의 주변 영상 정보에 따라 선택적으로 추출하여) 이동체(VEH)의 주변 영상 정보와 실시간 스티칭(stitching)을 통해 정합하는 방식으로 혼합 현실 영상을 생성할 수 있다.Specifically, the overall scenario of the mixed reality image provided to the user through the display device DISPLAY of the motion simulator MS from the point in time when the movement of the moving object VEH is started to the point in time when the movement is completed may be predefined, According to the predefined scenario as described above, the mixed reality content matched to the surrounding image information of the moving object VEH is matched by the surrounding image information of the moving object VEH at a specific point in time or at a specific location and stored in the integrated content database 150 . It may be pre-saved. Accordingly, the first image processing module 120 extracts, from the integrated content database 150 , the mixed reality content that is matched with the currently acquired surrounding image information of the moving object VEH and is stored (ie, VR content and AR resource). A mixed reality image can be generated by selectively extracting one or more of them according to the currently acquired surrounding image information of the moving object VEH) and matching it with the surrounding image information of the moving object VEH through real-time stitching. .

제1 영상 처리 모듈(120)은 이동체(VEH)에 구비된 영상 인식 센서에 의해 획득된 이동체(VEH)의 주변 영상 정보를 단안 영상 정보 또는 양안 영상 정보로서 통합 영상 데이터베이스(140)에 저장할 수 있으며, 단안 영상 정보 및 양안 영상 정보가 모두 획득되는 실시예의 경우 단안 영상 정보 및 양안 영상 정보를 구분하여 통합 영상 데이터베이스(140)에 저장할 수 있다. 통합 영상 데이터베이스(140)에 저장된 정보는 추후 설계자에 의한 유지 보수 내지 디버깅 작업 등에 활용될 수 있다.The first image processing module 120 may store peripheral image information of the moving object VEH acquired by an image recognition sensor provided in the moving object VEH as monocular image information or binocular image information in the integrated image database 140, , in an embodiment in which both the monocular image information and the binocular image information are obtained, the monocular image information and the binocular image information may be separated and stored in the integrated image database 140 . The information stored in the integrated image database 140 may be utilized for maintenance or debugging work by a designer later.

한편, 제1 컨트롤러(110)는 이동체(VEH)의 실시간 주변 영상 정보와 함께 이동체(VEH)의 모션 정보를 이동체(VEH)로부터 전달받을 수 있으며, 전달받은 이동체(VEH)의 주변 영상 정보 및 모션 정보 중 하나 이상에 근거하여 이동체(VEH)의 이상 동작을 감지할 수 있다.Meanwhile, the first controller 110 may receive motion information of the moving object VEH together with real-time surrounding image information of the moving object VEH from the moving object VEH, and the received peripheral image information and motion of the moving object VEH. An abnormal operation of the moving object VEH may be detected based on one or more of the information.

구체적으로, 이동체(VEH)는 대상 공간에 고정되어 마련되는 미니어처 레일을 따라 이동하기 때문에, 이동체(VEH)에 구비되는 영상 인식 센서를 통해 획득되는 주변 영상 정보는 이동체(VEH)의 위치에 따라 특정 영상으로 획득되며, 따라서 제1 컨트롤러(110)는 현재 획득된 이동체(VEH)의 주변 영상 정보가 이동체(VEH)의 이동 과정에서 획득될 것으로 예상되는 영상과 상이한 경우 이동체(VEH)의 탈선 또는 전복과 같은 이상 동작이 발생한 것으로 판단할 수 있다. 이 경우, 이동체(VEH)의 이상 동작을 감지하기 위해 이동체(VEH)의 주변 영상 정보와 비교되는 기준 영상 정보로서 통합 영상 데이터베이스(140)에 저장되어 있는 영상 정보가 활용될 수도 있다.Specifically, since the moving object VEH moves along a miniature rail that is fixed in the target space, surrounding image information acquired through an image recognition sensor provided in the moving object VEH is specific depending on the location of the moving object VEH. image is obtained, and therefore, the first controller 110 determines whether the currently acquired image information of the surrounding area of the moving object VEH is different from the image expected to be obtained in the course of moving the moving object VEH. It can be determined that an abnormal operation such as In this case, image information stored in the integrated image database 140 may be used as reference image information to be compared with surrounding image information of the moving object VEH in order to detect an abnormal operation of the moving object VEH.

또한, 앞서 언급한 것과 같이 이동체(VEH)는 대상 공간에 고정되어 마련되는 미니어처 레일을 따라 이동하기 때문에, 이동체(VEH)에 구비되는 모션 센서를 통해 획득되는 모션 정보(즉, 다축 모션 정보)는 미니어처 레일의 형태 및 구조에 따라 미리 정의된 기준 범위 내에 존재하게 되며, 따라서 제1 컨트롤러(110)는 현재 획득된 이동체(VEH)의 모션 정보가 상기한 기준 범위를 벗어나는 경우 이동체(VEH)의 탈선 또는 전복과 같은 이상 동작이 발생한 것으로 판단할 수 있다.In addition, as mentioned above, since the moving body VEH moves along a miniature rail that is fixed in the target space, motion information (ie, multi-axis motion information) obtained through a motion sensor provided in the moving body VEH is It exists within a predefined reference range according to the shape and structure of the miniature rail. Therefore, when the currently acquired motion information of the moving object VEH is out of the aforementioned reference range, the moving object VEH derails. Alternatively, it may be determined that an abnormal operation such as overturning has occurred.

이에 따라, 제1 컨트롤러(110)는 이동체(VEH)의 주변 영상 정보 및 모션 정보 중 어느 하나를 활용하거나, 두 정보 모두를 활용하여 이동체(VEH)의 이상 동작을 감지할 수 있으며, 이동체(VEH)의 이상 동작이 감지된 경우 이동체(VEH) 및 모션 시뮬레이터(MS)의 동작을 중지시키고 이동체(VEH)의 주변 영상 정보 및 모션 정보 중 하나 이상(즉, 이동체(VEH)의 이상 동작 감지의 근거가 된 정보)을 통합 모션 데이터베이스(130)에 저장할 수 있다. 통합 모션 데이터베이스(130)에 저장된 정보는 추후 설계자에 의한 유지 보수 내지 디버깅 작업 등에 활용될 수 있다.Accordingly, the first controller 110 may detect an abnormal operation of the moving object VEH by using any one of the surrounding image information and the motion information of the moving object VEH, or by using both information, and the moving object VEH. ) is detected, the operation of the moving object VEH and the motion simulator MS is stopped, and one or more of the surrounding image information and motion information of the moving object VEH (that is, the basis for detecting the abnormal operation of the moving object VEH) information) may be stored in the integrated motion database 130 . The information stored in the integrated motion database 130 may be utilized for maintenance or debugging work by a designer later.

이동체(VEH)의 이상 동작과 함께, 제1 컨트롤러(110)는 모션 시뮬레이터(MS)의 이상 동작, 이를테면 모션 시뮬레이터(MS)의 모션 및 혼합 현실 영상 간의 동기화 오류, 이기종 모션 시뮬레이터 간의 모션 동기화 오류, 및 모션 시뮬레이터(MS)의 오동작 등도 감지할 수 있으며, 모션 시뮬레이터(MS)의 이상 동작이 감지된 경우 그 동작 정보를 통합 모션 데이터베이스(130)에 저장할 수도 있다.In addition to the abnormal operation of the moving object VEH, the first controller 110 detects an abnormal operation of the motion simulator MS, such as a synchronization error between the motion of the motion simulator MS and a mixed reality image, a motion synchronization error between heterogeneous motion simulators, And a malfunction of the motion simulator MS may be detected, and when an abnormal operation of the motion simulator MS is detected, the motion information may be stored in the integrated motion database 130 .

다음으로, 미디에이터부(200)는 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 기반으로 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터(MS)의 모션을 제어하며, 중앙 제어부(100)로부터 전달받은 혼합 현실 영상을 각 모션 시뮬레이터(MS)의 모션과 동기화시켜 각 모션 시뮬레이터(MS)에 탑승한 사용자가 소지한(착용의 개념을 포함한다) 디스플레이 장치(DISPLAY)를 통해 디스플레이할 수 있다. 미디에이터부(200)는 모션 시뮬레이터(MS)의 내부에 통합되어 구비되는 컴퓨팅 디바이스(예: 프로세서)로 구현될 수 있으며, 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 자체적으로 저장하는 로컬 모션 데이터베이스(220)와, 모션 시뮬레이터(MS)의 모션 제어를 위한 제2 컨트롤러(210)를 포함할 수 있다.Next, the mediator unit 200 controls the motion of one or more motion simulators (MS) provided for the user's boarding based on the motion information of the moving body (VEH) received from the central control unit 100, and the central control unit ( 100) is synchronized with the motion of each motion simulator (MS) and displayed through a display device (DISPLAY) possessed by a user riding on each motion simulator (MS) (including the concept of wearing). can The mediator unit 200 may be implemented as a computing device (eg, a processor) that is integrated and provided inside the motion simulator MS, and stores the motion information of the moving object VEH received from the central control unit 100 by itself. It may include a local motion database 220 and a second controller 210 for motion control of the motion simulator (MS).

미디에이터부(200)의 동작을 그 하위 구성으로 구체적으로 설명하면, 제2 컨트롤러(210)는 중앙 제어부(100)로부터 전달받은 혼합 현실 영상을 사용자가 소지(착용)한 디스플레이 장치(DISPLAY)(예: HMD)를 통해 디스플레이하고, 이와 동시에 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 기반으로 모션 시뮬레이터(MS)의 모션을 제어하며, 이때 디스플레이 장치(DISPLAY)를 통해 디스플레이되는 혼합 현실 영상과 모션 시뮬레이터(MS)의 모션을 동기화시킬 수 있다. 이 경우, 전술한 것과 같이 혼합 현실 영상에 부가되어 있는 타임 스탬프(즉, 혼합 현실 영상의 생성에 기초가 된 주변 영상 정보에 부가되어 있는 타임 스탬프)와 모션 정보에 부가되어 있는 타임 스탬프가 동기화 과정에 활용될 수 있으며, 예를 들어 제2 컨트롤러(210)는 동일 시간의 타임 스탬프를 갖는 혼합 현실 영상의 디스플레이 시점과 모션 시뮬레이터(MS)의 모션 제어 시점을 일치시키는 방식으로 혼합 현실 영상과 모션 시뮬레이터(MS)의 모션을 동기화시킬 수 있다.When the operation of the mediator unit 200 is described in detail with its sub-configuration, the second controller 210 is a display device (DISPLAY) in which the user possesses (wears) the mixed reality image received from the central control unit 100 (eg, : HMD), and at the same time control the motion of the motion simulator MS based on the motion information of the moving object VEH received from the central control unit 100, and at this time, the mixture displayed through the display device DISPLAY It is possible to synchronize the motion of the real image and the motion simulator (MS). In this case, as described above, the time stamp added to the mixed reality image (that is, the time stamp added to the surrounding image information based on the generation of the mixed reality image) and the time stamp added to the motion information are synchronized during the synchronization process. For example, the second controller 210 synchronizes the display time of the mixed reality image having the time stamp of the same time and the motion control time of the motion simulator (MS) to the mixed reality image and the motion simulator. It is possible to synchronize the motion of (MS).

한편, 제2 컨트롤러(210)는 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 기반으로 각 모션 시뮬레이터(MS)의 모션을 동기화하여 제어할 수 있다.Meanwhile, the second controller 210 may synchronize and control the motion of each motion simulator MS based on the motion information of the moving object VEH received from the central controller 100 .

구체적으로, 본 실시예가 적용되는 하나 이상의 모션 시뮬레이터(MS)는 각각 상이한 축 구성을 갖는 적어도 두 개의 이기종 모션 시뮬레이터를 포함할 수 있으며, 예를 들어 6 자유도(6 DOF)를 갖는 6축 모션 시뮬레이터와, 3 자유도(3 DOF)를 3축 모션 시뮬레이터를 포함할 수 있다. 즉, 본 실시예는 혼합 현실 체험 기구를 설계하는 과정에서 모션 시뮬레이터(MS)에 대한 현실적인 설계 자유도를 확보하기 위해 상이한 축 구성을 갖는 복수 종류의 모션 시뮬레이터(MS)를 채용한 것을 전제하며, 이에 따라 제2 컨트롤러(210)는 이동체(VEH)의 모션 정보(즉, 이동체(VEH)의 병진 운동 및 회전 운동이 반영된 다축 모션 정보)를 기반으로 복수 종류의 모션 시뮬레이터(MS)의 모션을 동기화하여 제어할 수 있다.Specifically, one or more motion simulators MS to which this embodiment is applied may include at least two heterogeneous motion simulators each having a different axis configuration, for example, a 6-axis motion simulator having 6 degrees of freedom (6 DOF). And, it may include a 3-axis motion simulator with 3 degrees of freedom (3 DOF). That is, the present embodiment assumes that a plurality of types of motion simulators (MS) having different axis configurations are employed in order to secure a realistic degree of design freedom for the motion simulator (MS) in the process of designing a mixed reality experience mechanism. Accordingly, the second controller 210 synchronizes the motions of a plurality of types of motion simulators MS based on the motion information of the moving body VEH (that is, multi-axis motion information in which the translational and rotational motions of the moving body VEH are reflected). can be controlled

이 경우, 제2 컨트롤러(210)는 다축 모션 정보 중 이기종 모션 시뮬레이터의 축 구성에 대응되는 모션 정보를 선택하고, 선택된 모션 정보를 이용하여 해당 이기종 모션 시뮬레이터의 모션을 제어할 수 있다.In this case, the second controller 210 may select motion information corresponding to an axis configuration of the heterogeneous motion simulator from among the multi-axis motion information, and control the motion of the corresponding heterogeneous motion simulator using the selected motion information.

구체적으로, 전술한 것과 같이 이동체(VEH)의 다축 모션 정보는 이동체(VEH)의 6 DOF 모션 정보일 수 있으며, 이에 따라 제2 컨트롤러(210)는 이기종 모션 시뮬레이터 중 6축 모션 시뮬레이터의 모션 제어 시 6 DOF 모션 정보를 모두 활용하여 6축 모션 시뮬레이터의 모션을 제어할 수 있고, 3축 모션 시뮬레이터의 모션 제어 시 6 DOF 모션 정보 중 3 DOF에 해당하는 모션 정보만을 선택 활용하여 3축 모션 시뮬레이터의 모션을 제어할 수 있다(이기종 모션 시뮬레이터 모션 표준화). 이기종 모션 시뮬레이터 각각의 모션 제어는 디스플레이 장치(DISPLAY)를 통해 디스플레이되는 혼합 현실 영상과 동기화되어야 하며, 이에 따라 이기종 모션 시뮬레이터 각각의 모션 제어 시점 또한 동기화되어야 하므로, 제2 컨트롤러(210)는 이기종 모션 시뮬레이터의 모션 제어에 대한 개시 시점 및 종료 시점의 동기화를 위한 모션 동기점을 생성하는 방식을 통해 이기종 모션 시뮬레이터의 모션 제어 시점을 동기화시켜 제어할 수 있다.Specifically, as described above, the multi-axis motion information of the moving body VEH may be 6 DOF motion information of the moving body VEH, and accordingly, the second controller 210 controls the motion of the 6-axis motion simulator among heterogeneous motion simulators. Motion of 6-axis motion simulator can be controlled by using all 6 DOF motion information (Heterogeneous motion simulator motion standardization). The motion control of each of the heterogeneous motion simulators must be synchronized with the mixed reality image displayed through the display device (DISPLAY), and accordingly, the motion control timing of each of the heterogeneous motion simulators must also be synchronized. It is possible to synchronize and control the motion control timings of heterogeneous motion simulators through a method of generating a motion synchronization point for synchronization of a start time and an end time for the motion control of .

미디에이터부(200)의 제2 컨트롤러(210)에 의해 혼합 현실 영상이 디스플레이 장치(DISPLAY)를 통해 디스플레이되는 과정에서, 에이전트부(300)는 각 모션 시뮬레이터(MS)에 탑승한 사용자와의 상호 작용을 기반으로 디스플레이 장치(DISPLAY)를 통해 디스플레이되는 혼합 현실 영상을 갱신할 수 있다. 에이전트부(300)는 미디에이터부(200) 및 디스플레이 장치(DISPLAY)와 유무선 통신 가능한 컴퓨팅 디바이스(예: PC 등)로 구현될 수 있으며, 혼합 현실 영상의 갱신을 위해 요구되는 혼합 현실 콘텐츠(VR 콘텐츠 및 AR 리소스, 전술한 통합 콘텐츠 데이터베이스(150)에 저장되어 있는 혼합 현실 콘텐츠와 구분된다)를 저장하고 있는 로컬 콘텐츠 데이터베이스(320)와, 혼합 현실 영상의 갱신 동작을 수행하는 제2 영상 처리 모듈(310)을 포함할 수 있다.In the process in which the mixed reality image is displayed by the second controller 210 of the mediator unit 200 through the display device DISPLAY, the agent unit 300 interacts with a user who rides each motion simulator MS. Based on the , the mixed reality image displayed through the display device DISPLAY may be updated. The agent unit 300 may be implemented as a computing device (eg, PC, etc.) capable of wired/wireless communication with the mediator unit 200 and the display device (DISPLAY), and mixed reality content (VR content) required for updating the mixed reality image. and a local content database 320 storing AR resources and the mixed reality content stored in the aforementioned integrated content database 150), and a second image processing module ( 310) may be included.

사용자와의 상호 작용을 기반으로 혼합 현실 영상이 갱신되는 것은 사용자의 액션에 대응하는 혼합 현실 콘텐츠가 혼합 현실 영상에 반영되는 것을 의미하며, 사용자의 액션에는 소정 방향에 대한 사용자의 시야, 사용자의 햅틱 동작, 사용자의 제스처, 별도 조작장치에 대한 사용자의 조작 등 다양한 액션이 포함될 수 있다. 상기와 같은 사용자의 액션은 별도 마련된 액션 센서(예: 시야 검출을 위한 동공 센서, 햅틱 검출을 위한 햅틱 센서, 제스처 검출을 위한 제스처 센서, 별도 마련된 기구적인 조작장치 등)를 통해 획득될 수 있으며, 액션 센서는 디스플레이 장치(DISPLAY)(즉, HMD) 또는 모션 시뮬레이터(MS) 등 사용자의 액션을 센싱할 수 있는 범위 내에서 다양한 위치에 설치될 수 있다.When the mixed reality image is updated based on the interaction with the user, it means that the mixed reality content corresponding to the user's action is reflected in the mixed reality image. Various actions, such as a motion, a user's gesture, and a user's manipulation of a separate manipulation device, may be included. The user's action as described above may be obtained through a separately provided action sensor (eg, a pupil sensor for detecting a field of view, a haptic sensor for detecting a haptic, a gesture sensor for detecting a gesture, a separately provided mechanical manipulation device, etc.), The action sensor may be installed in various locations within a range capable of sensing a user's action, such as a display device (DISPLAY) (ie, HMD) or a motion simulator (MS).

이에 따라, 제2 영상 처리 모듈(310)은 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 로컬 콘텐츠 데이터베이스(320)로부터 추출하고, 디스플레이 장치(DISPLAY)를 통해 현재 디스플레이되는 혼합 현실 영상에 로컬 콘텐츠 데이터베이스(320)로부터 추출된 혼합 현실 콘텐츠를 반영하는 방식을 통해 혼합 현실 영상을 갱신할 수 있다.Accordingly, the second image processing module 310 extracts the mixed reality content corresponding to the user's action sensed by the action sensor from the local content database 320, and the mixed reality currently displayed through the display device DISPLAY. The mixed reality image may be updated by reflecting the mixed reality content extracted from the local content database 320 in the image.

혼합 현실 영상의 갱신에 적용되는 혼합 현실 컨텐츠는 사용자의 액션별로 대응되어 로컬 콘텐츠 데이터베이스(320)에 미리 저장되어 있을 수 있으며, 예를 들어 사용자의 시야가 특정 방향을 향하는 경우, 사용자가 특정 햅틱 동작 또는 제스처를 취한 경우, 별도의 조작장치에 특정 조작을 가한 경우 등 각 경우에 대응되는 혼합 현실 콘텐츠가 로컬 콘텐츠 데이터베이스(320)에 미리 저장되어 있을 수 있다. 이에 따라, 제2 영상 처리 모듈(310)은 현재 사용자의 액션에 대응되어 저장되어 있는 혼합 현실 컨텐츠를 로컬 콘텐츠 데이터베이스(320)로부터 추출하여(즉, VR 콘텐츠 및 AR 리소스 중 하나 이상을 사용자의 액션에 따라 선택적으로 추출하여) 현재 디스플레이 장치(DISPLAY)를 통해 디스플레이되고 있는 혼합 현실 영상에 반영함으로써, 사용자와 호혼합 현실 영상 간의 상호 작용이 확보되도록 할 수 있다. 한편, 사용자의 액션에 따라 반영될 혼합 현실 영상을 선별하는 과정은 제2 영상 처리 모듈(310)과 별도로 구현되는 논리 모듈에 의해 이루어질 수도 있다.The mixed reality content applied to the update of the mixed reality image may be stored in advance in the local content database 320 in correspondence with each user's action. Alternatively, mixed reality content corresponding to each case, such as when a gesture is made or when a specific manipulation is applied to a separate manipulation device, may be pre-stored in the local content database 320 . Accordingly, the second image processing module 310 extracts the mixed reality content stored in response to the current user's action from the local content database 320 (that is, one or more of the VR content and the AR resource as the user's action (selectively extracted according to ) and reflected on the mixed reality image currently displayed through the display device (DISPLAY), interaction between the user and the call mixed reality image can be ensured. Meanwhile, the process of selecting the mixed reality image to be reflected according to the user's action may be performed by a logic module implemented separately from the second image processing module 310 .

이상에서 설명한 본 실시예에 따를 때, 사용자가 탑승한 기구를 기계적인 방식으로 구동하는 것과 동시에 소정 시나리오에 따른 혼합 현실 영상을 사용자에게 제공하는 혼합 현실 체험 기구에 적용될 수 있는, 중앙 제어부(100), 미디에이터부(200) 및 에이전트부(300)로 구성되는 3중 통신 구조와, 그 통신 구조를 기반으로 혼합 현실 체험 기구가 제어되는 제어 토폴로지가 제공될 수 있다. 나아가, 중앙 제어부(100)에 혼합 현실 체험 기구의 통합 모니터링 및 제어를 위해 통합 데이터베이스를 마련하고, 미디에이터부(200) 및 에이전트부(300)에 혼합 현실 체험 기구의 실시간 모니터링 및 영상 처리를 위해 로컬 데이터베이스를 마련함으로써, 혼합 현실 체험 기구의 동작을 위해 실시간으로 생성되는 대용량의 정보에 대한 처리 및 관리 효율성을 향상시킬 수 있으며, 이와 같은 3중 통신 구조를 기반으로 혼합 현실 체험 기구의 제어를 중앙 제어부(100), 미디에이터부(200) 및 에이전트부(300)로 분담함으로써 그 제어 효율성을 향상시킬 수 있다.According to the present embodiment described above, the central control unit 100, which can be applied to a mixed reality experience device that provides a mixed reality image according to a predetermined scenario to the user at the same time as driving the device the user rides in a mechanical way , a triple communication structure composed of the mediator unit 200 and the agent unit 300, and a control topology in which a mixed reality experience mechanism is controlled based on the communication structure may be provided. Furthermore, an integrated database is provided in the central control unit 100 for integrated monitoring and control of the mixed reality experience apparatus, and the mediator unit 200 and the agent unit 300 are local for real-time monitoring and image processing of the mixed reality experience apparatus. By providing a database, it is possible to improve the processing and management efficiency of large amounts of information generated in real time for the operation of the mixed reality experience apparatus, and based on such a triple communication structure, the central control unit to control the mixed reality experience apparatus (100), it is possible to improve the control efficiency by dividing the mediator unit 200 and the agent unit 300.

도 4는 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 방법을 설명하기 위한 흐름도이다.4 is a flowchart illustrating a method of controlling a mixed reality experience apparatus according to an embodiment of the present invention.

도 4를 참조하여 본 발명의 일 실시예에 따른 혼합 현실 체험 기구의 제어 방법을 설명하면, 먼저 중앙 제어부(100)는 이동체(VEH)의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 혼합 현실 영상을 생성하고, 생성된 혼합 현실 영상을 이동체(VEH)의 모션 정보와 함께 미디에이터부(200)로 전달한다(S100).A method of controlling a mixed reality experience apparatus according to an embodiment of the present invention will be described with reference to FIG. 4 . First, the central control unit 100 matches the surrounding image information of the moving object VEH with pre-stored mixed reality contents to create mixed reality. An image is generated, and the generated mixed reality image is transmitted to the mediator unit 200 together with motion information of the moving object VEH (S100).

S100 단계에서, 중앙 제어부(100)는 현재 획득된 이동체(VEH)의 주변 영상 정보에 매칭되는 혼합 현실 콘텐츠를 통합 콘텐츠 데이터베이스(150)로부터 추출하고, 추출된 혼합 현실 콘텐츠를 현재 획득된 이동체(VEH)의 주변 영상 정보에 정합하여 혼합 현실 영상을 생성한다.In step S100 , the central control unit 100 extracts the mixed reality content matching the currently acquired surrounding image information of the moving object VEH from the integrated content database 150 , and extracts the extracted mixed reality content from the currently obtained mobile object VEH. ) to generate a mixed reality image by matching it with the surrounding image information.

또한, S100 단계에서 중앙 제어부(100)는 영상 인식 센서에 의해 획득된 이동체(VEH)의 주변 영상 정보를 단안 영상 정보 또는 양안 영상 정보로서 통합 영상 데이터베이스(140)에 저장하고, 이동체(VEH)의 주변 영상 정보 및 모션 정보 중 하나 이상에 근거하여 이동체(VEH)의 이상 동작이 감지된 경우, 이동체(VEH) 및 모션 시뮬레이터(MS)의 각 동작을 중지시키고 이동체(VEH)의 주변 영상 정보 및 모션 정보 중 하나 이상을 통합 모션 데이터베이스(130)에 저장한다.In addition, in step S100, the central control unit 100 stores peripheral image information of the moving object VEH obtained by the image recognition sensor as monocular image information or binocular image information in the integrated image database 140, and When an abnormal operation of the moving object VEH is detected based on at least one of the surrounding image information and the motion information, each operation of the moving object VEH and the motion simulator MS is stopped, and the surrounding image information and motion of the moving object VEH One or more of the information is stored in the integrated motion database 130 .

S100 단계 이후, 미디에이터부(200)는 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 기반으로 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터(MS)의 모션을 제어하며, 중앙 제어부(100)로부터 전달받은 혼합 현실 영상을 각 모션 시뮬레이터(MS)의 모션과 동기화시켜 각 모션 시뮬레이터(MS)에 탑승한 사용자가 소지한 디스플레이 장치(DISPLAY)를 통해 디스플레이한다(S200).After step S100 , the mediator unit 200 controls the motion of one or more motion simulators (MS) provided for the user's boarding based on the motion information of the moving object VEH received from the central control unit 100, and the central control unit The mixed reality image received from 100 is synchronized with the motion of each motion simulator MS and displayed through a display device DISPLAY possessed by a user riding on each motion simulator MS (S200).

S200 단계에서, 미디에이터부(200)는 중앙 제어부(100)로부터 전달받은 이동체(VEH)의 모션 정보를 기반으로 각 모션 시뮬레이터(MS)의 모션을 동기화하여 제어하며, 구체적으로는 이동체(VEH)의 다축 모션 정보 중 이기종 모션 시뮬레이터의 축 구성에 대응되는 모션 정보를 선택하고, 선택된 모션 정보를 이용하여 이기종 모션 시뮬레이터의 모션을 제어하되, 그 모션 제어 시점을 동기화시켜 제어한다.In step S200, the mediator unit 200 synchronizes and controls the motion of each motion simulator MS based on the motion information of the moving object VEH received from the central control unit 100, and specifically, the movement of the moving object VEH. Among the multi-axis motion information, motion information corresponding to an axis configuration of the heterogeneous motion simulator is selected, and the motion of the heterogeneous motion simulator is controlled using the selected motion information, but the motion control timing is synchronized and controlled.

S200 단계 이후, 에이전트부(300)는 각 모션 시뮬레이터(MS)에 탑승한 사용자와의 상호 작용을 기반으로 디스플레이 장치(DISPLAY)를 통해 디스플레이되는 혼합 현실 영상을 갱신한다(S300).After the step S200, the agent unit 300 updates the mixed reality image displayed through the display device DISPLAY based on the interaction with the user riding on each motion simulator MS (S300).

S300 단계에서, 에이전트부(300)는 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 로컬 콘텐츠 데이터베이스(320)로부터 추출하고, 디스플레이 장치(DISPLAY)를 통해 현재 디스플레이되는 혼합 현실 영상에 로컬 콘텐츠 데이터베이스(320)로부터 추출된 혼합 현실 콘텐츠를 반영한다.In step S300, the agent unit 300 extracts the mixed reality content corresponding to the user's action sensed by the action sensor from the local content database 320, and adds it to the mixed reality image currently displayed through the display device (DISPLAY). It reflects the mixed reality content extracted from the local content database 320 .

본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Implementations described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream, or a signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the discussed features may also be implemented in other forms (eg, in an apparatus or a program). The apparatus may be implemented in suitable hardware, software and firmware, and the like. A method may be implemented in an apparatus such as, for example, a processor, which generally refers to a computer, a microprocessor, a processing device, including an integrated circuit or programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely exemplary, and it is understood that various modifications and equivalent other embodiments are possible by those skilled in the art. will understand Accordingly, the true technical protection scope of the present invention should be defined by the following claims.

VEH: 이동체
MS: 모션 시뮬레이터
DISPLAY: 디스플레이 장치
100: 중앙 제어부
110: 제1 컨트롤러
120: 제1 영상 처리 모듈
130: 통합 모션 데이터베이스
140: 통합 영상 데이터베이스
150: 통합 콘텐츠 데이터베이스
200: 미디에이터부
210: 제2 컨트롤러
220: 로컬 모션 데이터베이스
300: 에이전트부
310: 제2 영상 처리 모듈
320: 로컬 콘텐츠 데이터베이스
VEH: mobile
MS: Motion Simulator
DISPLAY: display device
100: central control
110: first controller
120: first image processing module
130: integrated motion database
140: integrated image database
150: Unified Content Database
200: mediator unit
210: second controller
220: local motion database
300: agent unit
310: second image processing module
320: local content database

Claims (11)

중앙 제어부, 미디에이터부 및 에이전트부 간의 통신 구조를 기반으로, 미리 정의된 대상 공간에서 이동체가 이동하는 과정에서 상기 이동체에 구비된 영상 인식 센서에 의해 획득된 상기 이동체의 주변 영상 정보를 기반으로 생성되는 혼합 현실 영상을 상기 대상 공간과 이격된 공간에 위치하는 사용자에게 제공하는 혼합 현실 체험 기구를 제어하는 장치로서,
상기 중앙 제어부는, 상기 이동체의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 상기 혼합 현실 영상을 생성하고, 상기 생성된 혼합 현실 영상을 상기 이동체의 모션 정보와 함께 상기 미디에이터부로 전달하고,
상기 미디에이터부는, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터의 모션을 제어하며, 상기 중앙 제어부로부터 전달받은 혼합 현실 영상을 상기 각 모션 시뮬레이터의 모션과 동기화시켜 상기 각 모션 시뮬레이터에 탑승한 사용자가 소지한 디스플레이 장치를 통해 디스플레이하고,
상기 에이전트부는, 상기 각 모션 시뮬레이터에 탑승한 사용자와의 상호 작용을 기반으로 상기 디스플레이 장치를 통해 디스플레이되는 혼합 현실 영상을 갱신하는 것을 특징으로 하는, 혼합 현실 체험 기구의 제어 장치.
Based on the communication structure between the central control unit, the mediator unit, and the agent unit, in the process of moving the moving object in a predefined target space, it is generated based on the surrounding image information of the moving object acquired by the image recognition sensor provided in the moving object A device for controlling a mixed reality experience device that provides a mixed reality image to a user located in a space separated from the target space,
The central control unit generates the mixed reality image by matching the surrounding image information of the moving object with pre-stored mixed reality content, and transmits the generated mixed reality image together with the motion information of the moving object to the mediator unit,
The mediator unit controls the motion of one or more motion simulators provided for the user's boarding based on the motion information of the moving object received from the central control unit, and transmits the mixed reality image received from the central control unit to each of the motion simulators. Synchronized with the motion and displayed through a display device possessed by a user riding on each of the motion simulators,
and the agent unit updates the mixed reality image displayed through the display device based on an interaction with the user riding in each motion simulator.
제1항에 있어서,
상기 중앙 제어부는, 상기 이동체, 상기 모션 시뮬레이터, 상기 디스플레이 장치, 상기 미디에이터부 및 상기 에이전트부의 각 동작에 대한 통합 모니터링 및 통합 제어의 마스터 기능을 수행하며, 상기 마스터 기능을 지원하기 위한 통합 데이터베이스로서 통합 모션 데이터베이스, 통합 영상 데이터베이스 및 통합 콘텐츠 데이터베이스를 포함하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
According to claim 1,
The central control unit performs a master function of integrated monitoring and integrated control for each operation of the moving object, the motion simulator, the display device, the mediator unit, and the agent unit, and is integrated as an integrated database to support the master function. A control apparatus for a mixed reality experience apparatus comprising a motion database, an integrated image database, and an integrated content database.
제2항에 있어서,
상기 통합 콘텐츠 데이터베이스는 상기 혼합 현실 콘텐츠를 저장하고 있으며,
상기 중앙 제어부는, 현재 획득된 상기 이동체의 주변 영상 정보에 매칭되는 혼합 현실 콘텐츠를 상기 통합 콘텐츠 데이터베이스로부터 추출하고, 상기 추출된 혼합 현실 콘텐츠를 상기 현재 획득된 상기 이동체의 주변 영상 정보에 정합하여 상기 혼합 현실 영상을 생성하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
3. The method of claim 2,
The integrated content database stores the mixed reality content,
The central control unit extracts, from the integrated content database, the mixed reality content matching the currently acquired surrounding image information of the moving object, and matches the extracted mixed reality content with the currently acquired surrounding image information of the moving object, so that the A control device for a mixed reality experience apparatus, characterized in that it generates a mixed reality image.
제2항에 있어서,
상기 이동체에 구비된 영상 인식 센서는 하나 이상의 카메라를 포함하고,
상기 중앙 제어부는, 상기 영상 인식 센서에 의해 획득된 이동체의 주변 영상 정보를 단안 영상 정보 또는 양안 영상 정보로서 상기 통합 영상 데이터베이스에 저장하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치
3. The method of claim 2,
The image recognition sensor provided in the moving body includes one or more cameras,
and the central control unit stores, as monocular image information or binocular image information, surrounding image information of the moving object acquired by the image recognition sensor in the integrated image database, the mixed reality experience apparatus control device
제2항에 있어서,
상기 중앙 제어부는, 상기 이동체의 주변 영상 정보 및 모션 정보 중 하나 이상에 근거하여 상기 이동체의 이상 동작이 감지된 경우, 상기 이동체 및 상기 모션 시뮬레이터의 각 동작을 중지시키고 상기 이동체의 주변 영상 정보 및 모션 정보 중 하나 이상을 상기 통합 모션 데이터베이스에 저장하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
3. The method of claim 2,
When an abnormal motion of the moving object is detected based on at least one of peripheral image information and motion information of the moving object, the central controller is configured to stop each operation of the moving object and the motion simulator, and to stop each operation of the moving object and the surrounding image information and motion of the moving object and storing at least one of the information in the integrated motion database.
제1항에 있어서,
상기 미디에이터부는, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 각 모션 시뮬레이터의 모션을 동기화하여 제어하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
According to claim 1,
and the mediator unit synchronizes and controls the motions of the respective motion simulators based on the motion information of the moving object received from the central control unit.
제6항에 있어서,
상기 이동체의 모션 정보는 상기 이동체의 병진 운동 및 회전 운동이 반영된 다축 모션 정보이고, 상기 하나 이상의 모션 시뮬레이터는 각각 상이한 축 구성을 갖는 적어도 두 개의 이기종 모션 시뮬레이터를 포함하며,
상기 미디에이터부는, 상기 다축 모션 정보 중 상기 이기종 모션 시뮬레이터의 축 구성에 대응되는 모션 정보를 선택하고, 상기 선택된 모션 정보를 이용하여 상기 이기종 모션 시뮬레이터의 모션을 제어하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
7. The method of claim 6,
The motion information of the movable body is multi-axis motion information in which translational and rotational motions of the movable body are reflected, and the one or more motion simulators include at least two heterogeneous motion simulators each having a different axis configuration,
The mediator unit selects motion information corresponding to the axis configuration of the heterogeneous motion simulator from among the multi-axis motion information, and controls the motion of the heterogeneous motion simulator using the selected motion information. controller.
제7항에 있어서,
상기 미디에이터부는, 상기 선택된 모션 정보를 이용하여 상기 이기종 모션 시뮬레이터의 모션을 제어할 때, 상기 이기종 모션 시뮬레이터의 모션 제어 시점을 동기화시켜 제어하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
8. The method of claim 7,
The mediator unit, when controlling the motion of the heterogeneous motion simulator using the selected motion information, synchronizes and controls the motion control timing of the heterogeneous motion simulator.
제1항에 있어서,
상기 모션 시뮬레이터에 탑승한 사용자의 액션을 센싱하는 액션 센서를 포함하고,
상기 에이전트부는, 상기 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 저장하고 있는 로컬 콘텐츠 데이터베이스를 포함하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
According to claim 1,
Including an action sensor for sensing an action of a user riding on the motion simulator,
and the agent unit includes a local content database storing mixed reality content corresponding to the user's action sensed by the action sensor.
제9항에 있어서,
상기 에이전트부는, 상기 액션 센서에 의해 센싱된 사용자의 액션에 대응하는 혼합 현실 콘텐츠를 상기 로컬 콘텐츠 데이터베이스로부터 추출하고, 상기 디스플레이 장치를 통해 현재 디스플레이되는 혼합 현실 영상에 상기 로컬 콘텐츠 데이터베이스로부터 추출된 혼합 현실 콘텐츠를 반영하는 것을 특징으로 하는 혼합 현실 체험 기구의 제어 장치.
10. The method of claim 9,
The agent unit extracts, from the local content database, mixed reality content corresponding to the user's action sensed by the action sensor, and displays the mixed reality image currently displayed through the display device in the mixed reality extracted from the local content database. A control device for a mixed reality experience apparatus, characterized in that it reflects content.
중앙 제어부, 미디에이터부 및 에이전트부 간의 통신 구조를 기반으로, 미리 정의된 대상 공간에서 이동체가 이동하는 과정에서 상기 이동체에 구비된 영상 인식 센서에 의해 획득된 상기 이동체의 주변 영상 정보를 기반으로 생성되는 혼합 현실 영상을 상기 대상 공간과 이격된 공간에 위치하는 사용자에게 제공하는 혼합 현실 체험 기구를 제어하는 방법으로서,
중앙 제어부가, 상기 이동체의 주변 영상 정보와 미리 저장된 혼합 현실 콘텐츠를 정합하여 상기 혼합 현실 영상을 생성하고, 상기 생성된 혼합 현실 영상을 상기 이동체의 모션 정보와 함께 상기 미디에이터부로 전달하는 단계;
상기 미디에이터부가, 상기 중앙 제어부로부터 전달받은 이동체의 모션 정보를 기반으로 상기 사용자의 탑승을 위해 마련되는 하나 이상의 모션 시뮬레이터의 모션을 제어하며, 상기 중앙 제어부로부터 전달받은 혼합 현실 영상을 상기 각 모션 시뮬레이터의 모션과 동기화시켜 상기 각 모션 시뮬레이터에 탑승한 사용자가 소지한 디스플레이 장치를 통해 디스플레이하는 단계; 및
상기 에이전트부가, 상기 각 모션 시뮬레이터에 탑승한 사용자와의 상호 작용을 기반으로 상기 디스플레이 장치를 통해 디스플레이되는 혼합 현실 영상을 갱신하는 단계;
를 포함하는 것을 특징으로 하는, 혼합 현실 체험 기구의 제어 방법.
Based on the communication structure between the central control unit, the mediator unit, and the agent unit, in the process of moving the moving object in a predefined target space, it is generated based on the surrounding image information of the moving object acquired by the image recognition sensor provided in the moving object A method of controlling a mixed reality experience device that provides a mixed reality image to a user located in a space separated from the target space, the method comprising:
generating, by a central controller, the mixed reality image by matching the surrounding image information of the moving object with pre-stored mixed reality content, and transmitting the generated mixed reality image to the mediator unit together with the motion information of the moving object;
The mediator unit controls the motion of one or more motion simulators provided for the user's boarding based on the motion information of the moving object received from the central control unit, and transmits the mixed reality image received from the central control unit to each of the motion simulators. displaying through a display device possessed by a user riding in each of the motion simulators in synchronization with the motion; and
updating, by the agent, the mixed reality image displayed through the display device based on the interaction with the user riding in each of the motion simulators;
A method of controlling a mixed reality experience apparatus, comprising:
KR1020200051413A 2020-04-28 2020-04-28 Apparatus for controlling mixed reality attraction and method thereof KR20210133344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200051413A KR20210133344A (en) 2020-04-28 2020-04-28 Apparatus for controlling mixed reality attraction and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200051413A KR20210133344A (en) 2020-04-28 2020-04-28 Apparatus for controlling mixed reality attraction and method thereof

Publications (1)

Publication Number Publication Date
KR20210133344A true KR20210133344A (en) 2021-11-08

Family

ID=78485724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200051413A KR20210133344A (en) 2020-04-28 2020-04-28 Apparatus for controlling mixed reality attraction and method thereof

Country Status (1)

Country Link
KR (1) KR20210133344A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099056A (en) * 2021-12-27 2023-07-04 주식회사 포럼에이트코리아 Driver biosignal integrated measurement system and method therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230099056A (en) * 2021-12-27 2023-07-04 주식회사 포럼에이트코리아 Driver biosignal integrated measurement system and method therefor

Similar Documents

Publication Publication Date Title
US11669152B2 (en) Massive simultaneous remote digital presence world
KR102181793B1 (en) Augmented boarding system and method
CN106029190B (en) Method for operating a device, in particular an amusement ride, a vehicle, a fitness apparatus or the like
CN104932677B (en) Interactive more driver's virtual realities drive system
US20150070274A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US20170124770A1 (en) Self-demonstrating object features and/or operations in interactive 3d-model of real object for understanding object's functionality
EP3856380B1 (en) Modular augmented and virtual reality ride attraction
CN106454322A (en) VR Image processing system and method thereof
CN106527713A (en) Three-dimensional data rendering system for VR and method thereof
WO2019087564A1 (en) Information processing device, information processing method, and program
WO2021055036A1 (en) Haptic simulation of motion in virtual reality
KR20210133344A (en) Apparatus for controlling mixed reality attraction and method thereof
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
CN113593358A (en) Two-degree-of-freedom VR airship driving simulation system
JP7413472B1 (en) Information processing systems and programs
JP2018190397A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP7412497B1 (en) information processing system
Pargal SHMART-Simple Head-Mounted Mobile Augmented Reality Toolkit
KR20220018435A (en) VR Systems for Location-Based Sharing Experience in the Virtual Environment

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application