KR20180135761A - Methods and apparatus for military training based on mixed reality - Google Patents

Methods and apparatus for military training based on mixed reality Download PDF

Info

Publication number
KR20180135761A
KR20180135761A KR1020170074447A KR20170074447A KR20180135761A KR 20180135761 A KR20180135761 A KR 20180135761A KR 1020170074447 A KR1020170074447 A KR 1020170074447A KR 20170074447 A KR20170074447 A KR 20170074447A KR 20180135761 A KR20180135761 A KR 20180135761A
Authority
KR
South Korea
Prior art keywords
virtual
information
image
user
training
Prior art date
Application number
KR1020170074447A
Other languages
Korean (ko)
Inventor
신수용
장윤성
우미 카이라 라티프
Original Assignee
금오공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 금오공과대학교 산학협력단 filed Critical 금오공과대학교 산학협력단
Priority to KR1020170074447A priority Critical patent/KR20180135761A/en
Publication of KR20180135761A publication Critical patent/KR20180135761A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/003Simulators for teaching or training purposes for military purposes and tactics
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention relates to a method and apparatus for a mixed reality-based military drill. According to the present invention, in an actual simulated military drill, an optimal virtual entity is created and arranged by analyzing a real image of a scene that is input in real time from a camera worn by a user, information on life and death, location, and others is synchronized with other user by using SLAM, etc., and a virtual image is generated by controlling a state and motion of the virtual entity based on difficulty of the drill and identified sensor information. A three-dimensional image obtained by synthesizing the virtual image generated according to the present invention on the real image is outputted to the user′s HMD in real time, thereby enhancing a sense of reality of the military drill through on-site training. In addition, it is possible to avoid costs and inconvenience of preparing virtual entities such as enemy, weapons of enemy, military vehicles, covers, shelters, obstacles, and others in the real environment, thereby performing a simulated military drill in efficient and flexible situations.

Description

혼합현실 기반 군사 훈련 방법 및 장치{METHODS AND APPARATUS FOR MILITARY TRAINING BASED ON MIXED REALITY}≪ Desc / Clms Page number 1 > METHODS AND APPARATUS FOR MILITARY TRAINING BASED ON MIXED REALITY < RTI ID =

본 발명은 혼합현실 기반 군사 훈련 방법 및 장치에 관한 것으로, 보다 상세하게는, 실시간으로 입력되는 현장의 실사영상을 분석하여 최적의 가상의 존재를 배치하여 생성하고, 동기화된 팀정보, 훈련 난이도 및 인식된 센서정보에 기초하여 가상의 존재의 상태 및 움직임을 실시간으로 제어하는 가상영상을 생성함으로써, 보다 효율적이고 유연한 상황의 모의 군사 훈련이 가능하도록 하는 혼합현실 기반 군사 훈련 방법 및 장치에 관한 것이다.The present invention relates to a mixed reality based military training method and apparatus, and more particularly, to a mixed reality based military training method and apparatus, And more particularly, to a hybrid reality-based military training method and apparatus capable of performing simulated military training in a more efficient and flexible situation by generating a virtual image for controlling the state and movement of virtual presence in real time based on the recognized sensor information.

모의 군사 훈련을 할 때 가상 현실을 이용한 훈련 방법이 많이 사용되고 있다. HMD(Head Mounted Display)를 착용하고 주로 실내에서 많이 시행되고 있으며, 사용자의 시야는 모두 가상의 환경이거나, 서버에 미리 저장되어 있는 실사영상에 가상영상을 추가하여 사용한다. 이러한 실내에서의 훈련 방법은 시간과 비용면에서는 효율적이기는 하나 실제의 야외 군사 훈련 현장에서 훈련하는 효과를 얻기에는 한계가 있다. 즉, 실제의 지형에 대한 현실감이 많이 떨어지고, 다수의 사용자가 실제로 이동하면서 작전을 수행하는데 제약이 따른다. 야외에서는 마일즈(MILES) 장비를 착용하고 모의무기를 사용하여 훈련을 하는 방법이 있다. 하지만, 야외 군사 훈련 현장은 가상의 존재, 즉, 적군, 군용차량, 은폐물, 엄폐물, 장애물 등을 일일이 모두 준비해야 하는 비용과 번거로움이 문제가 된다.Training methods using virtual reality are widely used in simulated military training. The HMD (Head Mounted Display) is mainly used in the indoor environment. The visual field of the user is a virtual environment or a virtual image is added to a real image stored in the server in advance. These training methods in the indoor are effective in terms of time and cost, but there is a limit to obtaining the effect of training in actual outdoor military training field. That is, the reality of the actual terrain is greatly reduced, and a large number of users are constrained to perform operations while actually moving. Outdoors, there is a way to wear MILES equipment and train with mock weapons. However, the outdoor military training scene is a cost and a hassle to prepare a virtual existence, that is, an enemy, a military vehicle, a cover, a cover, and an obstacle all at once.

따라서, 야외의 실제 훈련 현장에서 실제의 지형을 보면서 훈련을 수행하되, 현장의 지형정보를 분석하여 가상의 존재를 적절하게 배치해 추가하면, 보다 효율적이고 유연한 상황의 모의 군사 훈련이 가능할 수 있다. 이러한 혼합 영상 기반의 응용 기술들이 공지되어 있기는 하지만, 군사 훈련은 그 특성상 팀 단위로 역동적인 작전이 수행되는 경우가 많으므로, 훈련이 진행되는 동안 팀 멤버들 간의 생사 정보나 위치 정보가 공유되어야 보다 현실성 있는 훈련이 수행될 수 있다. 따라서, 이러한 팀정보를 공유하기 위해서는 위치 정보의 공유 및 동기화 방법들을 사용할 수 있는데, 예를 들어, 로봇공학 등에서 사용하는 SLAM(simultaneous localization and mapping) 방식 등을 사용하면, 동시적 위치추정 및 지도작성이 가능하다.Therefore, it is possible to conduct simulation while observing actual terrain at actual training site of outdoor, but by analyzing the topographical information of the scene and appropriately arranging virtual existence, it is possible to perform simulation training of more efficient and flexible situation. Although these mixed-image-based application technologies are known, many military operations are performed on a team-by-team basis. Therefore, during training, team members share life and death information and location information More realistic training can be performed. Therefore, in order to share such team information, it is possible to use sharing and synchronization methods of position information. For example, when using SLAM (simultaneous localization and mapping) method used in robotics, etc., simultaneous position estimation and mapping This is possible.

KR 10-1653735.KR 10-1653735.

문현수 외, “군집 로봇의 동시적 위치 추정 및 지도 작성”, 한국지능시스템학회 논문지 2011, Vol. 21, No. 3, pp.296-301. Moon, Hyunsoo et al., "Simultaneous Position Estimation and Mapping of a Robot Robot", The Korea Institute of Intelligent Systems, 2011, Vol. 21, No. 3, pp. 296-301.

본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위해 창안된 것으로, 실시간으로 입력되는 현장의 실사영상을 분석하여 최적의 가상의 존재를 배치하여 생성하고, 동기화된 팀정보, 훈련 난이도 및 인식된 센서정보에 기초하여 가상의 존재의 상태 및 움직임이 실시간으로 제어되는 가상영상을 생성하고, 생성된 가상영상을 입력된 실사영상에 합성하여 사용자의 HMD에 실시간으로 출력함으로써, 보다 효율적이고 유연한 상황의 모의 군사 훈련이 가능하도록 하는 혼합현실 기반 군사 훈련 방법 및 장치를 제공하는 것을 목적으로 한다.Disclosure of Invention Technical Problem [8] Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art, and it is an object of the present invention to provide a method and apparatus for analyzing real- A virtual image in which the state and motion of a virtual existence is controlled in real time based on the sensor information is generated and the generated virtual image is synthesized with the input real image and output to the user's HMD in real time, And to provide a mixed reality-based military training method and apparatus capable of simulated military training.

상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시예에 따르면, 실제의 훈련 현장에서 사용하는 혼합현실 기반 군사 훈련 장치로서, 팀정보를 동기화하는 팀정보 동기화부; 사용자가 사용하는 모의무기 또는 상기 사용자의 신체에 부착된 센서로부터 입력되는 정보를 인식하는 센서정보 인식부; 실시간으로 입력되는 상기 훈련 현장의 3D 실사영상을 분석하고, 상기 분석한 결과에 기초하여 가상의 존재를 배치하여 생성하는 가상존재 생성부; 및 상기 동기화된 팀정보, 상기 인식된 센서정보 및 상기 생성된 가상의 존재 중에서 적어도 하나에 기초하여 3D 가상영상을 생성하는 가상영상 생성부를 포함하는 혼합현실 기반 군사 훈련 장치가 제공된다.According to an aspect of the present invention, there is provided a mixed reality reality military training apparatus for use in an actual training field, comprising: a team information synchronization unit for synchronizing team information; A sensor information recognition unit for recognizing information input from a simulated weapon used by a user or a sensor attached to the user's body; A virtual presence creator for analyzing a 3D real image of the training field input in real time and arranging a virtual presence based on the result of the analysis; And a virtual image generation unit for generating a 3D virtual image based on at least one of the synchronized team information, the recognized sensor information, and the generated virtual presence.

상기 팀정보는 상기 사용자와 타 사용자의 생사 정보 및 위치 정보 중에서 적어도 하나를 포함할 수 있다.The team information may include at least one of life information and location information of the user and other users.

상기 팀정보 동기화부는 SLAM을 사용하여 동시적 위치추정 및 지도작성을 할 수 있다.The team information synchronization unit may perform simultaneous position estimation and map creation using the SLAM.

상기 가상의 존재는, 상기 실사영상을 분석한 결과에 기초하여, 소정의 훈련 난이도에 따라 생성되는 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 중의 적어도 어느 하나일 수 있다.The virtual presence may be at least one of virtual concealment, cover, enemy force, obstacle, weapon, and vehicle generated according to a predetermined training difficulty based on a result of analyzing the real image.

상기 가상영상 생성부는, 소정의 훈련 난이도, 상기 동기화된 팀정보 및 상기 인식된 센서정보에 기초하여 상기 가상의 존재의 상태 또는 움직임을 실시간으로 제어할 수 있다.The virtual image generation unit may control the status or movement of the virtual presence in real time based on a predetermined training difficulty, the synchronized team information, and the recognized sensor information.

상기 실사영상은 상기 사용자가 훈련 중에 착용하고 있는 카메라로부터 입력될 수 있다.The real image may be input from a camera worn by the user during training.

상기 생성된 가상영상은 상기 실사영상에 합성되어 사용자의 HMD를 통하여 디스플레이될 수 있다.The generated virtual image may be synthesized with the real image and displayed through the user's HMD.

상기 기술적 과제를 달성하기 위한, 본 발명의 다른 일 실시예에 따르면, 실제의 훈련 현장에서 사용하는 혼합현실 기반 군사 훈련 방법으로서, 팀정보를 동기화하는 단계; 사용자가 사용하는 모의무기 또는 상기 사용자의 신체에 부착된 센서로부터 입력되는 정보를 인식하는 단계; 실시간으로 입력되는 상기 훈련 현장의 3D 실사영상을 분석하고, 상기 분석한 결과에 기초하여 가상의 존재를 배치하여 생성하는 단계; 및 상기 동기화된 팀정보, 상기 인식된 센서정보 및 상기 생성된 가상의 존재 중에서 적어도 하나에 기초하여 3D 가상영상을 생성하는 단계를 포함하는 혼합현실 기반 군사 훈련 방법이 제공된다.According to another aspect of the present invention, there is provided a mixed reality based military training method for use in an actual training field, comprising: synchronizing team information; Recognizing information input from a simulated weapon used by a user or a sensor attached to the user's body; Analyzing a 3D real-life image of the training field input in real time, and arranging a virtual entity based on the analyzed result; And generating a 3D virtual image based on at least one of the synchronized team information, the recognized sensor information, and the generated virtual presence.

상기 팀정보는 상기 사용자와 타 사용자의 생사 정보 및 위치 정보 중에서 적어도 하나를 포함할 수 있다.The team information may include at least one of life information and location information of the user and other users.

상기 팀정보를 동기화하는 단계는 SLAM을 사용하여 동시적 위치추정 및 지도작성을 할 수 있다.The step of synchronizing the team information can perform simultaneous position estimation and mapping using SLAM.

상기 가상의 존재는, 상기 실사영상을 분석한 결과에 기초하여, 소정의 훈련 난이도에 따라 생성되는 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 중의 적어도 어느 하나일 수 있다.The virtual presence may be at least one of virtual concealment, cover, enemy force, obstacle, weapon, and vehicle generated according to a predetermined training difficulty based on a result of analyzing the real image.

상기 가상영상을 생성하는 단계는, 소정의 훈련 난이도, 상기 동기화된 팀정보 및 상기 인식된 센서정보에 기초하여 상기 가상의 존재의 상태 또는 움직임을 실시간으로 제어하는 단계를 포함할 수 있다.The step of generating the virtual image may include controlling in real time the state or movement of the virtual presence based on the predetermined training difficulty, the synchronized team information, and the recognized sensor information.

상기 혼합현실 기반 군사 훈련 방법은, 상기 생성된 가상영상을 상기 실사영상에 합성하여 사용자의 HMD를 통하여 디스플레이하는 단계를 더 포함할 수 있다.The mixed reality-based military training method may further include displaying the generated virtual image on the real image through the user's HMD.

또한, 또 다른 바람직한 일 실시예에 따르면, 전술한 각 방법을 실행시키기 위한 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록매체가 제공된다.According to still another preferred embodiment, there is provided a computer-readable recording medium on which a program for executing the above-described respective methods is recorded.

이상과 같이, 본 발명에 따르면, 실제의 모의 군사 훈련 현장에서, 사용자가 착용하고 있는 카메라로부터 실시간으로 입력되는 현장의 실사영상을 분석하여 최적의 가상의 존재를 배치하여 생성하고, SLAM 등을 사용하여 타 사용자와 생사 정보 및 위치 정보 등을 동기화하고, 훈련 난이도 및 인식된 센서정보에 기초하여 가상의 존재의 상태 및 움직임을 실시간으로 제어하여 가상영상을 생성하고, 생성된 가상영상을 실사영상에 합성한 3D 영상을 사용자의 HMD에 실시간으로 출력함으로써, 현장에서의 훈련으로 보다 현실감을 높이는 동시에, 적군, 적군의 무기, 군용차량, 은폐물, 엄폐물, 장애물 등 가상의 존재를 실제 환경에서 일일이 모두 준비해야 하는 비용과 번거로움이 없어지므로 보다 효율적이고 유연한 상황의 모의 군사 훈련이 가능하도록 하는 효과가 있다.As described above, according to the present invention, in an actual simulated military training field, an actual virtual image of a scene input from a user in real time is analyzed to generate an optimal virtual presence, and SLAM or the like is used Synchronizes life and death information and location information with other users, generates a virtual image by controlling the state and motion of virtual existence in real time based on the training difficulty and the recognized sensor information, and outputs the generated virtual image to the real image By outputting the synthesized 3D image to the user's HMD in real time, it enhances the sense of reality by training in the field, and it prepares all the virtual existence such as enemy army, enemy army, military vehicle, cover, The cost and hassle to be done are eliminated, so that more efficient and flexible mock military training is possible. There is an effect.

도 1은 본 발명의 일 실시예에 따른 실사영상, 가상영상 및 합성영상을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 혼합현실 기반 군사 훈련용 장비들을 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 혼합현실 기반 군사 훈련 장치의 구성을 나타내는 블록도이다.
도 4는 본 발명의 다른 일 실시예에 따른 혼합현실 기반 군사 훈련 시스템을 나타내는 도면이다.
도 5는 본 발명의 또 다른 일 실시예에 따른 혼합현실 기반 군사 훈련 방법에 대한 구체적인 일례를 나타내는 순서도이다.
1 is a view showing a real image, a virtual image, and a composite image according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating equipment for mixed reality based military training according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of a mixed reality based military training apparatus according to an embodiment of the present invention.
4 is a view showing a mixed reality based military training system according to another embodiment of the present invention.
5 is a flowchart illustrating a specific example of a mixed reality based military training method according to another embodiment of the present invention.

이하, 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 하기의 설명에서는 본 발명의 실시예에 따른 동작을 이해하는데 필요한 부분만이 도시되고 설명되며 그 이외 부분의 도시와 설명은 본 발명의 요지를 흐리지 않도록 생략하였다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In the following description, only parts necessary for understanding the operation according to the embodiment of the present invention are shown and described, and the other parts of the drawings and descriptions are omitted so as not to obscure the gist of the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

또한, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.In addition, terms and words used in the following description and claims should not be construed to be limited to ordinary or dictionary meanings, but are to be construed in a manner consistent with the technical idea of the present invention As well as the concept.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우만을 한정하는 것이 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우 또는 유/무선 네트워크를 통해 유/무선으로 통신하는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it is not limited to the case where it is "directly connected," but is "electrically connected" Or wirelessly or wirelessly over a wired / wireless network. Also, when a part is referred to as "including " an element, it does not exclude other elements unless specifically stated otherwise.

설명의 간략함을 위해, 본 명세서에서는 예시를 들어 순서도 또는 플로우 차트의 형태로 하나 이상의 방법이 일련의 단계로서 도시되고 기술되어 있지만, 본 발명이 단계들의 순서에 의해 제한되지 않는데 그 이유는 본 발명에 따라 본 명세서에 도시되고 기술되어 있는 것과 다른 순서로 또는 다른 단계들과 동시에 행해질 수 있기 때문이라는 것을 잘 알 것이다. 또한, 예시된 모든 단계들이 본 발명에 따라 방법을 구현해야만 하는 것은 아닐 수 있다.For simplicity of explanation, one or more methods are shown and described herein as a series of steps, for example in the form of a flowchart or a flowchart, but the present invention is not limited by the order of the steps, As it can be done in a different order than that shown and described herein or concurrently with other steps. Furthermore, not all illustrated steps may have to be implemented in accordance with the present invention.

도 1은 본 발명의 일 실시예에 따른 실사영상, 가상영상 및 합성영상을 나타내는 도면이다.1 is a view showing a real image, a virtual image, and a composite image according to an embodiment of the present invention.

도 1(a)을 참조하면, 실제의 모의 군사 훈련 현장에서 사용자가 착용하고 있는 3D 카메라로부터 실시간으로 입력되는 실사영상으로서, 사용자의 가시각에 보이는 실제 현장의 화면이다. 3D 카메라는 사용자의 시야를 포함하는 전방의 실사영상을 촬영해야 하므로 사용자의 HMD 또는 스마트 글래스 등에 부착되는 것이 바람직하나 이에 반드시 한정되지는 않는다.Referring to FIG. 1 (a), it is a real scene image input from a 3D camera worn by a user in an actual simulated military training site, and is a real field scene displayed at the user's view angle. Since the 3D camera needs to photograph a real image of the front including the user's view, it is preferably, but not necessarily, attached to the user's HMD or smart glass.

도 1(b)를 참조하면, 실사영상에 추가되는 3D 가상영상으로서, 가상영상에는 실사영상에는 존재하지 않는 가상의 존재, 즉, 적군, 적군의 무기, 군용차량, 은폐물, 엄폐물, 장애물 등 다양한 객체가 포함될 수 있다.Referring to FIG. 1 (b), a 3D virtual image added to a real image includes a virtual image that is not present in a real image, that is, a virtual object such as an enemy, enemy weapon, military vehicle, concealed object, Objects can be included.

가상의 존재는 실사영상에 나타나 있는 지형이나 장애물 등의 위치와 크기 등을 인식 및 분석하여 효과적으로 배치할 수 있다. 예를 들면, 언덕이나 나무 등의 실물 뒤에 숨어 있는 적군이 나타나게 한다든가, 실사영상에는 없는 장애물을 배치시키거나, 멀리서부터 군용차량이 나타나게 하는 등의 다양한 효과를 내도록 구성할 수 있다. 이렇게 하면, 가상의 존재를 실제 환경에서 일일이 모두 준비해야 하는 비용과 번거로움이 없어지므로 보다 유연하게 훈련 환경을 조성할 수 있다. 또한, 소정의 훈련 난이도를 설정하여 움직이는 적군이나 차량 등의 속도나 수를 조절할 수도 있다.The virtual presence can be effectively arranged by recognizing and analyzing the position and size of the terrain or obstacle displayed on the real image. For example, it can be configured to have various effects such as displaying an enemy hiding behind a real object such as a hill or a tree, disposing obstacles that are not included in the real image, or displaying a military vehicle from afar. This eliminates the cost and hassle of preparing a virtual presence in a real environment, thus creating a more flexible training environment. In addition, it is also possible to set a predetermined difficulty level to adjust the speed or the number of moving enemy vehicles or vehicles.

도 1(c)를 참조하면, (a)의 실사영상과 (b)의 가상영상이 합성된 3D 영상으로서, 실제의 전방 현장에 가상의 존재가 추가된 영상이다. 이 합성된 영상을 사용자의 HMD에 디스플레이함으로써 사용자는 실제의 환경에서 가상의 존재가 추가된 영상으로 훈련을 실시할 수 있다.Referring to FIG. 1 (c), a 3D image synthesized with the virtual image of (a) and the virtual image of (b) is an image in which a virtual presence is added to an actual front scene. By displaying the synthesized image on the user's HMD, the user can perform the training with the image added with the virtual presence in the actual environment.

도 2는 본 발명의 일 실시예에 따른 혼합현실 기반 군사 훈련용 장비들을 나타내는 도면이다.FIG. 2 is a diagram illustrating equipment for mixed reality based military training according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 혼합현실 기반 군사 훈련용 장비는 군사 훈련 장치(10), 3D 카메라(11), HMD(21), 제스처 센서(35), 모의무기(37) 등을 포함하여 구성될 수 있다.Referring to FIG. 2, a mixed reality-based military training apparatus according to an embodiment of the present invention includes a military training apparatus 10, a 3D camera 11, an HMD 21, a gesture sensor 35, ), And the like.

군사 훈련 장치(10)는 달리거나 쓰러지는 등의 역동적인 군사 작전 훈련이 가능하도록 몸에 착용할 수 있는 웨어러블 형태나 어깨에 멜 수 있는 백팩 또는 가방의 형태로 제작되는 것이 바람직하지만, 이에 반드시 한정되지는 않는다.The military training device 10 is preferably constructed in the form of a wearable or shoulderable backpack or bag that can be worn on the body to enable dynamic military operations training such as running or collapsing, .

3D 카메라(11)는 사용자의 시야를 포함하는 전방의 실사영상을 촬영해야 하므로 사용자의 HMD 또는 스마트 글래스 등에 부착되는 것이 바람직하고, 사람의 시야보다 더 넓은 범위를 촬영할 수 있는 장치이면 더욱 바람직하다.The 3D camera 11 is preferably attached to a user's HMD or a smart glass because it needs to photograph a real image in front of the user, and it is more preferable that the 3D camera 11 is capable of photographing a wider range than a human's view.

HMD(21)는 가상 현실에 많이 사용되는, 실사영상과 가상영상을 하나의 3차원 가상 공간에 정합하여 사용자에게 전달하는 얼굴 착용형 디스플레이 장치이다. 통상적으로 사람의 좌우 시각에 서로 다른 영상 정보를 제시함으로써 입체감을 느끼도록 하는 스테레오 디스플레이(stereo display) 기술을 사용한다.The HMD 21 is a face wearable display device which is often used in a virtual reality, and matches a real image and a virtual image in a three-dimensional virtual space and transmits the same to a user. A stereoscopic display technique is used to display stereoscopic images by presenting different image information to the right and left eyes of a person.

제스처 센서(35)는 사용자의 신체에 부착되는 센서로서, 사용자의 자세 정보를 실시간으로 전송하며, 팔이나 다리 등에 하나 이상 구비할 수 있다.The gesture sensor 35 is a sensor attached to the user's body, and transmits the attitude information of the user in real time, and may include one or more such as an arm or a leg.

모의무기(37)는 총기류나 수류탄 등의 무기일 수 있으며, 센서가 장착되어 있어서, 실제 무기와 같은 효과를 낼 수 있다. 예를 들면, 가상의 적에게 향하여 격발을 하게 되면 센서로부터 받은 정보를 종합하여 가상의 적에게 명중한 경우에는 가상의 존재를 가상영상에서 사라지게 할 수 있다. 또한, 격발 등의 진동효과를 사용자가 인식할 수 있도록 모의무기(37)에 소정의 진동 장치를 구비하여 현실감을 더욱 높일 수도 있다.The simulated weapon 37 may be a weapon such as a gun or a grenade, and is equipped with a sensor, so that it can produce the same effect as a real weapon. For example, if you trigger a fictitious enemy, you can summarize the information received from the sensor and make the fictitious existence disappear from the virtual image if you hit a virtual enemy. In addition, a predetermined vibration device may be provided in the simulated weapon 37 so that the user can recognize the vibration effect such as triggering, thereby further enhancing the sense of reality.

도 3은 본 발명의 일 실시예에 따른 혼합현실 기반 군사 훈련 장치의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a mixed reality based military training apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명에 따른 군사 훈련 장치(10)는 가상존재 생성부(13), 센서정보 인식부(15), 팀정보 동기화부(17) 및 가상영상 생성부(19)를 필수 구성으로 포함하며, 영상합성부(23)를 더 포함하여 구성될 수도 있다.3, a military training apparatus 10 according to the present invention includes a virtual presence generating unit 13, a sensor information recognizing unit 15, a team information synchronizing unit 17, and a virtual image generating unit 19, And may further include an image synthesizing unit 23. The image synthesizing unit 23 may be a microcomputer.

가상존재 생성부(13)는 카메라(11)로부터 실시간으로 입력되는 훈련 현장의 3D 실사영상을 분석하여 가상의 존재를 생성할 수 있다. 가상존재 생성부(12)는 실사영상에 나타나 있는 지형이나 장애물 등의 위치와 크기 등을 인식 및 분석하고, 분석한 결과에 기초하여 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 등을 효과적으로 배치할 수 있다. 예를 들면, 언덕이나 나무 등의 실물 뒤에 숨어 있는 적군이 나타나게 한다든가, 실사영상에는 없는 장애물을 배치시키거나, 멀리서부터 군용차량이 나타나게 하는 등의 다양한 효과를 내도록 구성할 수 있다.The virtual presence generation unit 13 can generate a virtual presence by analyzing the 3D real-life image of the training scene input from the camera 11 in real time. The virtual presence generation unit 12 recognizes and analyzes the position and size of the terrain or obstacles displayed on the real image, analyzes the virtual concealment, cover, enemy, obstacle, weapon, vehicle, Can be deployed. For example, it can be configured to have various effects such as displaying an enemy hiding behind a real object such as a hill or a tree, disposing obstacles that are not included in the real image, or displaying a military vehicle from afar.

센서정보 인식부(15)는 사용자가 사용하는 모의무기(37) 또는 사용자의 신체에 부착된 센서(35)로부터 입력되는 정보를 수신하여 사용자의 자세 또는 모의무기의 상태 등을 인식할 수 있다. 센서정보 인식부(15)의 인식결과는 벡터 또는 좌표 등의 형태로 가상 존재의 제어에 사용될 수도 있고, 가상영상의 화면 구성에 사용될 수도 있다.The sensor information recognizing unit 15 can receive the information inputted from the simulated weapon 37 used by the user or the sensor 35 attached to the user's body to recognize the posture of the user or the state of the simulated weapon. The recognition result of the sensor information recognition unit 15 may be used for control of virtual presence in the form of a vector or coordinate, or may be used for a virtual image screen configuration.

팀정보 동기화부(17)는 훈련을 함께하는 팀 멤버인 타 사용자와 서로의 생사 정보 및 위치 정보 등을 공유한다.The team information synchronization unit 17 shares life and death information and location information with another user who is a team member who performs the training.

팀정보 동기화부(17)는 로봇공학 등에서 사용하는 SLAM 방식 등을 사용하여 구현될 수 있다. SLAM의 구현은 EKF(Extended Kalman Filter)를 사용하거나 SURF(Speeded Up Robust Features) 알고리즘을 사용하는 등 매우 다양하고, 주변 환경을 인식하고 거리정보를 측정하기 위해 초음파센서, 레이저센서, 비젼센서 등을 이용할 수 있으며, 사용자 간의 신호 전송을 통해 전략적인 포메이션 형성, 충돌 회피, 장애물 회피, 위치 추정 및 지도 작성 등이 가능하다. 동기화된 팀정보에 따라 효율적인 작전수행이 가능한데, 예를 들어 한 사용자의 전방에 나타난 가상의 적군이 타 사용자에 의해 제거되는 등의 상황 전개가 가능하다.The team information synchronization unit 17 may be implemented using a SLAM system used in robotics or the like. The implementation of SLAM is very diverse, such as using EKF (Extended Kalman Filter) or SURF (Speeded Up Robust Features) algorithm. In order to recognize the surrounding environment and to measure distance information, ultrasonic sensor, laser sensor, And can form strategic formation, collision avoidance, obstacle avoidance, location estimation, and map creation through signal transmission between users. According to the synchronized team information, an efficient operation can be performed. For example, it is possible to develop situations such that a virtual enemy group displayed in front of one user is removed by another user.

가상영상 생성부(19)는 팀정보 동기화부(17)에서 동기화된 팀정보, 가상존재 생성부(13)에서 생성된 가상의 존재, 센서정보 인식부(15)에서 인식된 정보 및 소정의 훈련 난이도 등에 기초하여 3D 가상영상을 생성할 수 있다. 또한, 가상영상 생성부(19)는 언급한 정보들에 기초하여 가상의 존재의 상태, 움직임, 개수 등을 실시간으로 제어할 수 있다.The virtual image generation unit 19 generates a virtual image based on the team information synchronized by the team information synchronization unit 17, the virtual presence generated by the virtual presence generation unit 13, the information recognized by the sensor information recognition unit 15, A 3D virtual image can be generated based on the difficulty level and the like. In addition, the virtual image generating unit 19 can control the state, motion, and number of the virtual presence in real time based on the mentioned information.

영상합성부(23)는 생성된 가상영상을 실사영상에 합성하며, 합성된 3D 영상은 사용자의 HMD(21)를 통하여 출력될 수 있다.The image synthesizing unit 23 synthesizes the generated virtual image with the real image, and the synthesized 3D image can be output through the HMD 21 of the user.

도 4는 본 발명의 다른 일 실시예에 따른 혼합현실 기반 군사 훈련 시스템을 나타내는 도면이다.4 is a view showing a mixed reality based military training system according to another embodiment of the present invention.

도 4를 참조하면, 본 발명에 따른 혼합현실 기반 군사 훈련 장치(10)는 여러 사용자가 동시에 착용하고 사용할 수 있는데, 이렇게 팀으로 군사 작전 훈련을 하는 경우에 사용자들 간에 위치 정보나 생사 정보들을 공유하는 시스템이 도시되어 있다.Referring to FIG. 4, the mixed reality-based military training apparatus 10 according to the present invention can be worn by a plurality of users at the same time. In this way, when a military operation training is performed by a team, Lt; / RTI >

전방에 보이는 지형 정보, 가상의 존재와 관련된 정보들은 각 사용자들이 휴대하는 군사 훈련 장치(10)에 저장하고, 사용자들 간의 위치 정보나 생사 정보 같은 공용 정보들은 각 사용자들이 서버(50)에 저장하는 것이 바람직하다.Information related to the presence of the terrain that is visible in front and information related to the virtual presence are stored in the military training apparatus 10 carried by each user and common information such as position information and life and death information between users is stored in the server 50 .

예를 들어, SLAM 방식 등으로 구현된 동시적 위치추정 및 지도작성 정보들은 서버(50)에 저장하고, 각 사용자들이 서버와 무선 통신으로 접속하여 통기화를 하는 것이다. 지도가 만들어지면 각 사용자의 좌표값 만으로도 위치 정보를 공유할 수 있기 때문에 이 정도의 무선 전송은 빠르게 송수신이 가능하다.For example, the simultaneous position estimation and mapping information implemented by the SLAM method and the like are stored in the server 50, and each user accesses the server by wireless communication to make the communication. When a map is created, the position information can be shared by only the coordinate values of each user, so that wireless transmission can be transmitted and received at a high speed.

도 5는 본 발명의 또 다른 일 실시예에 따른 혼합현실 기반 군사 훈련 방법에 대한 구체적인 일례를 나타내는 순서도이다.5 is a flowchart illustrating a specific example of a mixed reality based military training method according to another embodiment of the present invention.

도 5를 참조하면, S102 단계에서는 실제의 훈련 현장에서 사용자의 신체에 부착된 3D 카메라로부터 실시간으로 실사영상이 입력된다.Referring to FIG. 5, in step S102, a live-view image is input in real time from a 3D camera attached to a user's body at an actual training site.

또한, 동시에 실시간으로 생사정보, 위치정보 등의 팀정보를 동기화할 수 있다(S104).At the same time, team information such as life and death information and position information can be synchronized in real time (S104).

또한, 동시에 실시간으로 모의무기의 센서(37) 또는 사용자의 신체에 부착된 센서(35)로부터 입력되는 정보를 수신하여 모의무기의 상태나 사용자의 자세 등을 인식할 수 있다(S106).At the same time, the state of the simulated weapon, the attitude of the user, and the like can be recognized in real time by receiving information input from the simulated weapon sensor 37 or the sensor 35 attached to the user's body (S106).

S108 단계에서는, S102 단계에서 입력된 실사영상에 나타나 있는 지형이나 장애물 등의 위치와 크기 등을 인식 및 분석하고, 분석한 결과에 기초하여 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 등의 가상의 존재를 효과적으로 배치 생성할 수 있다.In step S108, the location and size of the terrain or obstacle displayed in the real image inputted in step S102 are recognized and analyzed, and based on the analyzed result, the virtual concealment, cover, enemy, obstacle, It is possible to effectively create a virtual existence.

S110 단계에서는, 소정의 훈련 난이도, S104 단계에서 동기화된 팀정보, S106 단계에서 인식된 센서정보에 기초하여 가상의 존재의 상태 또는 움직임을 실시간으로 제어할 수 있다.In step S110, based on the predetermined training difficulty, the team information synchronized in step S104, and the sensor information recognized in step S106, the virtual presence state or movement can be controlled in real time.

S112 단계에서는, S108 단계에서 생성되고 S110 단계에서 제어된 가상의 존재, 훈련 난이도, S104 단계에서 동기화된 팀정보, S106 단계에서 인식된 센서정보에 기초하여 가상영상을 생성할 수 있다.In step S112, a virtual image can be generated based on virtual presence, the training difficulty, the team information synchronized in step S104, and the sensor information recognized in step S106, which are generated in step S108 and controlled in step S110.

S112 단계에서 생성된 가상영상은 S102 단계에서 입력된 실사영상에 합성되고(S114), 합성된 3D 영상은 사용자의 HMD(21)를 통하여 출력될 수 있다(S116).The virtual image generated in step S112 is combined with the real image input in step S102 (S114), and the synthesized 3D image can be output through the user's HMD 21 (S116).

이상과 같이, 본 실시예들에 의하면, 실제의 모의 군사 훈련 현장에서, 사용자가 착용하고 있는 카메라로부터 실시간으로 입력되는 현장의 실사영상을 분석하여 최적의 가상의 존재를 배치하여 생성하고, SLAM 등을 사용하여 타 사용자와 생사 정보 및 위치 정보 등을 동기화하고, 훈련 난이도 및 인식된 센서정보에 기초하여 가상의 존재의 상태와 움직임을 실시간으로 제어하여 가상영상을 생성하고, 생성된 가상영상을 실사영상에 합성한 3D 영상을 사용자의 HMD에 실시간으로 출력함으로써, 현장에서의 훈련으로 보다 현실감을 높이는 동시에, 적군, 적군의 무기, 군용차량, 은폐물, 엄폐물, 장애물 등 가상의 존재를 실제 환경에서 일일이 모두 준비해야 하는 비용과 번거로움이 없어지므로 보다 효율적이고 유연한 상황의 모의 군사 훈련이 가능하도록 하는 효과가 있다.As described above, according to the embodiments, in the actual simulated military training field, the real image of the scene input from the camera in real time is analyzed from the camera worn by the user, and the optimal virtual presence is arranged and generated. Synchronizes life and death information and location information with other users, generates a virtual image by controlling the state and motion of a virtual existence in real time based on the training difficulty and the recognized sensor information, By outputting the 3D image synthesized in the image to the user's HMD in real time, it is possible to improve the reality by training in the field, and realize the virtual existence such as enemy army, enemy army, military vehicle, cover, It eliminates the cost and hassle of having to prepare everything so that you can do mock military training in a more efficient and flexible situation. .

또한, 이상에서 설명된 혼합현실 기반 군사 훈련 방법의 실시예는 다양한 컴퓨터 구성요소들을 통하여 수행될 수 있는 컴퓨터 프로그램 명령어의 형태로 구현될 수 있다. 또한, 상기 구현된 컴퓨터 프로그램은 컴퓨터 판독 가능한 기록 매체에 기록될 수도 있다. 언급된 기록 매체는 ROM, 자기 디스크 혹은 콤팩트 디스크, 광 디스크 등 일 수 있으나, 이에 반드시 한정되지는 않는다.In addition, embodiments of the mixed reality based military training method described above may be implemented in the form of computer program instructions that may be executed through various computer components. Furthermore, the computer program embodied may be recorded on a computer-readable recording medium. The recording medium mentioned above may be, but is not necessarily, a ROM, a magnetic disk or a compact disk, an optical disk, or the like.

이상에서와 같이, 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, . Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10: 군사 훈련 장치
11: 3D 카메라
13: 가상존재 생성부
15: 센서정보 인식부
17: 팀정보 동기화부
19: 가상영상 생성부
21: HMD
23: 영상합성부
35: 제스처 센서
37: 모의무기
50: 서버
10: Military training device
11: 3D camera
13:
15: Sensor information recognition unit
17: Team information synchronization section
19: virtual image generation unit
21: HMD
23:
35: Gesture sensor
37: Mock weapon
50: Server

Claims (14)

실제의 훈련 현장에서 사용하는 혼합현실 기반 군사 훈련 장치로서,
팀정보를 동기화하는 팀정보 동기화부;
사용자가 사용하는 모의무기 또는 상기 사용자의 신체에 부착된 센서로부터 입력되는 정보를 인식하는 센서정보 인식부;
실시간으로 입력되는 상기 훈련 현장의 3D 실사영상을 분석하고, 상기 분석한 결과에 기초하여 가상의 존재를 배치하여 생성하는 가상존재 생성부; 및
상기 동기화된 팀정보, 상기 인식된 센서정보 및 상기 생성된 가상의 존재 중에서 적어도 하나에 기초하여 3D 가상영상을 생성하는 가상영상 생성부;
를 포함하는 혼합현실 기반 군사 훈련 장치.
As a mixed reality based military training device used in actual training field,
A team information synchronization unit for synchronizing team information;
A sensor information recognition unit for recognizing information input from a simulated weapon used by a user or a sensor attached to the user's body;
A virtual presence creator for analyzing a 3D real image of the training field input in real time and arranging a virtual presence based on the result of the analysis; And
A virtual image generation unit for generating a 3D virtual image based on at least one of the synchronized team information, the recognized sensor information, and the generated virtual presence;
Based military training device.
제 1항에 있어서,
상기 팀정보는 상기 사용자와 타 사용자의 생사 정보 및 위치 정보 중에서 적어도 하나를 포함하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
Wherein the team information includes at least one of life information and location information of the user and other users.
제 1항에 있어서,
상기 팀정보 동기화부는 SLAM(simultaneous localization and mapping)을 사용하여 동시적 위치추정 및 지도작성을 하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
Wherein the team information synchronization unit performs simultaneous localization and mapping using simultaneous localization and mapping (SLAM).
제 1항에 있어서,
상기 가상의 존재는,
상기 실사영상을 분석한 결과에 기초하여, 소정의 훈련 난이도에 따라 생성되는 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 중의 적어도 어느 하나인 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
The virtual presence means that,
Based on a result of analyzing the real image, at least one of virtual concealment, cover, enemy force, obstacle, weapon, and vehicle generated according to a predetermined training degree of difficulty.
제 1항에 있어서,
상기 가상영상 생성부는,
소정의 훈련 난이도, 상기 동기화된 팀정보 및 상기 인식된 센서정보에 기초하여 상기 가상의 존재의 상태 또는 움직임을 실시간으로 제어하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
Wherein the virtual image generating unit comprises:
Wherein the control unit controls in real time the status or movement of the virtual presence based on the predetermined training difficulty, the synchronized team information, and the recognized sensor information.
제 1항에 있어서,
상기 실사영상은 상기 사용자가 훈련 중에 착용하고 있는 카메라로부터 입력되는 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
Wherein the real image is input from a camera worn by the user during training.
제 1항에 있어서,
상기 생성된 가상영상은 상기 실사영상에 합성되어 사용자의 HMD를 통하여 디스플레이되는 것을 특징으로 하는 혼합현실 기반 군사 훈련 장치.
The method according to claim 1,
Wherein the generated virtual image is synthesized with the real image and displayed through a user's HMD.
실제의 훈련 현장에서 사용하는 혼합현실 기반 군사 훈련 방법으로서,
팀정보를 동기화하는 단계;
사용자가 사용하는 모의무기 또는 상기 사용자의 신체에 부착된 센서로부터 입력되는 정보를 인식하는 단계;
실시간으로 입력되는 상기 훈련 현장의 3D 실사영상을 분석하고, 상기 분석한 결과에 기초하여 가상의 존재를 배치하여 생성하는 단계; 및
상기 동기화된 팀정보, 상기 인식된 센서정보 및 상기 생성된 가상의 존재 중에서 적어도 하나에 기초하여 3D 가상영상을 생성하는 단계;
를 포함하는 혼합현실 기반 군사 훈련 방법.
As a mixed reality based military training method used in actual training field,
Synchronizing the team information;
Recognizing information input from a simulated weapon used by a user or a sensor attached to the user's body;
Analyzing a 3D real-life image of the training field input in real time, and arranging a virtual entity based on the analyzed result; And
Generating a 3D virtual image based on at least one of the synchronized team information, the recognized sensor information, and the generated virtual presence;
Based military training method.
제 8항에 있어서,
상기 팀정보는 상기 사용자와 타 사용자의 생사 정보 및 위치 정보 중에서 적어도 하나를 포함하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 방법.
9. The method of claim 8,
Wherein the team information includes at least one of life information and location information of the user and other users.
제 9항에 있어서,
상기 팀정보를 동기화하는 단계는 SLAM을 사용하여 동시적 위치추정 및 지도작성을 하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 방법.
10. The method of claim 9,
Wherein the step of synchronizing the team information comprises simultaneous position estimation and mapping using SLAM.
제 8항에 있어서,
상기 가상의 존재는,
상기 실사영상을 분석한 결과에 기초하여, 소정의 훈련 난이도에 따라 생성되는 가상의 은폐물, 엄폐물, 적군, 장애물, 무기 및 차량 중의 적어도 어느 하나인 것을 특징으로 하는 혼합현실 기반 군사 훈련 방법.
9. The method of claim 8,
The virtual presence means that,
Based on a result of analyzing the real image, at least one of virtual concealment, cover, enemy, obstacle, weapon, and vehicle generated according to a predetermined training difficulty.
제 8항에 있어서,
상기 가상영상을 생성하는 단계는,
소정의 훈련 난이도, 상기 동기화된 팀정보 및 상기 인식된 센서정보에 기초하여 상기 가상의 존재의 상태 또는 움직임을 실시간으로 제어하는 단계;
를 포함하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 방법.
9. The method of claim 8,
Wherein the step of generating the virtual image comprises:
Controlling in real time the state or movement of the virtual entity based on a predetermined training difficulty, the synchronized team information, and the recognized sensor information;
Based military training method.
제 8항에 있어서,
상기 생성된 가상영상을 상기 실사영상에 합성하여 사용자의 HMD를 통하여 디스플레이하는 단계;
를 더 포함하는 것을 특징으로 하는 혼합현실 기반 군사 훈련 방법.
9. The method of claim 8,
Synthesizing the generated virtual image with the real image and displaying the virtual image through a user's HMD;
Based military training method. ≪ RTI ID = 0.0 > 8. < / RTI >
청구항 제 8항 내지 청구항 제 13항 중의 어느 한 항에 따른 방법을 실행시키기 위한 프로그램이 기록된, 컴퓨터에서 판독 가능한 기록매체.

A computer-readable recording medium on which a program for executing the method according to any one of claims 8 to 13 is recorded.

KR1020170074447A 2017-06-13 2017-06-13 Methods and apparatus for military training based on mixed reality KR20180135761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170074447A KR20180135761A (en) 2017-06-13 2017-06-13 Methods and apparatus for military training based on mixed reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170074447A KR20180135761A (en) 2017-06-13 2017-06-13 Methods and apparatus for military training based on mixed reality

Publications (1)

Publication Number Publication Date
KR20180135761A true KR20180135761A (en) 2018-12-21

Family

ID=64960178

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170074447A KR20180135761A (en) 2017-06-13 2017-06-13 Methods and apparatus for military training based on mixed reality

Country Status (1)

Country Link
KR (1) KR20180135761A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110164233A (en) * 2019-06-06 2019-08-23 西安勺子智能科技有限公司 A kind of Portable individual weapon simulated training system based on MR
KR102103404B1 (en) * 2019-05-23 2020-04-23 주식회사 피앤씨솔루션 A operation situation sharing system using head mounted display apparatus
KR102146264B1 (en) * 2020-01-08 2020-08-20 제이에스씨(주) Platform system for joint training of command and control using augmented reality based on 5G network
KR20210060834A (en) * 2019-11-19 2021-05-27 주식회사 유토비즈 A multi-access multiple cooperation military education training system
CN114911340A (en) * 2022-02-17 2022-08-16 国政通科技有限公司 Intelligent alarm condition commanding and practicing system and method based on metasystem
KR20230047593A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training system for responding to chemical terrorism
KR20230047586A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training system for responding to unexpected situation
KR20230047588A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method for responding to unexpected situation
KR20230047583A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method
KR20230047599A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method for responding to chemical terrorism
CN116740293A (en) * 2023-06-13 2023-09-12 西安速度时空大数据科技有限公司 Digital twinning-based three-dimensional terrain model acquisition method, device and storage medium
CN117690330A (en) * 2024-02-04 2024-03-12 咸阳华精电子科技有限公司 Intelligent military operation strategy simulation training system and method
CN117690330B (en) * 2024-02-04 2024-05-07 咸阳华精电子科技有限公司 Intelligent military operation strategy simulation training system and method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102103404B1 (en) * 2019-05-23 2020-04-23 주식회사 피앤씨솔루션 A operation situation sharing system using head mounted display apparatus
CN110164233A (en) * 2019-06-06 2019-08-23 西安勺子智能科技有限公司 A kind of Portable individual weapon simulated training system based on MR
KR20210060834A (en) * 2019-11-19 2021-05-27 주식회사 유토비즈 A multi-access multiple cooperation military education training system
KR102146264B1 (en) * 2020-01-08 2020-08-20 제이에스씨(주) Platform system for joint training of command and control using augmented reality based on 5G network
KR20230047586A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training system for responding to unexpected situation
KR20230047593A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training system for responding to chemical terrorism
KR20230047588A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method for responding to unexpected situation
KR20230047583A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method
KR20230047599A (en) * 2021-10-01 2023-04-10 대한민국(환경부 화학물질안전원장) Virtual reality training method for responding to chemical terrorism
CN114911340A (en) * 2022-02-17 2022-08-16 国政通科技有限公司 Intelligent alarm condition commanding and practicing system and method based on metasystem
CN116740293A (en) * 2023-06-13 2023-09-12 西安速度时空大数据科技有限公司 Digital twinning-based three-dimensional terrain model acquisition method, device and storage medium
CN117690330A (en) * 2024-02-04 2024-03-12 咸阳华精电子科技有限公司 Intelligent military operation strategy simulation training system and method
CN117690330B (en) * 2024-02-04 2024-05-07 咸阳华精电子科技有限公司 Intelligent military operation strategy simulation training system and method

Similar Documents

Publication Publication Date Title
KR20180135761A (en) Methods and apparatus for military training based on mixed reality
US11886631B2 (en) Systems and methods for virtual and augmented reality
US9779633B2 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US10558048B2 (en) Image display system, method for controlling image display system, image distribution system and head-mounted display
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
KR101670147B1 (en) Portable device, virtual reality system and method
CN105608746B (en) A method of reality is subjected to Virtual Realization
US9600067B2 (en) System and method for generating a mixed reality environment
US9449394B2 (en) Image synthesis device, image synthesis system, image synthesis method and program
US10030931B1 (en) Head mounted display-based training tool
CN105824416B (en) A method of by virtual reality technology in conjunction with cloud service technology
KR102188313B1 (en) Multi-model flight training simulator using VR
US11156830B2 (en) Co-located pose estimation in a shared artificial reality environment
KR20170044318A (en) Method for collaboration using head mounted display
KR102148103B1 (en) Method and apparatus for generating mixed reality environment using a drone equipped with a stereo camera
KR20210072902A (en) Tactical training system optimized for multiple users to share a watch in augmented reality
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
JP6775669B2 (en) Information processing device
KR101770188B1 (en) Method for providing mixed reality experience space and system thereof
CN105893452A (en) Method and device for presenting multimedia information
JP6613099B2 (en) Program, computer and head-mounted display system for stereoscopic display of virtual reality space
JP6473872B2 (en) Video construction device, pseudo-visual experience system, and video construction program
Patel et al. An Audit of Augmented reality technology utilization
US10726735B1 (en) Simulation and training with virtual participants in a real-world environment
Levin et al. Innovative system architecture for spatial volumetric acoustic seeing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application