KR102277393B1 - Apparatus and method for training - Google Patents
Apparatus and method for training Download PDFInfo
- Publication number
- KR102277393B1 KR102277393B1 KR1020190151271A KR20190151271A KR102277393B1 KR 102277393 B1 KR102277393 B1 KR 102277393B1 KR 1020190151271 A KR1020190151271 A KR 1020190151271A KR 20190151271 A KR20190151271 A KR 20190151271A KR 102277393 B1 KR102277393 B1 KR 102277393B1
- Authority
- KR
- South Korea
- Prior art keywords
- real
- disaster
- robot
- time image
- simulation
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
Abstract
훈련 장치가 제공된다. 상기 훈련 장치는 실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트; 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함할 수 있다.A training device is provided. The training device may include: an acquisition unit configured to acquire an actual real-time image captured by an actual robot; and a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image.
Description
본 발명은 재난 대응 로봇을 조종하는 조종사를 훈련시키는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for training a pilot to operate a disaster response robot.
소방관이 직접 투입되기 힘든 화재, 농연, 붕괴 등의 복합 재난 환경에서 구조 및 탐색을 위해 재난 대응 로봇이 이용될 수 있다.A disaster response robot may be used for rescue and search in a complex disaster environment such as fire, agricultural smoke, collapse, etc., where it is difficult for firefighters to be directly deployed.
재난 대응 로봇이 투입되는 환경에서는 전문 로봇 조종사들이 한정된 영상 정보 및 음성 정보를 기반으로 원격 제어기를 사용하여 로봇을 제어한다.In an environment where disaster response robots are deployed, professional robot pilots control the robot using a remote controller based on limited video and audio information.
현장에서 정확하게 로봇을 조종하기 위해, 조종사들은 유사한 재난 환경이나 가상 현실 기반의 훈련 시스템에서 반복적인 로봇 제어 훈련을 수행하고 있다. 따라서, 반복적인 훈련을 위한 재난 환경 모사에 소비되는 비용적 문제 및 훈련 시스템 내에서 실제 로봇의 움직임을 모사하는 과정에서 현실 유사성 문제가 발생한다.In order to accurately control the robot in the field, pilots are performing repetitive robot control training in similar disaster environments or virtual reality-based training systems. Therefore, a problem of cost consumed in simulating a disaster environment for repetitive training and a problem of similarity to reality arise in the process of simulating the movement of a real robot in the training system.
한국등록특허공보 제1875170호에는 체감형 소방훈련 시뮬레이션 시스템이 나타나 있다.Korean Patent Publication No. 1875170 discloses a tangible fire drill simulation system.
본 발명은 실제 재난 상황과 유사한 로봇 조종 환경을 제공하는 훈련 장치 및 훈련 방법을 제공하기 위한 것이다.An object of the present invention is to provide a training apparatus and a training method that provide a robot control environment similar to an actual disaster situation.
본 발명의 훈련 장치는 실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트; 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함할 수 있다.The training apparatus of the present invention includes: an acquisition unit for acquiring an actual real-time image taken by an actual robot; and a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image.
본 발명의 훈련 방법은 로봇이 실시간으로 촬영한 실시간 영상, 상기 로봇의 관성 측정 정보 및 주행 거리 정보, 상기 로봇이 배치된 환경 정보를 획득하는 획득 단계; 상기 관성 측정 정보 및 상기 주행 거리 정보 중 적어도 하나를 이용해서 상기 로봇의 위치 정보 및 방향 정보를 산출하는 산출 단계; 상기 환경 정보를 이용해서 가상 공간을 생성하고, 상기 로봇의 위치 정보를 이용해서 상기 가상 공간 상에 상기 로봇을 매칭시키는 단계; 상기 로봇의 위치 정보 및 상기 방향 정보를 이용해서 상기 가상 공간 상에서 상기 실시간 영상에 매칭되는 매칭 영역을 추출하는 단계; 상기 매칭 영역에서 형상화가 필요한 재난 정보를 판단하고, 상기 재난 정보를 상기 매칭 영역에 형상화하는 단계; 상기 실시간 영상과 상기 매칭 영역을 통합시켜 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 단계; 상기 로봇의 조종 유니트에 상기 재난 환경을 제공하는 단계;를 포함할 수 있다.The training method of the present invention includes an acquisition step of acquiring a real-time image captured by the robot in real time, inertial measurement information and mileage information of the robot, and environment information in which the robot is disposed; a calculation step of calculating position information and direction information of the robot using at least one of the inertia measurement information and the travel distance information; creating a virtual space using the environment information, and matching the robot on the virtual space using the position information of the robot; extracting a matching area matching the real-time image in the virtual space using the position information and the direction information of the robot; determining disaster information that needs to be shaped in the matching area, and shaping the disaster information in the matching area; generating a disaster environment in which virtual disaster information is added to the real-time image by integrating the real-time image and the matching area; It may include; providing the disaster environment to the control unit of the robot.
본 발명의 훈련 장치 및 훈련 방법은 실제 사고 현장을 추종하는 증강 현실을 구현할 수 있다. 증강 현실을 통해 조종사는 실제의 사고 현장과 유사한 훈련 상황에서 로봇의 조종 훈련을 실시할 수 있다.The training apparatus and training method of the present invention can implement augmented reality that tracks the actual accident scene. Augmented reality allows pilots to conduct pilot training of robots in training situations similar to real-life accident sites.
실제 재난 상황에서 조종사는 로봇이 촬영한 실시간 영상(음성 포함)만으로 주변 환경을 파악하고 로봇을 조종하게 된다. 실제 상황을 모의하기 위해 본 발명의 훈련 장치는 로봇이 촬영한 실시간 영상에 실제의 재난 상황을 투영해서 형상화할 수 있다.In an actual disaster situation, the pilot can control the robot by understanding the surrounding environment only with the real-time video (including voice) recorded by the robot. In order to simulate a real situation, the training device of the present invention may project and shape an actual disaster situation on a real-time image captured by the robot.
본 발명에 따르면, 실제 로봇의 모터 제어 명령 및 카메라 영상 정보를 통해 로봇의 동작 또는 움직임을 획득하고, 증강 현실 기반의 화재, 농연 등의 재난 환경을 생성하는 재난 로봇 훈련 시스템이 제공될 수 있다.According to the present invention, there can be provided a disaster robot training system that acquires the motion or movement of the robot through a motor control command of the real robot and camera image information, and creates a disaster environment such as fire and agricultural activities based on augmented reality.
본 발명의 훈련 장치 및 방법에 따르면, 재난 환경 모사에 소비되는 비용적 문제가 감소될 수 있다. 또한, 본 발명에 따르면, 실제 로봇의 움직임을 이용해서 증강 현실을 구현하므로, 로봇의 실제 움직임을 모사하기 위한 현실 유사성 문제가 자연스럽게 해소될 수 있다.According to the training apparatus and method of the present invention, the cost problem spent on simulating a disaster environment can be reduced. In addition, according to the present invention, since augmented reality is implemented using the movement of the real robot, the problem of similarity in reality for simulating the actual movement of the robot can be naturally solved.
본 발명에 따르면, 다양한 지형지물을 대상으로 훈련이 가능하므로, 재난 대응 로봇의 훈련 효과가 개선되고, 로봇의 활용성이 개선될 수 있다. 본 발명에 따르면, 재난 대응 로봇의 실시간 로봇 상태 및 환경에 영향을 받는 로봇의 실제 카메라 영상에 다양한 재난 대응 상황이 증강 현실로 통합될 수 있다. 실제 카메라 영상과 재난 대응 상황이 증강 현실로 통합된 영상을 이용해서 조종사의 훈련이 진행되므로, 재난 상황을 저비용으로 모사하는 훈련 시스템이 제공될 수 있다. According to the present invention, since training is possible for various topographical features, the training effect of the disaster response robot can be improved, and the usability of the robot can be improved. According to the present invention, various disaster response situations can be integrated into augmented reality in the real-time camera image of the robot affected by the real-time robot state and environment of the disaster response robot. Since the training of the pilot is carried out using an image in which an actual camera image and a disaster response situation are integrated into augmented reality, a training system that simulates a disaster situation at a low cost can be provided.
도 1은 본 발명의 훈련 시스템을 나타낸 개략도이다.
도 2는 본 발명의 훈련 장치를 나타낸 개략도이다.
도 3은 본 발명의 훈련 장치의 동작을 나타낸 개략도이다.
도 4는 본 발명의 훈련 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a schematic diagram illustrating a training system of the present invention.
2 is a schematic diagram showing a training device of the present invention.
3 is a schematic diagram showing the operation of the training device of the present invention.
4 is a flowchart illustrating a training method of the present invention.
5 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but another element in the middle. It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise. Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.
도 1은 본 발명의 훈련 시스템을 나타낸 개략도이다.1 is a schematic diagram illustrating a training system of the present invention.
도 1에 도시된 훈련 시스템은 로봇(10), 조종 유니트(30), 훈련 서버(100)를 포함할 수 있다. 훈련 서버(100)는 로봇(10), 조종 유니트(30)에 대해 독립적으로 존재할 수 있다. 또는, 훈련 서버(100)는 로봇(10)에 일체로 형성되거나, 조종 유니트(30)에 일체로 형성될 수 있다.The training system shown in FIG. 1 may include a
로봇(10)은 화재, 농연, 가스 오염, 침수 등의 재난 상황 발생시 설정 지역을 탐색하거나, 인명을 구조하거나, 재난을 진압할 수 있다. 특히, 로봇(10)은 소방관이 진입하기 어려운 장소에 투입될 수 있다.The
조종 유니트(30)는 원격으로 로봇(10)을 조종할 수 있다. 조종 유니트(30)에는 로봇(10)과 통신하는 통신 모듈, 조종사에 의해 조작되는 핸들, 조종사가 바라보는 표시부를 포함할 수 있다.The
육안으로 로봇(10) 또는 재난 환경이 보이지 않는 상황에서, 조종사는 표시부를 이용해 로봇(10)의 위치를 파악하거나 재난 환경을 인지하고, 인지 내용에 따라 로봇(10)을 조종할 수 있다.In a situation in which the
조종사는 화재, 침수, 농연, 가스 오염 등의 재난 상황이 발생되지 않은 지형지물에 로봇(10)을 투입한 상태에서 로봇(10) 조종 훈련을 실시할 수 있다. 그러나, 재난 상황이 반영되지 않은 훈련에 따르면, 실제의 재난 상황에서 시시각각 달라지는 주변 변화에 대응하기 어렵다.The pilot may perform the
훈련 효과를 개선하기 위해, 실제의 지형지물에 불을 붙여서 실제의 재난 상황을 구현하고, 훈련이 진행될 수 있다. 이 경우, 훈련 효과는 대단히 높지만 지형지물의 소실로 인해 단발적인 훈련에 그치게 된다. 따라서, 반복 훈련이 불가능하다.In order to improve the training effect, a real disaster situation may be realized by lighting a real landmark, and the training may proceed. In this case, the training effect is very high, but the training is limited to one-off training due to the loss of the features. Therefore, repeated training is impossible.
훈련 서버(100)는 증강 현신을 이용해서 실제의 재난 상황과 유사한 훈련 환경을 조종사에게 제공할 수 있다.The
도 2는 본 발명의 훈련 장치를 나타낸 개략도이다.2 is a schematic diagram showing a training device of the present invention.
도 2에 도시된 훈련 장치는 도 1의 훈련 서버(100)를 포함할 수 있다.The training apparatus shown in FIG. 2 may include the
본 발명의 훈련 장치는 획득 유니트(110) 및 모의 유니트(130)를 포함할 수 있다.The training apparatus of the present invention may include an
획득 유니트(110)는 실제의 로봇(10)이 촬영한 실시간 영상을 획득할 수 있다.The
모의 유니트(130)는 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성할 수 있다.The
일 예로, 화재와 관련된 훈련의 경우, 실시간 영상에 실제의 화염 이미지나 연기 이미지를 오버레이(overlay)시켜서 표시하면, 실제의 화재 현장을 촬영한 영상과 유사할 수 있다. 실제의 화재 현장을 촬영한 영상과 유사하게 조작된 영상이 재난 환경에 해당될 수 있다. 또는, 재난이 발생하지 않은 지형지물에 가상의 재난을 부여한 상태가 재난 환경에 해당될 수 있다. 재난 환경은 훈련을 진행하는 조종사에게 시각적으로 인지되거나, 청각적으로 인지될 필요가 있다. 따라서, 재난 환경은 조종사가 눈으로 바라볼 수 있는 화염, 물, 연기 등이 시각적으로 형상화된 이미지 데이터를 포함할 수 있다. 또는, 재난 환경은 조종사가 귀로 들을 수 있는 불타는 소리, 물 소리 등이 청각적으로 청각적으로 형상화된 음성(음향) 데이터를 포함할 수 있다. 재난 환경은 이미지 데이터와 음성 데이터를 모두 포함할 수 있다.For example, in the case of fire-related training, if an actual flame image or a smoke image is overlaid and displayed on a real-time image, it may be similar to an image of an actual fire scene. An image manipulated similarly to an image of an actual fire scene may correspond to a disaster environment. Alternatively, a state in which a virtual disaster is given to a geographical feature in which a disaster has not occurred may correspond to a disaster environment. The disaster environment needs to be perceived visually or acoustically by the pilot conducting the training. Accordingly, the disaster environment may include image data in which flames, water, smoke, etc. that the pilot can see with his/her eyes are visually shaped. Alternatively, the disaster environment may include voice (acoustic) data in which the sound of burning, water, and the like, which can be heard by the pilot, is aurally and aurally shaped. The disaster environment may include both image data and voice data.
획득 유니트(110)에는 제1 획득부(111), 제2 획득부(112), 제3 획득부(113)가 마련될 수 있다.The
제1 획득부(111)는 실제의 로봇(10)이 촬영한 실제의 실시간 영상을 획득할 수 있다.The
제2 획득부(112)는 로봇(10)의 관성 측정 정보 및 주행 거리 정보를 획득할 수 있다. 제2 획득부(112)는 관성 측정 정보 및 주행 거리 정보 중 적어도 하나를 이용해서 로봇(10)의 현재 위치 및 방향을 산출할 수 있다.The
제2 획득부(112)는 종국적으로 로봇(10)의 현재 위치(위도 위치, 경도 위치, 해발 높이 등)와 로봇(10)에 장착된 카메라의 광축 방향을 획득하는 것을 목적으로 한다. 로봇(10)이 GPS 모듈 등을 이용해 자기 위치를 파악할 수 있으면, 제2 획득부(112)는 로봇(10)으로부터 위치 정보를 곧바로 획득할 수 있다.The
그러나, 재난 환경의 지형 지물이 실내, 지하, 터널 등인 경우 GPS 모듈의 미동작으로 인해 로봇(10)은 자기 위치를 직접 파악할 수 없다. 자기 위치를 파악하기 곤란한 각종 상황을 대비해 로봇(10)은 관성 측정 정보 및 주행 거리 정보를 생성할 수 있다. 해당 정보는 조종 유니트(30)에게 제공될 수 있으며, 훈련 상황시 제2 획득부(112)에 제공될 수 있다. 제2 획득부(112)는 속도, 가속도, 각속도, 방향, 중력 등을 파악할 수 있는 관성 측정 정보 및 주행 거리 정보를 이용해서, 로봇(10)의 현재 위치를 산출할 수 있다.However, when the topographical features of the disaster environment are indoors, underground, tunnels, etc., the
제3 획득부(113)는 로봇(10)이 배치된 환경 정보를 획득할 수 있다. 환경 정보는 로봇(10)이 투입된 지형 지물에 대한 각종 정보를 포함할 수 있다. 일 예로, 환경 정보에는 지형 지물의 높이, 길이, 폭, 재질, 실내 구조, 실내 형상, 지형 지물 내에 배치된 각종 시설물의 종류, 시설물의 재질, 시설물의 위치 등이 포함될 수 있다.The
모의 유니트(130)에는 제1 생성부(131), 제2 생성부(132), 제3 생성부(133)가 마련될 수 있다.A
제1 생성부(131)는 환경 정보를 이용해서 가상 공간을 생성할 수 있다.The
제2 생성부(132)는 가상 공간에 맞춰 재난 정보를 생성할 수 있다. 제2 생성부(132)는 로봇(10)이 투입된 지형지물 전체를 가상 공간화할 수 있다. 제2 생성부(132)의 부하를 줄이기 위해 지형지물의 일부만을 가상 공간으로 형상화할 수 있다. 이때, 제2 생성부(132)는 적어도 로봇(10)의 현재 위치 및 방향에 맞춰 가상 공간을 생성할 수 있다. 재난 정보는 시각적으로 볼 수 있는 화염, 물, 연기 등의 이미지 데이터, 청각적으로 들을 수 있는 불타는 소리, 물 소리 등의 음성 데이터를 포함할 수 있다. 제3 획득부(113)에 의해 획득된 환경 정보에 해당 재난 정보를 그대로 형상화하는 것이 어려울 수 있다. 또한, 일부 환경 정보는 추후 재난 정보를 실시간 영상에 추가하는 작업에서 걸림돌이 될 수 있다. 따라서, 그래픽적인 처리가 용이한 가상 공간이 별도로 생성되는 것이 좋다. 제2 생성부(132)는 로봇(10)의 현재 위치 및 방향에 맞춰 가상 공간에 재난 정보를 생성할 수 있다.The
제3 생성부(133)는 실시간 영상과 재난 정보가 매칭된 증강 현실 기반의 재난 환경을 생성할 수 있다. 제3 생성부(133)는 로봇(10)의 현재 위치와 방향을 이용하여 실시간 영상과 재난 정보를 매칭시키고, 서로 매칭된 실시간 영상과 재난 정보를 통합하는 동기화 과정을 수행할 수 있다. 동기화 과정이 완료되면, 실제의 실시간 영상에 화염 이미지 등과 같은 가상의 재난 정보가 오버레이되어 표시될 수 있다. 재난 정보가 오버레이되어 표시되는 실시간 영상이 재난 환경에 해당될 수 있다.The
로봇(10)은 실제로 재난이 발생하지 않은 지형지물에 투입되고, 재난이 발생하지 않은 지형지물의 실시간 영상을 촬영해서 조종 유니트(30)에 제공할 수 있다. 해당 실시간 영상은 본 발명의 훈련 장치에 의해 가공되어 재난 환경으로 뒤바뀔 수 있다. 조종 유니트(30)에는 실시간 영상이 뒤바뀐 재난 환경이 제공되고 표시부를 통해 표시될 수 있다. 조종사는 표시부를 통해 재난이 존재하는 영상을 시청하게 되고, 영상에 표시되는 상황에 맞춰 로봇(10)을 조종할 수 있다.The
로봇(10)은 조종 유니트(30)에 1:1로 대응될 수 있다. 따라서, 로봇(10)을 조종하는 조종 유니트(30)가 마련되는 경우, 로봇(10)은 기본적으로 실시간 영상을 조종 유니트(30)로 전송할 수 있다.The
훈련에 필요한 재난 환경을 생성하기 위해서는 로봇(10)의 실시간 영상이 획득 유니트(110)에 의해 획득되어야 한다. 훈련 장치가 조종 유니트(30)와 별개로 마련된 경우, 획득 유니트(110)에 실시간 영상을 제공할 수 있는 주체는 로봇(10)이거나, 로봇(10)으로부터 실시간 영상을 수신한 조종 유니트(30)일 수 있다. 전파의 송수신이 곤란한 장소에도 투입될 수 있는 로봇(10)을 고려해서, 로봇(10)으로부터 전송된 실시간 영상이 조종 유니트(30)에 정상적으로 도달하는지 여부도 중요한 훈련 포인트가 될 수 있다. 실제 환경의 통신 상태를 그대로 모의하기 위해 획득 유니트(110)는 조종 유니트(30)와 통신할 수 있다.In order to create a disaster environment necessary for training, a real-time image of the
로봇(10)으로부터 송신된 실시간 영상 ①이 조종 유니트(30)에 마련된 통신 모듈에 일단 수신되면, 획득 유니트(110)는 통신 모듈로부터 표시부를 향해 출력되는 실시간 영상 ①을 가로챌 수 있다(인터럽트). 로봇(10)으로부터 조종 유니트(30)로 전송된 실시간 영상 ①을 가로챈 획득 유니트(110)는 모의 유니트(130)에 실시간 영상 ①을 전달할 수 있다.Once the real-time image ① transmitted from the
모의 유니트(130)는 실시간 영상 ①에 재난 정보를 추가하여 재난 환경 ②를 생성할 수 있다. 모의 유니트(130)는 조종 유니트(30)로 전송되어야 하는 실시간 영상 ①을 대신해서 재난 환경 ②를 조종 유니트(30)에 전송할 수 있다. 실시간 영상 ①을 대신해서 조종 유니트(30)에 전송된 재난 환경 ②는 표시부를 통해 표시되며, 조종사는 실제의 재난 상황과 유사하게 화염 등의 재난 정보가 표시되는 영상을 시청할 수 있다.The
훈련시 통신 상태를 고려하지 않는다면, 획득 유니트(110)는 로봇(10)과 직접 통신하고 로봇(10)으로부터 실시간 영상을 수신할 수 있다. 이 경우, 로봇(10)과 조종 유니트(30) 사이에 형성된 실시간 영상용 통신 채널은 비활성화될 수 있다.If the communication state is not considered during training, the
본 발명의 훈련 장치에 따르면, 로봇(10)에서 생성된 실시간 영상은 곧바로 조종 유니트(30)로 전달되지 못하고, 획득 유니트(110) 및 모의 유니트(130)를 거치게 된다. 훈련 장치가 로봇(10)이나 조종 유니트(30)에 일체로 형성되는 경우라 하더라도 적어도 모의 유니트(130)는 추가로 거치게 된다. 모의 유니트(130)를 거치면서 지체된 시간만큼 실시간 영상이 표시부에 표시되는 시간이 지연될 수 있다. 실제와 유사한 훈련 환경을 제공하기 위해 해당 지연 시간이 최소화되는 것이 좋다. 지연 시간의 최소화를 위해 모의 유니트(130)의 처리 속도는 빠를수록 좋다.According to the training apparatus of the present invention, the real-time image generated by the
이하에서는 모의 유니트(130)가 가상의 재난 정보를 현실적으로 구현하는 방안에 대해 설명한다.Hereinafter, a method for the
획득 유니트(110)는 로봇(10)의 위치 정보를 획득할 수 있다. 이때, 훈련 장치에는 위치 정보에 존재하는 지형지물을 파악하며, 지형지물을 대상으로 재난이 번져가는 과정을 시뮬레이션하는 모의부(135)가 마련될 수 있다.The
실제의 재난 상황에서 화염 등은 기본적으로 물리 법칙에 따라 전파된다. 제1 위치에서 발생한 화염은 아무 근거없이 제2 위치로 전파되지 않는다. 현실의 재난 상황을 추종하는 재난의 전파 과정을 시뮬레이션하기 위해 모의부(135)가 이용될 수 있다. 모의부(135)는 로봇(10)의 위치 정보를 이용해서 로봇(10) 주변의 지형지물을 파악할 수 있다. 모의부(135)에는 화염, 물, 연기 등이 전파되는 과정이 수학적으로 모델링된 모델 함수가 마련될 수 있다. 모의부(135)는 지형지물의 구조, 재질, 설비물 등의 정보를 함께 파악하고, 이들 정보를 모델 함수에 입력하고, 모델 함수로부터 출력되는 결과물을 이용해서 재난의 전파 과정을 시뮬레이션할 수 있다. 모의부(135)는 재난의 전파 과정을 시간의 흐름에 따라 형상화하고, 재난의 전파 과정이 형상화된 정보가 재난 정봉 해당될 수 있다.In an actual disaster situation, flames are basically propagated according to the laws of physics. Flames generated at the first location do not propagate to the second location without any justification. The
모의 유니트(130)는 모의부(135)의 시뮬레이션 결과를 입력받아 재난 정보로 이용할 수 있다. 모의부(135)의 시뮬레이션 결과를 입력으로 해서 생성된 재난 정보는 실제의 재난을 추종하는 전파 과정 및 모습을 가질 수 있다. 모의 유니트(130)는 재난 정보에 포함된 이미지 데이터를 기저장된 실제의 화염 이미지(동영상 포함), 물 이미지(동영상 포함), 연기 이미지(동영상 포함)로부터 추출해서 사용할 수 있다.The
모의 유니트(130)의 동작을 순서대로 설명하면 다음과 같다.The operation of the
모의 유니트(130)는 로봇(10)이 투입된 지형지물을 추종하는 가상 공간을 생성할 수 있다.The
모의 유니트(130)는 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션할 수 있다.The
모의 유니트(130)는 시뮬레이션 결과에 따라 가상 공간 상에 재난을 실시간으로 형상화할 수 있다.The
도 3은 본 발명의 훈련 장치의 동작을 나타낸 개략도이다.3 is a schematic diagram showing the operation of the training device of the present invention.
모의 유니트(130)는 가상 공간 i에서 실시간 영상 ①에 매칭되는 매칭 영역 m을 실시간으로 추출할 수 있다. 매칭 영역 m을 추출하기 위해 획득 유니트(110)는 로봇(10)의 위치 정보 및 방향 정보를 획득할 수 있다. 로봇(10)으로부터 관성 측정 정보 및 주행 거리 정보가 입수된 경우, 획득 유니트(110)는 관성 측정 정보 등을 분석해서 로봇(10)의 위치 정보 및 방향 정보를 산출할 수 있다. 모의 유니트(130)는 지형지물을 기준으로 위치 정보 및 방향 정보를 분석해서, 실시간 영상 ①에 매칭되는 매칭 영역 m을 추출할 수 있다.The
한편, 실시간 영상 ①의 이미지 분석을 통해서 매칭 영역을 추출하는 방안은 배제되는 것이 좋다. 왜냐하면, 재난 정보가 투영된 실시간 이미지는 이미지 분석 자체가 어려울 수 있다. 또한, 로봇(10)이 투입된 건물 벽에 특정 지형 지물의 사진이 걸려있을 수 있다. 이미지 분석 기법에 따르면, 로봇(10)이 해당 사진을 촬영할 경우 엉뚱하게 사진 속의 특정 지형 지물에 대한 분석 및 시뮬레이션이 이루어지게 된다. 그 결과, 매칭 영역의 추출이 매우 어렵다.On the other hand, it is better to exclude the method of extracting the matching area through image analysis of the real-time image ①. Because, it may be difficult to analyze the real-time image on which disaster information is projected. In addition, a photo of a specific geographical feature may be hung on the wall of the building in which the
본 발명에 따르면, 로봇(10)의 위치 정보 및 방향 정보, 지형지물의 정보를 분석해서 로봇(10)과 지형지물 간의 상대 위치가 파악될 수 있다. 파악된 상대 위치를 이용하면, 실시간 영상 ①에 매칭되는 매칭 영역 m이 정확하게 추출될 수 있다.According to the present invention, the relative position between the
모의 유니트(130)는 로봇(10)이 투입된 지형지물 전체를 대상으로 재난을 형상화할 수 있다. 또는, 처리 속도의 개선을 위해 모의 유니트(130)는 지형지물의 일부에 대해서만 재난을 형상화할 수 있다. 이때, 형상화가 이루어지는 일부분은 실시간 영상을 기준으로 설정되는 것이 유리하다.The
일 예로, 모의 유니트(130)는 현재의 매칭 영역 m보다 큰 시뮬레이션 영역 s 상에 화염 등의 재난 f(이미지, 음성 등)를 실시간으로 형상화할 수 있다. 이때, 시뮬레이션 영역 s에는 현재의 매칭 영역 m이 모두 포함될 수 있다.For example, the
모의 유니트(130)는 로봇(10)의 위치 변화 또는 방향 변화에 따라 시뮬레이션 영역 상에 형상화 중이던 재난 f를 실시간 영상 ①에 반영할 수 있다. 로봇(10)의 카메라에 의해 촬영되는 대상은 조종사의 조종에 의해 시시각각 변할 수 있다. 조종사의 조정에 의해 로봇(10)은 연속적인 동선을 그리면서 대상물을 촬영하게 된다. 따라서, 현재 로봇(10)이 촬영 중인 영상보다 큰 주변 영역에 대한 시뮬레이션이 진행되면, 화염 이미지 등의 재난 f가 조종사가 바라보는 표시부에 끊김없이 제공될 수 있다.The
모의 유니트(130)는 가상의 재난 f를 실시간 영상 ①에 통합시켜 훈련에 사용되는 재난 환경 ②를 생성하고, 조종 유니트(30)에 제공할 수 있다.The
도 4는 본 발명의 훈련 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a training method of the present invention.
도 4의 훈련 방법은 도 2에 도시된 훈련 장치에 의해 수행될 수 있다.The training method of FIG. 4 may be performed by the training apparatus shown in FIG. 2 .
본 발명의 훈련 방법은 획득 단계(S 510), 산출 단계(S 520), 매칭 단계(S 530), 추출 단계(S 540), 형상화 단계(S 550), 생성 단계(S 560), 제공 단계(S 570)를 포함할 수 있다.The training method of the present invention includes an acquisition step (S 510), a calculation step (S 520), a matching step (S 530), an extraction step (S 540), a shaping step (S 550), a generating step (S 560), a providing step (S 570) may be included.
획득 단계(S 510)는 로봇(10)이 실시간으로 촬영한 실시간 영상, 상기 로봇(10)의 관성 측정 정보 및 주행 거리 정보, 상기 로봇(10)이 배치된 환경 정보를 획득하는 단계일 수 있다. 획득 단계(S 510)는 획득 유니트(110)의 제2 획득부(112), 제3 획득부(113)에 의해 수행될 수 있다.The obtaining step (S 510) may be a step of obtaining a real-time image captured by the
산출 단계(S 520)는 관성 측정 정보 및 주행 거리 정보 중 적어도 하나를 이용해서 로봇(10)의 위치 정보 및 방향 정보를 산출하는 단계일 수 있다. 산출 단계(S 520)는 제2 획득부(112)에 의해 수행될 수 있다.The calculating step ( S520 ) may be a step of calculating location information and direction information of the
매칭 단계(S 530)는 환경 정보를 이용해서 가상 공간을 생성하고, 로봇(10)의 위치 정보를 이용해서 가상 공간 상에 로봇(10)을 매칭시키는 단계일 수 있다. 매칭 단계(S 540)는 모의 유니트(130)의 제1 생성부(131)에 의해 수행될 수 있다.The matching step ( S530 ) may be a step of creating a virtual space using environment information and matching the
추출 단계(S 540)는 로봇(10)의 위치 정보 및 방향 정보를 이용해서 가상 공간 상에서 실시간 영상에 매칭되는 매칭 영역을 추출하는 단계일 수 있다. 추출 단계(S 540)는 모의 유니트(130)의 제1 생성부(131)에 의해 수행될 수 있다.The extraction step ( S540 ) may be a step of extracting a matching region matching a real-time image in a virtual space using the location information and direction information of the
형상화 단계(S 550)는 매칭 영역에서 형상화가 필요한 재난 정보를 판단하고, 재난 정보를 매칭 영역에 형상화할 수 있다. 형상화 단계(S 550)는 모의 유니트(130)의 제2 생성부(132), 모의부(135)에 의해 수행될 수 있다.In the shaping step (S550), disaster information that needs to be shaped in the matching area may be determined, and the disaster information may be shaped in the matching area. The shaping step ( S550 ) may be performed by the
생성 단계(S 560)는 실시간 영상과 매칭 영역을 통합시켜 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 단계일 수 있다. 생성 단계(S 560)는 모의 유니트(130)의 제3 생성부(133)에 의해 수행될 수 있다.The generating step ( S560 ) may be a step of generating a disaster environment in which virtual disaster information is added to the real-time image by integrating the real-time image and the matching area. The generation step ( S560 ) may be performed by the
제공 단계(S 570)는 로봇(10)의 조종 유니트(30)에 재난 환경을 제공하는 단계일 수 있다. 제공 단계(S 570)는 제3 생성부(133)에 의해 수행될 수 있다.The providing step ( S570 ) may be a step of providing a disaster environment to the
도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 5의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 훈련 장치 등) 일 수 있다. 5 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 5 may be a device (eg, a training device, etc.) described herein.
도 5의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 5 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, methods, and the like described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiments.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.
10...로봇 30...조종 유니트
100...훈련 서버 110...획득 유니트
111...제1 획득부 112...제2 획득부
113...제3 획득부 130...모의 유니트
131...제1 생성부 132...제2 생성부
133...제3 생성부 135...모의부10...
100...
111...
113...
131...
133...the
Claims (8)
상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함하고,
상기 로봇을 조종하는 조종 유니트가 마련될 때, 상기 로봇은 상기 실시간 영상을 상기 조종 유니트로 전송하고,
상기 획득 유니트는 상기 로봇으로부터 상기 조종 유니트로 전송되는 상기 실시간 영상을 가로채서 상기 모의 유니트에 전달하며,
상기 모의 유니트는 상기 조종 유니트로 전송되어야 하는 상기 실시간 영상을 대신해서 상기 재난 환경을 상기 조종 유니트에 전송하는 훈련 장치.
an acquisition unit for acquiring an actual real-time image taken by an actual robot;
Includes; a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image;
When a control unit for controlling the robot is provided, the robot transmits the real-time image to the control unit,
the acquisition unit intercepts the real-time image transmitted from the robot to the control unit and transmits it to the simulation unit;
and the simulation unit transmits the disaster environment to the control unit instead of the real-time image to be transmitted to the control unit.
상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함하고,
상기 모의 유니트는 상기 로봇이 투입된 지형지물을 추종하는 가상 공간을 생성하고,
상기 모의 유니트는 상기 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션하며,
상기 모의 유니트는 상기 시뮬레이션 결과에 따라 상기 가상 공간 상에 상기 재난을 실시간으로 형상화하고,
상기 모의 유니트는 상기 가상 공간에서 상기 실시간 영상에 매칭되는 매칭 영역을 실시간으로 추출하며,
상기 모의 유니트는 상기 매칭 영역 상에 실시간으로 형상화되는 재난을 상기 실시간 영상에 오버레이시켜서 상기 재난 환경을 생성하는 훈련 장치.
an acquisition unit for acquiring an actual real-time image taken by an actual robot;
Includes; a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image;
The simulation unit creates a virtual space in which the robot follows the inputted feature,
The simulation unit simulates in real time the process of propagation of a disaster in the virtual space,
The simulation unit shapes the disaster in real time on the virtual space according to the simulation result,
The simulation unit extracts a matching area matching the real-time image in the virtual space in real time,
The simulation unit is a training device for creating the disaster environment by overlaying the disaster shaped in real time on the matching area on the real-time image.
상기 획득 유니트는 상기 로봇의 위치 정보 및 방향 정보를 획득하고,
상기 모의 유니트는 상기 지형지물을 기준으로 상기 위치 정보 및 상기 방향 정보를 분석해서, 상기 실시간 영상에 매칭되는 상기 매칭 영역을 추출하는 훈련 장치.
6. The method of claim 5,
The acquisition unit acquires the position information and direction information of the robot,
The simulation unit analyzes the location information and the direction information based on the feature, and extracts the matching area matching the real-time image.
상기 모의 유니트는 현재의 매칭 영역보다 큰 시뮬레이션 영역 상에 상기 재난을 실시간으로 형상화하고,
상기 시뮬레이션 영역에는 상기 현재의 매칭 영역이 모두 포함되며,
상기 모의 유니트는 상기 로봇의 위치 변화 또는 방향 변화에 따라 상기 시뮬레이션 영역 상에 형상화 중이던 재난을 상기 실시간 영상에 반영하는 훈련 장치.
6. The method of claim 5,
The simulation unit shapes the disaster in real time on a simulation area larger than the current matching area,
The simulation area includes all of the current matching area,
The simulation unit is a training device for reflecting the disaster being shaped on the simulation area in the real-time image according to a change in position or direction of the robot.
로봇이 투입된 지형지물을 추종하는 가상 공간을 생성하는 단계;
상기 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션하는 단계;
상기 시뮬레이션 결과에 따라 상기 가상 공간 상에 상기 재난을 실시간으로 형상화하는 단계;
상기 로봇이 촬영한 실제의 실시간 영상에 매칭되는 매칭 영역을 상기 가상 공간에서 실시간으로 추출하는 단계;
상기 매칭 영역 상에 실시간으로 형상화되는 재난을 상기 실시간 영상에 오버레이시켜서 재난 환경을 생성하는 단계;
를 포함하는 훈련 방법.A training method performed by a training device, comprising:
generating a virtual space in which the robot follows the input feature;
simulating in real time a process of propagating a disaster in the virtual space;
shaping the disaster on the virtual space in real time according to the simulation result;
extracting a matching area matching the real real-time image captured by the robot in real time in the virtual space;
creating a disaster environment by overlaying a disaster shaped in real time on the matching area on the real-time image;
A training method comprising
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190151271A KR102277393B1 (en) | 2019-11-22 | 2019-11-22 | Apparatus and method for training |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190151271A KR102277393B1 (en) | 2019-11-22 | 2019-11-22 | Apparatus and method for training |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210062972A KR20210062972A (en) | 2021-06-01 |
KR102277393B1 true KR102277393B1 (en) | 2021-07-14 |
Family
ID=76375980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190151271A KR102277393B1 (en) | 2019-11-22 | 2019-11-22 | Apparatus and method for training |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102277393B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113628494A (en) * | 2021-08-31 | 2021-11-09 | 重庆科华安全设备有限责任公司 | Immersive virtual simulation emergency rescue drilling method for fire disaster in coal mine |
KR102629841B1 (en) * | 2021-10-14 | 2024-01-29 | 한국로봇융합연구원 | Performance evaluation methods for response robot |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101475207B1 (en) * | 2013-09-27 | 2014-12-22 | 삼성중공업 주식회사 | Simulation device used for trainning of robot control |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101776576B1 (en) * | 2015-09-25 | 2017-09-08 | 숭실대학교산학협력단 | Robot control system and method |
KR101875170B1 (en) | 2016-11-03 | 2018-07-05 | 전주대학교 산학협력단 | Sensible fire tranining simulation system |
KR102071427B1 (en) * | 2018-03-27 | 2020-01-30 | 호원대학교산학협력단 | Method and apparatus for a fire drill in living space of user |
-
2019
- 2019-11-22 KR KR1020190151271A patent/KR102277393B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101475207B1 (en) * | 2013-09-27 | 2014-12-22 | 삼성중공업 주식회사 | Simulation device used for trainning of robot control |
Also Published As
Publication number | Publication date |
---|---|
KR20210062972A (en) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3612143B1 (en) | Emulating spatial perception using virtual echolocation | |
JP7133470B2 (en) | System and method for network augmented reality representation | |
KR101670147B1 (en) | Portable device, virtual reality system and method | |
KR970005193B1 (en) | Interactive aircraft training system and method | |
KR101797208B1 (en) | Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle | |
US12092468B2 (en) | Methods and systems for response vehicle deployment | |
CN106652625A (en) | Interactive virtual reality fire training system | |
JP2020527432A (en) | Racing simulation | |
KR102277393B1 (en) | Apparatus and method for training | |
WO2021241431A1 (en) | Information processing device, information processing method, and computer-readable recording medium | |
JP2000207575A (en) | Space fusing device and application devices adapting the same | |
JP6587585B2 (en) | Experiential fire extinguishing training system, fire simulator for fire training, fire simulation method and program for fire training | |
CN105824417B (en) | human-object combination method adopting virtual reality technology | |
EP1466300A1 (en) | Method and system to display both visible and invisible hazards and hazard information | |
KR102095333B1 (en) | Augmented reality based vehicle test method and system | |
CN109710077B (en) | Virtual object collision judgment method and device based on VR and locomotive practical training system | |
JP5971466B2 (en) | Flight path display system, method and program | |
US6149435A (en) | Simulation method of a radio-controlled model airplane and its system | |
KR101641672B1 (en) | The system for Augmented Reality of architecture model tracing using mobile terminal | |
RU2736008C1 (en) | Method for generating augmented reality environment | |
KR102289448B1 (en) | Apparatus for providing interactive content | |
KR102341294B1 (en) | Method and apparatus for providing interactive content | |
KR102441923B1 (en) | Trainee testing and evaluating apparatus for disaster response rovot in live-virtual-constructive environment | |
US20220166917A1 (en) | Information processing apparatus, information processing method, and program | |
RU136618U1 (en) | SYSTEM OF IMITATION OF THE EXTERNAL VISUAL SITUATION IN ON-BOARD MEANS FOR OBSERVING THE EARTH SURFACE OF THE SPACE SIMULATOR |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |