KR102277393B1 - Apparatus and method for training - Google Patents

Apparatus and method for training Download PDF

Info

Publication number
KR102277393B1
KR102277393B1 KR1020190151271A KR20190151271A KR102277393B1 KR 102277393 B1 KR102277393 B1 KR 102277393B1 KR 1020190151271 A KR1020190151271 A KR 1020190151271A KR 20190151271 A KR20190151271 A KR 20190151271A KR 102277393 B1 KR102277393 B1 KR 102277393B1
Authority
KR
South Korea
Prior art keywords
real
disaster
robot
time image
simulation
Prior art date
Application number
KR1020190151271A
Other languages
Korean (ko)
Other versions
KR20210062972A (en
Inventor
오승섭
양견모
서갑호
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020190151271A priority Critical patent/KR102277393B1/en
Publication of KR20210062972A publication Critical patent/KR20210062972A/en
Application granted granted Critical
Publication of KR102277393B1 publication Critical patent/KR102277393B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Processing Or Creating Images (AREA)
  • Manipulator (AREA)

Abstract

훈련 장치가 제공된다. 상기 훈련 장치는 실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트; 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함할 수 있다.A training device is provided. The training device may include: an acquisition unit configured to acquire an actual real-time image captured by an actual robot; and a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image.

Description

훈련 장치 및 훈련 방법{APPARATUS AND METHOD FOR TRAINING}TRAINING DEVICES AND METHOD FOR TRAINING

본 발명은 재난 대응 로봇을 조종하는 조종사를 훈련시키는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for training a pilot to operate a disaster response robot.

소방관이 직접 투입되기 힘든 화재, 농연, 붕괴 등의 복합 재난 환경에서 구조 및 탐색을 위해 재난 대응 로봇이 이용될 수 있다.A disaster response robot may be used for rescue and search in a complex disaster environment such as fire, agricultural smoke, collapse, etc., where it is difficult for firefighters to be directly deployed.

재난 대응 로봇이 투입되는 환경에서는 전문 로봇 조종사들이 한정된 영상 정보 및 음성 정보를 기반으로 원격 제어기를 사용하여 로봇을 제어한다.In an environment where disaster response robots are deployed, professional robot pilots control the robot using a remote controller based on limited video and audio information.

현장에서 정확하게 로봇을 조종하기 위해, 조종사들은 유사한 재난 환경이나 가상 현실 기반의 훈련 시스템에서 반복적인 로봇 제어 훈련을 수행하고 있다. 따라서, 반복적인 훈련을 위한 재난 환경 모사에 소비되는 비용적 문제 및 훈련 시스템 내에서 실제 로봇의 움직임을 모사하는 과정에서 현실 유사성 문제가 발생한다.In order to accurately control the robot in the field, pilots are performing repetitive robot control training in similar disaster environments or virtual reality-based training systems. Therefore, a problem of cost consumed in simulating a disaster environment for repetitive training and a problem of similarity to reality arise in the process of simulating the movement of a real robot in the training system.

한국등록특허공보 제1875170호에는 체감형 소방훈련 시뮬레이션 시스템이 나타나 있다.Korean Patent Publication No. 1875170 discloses a tangible fire drill simulation system.

한국등록특허공보 제1875170호Korean Patent Publication No. 1875170

본 발명은 실제 재난 상황과 유사한 로봇 조종 환경을 제공하는 훈련 장치 및 훈련 방법을 제공하기 위한 것이다.An object of the present invention is to provide a training apparatus and a training method that provide a robot control environment similar to an actual disaster situation.

본 발명의 훈련 장치는 실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트; 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함할 수 있다.The training apparatus of the present invention includes: an acquisition unit for acquiring an actual real-time image taken by an actual robot; and a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image.

본 발명의 훈련 방법은 로봇이 실시간으로 촬영한 실시간 영상, 상기 로봇의 관성 측정 정보 및 주행 거리 정보, 상기 로봇이 배치된 환경 정보를 획득하는 획득 단계; 상기 관성 측정 정보 및 상기 주행 거리 정보 중 적어도 하나를 이용해서 상기 로봇의 위치 정보 및 방향 정보를 산출하는 산출 단계; 상기 환경 정보를 이용해서 가상 공간을 생성하고, 상기 로봇의 위치 정보를 이용해서 상기 가상 공간 상에 상기 로봇을 매칭시키는 단계; 상기 로봇의 위치 정보 및 상기 방향 정보를 이용해서 상기 가상 공간 상에서 상기 실시간 영상에 매칭되는 매칭 영역을 추출하는 단계; 상기 매칭 영역에서 형상화가 필요한 재난 정보를 판단하고, 상기 재난 정보를 상기 매칭 영역에 형상화하는 단계; 상기 실시간 영상과 상기 매칭 영역을 통합시켜 상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 단계; 상기 로봇의 조종 유니트에 상기 재난 환경을 제공하는 단계;를 포함할 수 있다.The training method of the present invention includes an acquisition step of acquiring a real-time image captured by the robot in real time, inertial measurement information and mileage information of the robot, and environment information in which the robot is disposed; a calculation step of calculating position information and direction information of the robot using at least one of the inertia measurement information and the travel distance information; creating a virtual space using the environment information, and matching the robot on the virtual space using the position information of the robot; extracting a matching area matching the real-time image in the virtual space using the position information and the direction information of the robot; determining disaster information that needs to be shaped in the matching area, and shaping the disaster information in the matching area; generating a disaster environment in which virtual disaster information is added to the real-time image by integrating the real-time image and the matching area; It may include; providing the disaster environment to the control unit of the robot.

본 발명의 훈련 장치 및 훈련 방법은 실제 사고 현장을 추종하는 증강 현실을 구현할 수 있다. 증강 현실을 통해 조종사는 실제의 사고 현장과 유사한 훈련 상황에서 로봇의 조종 훈련을 실시할 수 있다.The training apparatus and training method of the present invention can implement augmented reality that tracks the actual accident scene. Augmented reality allows pilots to conduct pilot training of robots in training situations similar to real-life accident sites.

실제 재난 상황에서 조종사는 로봇이 촬영한 실시간 영상(음성 포함)만으로 주변 환경을 파악하고 로봇을 조종하게 된다. 실제 상황을 모의하기 위해 본 발명의 훈련 장치는 로봇이 촬영한 실시간 영상에 실제의 재난 상황을 투영해서 형상화할 수 있다.In an actual disaster situation, the pilot can control the robot by understanding the surrounding environment only with the real-time video (including voice) recorded by the robot. In order to simulate a real situation, the training device of the present invention may project and shape an actual disaster situation on a real-time image captured by the robot.

본 발명에 따르면, 실제 로봇의 모터 제어 명령 및 카메라 영상 정보를 통해 로봇의 동작 또는 움직임을 획득하고, 증강 현실 기반의 화재, 농연 등의 재난 환경을 생성하는 재난 로봇 훈련 시스템이 제공될 수 있다.According to the present invention, there can be provided a disaster robot training system that acquires the motion or movement of the robot through a motor control command of the real robot and camera image information, and creates a disaster environment such as fire and agricultural activities based on augmented reality.

본 발명의 훈련 장치 및 방법에 따르면, 재난 환경 모사에 소비되는 비용적 문제가 감소될 수 있다. 또한, 본 발명에 따르면, 실제 로봇의 움직임을 이용해서 증강 현실을 구현하므로, 로봇의 실제 움직임을 모사하기 위한 현실 유사성 문제가 자연스럽게 해소될 수 있다.According to the training apparatus and method of the present invention, the cost problem spent on simulating a disaster environment can be reduced. In addition, according to the present invention, since augmented reality is implemented using the movement of the real robot, the problem of similarity in reality for simulating the actual movement of the robot can be naturally solved.

본 발명에 따르면, 다양한 지형지물을 대상으로 훈련이 가능하므로, 재난 대응 로봇의 훈련 효과가 개선되고, 로봇의 활용성이 개선될 수 있다. 본 발명에 따르면, 재난 대응 로봇의 실시간 로봇 상태 및 환경에 영향을 받는 로봇의 실제 카메라 영상에 다양한 재난 대응 상황이 증강 현실로 통합될 수 있다. 실제 카메라 영상과 재난 대응 상황이 증강 현실로 통합된 영상을 이용해서 조종사의 훈련이 진행되므로, 재난 상황을 저비용으로 모사하는 훈련 시스템이 제공될 수 있다. According to the present invention, since training is possible for various topographical features, the training effect of the disaster response robot can be improved, and the usability of the robot can be improved. According to the present invention, various disaster response situations can be integrated into augmented reality in the real-time camera image of the robot affected by the real-time robot state and environment of the disaster response robot. Since the training of the pilot is carried out using an image in which an actual camera image and a disaster response situation are integrated into augmented reality, a training system that simulates a disaster situation at a low cost can be provided.

도 1은 본 발명의 훈련 시스템을 나타낸 개략도이다.
도 2는 본 발명의 훈련 장치를 나타낸 개략도이다.
도 3은 본 발명의 훈련 장치의 동작을 나타낸 개략도이다.
도 4는 본 발명의 훈련 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a schematic diagram illustrating a training system of the present invention.
2 is a schematic diagram showing a training device of the present invention.
3 is a schematic diagram showing the operation of the training device of the present invention.
4 is a flowchart illustrating a training method of the present invention.
5 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is mentioned that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but another element in the middle. It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise. Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It should be understood that the existence or addition of other features, numbers, steps, operations, components, parts or combinations thereof is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any of a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 훈련 시스템을 나타낸 개략도이다.1 is a schematic diagram illustrating a training system of the present invention.

도 1에 도시된 훈련 시스템은 로봇(10), 조종 유니트(30), 훈련 서버(100)를 포함할 수 있다. 훈련 서버(100)는 로봇(10), 조종 유니트(30)에 대해 독립적으로 존재할 수 있다. 또는, 훈련 서버(100)는 로봇(10)에 일체로 형성되거나, 조종 유니트(30)에 일체로 형성될 수 있다.The training system shown in FIG. 1 may include a robot 10 , a control unit 30 , and a training server 100 . The training server 100 may exist independently of the robot 10 and the steering unit 30 . Alternatively, the training server 100 may be integrally formed with the robot 10 or integrally formed with the control unit 30 .

로봇(10)은 화재, 농연, 가스 오염, 침수 등의 재난 상황 발생시 설정 지역을 탐색하거나, 인명을 구조하거나, 재난을 진압할 수 있다. 특히, 로봇(10)은 소방관이 진입하기 어려운 장소에 투입될 수 있다.The robot 10 may search a set area, rescue people, or suppress a disaster when a disaster situation such as fire, agricultural smoke, gas pollution, or flooding occurs. In particular, the robot 10 may be put into a place difficult for firefighters to enter.

조종 유니트(30)는 원격으로 로봇(10)을 조종할 수 있다. 조종 유니트(30)에는 로봇(10)과 통신하는 통신 모듈, 조종사에 의해 조작되는 핸들, 조종사가 바라보는 표시부를 포함할 수 있다.The control unit 30 may remotely control the robot 10 . The control unit 30 may include a communication module communicating with the robot 10 , a handle operated by the pilot, and a display unit viewed by the pilot.

육안으로 로봇(10) 또는 재난 환경이 보이지 않는 상황에서, 조종사는 표시부를 이용해 로봇(10)의 위치를 파악하거나 재난 환경을 인지하고, 인지 내용에 따라 로봇(10)을 조종할 수 있다.In a situation in which the robot 10 or the disaster environment is not visible to the naked eye, the pilot may use the display unit to determine the position of the robot 10 or recognize the disaster environment, and to control the robot 10 according to the recognition content.

조종사는 화재, 침수, 농연, 가스 오염 등의 재난 상황이 발생되지 않은 지형지물에 로봇(10)을 투입한 상태에서 로봇(10) 조종 훈련을 실시할 수 있다. 그러나, 재난 상황이 반영되지 않은 훈련에 따르면, 실제의 재난 상황에서 시시각각 달라지는 주변 변화에 대응하기 어렵다.The pilot may perform the robot 10 operation training in a state in which the robot 10 is put into the terrain where disaster situations such as fire, flooding, agricultural smoke, gas pollution, etc. do not occur. However, according to the training that does not reflect the disaster situation, it is difficult to respond to changes in the surroundings that change every moment in the actual disaster situation.

훈련 효과를 개선하기 위해, 실제의 지형지물에 불을 붙여서 실제의 재난 상황을 구현하고, 훈련이 진행될 수 있다. 이 경우, 훈련 효과는 대단히 높지만 지형지물의 소실로 인해 단발적인 훈련에 그치게 된다. 따라서, 반복 훈련이 불가능하다.In order to improve the training effect, a real disaster situation may be realized by lighting a real landmark, and the training may proceed. In this case, the training effect is very high, but the training is limited to one-off training due to the loss of the features. Therefore, repeated training is impossible.

훈련 서버(100)는 증강 현신을 이용해서 실제의 재난 상황과 유사한 훈련 환경을 조종사에게 제공할 수 있다.The training server 100 may provide the pilot with a training environment similar to an actual disaster situation by using augmented reality.

도 2는 본 발명의 훈련 장치를 나타낸 개략도이다.2 is a schematic diagram showing a training device of the present invention.

도 2에 도시된 훈련 장치는 도 1의 훈련 서버(100)를 포함할 수 있다.The training apparatus shown in FIG. 2 may include the training server 100 of FIG. 1 .

본 발명의 훈련 장치는 획득 유니트(110) 및 모의 유니트(130)를 포함할 수 있다.The training apparatus of the present invention may include an acquisition unit 110 and a simulation unit 130 .

획득 유니트(110)는 실제의 로봇(10)이 촬영한 실시간 영상을 획득할 수 있다.The acquisition unit 110 may acquire a real-time image captured by the actual robot 10 .

모의 유니트(130)는 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성할 수 있다.The simulation unit 130 may create a disaster environment in which virtual disaster information is added to a real-time image.

일 예로, 화재와 관련된 훈련의 경우, 실시간 영상에 실제의 화염 이미지나 연기 이미지를 오버레이(overlay)시켜서 표시하면, 실제의 화재 현장을 촬영한 영상과 유사할 수 있다. 실제의 화재 현장을 촬영한 영상과 유사하게 조작된 영상이 재난 환경에 해당될 수 있다. 또는, 재난이 발생하지 않은 지형지물에 가상의 재난을 부여한 상태가 재난 환경에 해당될 수 있다. 재난 환경은 훈련을 진행하는 조종사에게 시각적으로 인지되거나, 청각적으로 인지될 필요가 있다. 따라서, 재난 환경은 조종사가 눈으로 바라볼 수 있는 화염, 물, 연기 등이 시각적으로 형상화된 이미지 데이터를 포함할 수 있다. 또는, 재난 환경은 조종사가 귀로 들을 수 있는 불타는 소리, 물 소리 등이 청각적으로 청각적으로 형상화된 음성(음향) 데이터를 포함할 수 있다. 재난 환경은 이미지 데이터와 음성 데이터를 모두 포함할 수 있다.For example, in the case of fire-related training, if an actual flame image or a smoke image is overlaid and displayed on a real-time image, it may be similar to an image of an actual fire scene. An image manipulated similarly to an image of an actual fire scene may correspond to a disaster environment. Alternatively, a state in which a virtual disaster is given to a geographical feature in which a disaster has not occurred may correspond to a disaster environment. The disaster environment needs to be perceived visually or acoustically by the pilot conducting the training. Accordingly, the disaster environment may include image data in which flames, water, smoke, etc. that the pilot can see with his/her eyes are visually shaped. Alternatively, the disaster environment may include voice (acoustic) data in which the sound of burning, water, and the like, which can be heard by the pilot, is aurally and aurally shaped. The disaster environment may include both image data and voice data.

획득 유니트(110)에는 제1 획득부(111), 제2 획득부(112), 제3 획득부(113)가 마련될 수 있다.The acquisition unit 110 may include a first acquirer 111 , a second acquirer 112 , and a third acquirer 113 .

제1 획득부(111)는 실제의 로봇(10)이 촬영한 실제의 실시간 영상을 획득할 수 있다.The first acquisition unit 111 may acquire an actual real-time image captured by the actual robot 10 .

제2 획득부(112)는 로봇(10)의 관성 측정 정보 및 주행 거리 정보를 획득할 수 있다. 제2 획득부(112)는 관성 측정 정보 및 주행 거리 정보 중 적어도 하나를 이용해서 로봇(10)의 현재 위치 및 방향을 산출할 수 있다.The second acquisition unit 112 may acquire inertia measurement information and travel distance information of the robot 10 . The second acquirer 112 may calculate the current position and direction of the robot 10 by using at least one of inertia measurement information and travel distance information.

제2 획득부(112)는 종국적으로 로봇(10)의 현재 위치(위도 위치, 경도 위치, 해발 높이 등)와 로봇(10)에 장착된 카메라의 광축 방향을 획득하는 것을 목적으로 한다. 로봇(10)이 GPS 모듈 등을 이용해 자기 위치를 파악할 수 있으면, 제2 획득부(112)는 로봇(10)으로부터 위치 정보를 곧바로 획득할 수 있다.The second acquisition unit 112 ultimately aims to acquire the current position (latitude position, longitude position, height above sea level, etc.) of the robot 10 and the optical axis direction of the camera mounted on the robot 10 . If the robot 10 can determine its own location using a GPS module or the like, the second acquisition unit 112 may directly acquire location information from the robot 10 .

그러나, 재난 환경의 지형 지물이 실내, 지하, 터널 등인 경우 GPS 모듈의 미동작으로 인해 로봇(10)은 자기 위치를 직접 파악할 수 없다. 자기 위치를 파악하기 곤란한 각종 상황을 대비해 로봇(10)은 관성 측정 정보 및 주행 거리 정보를 생성할 수 있다. 해당 정보는 조종 유니트(30)에게 제공될 수 있으며, 훈련 상황시 제2 획득부(112)에 제공될 수 있다. 제2 획득부(112)는 속도, 가속도, 각속도, 방향, 중력 등을 파악할 수 있는 관성 측정 정보 및 주행 거리 정보를 이용해서, 로봇(10)의 현재 위치를 산출할 수 있다.However, when the topographical features of the disaster environment are indoors, underground, tunnels, etc., the robot 10 cannot directly determine its own location due to the non-operation of the GPS module. The robot 10 may generate inertia measurement information and mileage information in preparation for various situations in which it is difficult to determine its own position. Corresponding information may be provided to the control unit 30 , and may be provided to the second acquisition unit 112 in a training situation. The second acquirer 112 may calculate the current position of the robot 10 by using inertia measurement information and travel distance information that can determine speed, acceleration, angular velocity, direction, gravity, and the like.

제3 획득부(113)는 로봇(10)이 배치된 환경 정보를 획득할 수 있다. 환경 정보는 로봇(10)이 투입된 지형 지물에 대한 각종 정보를 포함할 수 있다. 일 예로, 환경 정보에는 지형 지물의 높이, 길이, 폭, 재질, 실내 구조, 실내 형상, 지형 지물 내에 배치된 각종 시설물의 종류, 시설물의 재질, 시설물의 위치 등이 포함될 수 있다.The third acquisition unit 113 may acquire environment information in which the robot 10 is disposed. The environment information may include various types of information about the terrain features to which the robot 10 is put. For example, the environmental information may include the height, length, width, material, indoor structure, indoor shape, types of various facilities disposed in the terrain feature, the material of the facility, the location of the facility, and the like of the terrain feature.

모의 유니트(130)에는 제1 생성부(131), 제2 생성부(132), 제3 생성부(133)가 마련될 수 있다.A first generation unit 131 , a second generation unit 132 , and a third generation unit 133 may be provided in the simulation unit 130 .

제1 생성부(131)는 환경 정보를 이용해서 가상 공간을 생성할 수 있다.The first generator 131 may generate a virtual space by using the environment information.

제2 생성부(132)는 가상 공간에 맞춰 재난 정보를 생성할 수 있다. 제2 생성부(132)는 로봇(10)이 투입된 지형지물 전체를 가상 공간화할 수 있다. 제2 생성부(132)의 부하를 줄이기 위해 지형지물의 일부만을 가상 공간으로 형상화할 수 있다. 이때, 제2 생성부(132)는 적어도 로봇(10)의 현재 위치 및 방향에 맞춰 가상 공간을 생성할 수 있다. 재난 정보는 시각적으로 볼 수 있는 화염, 물, 연기 등의 이미지 데이터, 청각적으로 들을 수 있는 불타는 소리, 물 소리 등의 음성 데이터를 포함할 수 있다. 제3 획득부(113)에 의해 획득된 환경 정보에 해당 재난 정보를 그대로 형상화하는 것이 어려울 수 있다. 또한, 일부 환경 정보는 추후 재난 정보를 실시간 영상에 추가하는 작업에서 걸림돌이 될 수 있다. 따라서, 그래픽적인 처리가 용이한 가상 공간이 별도로 생성되는 것이 좋다. 제2 생성부(132)는 로봇(10)의 현재 위치 및 방향에 맞춰 가상 공간에 재난 정보를 생성할 수 있다.The second generator 132 may generate disaster information according to the virtual space. The second generation unit 132 may virtualize the entire feature on which the robot 10 is inserted. In order to reduce the load of the second generator 132 , only a portion of the feature may be shaped into a virtual space. In this case, the second generator 132 may generate a virtual space according to at least the current position and direction of the robot 10 . The disaster information may include visually visible image data such as flame, water, and smoke, and audio data such as audible burning sound and water sound. It may be difficult to shape the disaster information as it is in the environment information acquired by the third acquisition unit 113 . In addition, some environmental information may become an obstacle in adding disaster information to real-time images in the future. Therefore, it is preferable to separately create a virtual space in which graphic processing is easy. The second generator 132 may generate disaster information in a virtual space according to the current position and direction of the robot 10 .

제3 생성부(133)는 실시간 영상과 재난 정보가 매칭된 증강 현실 기반의 재난 환경을 생성할 수 있다. 제3 생성부(133)는 로봇(10)의 현재 위치와 방향을 이용하여 실시간 영상과 재난 정보를 매칭시키고, 서로 매칭된 실시간 영상과 재난 정보를 통합하는 동기화 과정을 수행할 수 있다. 동기화 과정이 완료되면, 실제의 실시간 영상에 화염 이미지 등과 같은 가상의 재난 정보가 오버레이되어 표시될 수 있다. 재난 정보가 오버레이되어 표시되는 실시간 영상이 재난 환경에 해당될 수 있다.The third generator 133 may create an augmented reality-based disaster environment in which a real-time image and disaster information are matched. The third generator 133 may perform a synchronization process of matching the real-time image with the disaster information using the current position and direction of the robot 10 and integrating the matched real-time image with the disaster information. When the synchronization process is completed, virtual disaster information such as a flame image may be overlaid and displayed on an actual real-time image. A real-time image displayed overlaid with disaster information may correspond to a disaster environment.

로봇(10)은 실제로 재난이 발생하지 않은 지형지물에 투입되고, 재난이 발생하지 않은 지형지물의 실시간 영상을 촬영해서 조종 유니트(30)에 제공할 수 있다. 해당 실시간 영상은 본 발명의 훈련 장치에 의해 가공되어 재난 환경으로 뒤바뀔 수 있다. 조종 유니트(30)에는 실시간 영상이 뒤바뀐 재난 환경이 제공되고 표시부를 통해 표시될 수 있다. 조종사는 표시부를 통해 재난이 존재하는 영상을 시청하게 되고, 영상에 표시되는 상황에 맞춰 로봇(10)을 조종할 수 있다.The robot 10 may be put into a feature in which a disaster does not actually occur, and may take a real-time image of the feature in which a disaster does not occur and provide it to the control unit 30 . The real-time image may be processed by the training device of the present invention and turned into a disaster environment. A disaster environment in which a real-time image is reversed may be provided to the control unit 30 and displayed through the display unit. The pilot watches the image in which the disaster exists through the display unit, and can control the robot 10 according to the situation displayed on the image.

로봇(10)은 조종 유니트(30)에 1:1로 대응될 수 있다. 따라서, 로봇(10)을 조종하는 조종 유니트(30)가 마련되는 경우, 로봇(10)은 기본적으로 실시간 영상을 조종 유니트(30)로 전송할 수 있다.The robot 10 may correspond to the control unit 30 1:1. Accordingly, when the control unit 30 for controlling the robot 10 is provided, the robot 10 may basically transmit a real-time image to the control unit 30 .

훈련에 필요한 재난 환경을 생성하기 위해서는 로봇(10)의 실시간 영상이 획득 유니트(110)에 의해 획득되어야 한다. 훈련 장치가 조종 유니트(30)와 별개로 마련된 경우, 획득 유니트(110)에 실시간 영상을 제공할 수 있는 주체는 로봇(10)이거나, 로봇(10)으로부터 실시간 영상을 수신한 조종 유니트(30)일 수 있다. 전파의 송수신이 곤란한 장소에도 투입될 수 있는 로봇(10)을 고려해서, 로봇(10)으로부터 전송된 실시간 영상이 조종 유니트(30)에 정상적으로 도달하는지 여부도 중요한 훈련 포인트가 될 수 있다. 실제 환경의 통신 상태를 그대로 모의하기 위해 획득 유니트(110)는 조종 유니트(30)와 통신할 수 있다.In order to create a disaster environment necessary for training, a real-time image of the robot 10 must be acquired by the acquisition unit 110 . When the training device is provided separately from the control unit 30 , the subject that can provide the real-time image to the acquisition unit 110 is the robot 10 or the control unit 30 that receives the real-time image from the robot 10 . can be Considering the robot 10 that can be put into a place where transmission and reception of radio waves is difficult, whether the real-time image transmitted from the robot 10 normally arrives at the control unit 30 may also be an important training point. In order to simulate the communication state of the real environment as it is, the acquisition unit 110 may communicate with the control unit 30 .

로봇(10)으로부터 송신된 실시간 영상 ①이 조종 유니트(30)에 마련된 통신 모듈에 일단 수신되면, 획득 유니트(110)는 통신 모듈로부터 표시부를 향해 출력되는 실시간 영상 ①을 가로챌 수 있다(인터럽트). 로봇(10)으로부터 조종 유니트(30)로 전송된 실시간 영상 ①을 가로챈 획득 유니트(110)는 모의 유니트(130)에 실시간 영상 ①을 전달할 수 있다.Once the real-time image ① transmitted from the robot 10 is received by the communication module provided in the control unit 30, the acquisition unit 110 can intercept the real-time image ① output from the communication module toward the display unit (interrupt) . The acquisition unit 110 that intercepts the real-time image ① transmitted from the robot 10 to the control unit 30 may transmit the real-time image ① to the simulation unit 130 .

모의 유니트(130)는 실시간 영상 ①에 재난 정보를 추가하여 재난 환경 ②를 생성할 수 있다. 모의 유니트(130)는 조종 유니트(30)로 전송되어야 하는 실시간 영상 ①을 대신해서 재난 환경 ②를 조종 유니트(30)에 전송할 수 있다. 실시간 영상 ①을 대신해서 조종 유니트(30)에 전송된 재난 환경 ②는 표시부를 통해 표시되며, 조종사는 실제의 재난 상황과 유사하게 화염 등의 재난 정보가 표시되는 영상을 시청할 수 있다.The simulation unit 130 may create a disaster environment ② by adding disaster information to the real-time image ①. The simulation unit 130 may transmit the disaster environment ② to the control unit 30 instead of the real-time image ① to be transmitted to the control unit 30 . The disaster environment ② transmitted to the control unit 30 instead of the real-time image ① is displayed through the display unit, and the pilot can watch an image in which disaster information such as flames are displayed similarly to the actual disaster situation.

훈련시 통신 상태를 고려하지 않는다면, 획득 유니트(110)는 로봇(10)과 직접 통신하고 로봇(10)으로부터 실시간 영상을 수신할 수 있다. 이 경우, 로봇(10)과 조종 유니트(30) 사이에 형성된 실시간 영상용 통신 채널은 비활성화될 수 있다.If the communication state is not considered during training, the acquisition unit 110 may directly communicate with the robot 10 and receive a real-time image from the robot 10 . In this case, the communication channel for real-time images formed between the robot 10 and the control unit 30 may be deactivated.

본 발명의 훈련 장치에 따르면, 로봇(10)에서 생성된 실시간 영상은 곧바로 조종 유니트(30)로 전달되지 못하고, 획득 유니트(110) 및 모의 유니트(130)를 거치게 된다. 훈련 장치가 로봇(10)이나 조종 유니트(30)에 일체로 형성되는 경우라 하더라도 적어도 모의 유니트(130)는 추가로 거치게 된다. 모의 유니트(130)를 거치면서 지체된 시간만큼 실시간 영상이 표시부에 표시되는 시간이 지연될 수 있다. 실제와 유사한 훈련 환경을 제공하기 위해 해당 지연 시간이 최소화되는 것이 좋다. 지연 시간의 최소화를 위해 모의 유니트(130)의 처리 속도는 빠를수록 좋다.According to the training apparatus of the present invention, the real-time image generated by the robot 10 is not directly transmitted to the control unit 30 , but passes through the acquisition unit 110 and the simulation unit 130 . Even if the training device is integrally formed with the robot 10 or the control unit 30, at least the simulation unit 130 is additionally passed through. The time the real-time image is displayed on the display unit may be delayed by the amount of time delayed while passing through the simulation unit 130 . In order to provide a realistic training environment, it is desirable that the delay time be minimized. In order to minimize the delay time, the faster the processing speed of the simulation unit 130, the better.

이하에서는 모의 유니트(130)가 가상의 재난 정보를 현실적으로 구현하는 방안에 대해 설명한다.Hereinafter, a method for the simulation unit 130 to realistically implement virtual disaster information will be described.

획득 유니트(110)는 로봇(10)의 위치 정보를 획득할 수 있다. 이때, 훈련 장치에는 위치 정보에 존재하는 지형지물을 파악하며, 지형지물을 대상으로 재난이 번져가는 과정을 시뮬레이션하는 모의부(135)가 마련될 수 있다.The acquisition unit 110 may acquire position information of the robot 10 . In this case, the training device may be provided with a simulation unit 135 that detects a feature existing in the location information and simulates a process of spreading a disaster to the feature.

실제의 재난 상황에서 화염 등은 기본적으로 물리 법칙에 따라 전파된다. 제1 위치에서 발생한 화염은 아무 근거없이 제2 위치로 전파되지 않는다. 현실의 재난 상황을 추종하는 재난의 전파 과정을 시뮬레이션하기 위해 모의부(135)가 이용될 수 있다. 모의부(135)는 로봇(10)의 위치 정보를 이용해서 로봇(10) 주변의 지형지물을 파악할 수 있다. 모의부(135)에는 화염, 물, 연기 등이 전파되는 과정이 수학적으로 모델링된 모델 함수가 마련될 수 있다. 모의부(135)는 지형지물의 구조, 재질, 설비물 등의 정보를 함께 파악하고, 이들 정보를 모델 함수에 입력하고, 모델 함수로부터 출력되는 결과물을 이용해서 재난의 전파 과정을 시뮬레이션할 수 있다. 모의부(135)는 재난의 전파 과정을 시간의 흐름에 따라 형상화하고, 재난의 전파 과정이 형상화된 정보가 재난 정봉 해당될 수 있다.In an actual disaster situation, flames are basically propagated according to the laws of physics. Flames generated at the first location do not propagate to the second location without any justification. The simulation unit 135 may be used to simulate a disaster propagation process that follows a real disaster situation. The simulation unit 135 may use the location information of the robot 10 to determine the topographic features around the robot 10 . The simulation unit 135 may be provided with a model function in which a process of propagating flame, water, smoke, etc. is mathematically modeled. The simulation unit 135 may grasp information such as a structure, material, and facility of a feature together, input this information into a model function, and simulate a disaster propagation process using a result output from the model function. The simulation unit 135 may shape a disaster propagation process over time, and information in which the disaster propagation process is shaped may correspond to disaster settlement.

모의 유니트(130)는 모의부(135)의 시뮬레이션 결과를 입력받아 재난 정보로 이용할 수 있다. 모의부(135)의 시뮬레이션 결과를 입력으로 해서 생성된 재난 정보는 실제의 재난을 추종하는 전파 과정 및 모습을 가질 수 있다. 모의 유니트(130)는 재난 정보에 포함된 이미지 데이터를 기저장된 실제의 화염 이미지(동영상 포함), 물 이미지(동영상 포함), 연기 이미지(동영상 포함)로부터 추출해서 사용할 수 있다.The simulation unit 130 may receive the simulation result of the simulation unit 135 and use it as disaster information. The disaster information generated by inputting the simulation result of the simulation unit 135 may have a propagation process and appearance that follow the actual disaster. The simulation unit 130 may extract and use the image data included in the disaster information from the pre-stored actual flame image (including video), water image (including video), and smoke image (including video).

모의 유니트(130)의 동작을 순서대로 설명하면 다음과 같다.The operation of the simulation unit 130 will be described in order as follows.

모의 유니트(130)는 로봇(10)이 투입된 지형지물을 추종하는 가상 공간을 생성할 수 있다.The simulation unit 130 may create a virtual space in which the robot 10 follows the inputted feature.

모의 유니트(130)는 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션할 수 있다.The simulation unit 130 may simulate in real time a process of propagation of a disaster in a virtual space.

모의 유니트(130)는 시뮬레이션 결과에 따라 가상 공간 상에 재난을 실시간으로 형상화할 수 있다.The simulation unit 130 may shape a disaster on a virtual space in real time according to the simulation result.

도 3은 본 발명의 훈련 장치의 동작을 나타낸 개략도이다.3 is a schematic diagram showing the operation of the training device of the present invention.

모의 유니트(130)는 가상 공간 i에서 실시간 영상 ①에 매칭되는 매칭 영역 m을 실시간으로 추출할 수 있다. 매칭 영역 m을 추출하기 위해 획득 유니트(110)는 로봇(10)의 위치 정보 및 방향 정보를 획득할 수 있다. 로봇(10)으로부터 관성 측정 정보 및 주행 거리 정보가 입수된 경우, 획득 유니트(110)는 관성 측정 정보 등을 분석해서 로봇(10)의 위치 정보 및 방향 정보를 산출할 수 있다. 모의 유니트(130)는 지형지물을 기준으로 위치 정보 및 방향 정보를 분석해서, 실시간 영상 ①에 매칭되는 매칭 영역 m을 추출할 수 있다.The simulation unit 130 may extract the matching area m matching the real-time image ① in the virtual space i in real time. In order to extract the matching area m, the acquisition unit 110 may acquire position information and direction information of the robot 10 . When inertia measurement information and travel distance information are obtained from the robot 10 , the acquisition unit 110 may analyze the inertia measurement information and the like to calculate position information and direction information of the robot 10 . The simulation unit 130 may extract the matching area m matching the real-time image ① by analyzing the location information and direction information based on the feature.

한편, 실시간 영상 ①의 이미지 분석을 통해서 매칭 영역을 추출하는 방안은 배제되는 것이 좋다. 왜냐하면, 재난 정보가 투영된 실시간 이미지는 이미지 분석 자체가 어려울 수 있다. 또한, 로봇(10)이 투입된 건물 벽에 특정 지형 지물의 사진이 걸려있을 수 있다. 이미지 분석 기법에 따르면, 로봇(10)이 해당 사진을 촬영할 경우 엉뚱하게 사진 속의 특정 지형 지물에 대한 분석 및 시뮬레이션이 이루어지게 된다. 그 결과, 매칭 영역의 추출이 매우 어렵다.On the other hand, it is better to exclude the method of extracting the matching area through image analysis of the real-time image ①. Because, it may be difficult to analyze the real-time image on which disaster information is projected. In addition, a photo of a specific geographical feature may be hung on the wall of the building in which the robot 10 is inserted. According to the image analysis technique, when the robot 10 takes a picture, analysis and simulation of a specific geographical feature in the picture are performed erratically. As a result, extraction of the matching area is very difficult.

본 발명에 따르면, 로봇(10)의 위치 정보 및 방향 정보, 지형지물의 정보를 분석해서 로봇(10)과 지형지물 간의 상대 위치가 파악될 수 있다. 파악된 상대 위치를 이용하면, 실시간 영상 ①에 매칭되는 매칭 영역 m이 정확하게 추출될 수 있다.According to the present invention, the relative position between the robot 10 and the feature can be determined by analyzing the location information and direction information of the robot 10 and the information of the feature. Using the identified relative position, the matching area m matching the real-time image ① can be accurately extracted.

모의 유니트(130)는 로봇(10)이 투입된 지형지물 전체를 대상으로 재난을 형상화할 수 있다. 또는, 처리 속도의 개선을 위해 모의 유니트(130)는 지형지물의 일부에 대해서만 재난을 형상화할 수 있다. 이때, 형상화가 이루어지는 일부분은 실시간 영상을 기준으로 설정되는 것이 유리하다.The simulation unit 130 may shape a disaster by targeting the entire terrain in which the robot 10 is inserted. Alternatively, in order to improve the processing speed, the simulation unit 130 may shape the disaster only for a part of the feature. In this case, it is advantageous to set the portion to be shaped based on the real-time image.

일 예로, 모의 유니트(130)는 현재의 매칭 영역 m보다 큰 시뮬레이션 영역 s 상에 화염 등의 재난 f(이미지, 음성 등)를 실시간으로 형상화할 수 있다. 이때, 시뮬레이션 영역 s에는 현재의 매칭 영역 m이 모두 포함될 수 있다.For example, the simulation unit 130 may shape a disaster f (image, voice, etc.) such as a flame on a simulation area s larger than the current matching area m in real time. In this case, all of the current matching area m may be included in the simulation area s.

모의 유니트(130)는 로봇(10)의 위치 변화 또는 방향 변화에 따라 시뮬레이션 영역 상에 형상화 중이던 재난 f를 실시간 영상 ①에 반영할 수 있다. 로봇(10)의 카메라에 의해 촬영되는 대상은 조종사의 조종에 의해 시시각각 변할 수 있다. 조종사의 조정에 의해 로봇(10)은 연속적인 동선을 그리면서 대상물을 촬영하게 된다. 따라서, 현재 로봇(10)이 촬영 중인 영상보다 큰 주변 영역에 대한 시뮬레이션이 진행되면, 화염 이미지 등의 재난 f가 조종사가 바라보는 표시부에 끊김없이 제공될 수 있다.The simulation unit 130 may reflect the disaster f being shaped on the simulation area according to a change in the position or direction of the robot 10 in the real-time image ①. The object to be photographed by the camera of the robot 10 may change from moment to moment by the control of the pilot. By the pilot's control, the robot 10 takes a picture of an object while drawing a continuous movement line. Therefore, when the simulation of the surrounding area larger than the image currently being photographed by the robot 10 is performed, disaster f such as a flame image can be provided seamlessly to the display unit that the pilot sees.

모의 유니트(130)는 가상의 재난 f를 실시간 영상 ①에 통합시켜 훈련에 사용되는 재난 환경 ②를 생성하고, 조종 유니트(30)에 제공할 수 있다.The simulation unit 130 may integrate the virtual disaster f into the real-time image ① to create a disaster environment ② used for training, and provide it to the control unit 30 .

도 4는 본 발명의 훈련 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a training method of the present invention.

도 4의 훈련 방법은 도 2에 도시된 훈련 장치에 의해 수행될 수 있다.The training method of FIG. 4 may be performed by the training apparatus shown in FIG. 2 .

본 발명의 훈련 방법은 획득 단계(S 510), 산출 단계(S 520), 매칭 단계(S 530), 추출 단계(S 540), 형상화 단계(S 550), 생성 단계(S 560), 제공 단계(S 570)를 포함할 수 있다.The training method of the present invention includes an acquisition step (S 510), a calculation step (S 520), a matching step (S 530), an extraction step (S 540), a shaping step (S 550), a generating step (S 560), a providing step (S 570) may be included.

획득 단계(S 510)는 로봇(10)이 실시간으로 촬영한 실시간 영상, 상기 로봇(10)의 관성 측정 정보 및 주행 거리 정보, 상기 로봇(10)이 배치된 환경 정보를 획득하는 단계일 수 있다. 획득 단계(S 510)는 획득 유니트(110)의 제2 획득부(112), 제3 획득부(113)에 의해 수행될 수 있다.The obtaining step (S 510) may be a step of obtaining a real-time image captured by the robot 10 in real time, inertial measurement information and mileage information of the robot 10, and environment information in which the robot 10 is disposed. . The acquiring step S510 may be performed by the second acquiring unit 112 and the third acquiring unit 113 of the acquiring unit 110 .

산출 단계(S 520)는 관성 측정 정보 및 주행 거리 정보 중 적어도 하나를 이용해서 로봇(10)의 위치 정보 및 방향 정보를 산출하는 단계일 수 있다. 산출 단계(S 520)는 제2 획득부(112)에 의해 수행될 수 있다.The calculating step ( S520 ) may be a step of calculating location information and direction information of the robot 10 using at least one of inertia measurement information and travel distance information. The calculation step ( S520 ) may be performed by the second acquirer 112 .

매칭 단계(S 530)는 환경 정보를 이용해서 가상 공간을 생성하고, 로봇(10)의 위치 정보를 이용해서 가상 공간 상에 로봇(10)을 매칭시키는 단계일 수 있다. 매칭 단계(S 540)는 모의 유니트(130)의 제1 생성부(131)에 의해 수행될 수 있다.The matching step ( S530 ) may be a step of creating a virtual space using environment information and matching the robot 10 on the virtual space using location information of the robot 10 . The matching step ( S540 ) may be performed by the first generator 131 of the simulation unit 130 .

추출 단계(S 540)는 로봇(10)의 위치 정보 및 방향 정보를 이용해서 가상 공간 상에서 실시간 영상에 매칭되는 매칭 영역을 추출하는 단계일 수 있다. 추출 단계(S 540)는 모의 유니트(130)의 제1 생성부(131)에 의해 수행될 수 있다.The extraction step ( S540 ) may be a step of extracting a matching region matching a real-time image in a virtual space using the location information and direction information of the robot 10 . The extraction step ( S540 ) may be performed by the first generator 131 of the simulation unit 130 .

형상화 단계(S 550)는 매칭 영역에서 형상화가 필요한 재난 정보를 판단하고, 재난 정보를 매칭 영역에 형상화할 수 있다. 형상화 단계(S 550)는 모의 유니트(130)의 제2 생성부(132), 모의부(135)에 의해 수행될 수 있다.In the shaping step (S550), disaster information that needs to be shaped in the matching area may be determined, and the disaster information may be shaped in the matching area. The shaping step ( S550 ) may be performed by the second generation unit 132 and the simulation unit 135 of the simulation unit 130 .

생성 단계(S 560)는 실시간 영상과 매칭 영역을 통합시켜 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 단계일 수 있다. 생성 단계(S 560)는 모의 유니트(130)의 제3 생성부(133)에 의해 수행될 수 있다.The generating step ( S560 ) may be a step of generating a disaster environment in which virtual disaster information is added to the real-time image by integrating the real-time image and the matching area. The generation step ( S560 ) may be performed by the third generation unit 133 of the simulation unit 130 .

제공 단계(S 570)는 로봇(10)의 조종 유니트(30)에 재난 환경을 제공하는 단계일 수 있다. 제공 단계(S 570)는 제3 생성부(133)에 의해 수행될 수 있다.The providing step ( S570 ) may be a step of providing a disaster environment to the control unit 30 of the robot 10 . The providing step ( S570 ) may be performed by the third generating unit 133 .

도 5는 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 5의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 훈련 장치 등) 일 수 있다. 5 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 5 may be a device (eg, a training device, etc.) described herein.

도 5의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 5 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, methods, and the like described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100 .

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110 . Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiments.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiment of the present invention has been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.

10...로봇 30...조종 유니트
100...훈련 서버 110...획득 유니트
111...제1 획득부 112...제2 획득부
113...제3 획득부 130...모의 유니트
131...제1 생성부 132...제2 생성부
133...제3 생성부 135...모의부
10...Robot 30...Control Unit
100...training server 110...acquisition unit
111...First Acquisition Unit 112...Second Acquisition Unit
113...3rd Acquisition Unit 130...Simulation Unit
131...first generation unit 132...second generation unit
133...the third generation part 135...the simulation part

Claims (8)

실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트;
상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함하고,
상기 로봇을 조종하는 조종 유니트가 마련될 때, 상기 로봇은 상기 실시간 영상을 상기 조종 유니트로 전송하고,
상기 획득 유니트는 상기 로봇으로부터 상기 조종 유니트로 전송되는 상기 실시간 영상을 가로채서 상기 모의 유니트에 전달하며,
상기 모의 유니트는 상기 조종 유니트로 전송되어야 하는 상기 실시간 영상을 대신해서 상기 재난 환경을 상기 조종 유니트에 전송하는 훈련 장치.
an acquisition unit for acquiring an actual real-time image taken by an actual robot;
Includes; a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image;
When a control unit for controlling the robot is provided, the robot transmits the real-time image to the control unit,
the acquisition unit intercepts the real-time image transmitted from the robot to the control unit and transmits it to the simulation unit;
and the simulation unit transmits the disaster environment to the control unit instead of the real-time image to be transmitted to the control unit.
삭제delete 삭제delete 삭제delete 실제의 로봇이 촬영한 실제의 실시간 영상을 획득하는 획득 유니트;
상기 실시간 영상에 가상의 재난 정보가 추가된 재난 환경을 생성하는 모의 유니트;를 포함하고,
상기 모의 유니트는 상기 로봇이 투입된 지형지물을 추종하는 가상 공간을 생성하고,
상기 모의 유니트는 상기 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션하며,
상기 모의 유니트는 상기 시뮬레이션 결과에 따라 상기 가상 공간 상에 상기 재난을 실시간으로 형상화하고,
상기 모의 유니트는 상기 가상 공간에서 상기 실시간 영상에 매칭되는 매칭 영역을 실시간으로 추출하며,
상기 모의 유니트는 상기 매칭 영역 상에 실시간으로 형상화되는 재난을 상기 실시간 영상에 오버레이시켜서 상기 재난 환경을 생성하는 훈련 장치.
an acquisition unit for acquiring an actual real-time image taken by an actual robot;
Includes; a simulation unit for generating a disaster environment in which virtual disaster information is added to the real-time image;
The simulation unit creates a virtual space in which the robot follows the inputted feature,
The simulation unit simulates in real time the process of propagation of a disaster in the virtual space,
The simulation unit shapes the disaster in real time on the virtual space according to the simulation result,
The simulation unit extracts a matching area matching the real-time image in the virtual space in real time,
The simulation unit is a training device for creating the disaster environment by overlaying the disaster shaped in real time on the matching area on the real-time image.
제5항에 있어서,
상기 획득 유니트는 상기 로봇의 위치 정보 및 방향 정보를 획득하고,
상기 모의 유니트는 상기 지형지물을 기준으로 상기 위치 정보 및 상기 방향 정보를 분석해서, 상기 실시간 영상에 매칭되는 상기 매칭 영역을 추출하는 훈련 장치.
6. The method of claim 5,
The acquisition unit acquires the position information and direction information of the robot,
The simulation unit analyzes the location information and the direction information based on the feature, and extracts the matching area matching the real-time image.
제5항에 있어서,
상기 모의 유니트는 현재의 매칭 영역보다 큰 시뮬레이션 영역 상에 상기 재난을 실시간으로 형상화하고,
상기 시뮬레이션 영역에는 상기 현재의 매칭 영역이 모두 포함되며,
상기 모의 유니트는 상기 로봇의 위치 변화 또는 방향 변화에 따라 상기 시뮬레이션 영역 상에 형상화 중이던 재난을 상기 실시간 영상에 반영하는 훈련 장치.
6. The method of claim 5,
The simulation unit shapes the disaster in real time on a simulation area larger than the current matching area,
The simulation area includes all of the current matching area,
The simulation unit is a training device for reflecting the disaster being shaped on the simulation area in the real-time image according to a change in position or direction of the robot.
훈련 장치에 의해 수행되는 훈련 방법에 있어서,
로봇이 투입된 지형지물을 추종하는 가상 공간을 생성하는 단계;
상기 가상 공간에 재난이 전파되는 과정을 실시간으로 시뮬레이션하는 단계;
상기 시뮬레이션 결과에 따라 상기 가상 공간 상에 상기 재난을 실시간으로 형상화하는 단계;
상기 로봇이 촬영한 실제의 실시간 영상에 매칭되는 매칭 영역을 상기 가상 공간에서 실시간으로 추출하는 단계;
상기 매칭 영역 상에 실시간으로 형상화되는 재난을 상기 실시간 영상에 오버레이시켜서 재난 환경을 생성하는 단계;
를 포함하는 훈련 방법.
A training method performed by a training device, comprising:
generating a virtual space in which the robot follows the input feature;
simulating in real time a process of propagating a disaster in the virtual space;
shaping the disaster on the virtual space in real time according to the simulation result;
extracting a matching area matching the real real-time image captured by the robot in real time in the virtual space;
creating a disaster environment by overlaying a disaster shaped in real time on the matching area on the real-time image;
A training method comprising
KR1020190151271A 2019-11-22 2019-11-22 Apparatus and method for training KR102277393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190151271A KR102277393B1 (en) 2019-11-22 2019-11-22 Apparatus and method for training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190151271A KR102277393B1 (en) 2019-11-22 2019-11-22 Apparatus and method for training

Publications (2)

Publication Number Publication Date
KR20210062972A KR20210062972A (en) 2021-06-01
KR102277393B1 true KR102277393B1 (en) 2021-07-14

Family

ID=76375980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190151271A KR102277393B1 (en) 2019-11-22 2019-11-22 Apparatus and method for training

Country Status (1)

Country Link
KR (1) KR102277393B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113628494A (en) * 2021-08-31 2021-11-09 重庆科华安全设备有限责任公司 Immersive virtual simulation emergency rescue drilling method for fire disaster in coal mine
KR102629841B1 (en) * 2021-10-14 2024-01-29 한국로봇융합연구원 Performance evaluation methods for response robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475207B1 (en) * 2013-09-27 2014-12-22 삼성중공업 주식회사 Simulation device used for trainning of robot control

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101776576B1 (en) * 2015-09-25 2017-09-08 숭실대학교산학협력단 Robot control system and method
KR101875170B1 (en) 2016-11-03 2018-07-05 전주대학교 산학협력단 Sensible fire tranining simulation system
KR102071427B1 (en) * 2018-03-27 2020-01-30 호원대학교산학협력단 Method and apparatus for a fire drill in living space of user

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475207B1 (en) * 2013-09-27 2014-12-22 삼성중공업 주식회사 Simulation device used for trainning of robot control

Also Published As

Publication number Publication date
KR20210062972A (en) 2021-06-01

Similar Documents

Publication Publication Date Title
EP3612143B1 (en) Emulating spatial perception using virtual echolocation
JP7133470B2 (en) System and method for network augmented reality representation
KR101670147B1 (en) Portable device, virtual reality system and method
KR970005193B1 (en) Interactive aircraft training system and method
KR101797208B1 (en) Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle
US12092468B2 (en) Methods and systems for response vehicle deployment
CN106652625A (en) Interactive virtual reality fire training system
JP2020527432A (en) Racing simulation
KR102277393B1 (en) Apparatus and method for training
WO2021241431A1 (en) Information processing device, information processing method, and computer-readable recording medium
JP2000207575A (en) Space fusing device and application devices adapting the same
JP6587585B2 (en) Experiential fire extinguishing training system, fire simulator for fire training, fire simulation method and program for fire training
CN105824417B (en) human-object combination method adopting virtual reality technology
EP1466300A1 (en) Method and system to display both visible and invisible hazards and hazard information
KR102095333B1 (en) Augmented reality based vehicle test method and system
CN109710077B (en) Virtual object collision judgment method and device based on VR and locomotive practical training system
JP5971466B2 (en) Flight path display system, method and program
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
KR101641672B1 (en) The system for Augmented Reality of architecture model tracing using mobile terminal
RU2736008C1 (en) Method for generating augmented reality environment
KR102289448B1 (en) Apparatus for providing interactive content
KR102341294B1 (en) Method and apparatus for providing interactive content
KR102441923B1 (en) Trainee testing and evaluating apparatus for disaster response rovot in live-virtual-constructive environment
US20220166917A1 (en) Information processing apparatus, information processing method, and program
RU136618U1 (en) SYSTEM OF IMITATION OF THE EXTERNAL VISUAL SITUATION IN ON-BOARD MEANS FOR OBSERVING THE EARTH SURFACE OF THE SPACE SIMULATOR

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant