KR102370575B1 - Disaster robot training system in mr environment - Google Patents

Disaster robot training system in mr environment Download PDF

Info

Publication number
KR102370575B1
KR102370575B1 KR1020200109133A KR20200109133A KR102370575B1 KR 102370575 B1 KR102370575 B1 KR 102370575B1 KR 1020200109133 A KR1020200109133 A KR 1020200109133A KR 20200109133 A KR20200109133 A KR 20200109133A KR 102370575 B1 KR102370575 B1 KR 102370575B1
Authority
KR
South Korea
Prior art keywords
robot
disaster
training
trainee
virtual
Prior art date
Application number
KR1020200109133A
Other languages
Korean (ko)
Inventor
오승섭
양견모
서갑호
곽동기
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020200109133A priority Critical patent/KR102370575B1/en
Application granted granted Critical
Publication of KR102370575B1 publication Critical patent/KR102370575B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Abstract

A disaster robot training system in an MR environment according to the present invention relates to a training system in which a robot including a camera and sensor is driven in a training space, and trainees are provided with a virtual environment like a real environment so that the trainees can train. The disaster robot training system in an MR environment includes a scenario module, a mixed environment implementation module, an interaction module, a robot driving module, and a control module.

Description

MR환경에서의 재난 로봇 훈련 시스템{DISASTER ROBOT TRAINING SYSTEM IN MR ENVIRONMENT}Disaster robot training system in MR environment

본 발명은 MR환경(혼합환경)의 재난 시나리오를 구축하여 훈련생이 로봇을 구동하는 것으로서, 훈련생이 훈련하는 동안 실제상황과 동일하게 인지하게 하는 MR환경에서의 재난 대응 로봇 훈련 시스템에 관한 것이다.The present invention relates to a disaster response robot training system in an MR environment that builds a disaster scenario in an MR environment (mixed environment) and enables trainees to drive robots, and to allow trainees to recognize the same situation as the real situation during training.

4차 산업혁명시대는 기술의 혁신을 추구하는 현대사회에 급격한 변화의 속도를 요구하고 있으며, 로봇과 인공지능은 현대사회에서 주목되는 분야 중 하나가 되어왔다.The era of the 4th industrial revolution demands the speed of rapid change in the modern society that pursues technological innovation, and robots and artificial intelligence have become one of the fields of attention in the modern society.

이러한 로봇은 사람의 하는 일들 중에 많은 부분을 대신하는 목적으로 개발되어 왔으며, 가까운 미래에는 재난 현장에서 인명을 구조하고 무너진 시설물을 복구하는 일들을 대신할 것으로 예상한다.These robots have been developed for the purpose of replacing many of the tasks of humans, and in the near future, it is expected that they will take over the tasks of rescuing people at disaster sites and restoring damaged facilities.

재난은 화재, 홍수, 산사태 등 시시각각 매우 중요한 대처와 상황 판단이 요구된다.Disasters, such as fire, flood, and landslide, require very important responses and situational judgment at every moment.

재난 상황에서는 지상 주행 로봇이나 드론(drone)과 같은 비행 로봇, 또는 필요에 따라 다양한 형태의 로봇들이 개발되어 구동되는데, 이러한 재난 대응 로봇을 조작하는 관제자는 한 대 또는 동시에 여러 대를 원격 통제한다.In a disaster situation, flying robots such as ground-running robots or drones, or various types of robots are developed and operated as needed.

재난 발생 시에는 관제자의 재난 대응 로봇에 대한 적절한 관제 능력과 재난 대처 능력이 요구된다.In the event of a disaster, the controller's ability to control and respond appropriately to the disaster response robot is required.

기존의 관제자의 재난 대처 능력을 훈련하고 평가하기 위한 평가 시스템은 주로 가상의 환경에서 관제자의 조작 능력을 훈련하고 평가하는 것에 국한되어 있다.The existing evaluation system for training and evaluating the disaster response capability of the controller is mainly limited to training and evaluating the operational capability of the controller in a virtual environment.

실제의 로봇을 조작하고 시의 적절한 명령을 내리면서 다양한 재난상황에 대처하는 능력을 훈련하거나 평가하는 시스템이 요구된다. There is a need for a system that trains or evaluates the ability to handle a variety of disaster situations while operating real robots and issuing timely commands.

이러한 재난상황에 대한 훈련과 평가에 대한 시스템은 실제 로봇을 조종하는 훈련생으로 하여금 가상의 환경을 실제와 동일하게 느끼도록 하는 것이 핵심요소가 되지만, 실제 환경의 로봇이 가상 환경의 재난 임무를 인지하도록 제어하는 시스템이 없어 가상 환경의 한계점이 되어오고 있다.The key element of this system for training and evaluation of disaster situations is to make the trainees who control the real robot feel the virtual environment the same as the real one, but it is necessary to make the robot in the real environment recognize the disaster mission in the virtual environment. Since there is no system to control it, it has become a limitation of the virtual environment.

예를 들어, LVC(Live-Virtual-Constructive)라는 실제 가상 모의 훈련체계에서는 전술에 대한 훈련과 가상의 적에 대한 인식이 주요점이라는 점에서 실제 조종 로봇과 가상의 매체가 접촉되는 환경이 만들어지지 않기 때문에 재난 환경과는 차이점이 있고, 이 밖에 가상 모의 훈련 시스템을 가지는 많은 훈련 시스템에서는 실제 로봇을 이용하지 않기 때문에 훈련생들이 실제 상황에서 이질감을 느끼게 된다는 문제점이 있다.For example, in the real virtual simulation training system called LVC (Live-Virtual-Constructive), since training in tactics and recognition of virtual enemies are the main points, an environment in which the real control robot and the virtual medium are in contact is not created. Therefore, there is a difference from the disaster environment, and in addition, many training systems having a virtual simulation training system do not use real robots, so there is a problem that trainees feel a sense of heterogeneity in the real situation.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, MR환경에서의 재난에 대응하도록 로봇을 통해 훈련생이 훈련하는 시스템을 제공하기 위한 목적을 가진다.The present invention is an invention devised to solve the problems of the prior art, and has an object to provide a system in which trainees train through a robot to respond to a disaster in an MR environment.

특히 본 발명은 실제 환경의 로봇이 가상 환경의 재난 임무를 인식하도록 훈련생이 느끼게 하여, 시나리오상 돌발 상황을 대처하여 훈련을 통해서 재난 상황에 바람직하게 로봇을 운용하는 훈련을 위한 시스템을 제공하는데 그 목적을 가진다.In particular, the present invention makes the trainee feel so that the robot in the real environment recognizes the disaster mission in the virtual environment, and provides a system for training to preferably operate the robot in a disaster situation through training to cope with an unexpected situation in the scenario. have

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위한 본 발명의 MR 환경에서의 재난 로봇 훈련 시스템은, 재난이 발생된 상황에서 훈련생이 로봇을 조종하여 재난 임무에 대응할 수 있는 훈련을 하기 위한 훈련 시스템으로서, 상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈, 상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈, 상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈, 상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈 및 상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함할 수 있다.A disaster robot training system in an MR environment of the present invention for achieving the above object is a training system for training a trainee to respond to a disaster mission by controlling a robot in a disaster situation, wherein the trainee By manipulating the robot, environmental factors that may occur during the disaster mission are set as a training event, and the trainee drives the robot to perform the disaster mission and training in response to the training event. A scenario module to build, a mixed environment realization module for realizing the disaster mission in virtual or real form in the scenario, determining whether the training event is real or virtual in the scenario, and the trainee using the robot to perform the disaster mission When the virtual training event occurs during operation, the robot restricts the operation of the robot due to the virtual training event before the trainee commands the robot to control the robot so that the trainee recognizes the virtual training event When the operation of the robot is restricted in the interaction module, the robot driving module and the robot are sent to the robot by giving priority to the command to limit the driving of the robot rather than the command by the trainee to control the robot and the robot is the disaster It may include a control module that provides the trainee with a result driven by a command of the trainee while performing a task and a result of limiting the operation of the robot in the interaction module to the trainee.

그리고 상기 인터렉션 모듈은 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부 및 상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부를 포함하고, 상기 인터렉션 제어부는 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 할 수 있다.And the interaction module determines whether the training event is an actual training event or a virtual training event in a scenario, and when it is the virtual training event, the trainee commands the robot and drives the robot so that the robot corresponds to the virtual training event. When the trainee fails to control the robot to respond to the virtual training event by receiving the determination result from the interaction determination unit and the interaction determination unit to determine whether the command result matches the command result, a command to limit the operation of the robot is issued and an interaction control unit provided to a robot driving module, wherein the interaction control unit limits the operation of the robot in the virtual training event so that the trainee recognizes the virtual training event.

또한 상기 인터렉션 모듈은 상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않을 수 있다.In addition, in the interaction module, when the interaction determining unit determines that the training event is the actual training event, the interaction control unit may not be involved in driving the robot.

그리고 인터렉션 제어부는 시나리오 모듈로부터 상기 가상 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성할 수 있다.The interaction control unit may extract the virtual training event information from the scenario module and generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event.

또한 상기 로봇은 상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함 할 수 있다In addition, the robot may include a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event.

그리고 상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고, 상기 로봇 행동부는 상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단 할 수 있다.In addition, the robot is provided with wheels to be movable, and the robot action unit is mounted on the wheel of the robot to block the driving force that rotates the wheel by the control command.

또한 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함할 수 있다.In addition, the trainee may further include a training evaluation module for evaluating a result of manipulating the robot while coping with the disaster mission and the training event by driving the robot.

그리고 상기 훈련 평가 모듈은, 상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출할 수 있다.And the training evaluation module may derive a result by comparing it with pre-stored scenario success data using the driving information of the robot, the position information of the robot, and the time information when the robot passed the scenario in the scenario. .

상기한 과제를 해결하기 위한 본 발명의 MR 환경에서의 재난 로봇 훈련 시스템은, 혼합 환경에서 훈련을 하는 훈련생이 실제 상황에서 훈련하는 것과 같이 훈련을 할 수 있다.The disaster robot training system in the MR environment of the present invention for solving the above problems can be trained like a trainee training in a mixed environment is training in a real situation.

그리고 실체의 로봇을 조종하면서도 훈련생이 가상의 환경에서 조종한다는 점에서 공간적인 효율이 있다는 장점이 있다.In addition, there is an advantage in that there is spatial efficiency in that the trainee controls the real robot in a virtual environment while controlling it.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 로봇 훈련 시스템에서 훈련생에게 디스플레이되는 재난 시나리오를 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련을 위한 다수의 시나리오 중 일부를 개념적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련생, 로봇 및 시스템간의 신호흐름도;
도 5는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템의 인터렉션 모듈의 알고리즘을 나타낸 도면;
도 6은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 가상 훈련 이벤트에 대한 로봇 구동을 나타낸 개념도;
도 7은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 제어명령에 의해 로봇이 가상 훈련 이벤트를 인지할 수 있는 모습의 개념도;
도 8은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련 평가 모듈을 통해 재난 임무의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.
1 is a diagram illustrating a disaster scenario displayed to trainees in a robot training system in a disaster robot training system in an MR environment according to an embodiment of the present invention;
2 is a diagram conceptually illustrating some of a plurality of scenarios for training in a disaster robot training system in an MR environment according to an embodiment of the present invention;
3 is a view showing the overall concept for building a mixed environment in the disaster robot training system in the MR environment according to an embodiment of the present invention;
4 is a signal flow diagram between trainees, robots, and systems in a disaster robot training system in an MR environment according to an embodiment of the present invention;
5 is a diagram illustrating an algorithm of an interaction module of a disaster robot training system in an MR environment according to an embodiment of the present invention;
6 is a conceptual diagram illustrating a robot driving for a virtual training event in a disaster robot training system in an MR environment according to an embodiment of the present invention;
7 is a conceptual diagram of a state in which a robot can recognize a virtual training event by a control command in a disaster robot training system in an MR environment according to an embodiment of the present invention;
8 is a diagram showing the training degree of trainees according to whether a disaster mission is virtual or real through a training evaluation module in a disaster robot training system in an MR environment according to an embodiment of the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily practice the present invention.

실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring the gist of the present invention by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings. In addition, the size of each component does not fully reflect the actual size. In each figure, the same or corresponding elements are assigned the same reference numerals.

도면을 참조하여 본 발명에 대해 구체적으로 설명하도록 하겠다.The present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련생에게 디스플레이되는 재난 시나리오를 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련을 위한 다수의 시나리오 중 일부를 개념적으로 나타낸 도면이며, 도 3은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련생, 로봇(100) 및 시스템(300)간의 신호 흐름도이며, 도 5는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)의 인터렉션 모듈(330)의 알고리즘을 나타낸 도면이고, 도 6은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 가상 훈련 이벤트(F)에 대한 로봇(100) 구동을 나타낸 개념도 이며, 도 7은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 제어명령(331)에 의해 로봇(100)이 가상 훈련 이벤트(F)을 인지할 수 있는 모습의 개념도이고, 도 8은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련 평가 모듈(360)을 통해 재난 임무(E)의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.1 is a diagram illustrating a disaster scenario displayed to trainees in a training system 300 of a disaster robot 100 in an MR environment according to an embodiment of the present invention, and FIG. 2 is an MR environment according to an embodiment of the present invention. It is a diagram conceptually showing some of a plurality of scenarios for training in the disaster robot 100 training system 300, and FIG. 3 is a disaster robot 100 training system in an MR environment according to an embodiment of the present invention. It is a view showing the overall concept for building a mixed environment in 300, and FIG. 4 is a trainee, robot 100 and It is a signal flow diagram between the systems 300, and FIG. 5 is a diagram showing the algorithm of the interaction module 330 of the disaster robot 100 training system 300 in an MR environment according to an embodiment of the present invention, FIG. It is a conceptual diagram illustrating the operation of the robot 100 for a virtual training event F in the disaster robot 100 training system 300 in an MR environment according to an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention It is a conceptual diagram of a state in which the robot 100 can recognize the virtual training event F by the control command 331 in the disaster robot 100 training system 300 in the MR environment according to the present invention, and FIG. It is a diagram showing the training degree of trainees according to whether the disaster mission E is virtual or real through the training evaluation module 360 in the disaster robot 100 training system 300 in the MR environment according to an embodiment of

본 발명은 실제와 같은 재난 상황을 혼합 환경(MIXED-REALITY)으로 구현하여 실체 로봇(100)을 조종하는 훈련생이 가상의 재난 상황에서 훈련하기 위한 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에 관한 것으로, 시스템(300)의 구성으로는 혼합 환경 구현 모듈(310), 시나리오 모듈(320), 인터렉션 모듈(330), 로봇 구동 모듈(340) 및 관제 모듈(350)을 포함 할 수 있다.The present invention implements a disaster situation like the real one in a mixed environment (MIXED-REALITY) so that a trainee who controls the real robot 100 trains in a virtual disaster situation in a disaster robot 100 training system 300 ), the configuration of the system 300 may include a mixed environment implementation module 310 , a scenario module 320 , an interaction module 330 , a robot driving module 340 , and a control module 350 . .

시스템(300)은 로봇(100)에 저장되어 있을 수 있고 훈련생이 로봇(100)을 조종하는 컨트롤러(200)에 저장되어 있을 수 있다.The system 300 may be stored in the robot 100 , and may be stored in the controller 200 in which the trainee controls the robot 100 .

먼저 본 발명의 일 실시예에 따른 로봇(100)은 몸체와 이동부, 그리고 카메라(120)를 가지고 있으며 몸체의 일부에는 가상 환경과 통신이 가능한 통신암(140)이 포함될 수 있다.First, the robot 100 according to an embodiment of the present invention has a body, a moving part, and a camera 120, and a part of the body may include a communication arm 140 capable of communicating with a virtual environment.

또한 로봇(100)은 내부에 다양한 센서가 장착되어 있어서 로봇(100)의 정보를 생성할 수 있다.In addition, since the robot 100 is equipped with various sensors therein, it is possible to generate information about the robot 100 .

로봇(100)에 구비되는 센서는, 위치 센서, 통신 센서, 속도(가속도 포함)센서, 포토 센서를 포함할 수 있다.The sensor provided in the robot 100 may include a position sensor, a communication sensor, a speed (including acceleration) sensor, and a photo sensor.

그리고 본 발명의 실제 환경인 훈련 공간에서 로봇(100)이 이동되는 것을 전제로 하고 있으며, 실제 공간상에는 천장과 벽에 마커(MARKER)가 형성되고 로봇(100)은 마커를 통해 위치 정보를 전송할 수 있고, 로봇(100)이 촬영하는 영상 또한 실시간으로 전송이 가능하다.And it is premised that the robot 100 is moved in the training space, which is the real environment of the present invention, and in the real space, markers are formed on the ceiling and wall, and the robot 100 can transmit location information through the marker. Also, the image captured by the robot 100 can be transmitted in real time.

상기 센서 데이터 및 영상 데이터는 실시간으로 시스템(300)에 전송되며, 훈련생은 훈련 공간에서 로봇(100)을 구동할 수 있는 컨트롤러(200)를 통해 로봇(100)을 구동 시킬 수 있다.The sensor data and image data are transmitted to the system 300 in real time, and the trainee can drive the robot 100 through the controller 200 that can drive the robot 100 in the training space.

컨트롤러(200)는 훈련 공간과 별도의 공간에서 훈련생이 원격으로 로봇(100)을 조종할 수 있도록 로봇(100)에게 조종명령(342)를 제공하게 된다. The controller 200 provides a control command 342 to the robot 100 so that a trainee can remotely control the robot 100 in a space separate from the training space.

여기서 조종명령(342)는 로봇이 재난 임무를 수행하도록 훈련생으로부터 로봇의 조종하기 위한 명령을 말할 수 있다Here, the steering command 342 may refer to a command for controlling the robot from a trainee so that the robot performs a disaster mission.

컨트롤러(200)에는 조이스틱과 버튼이 구성되어 있으며, 상기 영상 데이터에 가상의 목표 객체(G1) 및 가상 훈련 이벤트(F)이 특정 위치에 생성되도록 혼합 환경으로 표시될 수 있다.The controller 200 includes a joystick and buttons, and may be displayed as a mixed environment so that a virtual target object G1 and a virtual training event F are generated at a specific location in the image data.

또한 컨트롤러(200)에는 혼합 환경을 볼 수 있도록 디스플레이가 구성될 수 있다.Also, the controller 200 may have a display configured to view the mixed environment.

따라서 훈련생은 컨트롤러(200)에서 재난 환경과 같은 혼합 환경을 보면서 훈련 공간의 실체 로봇(100)을 구동하는 형태로 훈련을 할 수 있다.Therefore, the trainee can train in the form of driving the actual robot 100 in the training space while watching a mixed environment such as a disaster environment in the controller 200 .

한편 상기 영상 데이터를 통해 혼합 환경을 조성하는 것은 혼합 환경 구현 모듈(310)에서 수행할 수 있다. Meanwhile, creating a mixed environment through the image data may be performed by the mixed environment realizing module 310 .

그리고 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 연계되어 있으며, 훈련 공간의 구조를 파악하여 시작 위치(P1)와 목표 위치(P2) 사이에 재난 임무(E)과 시나리오 달성 목표에 해당되는 가상의 목표 객체(G1)가 배치된 목표 위치(P2)를 포함하는 시나리오를 생성할 수 있다.And the scenario module 320 is linked with the mixed environment implementation module 310, and by identifying the structure of the training space, it corresponds to the disaster mission (E) and the scenario achievement goal between the starting location (P1) and the target location (P2). A scenario including the target location P2 in which the virtual target object G1 is disposed may be generated.

그리고 로봇(100)에 장착된 통신암(140)을 통해 상기 가상의 목표 객체(G1)와 통신하여 화재(G1)를 진압할 수 있다.In addition, the fire G1 may be extinguished by communicating with the virtual target object G1 through the communication arm 140 mounted on the robot 100 .

인터렉션 모듈(330)은 가상 훈련 이벤트(F)뿐만 아니라 가상의 목표 객체(G1)의 크기 및 위치 정보를 생성할 수 있다.The interaction module 330 may generate size and location information of the virtual target object G1 as well as the virtual training event F.

구체적으로 인터렉션 판단부(332)는 목표 위치(P2)에 배치된 가상의 목표 객체(G1)에 대한 정보를 가지고 로봇(100)이 가상의 목표 객체(G1)와 인접하였는지를 판단하고, 인터렉션 제어부(334)는 가상의 목표 객체(G1) 정보에 대응하여 통신암(140)에서 발생된 신호의 방향과 시간을 통해 가상의 목표 객체(G1)가 시나리오상에서 사라지게 할 수 있다.Specifically, the interaction determination unit 332 determines whether the robot 100 is adjacent to the virtual target object G1 with information on the virtual target object G1 disposed at the target position P2, and the interaction control unit ( 334 may cause the virtual target object G1 to disappear from the scenario through the direction and time of the signal generated from the communication arm 140 in response to the virtual target object G1 information.

상기 시나리오는 혼합 환경으로 구현될 수 있다.The above scenario may be implemented as a mixed environment.

따라서 훈련생은 컨트롤러(200)에서 혼합 환경으로 구현된 영상을 보면서 시나리오를 진행하게 되는데, 이때 로봇(100)은 혼합 환경상에서 훈련생의 조종명령(342)를 수신하여 구동될 수 있다.Therefore, the trainee proceeds with the scenario while viewing the image implemented in the mixed environment in the controller 200. In this case, the robot 100 may be driven by receiving the trainee's control command 342 in the mixed environment.

한편 인터렉션 모듈(330)은 혼합 환경 내에서 발생되는 재난 임무(E)을 확인하고 조종명령(342)에 의해 로봇(100)이 재난 임무(E)에 접촉되는 접촉 지점에 도달했는지 판단하며, 접촉 지점에서 로봇(100)을 제어하는 제어명령(331)를 생성한다.On the other hand, the interaction module 330 checks the disaster mission (E) occurring in the mixed environment, and determines whether the robot 100 has reached the contact point in contact with the disaster mission (E) by the control command 342, and the contact A control command 331 for controlling the robot 100 is generated at a point.

구체적으로 인터렉션 모듈(330)은 훈련생이 조종명령(342)를 통해 로봇(100)을 구동하다가 가상 훈련 이벤트(F)이 있는 접촉 지점에서 로봇(100)이 가상 훈련 이벤트(F)이 있는 것처럼 반응하도록 접촉 위치에서 조종명령(342)보다 먼저 로봇(100)의 구동을 제어하는 제어명령(331)를 발생시킬 수 있다.Specifically, the interaction module 330 reacts as if there is a virtual training event F at the point of contact where the trainee drives the robot 100 through the control command 342 and the virtual training event F exists. In order to do so, a control command 331 for controlling the driving of the robot 100 may be generated before the manipulation command 342 at the contact position.

이를 통해 훈련생은 로봇(100)이 이동되다가 가상 훈련 이벤트(F)인 벽에 충돌한 것과 같이 디스플레이에서 확인할 수 있다.Through this, the trainee can confirm on the display as if the robot 100 was moving and collided with the wall, which is the virtual training event (F).

여기서 조종명령(342)와 제어명령(331)를 로봇(100)에게 제공하는 것은 로봇 구동 모듈(340)일 수 있다.Here, it may be the robot driving module 340 that provides the control command 342 and the control command 331 to the robot 100 .

로봇 구동 모듈(340)은 로봇(100)이 실체 훈련 이벤트(R)과 충돌된 것과 같이 가상 훈련 이벤트(F)과 접촉되는 접촉 지점에서 제어명령(331)를 로봇(100)에 제공할 수 있다.The robot driving module 340 may provide a control command 331 to the robot 100 at a point of contact where the robot 100 comes into contact with the virtual training event F, such as when the robot 100 collides with the actual training event R. .

이 때 훈련생의 디스플레이에는 혼합 환경의 시나리오가 제공되어 있어서 훈련생은 마치 실제 벽에 부딪힌 걸로 보게 될 수 있다.At this time, the trainee's display is provided with a scenario of a mixed environment, so that the trainee can see it as if he had hit a real wall.

이렇게 조종명령(342)와 제어명령(331)를 선택해서 로봇(100)에게 제공하는 로봇 구동 모듈(340)과 연결되고 시나리오상에서 로봇(100)이 구동된 결과를 훈련생이 확인할 수 있도록 제공하는 관제 모듈(350)이 포함될 수 있다.In this way, the control command 342 and the control command 331 are selected and connected to the robot driving module 340 provided to the robot 100, and the control provided so that the trainee can check the results of the operation of the robot 100 in the scenario A module 350 may be included.

관제 모듈(350)은 로봇 구동 모듈(340)에서 로봇(100)으로 조종명령(342) 및 제어명령(331)를 제공하여 로봇(100)이 재난 임무(E)과 접촉되거나, 접촉되었다가 이탈된 상태에서 훈련생이 조종명령(342)를 로봇(100)에게 제공할 수 있는 상태를 제공할 수 있다.The control module 350 provides a steering command 342 and a control command 331 from the robot driving module 340 to the robot 100 so that the robot 100 comes into contact with the disaster mission E, or comes into contact with the robot 100 and leaves. A state in which the trainee can provide the control command 342 to the robot 100 may be provided in the completed state.

즉, 로봇(100)이 가상 훈련 이벤트(F)과 충돌된 것을 훈련생이 인지할 수 있도록 조종 타이밍을 제공하는 것이다.That is, the robot 100 is to provide a steering timing so that the trainee can recognize that the collision with the virtual training event (F).

다음 도면을 통해 본 발명의 일 실시예가 구현된 것을 자세하게 설명하도록 한다.An embodiment of the present invention will be described in detail with reference to the following drawings.

도 1은 화재(G1) 시나리오로 가상의 객체(G1, G2)가 화재(G1)로 설정되어 있다.1 shows a fire (G1) scenario in which virtual objects (G1, G2) are set as a fire (G1).

시나리오상에서 로봇(100)은 시작 위치(P1)에서 가상의 객체(G1, G2)가 형성된 목표 위치(P2)로 이동을 해서 화재(G1)를 진압해야 한다. 시작 위치(P1)와 목표 위치(P2) 사이에는 재난 임무(E)이 형성되어 있을 수 있다.In the scenario, the robot 100 needs to extinguish the fire G1 by moving from the starting position P1 to the target position P2 where the virtual objects G1 and G2 are formed. A disaster mission E may be formed between the starting position P1 and the target position P2 .

재난 임무(E)은 벽에 해당하며 훈련 공간에 형성된 실체 훈련 이벤트(R)일 수도 있고, 훈련 공간에 없는 가상 훈련 이벤트(F)일 수도 있다.The disaster mission (E) corresponds to the wall and may be an actual training event (R) formed in the training space, or a virtual training event (F) that is not in the training space.

훈련생은 시나리오 임무를 달성하기 위해 재난 임무(E)을 피해서 목표 위치(P2)로 이동하고, 화재(G1)를 진압하는 훈련을 수행하게 된다.In order to accomplish the scenario mission, the trainee avoids the disaster mission (E), moves to the target location (P2), and performs training to extinguish the fire (G1).

화재(G1) 시나리오에서는 도 2에 도시된 바와 같이 화재(G1)를 진압하는 훈련뿐 아니라, 요구조자(G2)를 구출하는 시나리오로 제공도리 수 있다.In the fire (G1) scenario, as shown in FIG. 2 , as well as training to suppress the fire (G1), it can be provided as a scenario to rescue the person in need (G2).

이와 같이 시나리오는 화재(G1)와 요구조자(G2) 구출에 한정되는 것이 아니며, 시나리오 모듈(320)에서 재난 상황에 따라 화재(G1), 토네이도, 구조, 홍수 등을 포함하는 시나리오가 제공될 수 있고, 이에 따른 가상의 객체(G1, G2)는 시나리오 구축을 통해 다양하게 제공될 수 있다.As such, the scenario is not limited to the rescue of the fire (G1) and the rescuer (G2), and according to the disaster situation in the scenario module 320, a scenario including a fire (G1), a tornado, a rescue, a flood, etc. may be provided. , and the corresponding virtual objects G1 and G2 may be provided in various ways through scenario construction.

본 실시예에서는 화재(G1) 시나리오를 선택하여 설명한다.In this embodiment, a fire (G1) scenario is selected and described.

도 2에서 시나리오 모듈(320)은 시나리오가 시작되는 시작 위치(P1) 및 목표 위치(P3)로 구분되며, 시작 위치(P1) 및 목표 위치(P3) 사이에 시나리오 임무에 해당되는 화재(G1) 또는 요구조자(G2)가 가상의 객체(G1, G2)로 형성된 목표 위치(P2)를 포함한다.In FIG. 2 , the scenario module 320 is divided into a starting location P1 and a target location P3 where the scenario starts, and a fire G1 corresponding to the scenario mission between the starting location P1 and the target location P3. Alternatively, the requestor G2 includes the target position P2 formed of the virtual objects G1 and G2.

시나리오 모듈(320)은 훈련 공간에 대한 실제 정보를 가지고 시작 위치(P1), 목표 위치(P2) 및 목표 위치(P3) 그리고 재난 임무(E)이 배치를 조절할 수 있다.The scenario module 320 may adjust the arrangement of the start position P1, the target position P2 and the target position P3, and the disaster mission E with actual information about the training space.

이 때 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 함께 혼합 환경에서의 시나리오를 훈련생에게 제공할 수 있다.In this case, the scenario module 320 may provide a scenario in the mixed environment to the trainee together with the mixed environment implementation module 310 .

이와 같은 구조를 훈련생에게 제공하여 훈련생이 혼합 환경에서 실제 재난 환경에 대응되는 훈련 효과를 가지기 위해서는 본 발명의 시스템(300) 구성에 의해 구현이 가능하다.In order to provide such a structure to the trainee so that the trainee can have a training effect corresponding to the actual disaster environment in a mixed environment, it can be implemented by the configuration of the system 300 of the present invention.

또한 본 발명에 따른 훈련생 평가에 있어서, 시나리오 모듈(320)은 시나리오상에서 실체 훈련 이벤트(R) 및 가상 훈련 이벤트(F)를 랜덤하게 배치할 수 있다.In addition, in the trainee evaluation according to the present invention, the scenario module 320 may randomly arrange an actual training event (R) and a virtual training event (F) on the scenario.

이는 훈련 평가 모듈(360)과 연동하여, 훈련의 레벨에 따라 재난 임무(E) 개수를 판단하고, 재난 임무(E)을 가상 또는 실체를 교대로 배치할 수도 있고, 실체 또는 가상 중 어느 하나만 선택하여 배치할 수도 있다.This, in conjunction with the training evaluation module 360, determines the number of disaster missions (E) according to the level of training, and may alternately place the disaster missions (E) in virtual or virtual, or select only one of the virtual or virtual can also be placed.

그리고 재난 임무(E)는 이벤트(미도시)를 포함할 수 있다.And the disaster mission (E) may include an event (not shown).

상기 이벤트는 가상 또는 실체로 구현이 가능하며, 시나리오상에 로봇이 구동되는 바닥에 기름이 누유된 지역, 돌풍, 비, 우박, 천둥, 자갈이 펼쳐진 지역을 포함할 수 있다.The event can be implemented in virtual or real form, and may include an area where oil leaks on the floor where the robot is driven, gusts of wind, rain, hail, thunder, and gravel spread in the scenario.

본 발명의 목적이 혼합 환경에서 가상으로 구현된 가상의 객체(G1, G2)를 훈련생이 실체로 체감하도록 하는 것이므로 자세한 것을 도 3 및 도 4를 통해 설명하도록 한다.Since an object of the present invention is to allow trainees to experience virtual objects G1 and G2 implemented virtually in a mixed environment as an entity, details will be described with reference to FIGS. 3 and 4 .

도 3에서 컨트롤러(200)로 로봇(100)을 구동하는 훈련생은 시스템(300)이 개입하여 로봇(100) 구동 통제와 혼합 환경 구현으로 아무것도 없는 훈련 공간에서 로봇(100)이 이동되지만 훈련생은 실제와 같이 체감할 수 있게 할 수 있다.In FIG. 3 , the trainee driving the robot 100 with the controller 200 intervenes with the system 300 to control the robot 100 drive and implement the mixed environment, and the robot 100 is moved in the training space without anything, but the trainee is actually You can make it feel like

먼저 혼합 환경 구현 모듈(310)은 로봇(100)에서 촬영된 영상과 훈련 공간의 정보를 통해 영상에 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)를 혼합 환경을 구현하고, 로봇(100)이 이동되고 방향이 전환되는 영상에 대응하여 실시간으로 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)가 표시되게 한다.First, the mixed environment implementation module 310 implements a mixed environment by adding a virtual training event (F) and virtual objects (G1, G2) to the image through the image captured by the robot 100 and the information of the training space, and the robot ( 100) is moved and a virtual training event (F) and virtual objects (G1, G2) are displayed in real time in response to an image in which the direction is changed.

여기서 혼합 환경 구현 모듈(310)은 시나리오 모듈(320)과 함께 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)를 배치할 수 있다.Here, the mixed environment implementation module 310 may arrange the virtual training event F and the virtual objects G1 and G2 together with the scenario module 320 .

그리고 인터렉션 모듈(330)은 시나리오상에서 재난 임무(E)의 위치를 판단하고 접촉지점에서 로봇(100)을 통제할 수 있는 제어명령(331)를 생성한다.In addition, the interaction module 330 determines the location of the disaster mission E in the scenario and generates a control command 331 capable of controlling the robot 100 at the contact point.

구체적으로 인터렉션 모듈(330)은 재난 임무(E)인 훈련 공간에 있는 실체 훈련 이벤트(R)인지 혼합 환경 구현 모듈(310)로 생성된 가상 훈련 이벤트(F)인지 재난 임무(E)의 종류를 판단하고, 시나리오상에서 재난 임무(E)의 위치를 포함하는 재난 임무(E) 정보를 생성하는 인터렉션 판단부(332)를 포함할 수 있다.Specifically, the interaction module 330 determines whether an actual training event (R) in the training space that is a disaster mission (E) or a virtual training event (F) generated by the mixed environment implementation module 310 or the type of disaster mission (E) It may include an interaction determination unit 332 that determines and generates disaster mission (E) information including the location of the disaster mission (E) in the scenario.

또한 로봇(100)과 인접한 가상 훈련 이벤트(F)에 대한 상기 재난 임무(E) 정보를 로봇(100)에게 제공하여 로봇(100)이 재난 임무(E)과 근접할 경우 로봇(100)을 제어하는 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하는 인터렉션 제어부(334)를 포함할 수 있다.In addition, the disaster mission (E) information for the virtual training event (F) adjacent to the robot 100 is provided to the robot 100 to control the robot 100 when the robot 100 is close to the disaster mission (E). It may include an interaction control unit 334 that generates a control command 331 and provides it to the robot driving module 340 .

인터렉션 판단부(332)는 재난 임무(E) 정보에 따라 시나리오상에 가상 훈련 이벤트(F)의 크기를 복수의 좌표 데이터로 생성하여 로봇(100)과 가상 훈련 이벤트(F)간의 거리를 측정할 수 있고, 인터렉션 제어부(334)는 로봇(100)과 가상 재난 임무(E)이 접촉되는 접촉 지점에서 제어명령(331)를 로봇 구동 모듈(340)에 제공하여 로봇 구동 모듈(340)이 로봇(100)에게 제어명령(331)를 제공할 수 있게 할 수 있다.The interaction determination unit 332 generates the size of the virtual training event (F) as a plurality of coordinate data on the scenario according to the disaster mission (E) information to measure the distance between the robot 100 and the virtual training event (F). The interaction control unit 334 provides the control command 331 to the robot driving module 340 at the contact point where the robot 100 and the virtual disaster mission E come into contact, so that the robot driving module 340 is the robot ( 100) may be able to provide a control command 331 .

제어명령(331)는 재난 임무(E) 정보에 따라 재난 임무(E)의 가상의 체적에 대한 좌표 데이터를 포함할 수 있다.The control command 331 may include coordinate data for a virtual volume of the disaster mission E according to the disaster mission E information.

계속해서 인터렉션 제어부(334)가 제어명령(331)를 로봇 구동 모듈(340)에 제공하기 위해서는 로봇(100)과 가상 훈련 이벤트(F)간에 기 설정된 임계값으로 판단하고, 로봇(100)이 접촉지점에 임박한 임계값에서 제어명령(331)를 제공하게 될 수 있다.Subsequently, in order for the interaction control unit 334 to provide the control command 331 to the robot driving module 340, it is determined as a preset threshold value between the robot 100 and the virtual training event F, and the robot 100 is contacted. The control command 331 may be provided at a threshold imminent at a point.

이 때 훈련생은 계속해서 조종명령(342)를 송신하고 있지만 로봇 구동 모듈(340)은 접촉 지점에서 제어명령(331)를 우선적으로 로봇(100)에게 제공하게 된다.At this time, the trainee continues to transmit the control command 342 , but the robot driving module 340 preferentially provides the control command 331 to the robot 100 at the contact point.

예를 들어 설명하도록 한다.Let me explain with an example.

훈련생의 조종 실수로 로봇(100)이 가상 훈련 이벤트(F)에 수회 접촉되는 상황이라고 가정해 보자.Assume that the robot 100 is in contact with the virtual training event F several times due to the trainee's manipulation mistake.

인터렉션 판단부(332)는 먼저 가상 훈련 이벤트(F)의 재난 임무(E) 정보를 생성하고, 인터렉션 제어부(334)는 로봇(100)과 재난 임무(E)에 근접하여 로봇(100)의 위치가 임계값이라고 판단되면 제어명령(331)를 로봇 구동 모듈(340)에 제공한다. 그리고 로봇 구동 모듈(340)은 조종명령(342)를 로봇(100)에 제공하여 로봇(100)이 구동되게 하다가 제어명령(331)가 수신되면, 로봇(100)이 접촉지점에 위치했을 때는 제어명령(331)를 로봇(100)에게 제공하고, 접촉지점에서 벗어나면 다시 조종명령(342)를 로봇(100)에게 제공한다.The interaction determination unit 332 first generates the disaster mission (E) information of the virtual training event (F), and the interaction control unit 334 is the robot 100 and the location of the robot 100 in proximity to the disaster mission (E). When it is determined that is a threshold value, the control command 331 is provided to the robot driving module 340 . In addition, the robot driving module 340 provides a control command 342 to the robot 100 so that the robot 100 is driven, and when the control command 331 is received, control when the robot 100 is located at the contact point. A command 331 is provided to the robot 100 , and when it deviates from the contact point, a control command 342 is provided to the robot 100 again.

제어명령(331)는 로봇(100)으로 하여금 가상 훈련 이벤트(F)을 인지하게 하는 것이다. 따라서 제어명령(331)를 수신할 때는 조종명령(342)가 수신되지 않아 로봇(100)이 벽에 부딛친거와 같이 훈련생이 체감할 수 있다.The control command 331 causes the robot 100 to recognize the virtual training event F. Therefore, when the control command 331 is received, the control command 342 is not received, so that the trainee can feel it as if the robot 100 hit a wall.

한편 로봇(100)이 재난 임무(E)과 접촉할 때의 모습을 신호에 따른 흐름으로 도 4에 나타나 있다.Meanwhile, the state when the robot 100 comes into contact with the disaster mission E is shown in FIG. 4 as a flow according to the signal.

시작 위치(P1)에서 로봇(100)이 출발하는 상황에서 먼저 훈련생이 로봇(100)을 조종하면 로봇 구동 모듈(340)이 조종명령(342)를 로봇(100)에게 제공하고, 로봇(100)의 영상은 시스템(300)으로 전달된다.When a trainee first controls the robot 100 in a situation where the robot 100 departs from the starting position P1, the robot driving module 340 provides a control command 342 to the robot 100, and the robot 100 The image of is transmitted to the system 300 .

시스템(300)에서 혼합 환경 구현 모듈(310)은 영상에 대응되어 혼합 환경을 디스플레이에 제공하고, 훈련생은 계속해서 로봇(100)을 조종하며 목표 위치(P2)로 이동한다.In the system 300 , the mixed environment implementation module 310 corresponds to the image and provides the mixed environment on the display, and the trainee continues to control the robot 100 and moves to the target position P2 .

로봇(100)이 이동중에 가상 훈련 이벤트(F)을 만나면 인터렉션 모듈(330)은 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하고, 로봇 구동 모듈(340)은 관제 모듈(350)을 통해 로봇(100)이 가상 훈련 이벤트(F)에 대응한 결과가 혼합 환경을 제공되도록 한다. 가상 훈련 이벤트(F)을 지나면 훈련생은 계속해서 로봇(100)을 조종하여 이동한다.When the robot 100 encounters a virtual training event F while moving, the interaction module 330 generates a control command 331 and provides it to the robot driving module 340, and the robot driving module 340 is the control module 350 ) through which the robot 100 provides a mixed environment with a result corresponding to the virtual training event F. After the virtual training event F, the trainee continues to move by controlling the robot 100 .

가상 훈련 이벤트(F)과 로봇(100)이 근접한 상황에서 인터렉션 모듈(330)은 도 5와 같이 동작한다.In a situation where the virtual training event F and the robot 100 are close to each other, the interaction module 330 operates as shown in FIG. 5 .

조종명령(342)이 수신되어 조종명령(342)를 통해 로봇(100)이 구동(S01)되었다가 조종명령(342)가 인터렉션 판단부(332)가 재난 임무(E) 정보를 생성하고 조종명령(342)가 접촉 지점에 도달하는지 여부를 판단하고(S02), 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)(F)과 접촉했는지 판단한다(S03).When the steering command 342 is received, the robot 100 is driven (S01) through the steering command 342, and the steering command 342 generates the disaster mission (E) information by the interaction determination unit 332 and controls the command. It is determined whether 342 has reached the contact point (S02), and it is determined whether the robot 100 has reached the contact point and made contact with the virtual training event (F) (F) (S03).

그리고 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)(F)과 접촉하지 않았으면 로봇(100)구동모듈(340)이 조종명령(342)를 로봇(100)에 제공하고, 접촉했으면 로봇(100)구동모듈(340)이 제어명령(331)(331)를 로봇(100)에게 제공(S04)하며, 관제 모듈(350)(350)은 디스플레이에 표시되게 한다(S05). And when the robot 100 reaches the contact point and does not come into contact with the virtual training event (F) (F), the robot 100 drive module 340 provides the control command 342 to the robot 100, and the contact If done, the robot 100 driving module 340 provides control commands 331 and 331 to the robot 100 (S04), and the control modules 350 and 350 are displayed on the display (S05).

제어명령(331)가 로봇(100)이 가상 훈련 이벤트(F)과 접촉될 수 있게 하는 모습은 도 6 내지 도 7에 나타내었다.A state in which the control command 331 allows the robot 100 to come into contact with the virtual training event F is shown in FIGS. 6 to 7 .

훈련 공간에는 가상 훈련 이벤트(F)이 없기 때문에 사용자가 조종 실수로 가상 훈련 이벤트(F)을 통과할 수도 있다.Since there is no virtual training event (F) in the training space, the user may pass the virtual training event (F) due to a steering mistake.

하지만 제어명령(331)는 가상 훈련 이벤트(F)과 로봇(100)이 접촉이 가능하도록 로봇(100)의 구동력을 통제하여 가상 훈련 이벤트(F)을 통과하지 못하게 한다.However, the control command 331 prevents the virtual training event F from passing by controlling the driving force of the robot 100 so that the virtual training event F and the robot 100 can come into contact.

인터렉션 판단부(332)에서 재난 임무(E) 정보를 좌표 데이터로 생성하기 때문에 가상 훈련 이벤트(F)의 크기와 형상에 대응하여 제어명령(331)가 로봇(100)의 구동을 통제하게 된다.Since the interaction determination unit 332 generates the disaster mission (E) information as coordinate data, the control command 331 controls the operation of the robot 100 in response to the size and shape of the virtual training event F.

본 발명의 목적은 가상 훈련 이벤트(F)도 로봇(100)이 인지함으로 훈련생의 훈련의 요소가 증가되게 하는 것이다.It is an object of the present invention to increase the training element of the trainee by recognizing the virtual training event F by the robot 100 as well.

훈련생이 시나리오상에서 재난 임무(E)을 피해 시나리오 임무를 수행했는지 평가는 훈련 평가 모듈(360)에서 수행하게 된다.Evaluation of whether the trainee has performed the scenario mission to avoid the disaster mission (E) in the scenario is performed in the training evaluation module 360 .

먼저 시나리오상에서 훈련의 요소는 재난 임무(E)과 시나리오 임무가 될 수 있다.First, the elements of training in a scenario can be a disaster mission (E) and a scenario mission.

따라서 훈련생은 재난 임무(E)을 극복하고 시나리오 임무를 완수하는 일련의 과정에서 훈련 평가 모듈(360)의 평가를 받게 된다.Accordingly, the trainee is evaluated by the training evaluation module 360 in a series of processes of overcoming the disaster mission E and completing the scenario mission.

평가는 1점에서 10점까지 1점 단위의 점수 평가, 또는 성공 또는 실패가 될 수 있다.The evaluation may be a score evaluation in units of 1 point on a scale of 1 to 10, or success or failure.

예를 들어, 로봇(100)이 조종명령(342)로 구동되었다가 제어명령(331)가 발생하게 되면 실점이 될 수 있다.For example, if the robot 100 is driven by the control command 342 and then the control command 331 is generated, a loss may occur.

그리고 재난 임무(E) 및 이벤트를 상황에서 벗어난 시간으로 타 훈련생과의 상대평가를 할 수도 있다.In addition, disaster missions (E) and events can be evaluated relative to other trainees as time out of the situation.

이를 위해 훈련 평가 모듈(360)은 평가자가 훈련생의 로봇(100)을 구동하는 화면을 함께 확인할 수 있는 별도의 디스플레이를 포함할 수 있다. To this end, the training evaluation module 360 may include a separate display through which the evaluator can check the screen for driving the trainee's robot 100 together.

도 8에 도시된 바와 같이, 훈련 평가 모듈(360)에서 훈련 공간에 실체 재난 임무(E)이 배치되어 있으면 조종명령(342)에 따라 로봇(100)이 실체 재난 임무(E)에 접촉이 가능하여 훈련의 항목이 될 수 있으나 재난 임무(E)을 실제 상황과 유사하게 구현하는 것은 비용이 많이 발생하기 때문에 구현하기 어렵고 개수가 제한되기 때문에 훈련의 항목이 감소 될수 밖에 없다.As shown in FIG. 8 , if an actual disaster mission (E) is placed in the training space in the training evaluation module 360, the robot 100 can contact the actual disaster mission (E) according to the control command 342 . However, it is difficult to implement the disaster mission (E) similarly to the actual situation because it is expensive and the number of training items is limited, so the number of training items is inevitably reduced.

하지만 시스템(300)의 개입으로 훈련생은 로봇(100)이 가상 훈련 이벤트(F)을 인식하게 되면 가상 훈련 이벤트(F)을 다양하게 구현이 가능하고 시나리오 상에 훈련의 항목도 다양하게 배치가 가능하다. 따라서 훈련항목이 많아지고 평가항목도 훈련항목에 맞게 평가할 수 있게 된다.However, with the intervention of the system 300, when the robot 100 recognizes the virtual training event (F), the trainee can implement the virtual training event (F) in various ways, and various training items can be arranged on the scenario Do. Therefore, the number of training items increases, and the evaluation items can be evaluated according to the training items.

훈련생의 훈련은 시나리오상에서 이루어지며, 시나리오 임무의 달성여부와, 재난 임무에 대처하는 능력을 평가할 수 있다.Training of trainees is carried out in a scenario, and it is possible to evaluate the achievement of the scenario mission and the ability to cope with the disaster mission.

구체적으로 시나리오상에서 훈련생은 실체 훈련 이벤트(R) 또는 가상 훈련 이벤트(F)를 구분하지 못하고 둘 다 재난 임무(E)로 인지하게 된다.Specifically, in the scenario, trainees cannot distinguish between an actual training event (R) or a virtual training event (F), and both are perceived as a disaster mission (E).

따라서 재난 임무(E)이 등장하게 되면 조종명령(342)로 로봇(100)을 구동하여 재난 임무(E)을 회피하는 할 수 있으며, 재난 임무(E)을 회피하지 못하여 재난 임무(E)과 접촉된다면 감점의 요소가 될 수 있다.Therefore, when the disaster mission (E) appears, the robot 100 can be driven with the control command 342 to avoid the disaster mission (E), and the disaster mission (E) and the disaster mission (E) cannot be avoided. If it is touched, it may be a factor of deduction of points.

또한 시나리오 임무가 화재인 경우, 통신암(140)을 작동하여 가상의 화재와 통신함으로 화재를 진압할 수 있다.Also, when the scenario task is a fire, the fire can be extinguished by operating the communication arm 140 and communicating with the virtual fire.

이 때는 로봇(100)이 화재와의 거리, 통신암(140)이 동작될 때 작동시키는 시간 등이 훈련의 요소이며, 훈련 평가 모듈(360)에서 이러한 훈련생의 조종명령(342)를 통해 훈련생을 평가할 수 있다.At this time, the distance between the robot 100 and the fire, the time to operate the communication arm 140 when it is operated, etc. are elements of training, and the trainee is trained through the trainee's control command 342 in the training evaluation module 360. can be evaluated

계속해서 훈련 평가 모듈(360)은 인터렉션 모듈(330)에서 제어명령(331)가 발생되는 경우 훈련 감점 요소로 판단할 수 있다.Subsequently, the training evaluation module 360 may determine that the control command 331 is generated from the interaction module 330 as a training deduction factor.

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the preferred embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms without departing from the spirit or scope of the present invention in addition to the above-described embodiments is a matter of ordinary skill in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description, but may be modified within the scope of the appended claims and their equivalents.

100: 로봇
200: 컨트롤러
300: 시스템
310: 혼합 환경 구현 모듈
320: 시나리오 모듈
330: 인터렉션 모듈
332: 인터렉션 판단부
334: 인터렉션 제어부
340: 로봇 구동 모듈
350: 관제 모듈
100: robot
200: controller
300: system
310: Mixed Environment Implementation Module
320: scenario module
330: interaction module
332: interaction judgment unit
334: interaction control
340: robot driving module
350: control module

Claims (8)

재난이 발생된 상황에서 훈련생이 로봇을 조종하여 재난 임무에 대응할 수 있는 훈련을 하기 위한 훈련 시스템으로서,
상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈;
상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈;
상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈;
상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈; 및
상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함하고,
상기 인터렉션 모듈은,
상기 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부; 및
상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부를 포함하고,
상기 인터렉션 제어부는 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하며,
상기 인터렉션 판단부는 상기 로봇과 상기 훈련 이벤트가 접촉되는 것을 기 설정된 임계값으로 판단하여, 상기 로봇이 상기 기 설정된 임계값에 도달하는 경우 상기 로봇 구동 모듈이 상기 훈련생이 로봇을 조종하는 명령보다 상기 인터렉션 제어부가 상기 로봇의 구동을 제한하는 명령을 우선적으로 상기 로봇에 전달하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
As a training system for training that trainees can respond to disaster missions by controlling robots in a disaster situation,
The trainee controls the robot to set an environmental factor that may occur during the disaster mission performance as a training event, and the trainee drives the robot to perform the disaster mission and to train in response to the training event Scenario module to build a scenario so that;
a mixed environment realization module that implements the disaster mission in virtual or real form in the scenario;
It is determined whether the training event is real or virtual in the scenario, and when the virtual training event occurs while the trainee is manipulating the robot to perform the disaster mission, the trainee performs the command before the command to control the robot an interaction module for allowing the robot to restrict the operation of the robot due to the virtual training event so that the trainee recognizes the virtual training event;
a robot driving module that, when the operation of the robot is restricted in the interaction module, prioritizes a command for restricting driving of the robot over a command for the trainee to control the robot and sends the command to the robot; and
A control module that provides the trainee with a result of driving the robot by the trainee's command while performing the disaster mission and a result of limiting the operation of the robot in the interaction module,
The interaction module is
In the scenario, it is determined whether the training event is an actual training event or a virtual training event. an interaction determination unit that determines whether or not they match; and
When the trainee receives the determination result from the interaction determination unit and fails to control the robot to respond to the virtual training event, an interaction control unit for providing a command to limit the operation of the robot to the robot driving module;
The interaction control unit limits the driving of the robot in the virtual training event so that the trainee recognizes the virtual training event,
The interaction determination unit determines that the robot and the training event come into contact with a preset threshold value, and when the robot reaches the preset threshold value, the robot driving module is more than a command for the trainee to control the robot, the interaction characterized in that the control unit preferentially transmits a command to limit the driving of the robot to the robot,
Disaster robot training system in MR environment.
삭제delete 제1항에 있어서,
상기 인터렉션 모듈은,
상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The interaction module,
When the interaction determining unit determines that the training event is the actual training event, the interaction control unit is not involved in driving the robot,
Disaster robot training system in MR environment.
제1항에 있어서,
상기 인터렉션 제어부는,
시나리오 모듈로부터 상기 가상 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성하는 것을 특징으로 하는
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The interaction control unit,
Extracting the virtual training event information from a scenario module to generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event
Disaster robot training system in MR environment.
제4항에 있어서,
상기 로봇은,
상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
5. The method of claim 4,
The robot is
Characterized in that it comprises a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event,
Disaster robot training system in MR environment.
제5항에 있어서,
상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고,
상기 로봇 행동부는,
상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
6. The method of claim 5,
The robot is provided movably with wheels,
The robot action unit,
It is mounted on the wheel of the robot, characterized in that it blocks the driving force to rotate the wheel by the control command,
Disaster robot training system in MR environment.
제1항에 있어서,
상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The trainee further comprises a training evaluation module for evaluating the result of manipulating the robot while coping with the disaster mission and the training event by driving the robot,
Disaster robot training system in MR environment.
제7항에 있어서,
상기 훈련 평가 모듈은,
상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.

8. The method of claim 7,
The training evaluation module,
In the scenario, the robot's driving information, the robot's position information, and the time information when the robot passed the scenario are compared with pre-stored scenario success data to derive a result,
Disaster robot training system in MR environment.

KR1020200109133A 2020-08-28 2020-08-28 Disaster robot training system in mr environment KR102370575B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200109133A KR102370575B1 (en) 2020-08-28 2020-08-28 Disaster robot training system in mr environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200109133A KR102370575B1 (en) 2020-08-28 2020-08-28 Disaster robot training system in mr environment

Publications (1)

Publication Number Publication Date
KR102370575B1 true KR102370575B1 (en) 2022-03-03

Family

ID=80818754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200109133A KR102370575B1 (en) 2020-08-28 2020-08-28 Disaster robot training system in mr environment

Country Status (1)

Country Link
KR (1) KR102370575B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170029128A (en) * 2015-09-07 2017-03-15 한국항공대학교산학협력단 Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle
KR20200069465A (en) * 2018-12-07 2020-06-17 한국로봇융합연구원 Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170029128A (en) * 2015-09-07 2017-03-15 한국항공대학교산학협력단 Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle
KR20200069465A (en) * 2018-12-07 2020-06-17 한국로봇융합연구원 Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof

Similar Documents

Publication Publication Date Title
US8190295B1 (en) Apparatus and method for modifying the operation of a robotic vehicle in a real environment, to emulate the operation of the robotic vehicle operating in a mixed reality environment
JP6154057B2 (en) Integration of robotic systems with one or more mobile computing devices
US10671240B2 (en) Systems, devices, articles, and methods for creating and using trained robots with augmented reality
AU2016382823B2 (en) Turret simulation method and device
KR102244988B1 (en) Swarm flight controlling system and method for a plurality of unmanned aerial vehicles for swarm flight
CN114728413A (en) Method and system for controlling graphical user interface of remote robot
KR102370575B1 (en) Disaster robot training system in mr environment
US10751605B2 (en) Toys that respond to projections
KR102393627B1 (en) Mr environment and robot interaction training system
Budiharto et al. Android-based wireless controller for military robot using bluetooth technology
KR102185618B1 (en) Application system for teenager programming education using drones
US11548155B2 (en) Interaction training system of robot with MR environment
KR102441923B1 (en) Trainee testing and evaluating apparatus for disaster response rovot in live-virtual-constructive environment
KR102441285B1 (en) Trainee training and evaluating system for disaster response rovot in live-virtual-constructive environment
KR20200069465A (en) Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof
Bhattarai et al. A deep Q-Learning based Path Planning and Navigation System for Firefighting Environments
KR102200784B1 (en) Drone flight test system
JP7000397B2 (en) Virtual reality control system
TR2021014085A2 (en) AUTONOMOUS VIRTUAL SIMULATOR ASSETS THAT CONTINUOUSLY LEARN THROUGH EXPERIENCE
EP4021601A1 (en) Toy construction system for constructing and operating a remote controlled toy vehicle model
Wegner et al. Balancing robotic teleoperation and autonomy for urban search and rescue environments
Sosa et al. Imperfect robot control in a mixed reality game to teach hybrid human-robot team coordination
Freund et al. Virtual reality for intelligent and interactive operating, training, and visualization systems
Anuradha et al. An Autonomous and Intelligent flame sensing extinguishing robot
Milliken Modeling human expertise for providing adaptive levels of robot shared autonomy

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant