KR102370575B1 - Disaster robot training system in mr environment - Google Patents
Disaster robot training system in mr environment Download PDFInfo
- Publication number
- KR102370575B1 KR102370575B1 KR1020200109133A KR20200109133A KR102370575B1 KR 102370575 B1 KR102370575 B1 KR 102370575B1 KR 1020200109133 A KR1020200109133 A KR 1020200109133A KR 20200109133 A KR20200109133 A KR 20200109133A KR 102370575 B1 KR102370575 B1 KR 102370575B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- disaster
- training
- trainee
- virtual
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
Abstract
Description
본 발명은 MR환경(혼합환경)의 재난 시나리오를 구축하여 훈련생이 로봇을 구동하는 것으로서, 훈련생이 훈련하는 동안 실제상황과 동일하게 인지하게 하는 MR환경에서의 재난 대응 로봇 훈련 시스템에 관한 것이다.The present invention relates to a disaster response robot training system in an MR environment that builds a disaster scenario in an MR environment (mixed environment) and enables trainees to drive robots, and to allow trainees to recognize the same situation as the real situation during training.
4차 산업혁명시대는 기술의 혁신을 추구하는 현대사회에 급격한 변화의 속도를 요구하고 있으며, 로봇과 인공지능은 현대사회에서 주목되는 분야 중 하나가 되어왔다.The era of the 4th industrial revolution demands the speed of rapid change in the modern society that pursues technological innovation, and robots and artificial intelligence have become one of the fields of attention in the modern society.
이러한 로봇은 사람의 하는 일들 중에 많은 부분을 대신하는 목적으로 개발되어 왔으며, 가까운 미래에는 재난 현장에서 인명을 구조하고 무너진 시설물을 복구하는 일들을 대신할 것으로 예상한다.These robots have been developed for the purpose of replacing many of the tasks of humans, and in the near future, it is expected that they will take over the tasks of rescuing people at disaster sites and restoring damaged facilities.
재난은 화재, 홍수, 산사태 등 시시각각 매우 중요한 대처와 상황 판단이 요구된다.Disasters, such as fire, flood, and landslide, require very important responses and situational judgment at every moment.
재난 상황에서는 지상 주행 로봇이나 드론(drone)과 같은 비행 로봇, 또는 필요에 따라 다양한 형태의 로봇들이 개발되어 구동되는데, 이러한 재난 대응 로봇을 조작하는 관제자는 한 대 또는 동시에 여러 대를 원격 통제한다.In a disaster situation, flying robots such as ground-running robots or drones, or various types of robots are developed and operated as needed.
재난 발생 시에는 관제자의 재난 대응 로봇에 대한 적절한 관제 능력과 재난 대처 능력이 요구된다.In the event of a disaster, the controller's ability to control and respond appropriately to the disaster response robot is required.
기존의 관제자의 재난 대처 능력을 훈련하고 평가하기 위한 평가 시스템은 주로 가상의 환경에서 관제자의 조작 능력을 훈련하고 평가하는 것에 국한되어 있다.The existing evaluation system for training and evaluating the disaster response capability of the controller is mainly limited to training and evaluating the operational capability of the controller in a virtual environment.
실제의 로봇을 조작하고 시의 적절한 명령을 내리면서 다양한 재난상황에 대처하는 능력을 훈련하거나 평가하는 시스템이 요구된다. There is a need for a system that trains or evaluates the ability to handle a variety of disaster situations while operating real robots and issuing timely commands.
이러한 재난상황에 대한 훈련과 평가에 대한 시스템은 실제 로봇을 조종하는 훈련생으로 하여금 가상의 환경을 실제와 동일하게 느끼도록 하는 것이 핵심요소가 되지만, 실제 환경의 로봇이 가상 환경의 재난 임무를 인지하도록 제어하는 시스템이 없어 가상 환경의 한계점이 되어오고 있다.The key element of this system for training and evaluation of disaster situations is to make the trainees who control the real robot feel the virtual environment the same as the real one, but it is necessary to make the robot in the real environment recognize the disaster mission in the virtual environment. Since there is no system to control it, it has become a limitation of the virtual environment.
예를 들어, LVC(Live-Virtual-Constructive)라는 실제 가상 모의 훈련체계에서는 전술에 대한 훈련과 가상의 적에 대한 인식이 주요점이라는 점에서 실제 조종 로봇과 가상의 매체가 접촉되는 환경이 만들어지지 않기 때문에 재난 환경과는 차이점이 있고, 이 밖에 가상 모의 훈련 시스템을 가지는 많은 훈련 시스템에서는 실제 로봇을 이용하지 않기 때문에 훈련생들이 실제 상황에서 이질감을 느끼게 된다는 문제점이 있다.For example, in the real virtual simulation training system called LVC (Live-Virtual-Constructive), since training in tactics and recognition of virtual enemies are the main points, an environment in which the real control robot and the virtual medium are in contact is not created. Therefore, there is a difference from the disaster environment, and in addition, many training systems having a virtual simulation training system do not use real robots, so there is a problem that trainees feel a sense of heterogeneity in the real situation.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, MR환경에서의 재난에 대응하도록 로봇을 통해 훈련생이 훈련하는 시스템을 제공하기 위한 목적을 가진다.The present invention is an invention devised to solve the problems of the prior art, and has an object to provide a system in which trainees train through a robot to respond to a disaster in an MR environment.
특히 본 발명은 실제 환경의 로봇이 가상 환경의 재난 임무를 인식하도록 훈련생이 느끼게 하여, 시나리오상 돌발 상황을 대처하여 훈련을 통해서 재난 상황에 바람직하게 로봇을 운용하는 훈련을 위한 시스템을 제공하는데 그 목적을 가진다.In particular, the present invention makes the trainee feel so that the robot in the real environment recognizes the disaster mission in the virtual environment, and provides a system for training to preferably operate the robot in a disaster situation through training to cope with an unexpected situation in the scenario. have
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기한 목적을 달성하기 위한 본 발명의 MR 환경에서의 재난 로봇 훈련 시스템은, 재난이 발생된 상황에서 훈련생이 로봇을 조종하여 재난 임무에 대응할 수 있는 훈련을 하기 위한 훈련 시스템으로서, 상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈, 상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈, 상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈, 상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈 및 상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함할 수 있다.A disaster robot training system in an MR environment of the present invention for achieving the above object is a training system for training a trainee to respond to a disaster mission by controlling a robot in a disaster situation, wherein the trainee By manipulating the robot, environmental factors that may occur during the disaster mission are set as a training event, and the trainee drives the robot to perform the disaster mission and training in response to the training event. A scenario module to build, a mixed environment realization module for realizing the disaster mission in virtual or real form in the scenario, determining whether the training event is real or virtual in the scenario, and the trainee using the robot to perform the disaster mission When the virtual training event occurs during operation, the robot restricts the operation of the robot due to the virtual training event before the trainee commands the robot to control the robot so that the trainee recognizes the virtual training event When the operation of the robot is restricted in the interaction module, the robot driving module and the robot are sent to the robot by giving priority to the command to limit the driving of the robot rather than the command by the trainee to control the robot and the robot is the disaster It may include a control module that provides the trainee with a result driven by a command of the trainee while performing a task and a result of limiting the operation of the robot in the interaction module to the trainee.
그리고 상기 인터렉션 모듈은 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부 및 상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부를 포함하고, 상기 인터렉션 제어부는 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 할 수 있다.And the interaction module determines whether the training event is an actual training event or a virtual training event in a scenario, and when it is the virtual training event, the trainee commands the robot and drives the robot so that the robot corresponds to the virtual training event. When the trainee fails to control the robot to respond to the virtual training event by receiving the determination result from the interaction determination unit and the interaction determination unit to determine whether the command result matches the command result, a command to limit the operation of the robot is issued and an interaction control unit provided to a robot driving module, wherein the interaction control unit limits the operation of the robot in the virtual training event so that the trainee recognizes the virtual training event.
또한 상기 인터렉션 모듈은 상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않을 수 있다.In addition, in the interaction module, when the interaction determining unit determines that the training event is the actual training event, the interaction control unit may not be involved in driving the robot.
그리고 인터렉션 제어부는 시나리오 모듈로부터 상기 가상 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성할 수 있다.The interaction control unit may extract the virtual training event information from the scenario module and generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event.
또한 상기 로봇은 상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함 할 수 있다In addition, the robot may include a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event.
그리고 상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고, 상기 로봇 행동부는 상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단 할 수 있다.In addition, the robot is provided with wheels to be movable, and the robot action unit is mounted on the wheel of the robot to block the driving force that rotates the wheel by the control command.
또한 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함할 수 있다.In addition, the trainee may further include a training evaluation module for evaluating a result of manipulating the robot while coping with the disaster mission and the training event by driving the robot.
그리고 상기 훈련 평가 모듈은, 상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출할 수 있다.And the training evaluation module may derive a result by comparing it with pre-stored scenario success data using the driving information of the robot, the position information of the robot, and the time information when the robot passed the scenario in the scenario. .
상기한 과제를 해결하기 위한 본 발명의 MR 환경에서의 재난 로봇 훈련 시스템은, 혼합 환경에서 훈련을 하는 훈련생이 실제 상황에서 훈련하는 것과 같이 훈련을 할 수 있다.The disaster robot training system in the MR environment of the present invention for solving the above problems can be trained like a trainee training in a mixed environment is training in a real situation.
그리고 실체의 로봇을 조종하면서도 훈련생이 가상의 환경에서 조종한다는 점에서 공간적인 효율이 있다는 장점이 있다.In addition, there is an advantage in that there is spatial efficiency in that the trainee controls the real robot in a virtual environment while controlling it.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 로봇 훈련 시스템에서 훈련생에게 디스플레이되는 재난 시나리오를 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련을 위한 다수의 시나리오 중 일부를 개념적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련생, 로봇 및 시스템간의 신호흐름도;
도 5는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템의 인터렉션 모듈의 알고리즘을 나타낸 도면;
도 6은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 가상 훈련 이벤트에 대한 로봇 구동을 나타낸 개념도;
도 7은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 제어명령에 의해 로봇이 가상 훈련 이벤트를 인지할 수 있는 모습의 개념도;
도 8은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇 훈련 시스템에서 훈련 평가 모듈을 통해 재난 임무의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.1 is a diagram illustrating a disaster scenario displayed to trainees in a robot training system in a disaster robot training system in an MR environment according to an embodiment of the present invention;
2 is a diagram conceptually illustrating some of a plurality of scenarios for training in a disaster robot training system in an MR environment according to an embodiment of the present invention;
3 is a view showing the overall concept for building a mixed environment in the disaster robot training system in the MR environment according to an embodiment of the present invention;
4 is a signal flow diagram between trainees, robots, and systems in a disaster robot training system in an MR environment according to an embodiment of the present invention;
5 is a diagram illustrating an algorithm of an interaction module of a disaster robot training system in an MR environment according to an embodiment of the present invention;
6 is a conceptual diagram illustrating a robot driving for a virtual training event in a disaster robot training system in an MR environment according to an embodiment of the present invention;
7 is a conceptual diagram of a state in which a robot can recognize a virtual training event by a control command in a disaster robot training system in an MR environment according to an embodiment of the present invention;
8 is a diagram showing the training degree of trainees according to whether a disaster mission is virtual or real through a training evaluation module in a disaster robot training system in an MR environment according to an embodiment of the present invention.
이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily practice the present invention.
실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring the gist of the present invention by omitting unnecessary description.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings. In addition, the size of each component does not fully reflect the actual size. In each figure, the same or corresponding elements are assigned the same reference numerals.
도면을 참조하여 본 발명에 대해 구체적으로 설명하도록 하겠다.The present invention will be described in detail with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련생에게 디스플레이되는 재난 시나리오를 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련을 위한 다수의 시나리오 중 일부를 개념적으로 나타낸 도면이며, 도 3은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련생, 로봇(100) 및 시스템(300)간의 신호 흐름도이며, 도 5는 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)의 인터렉션 모듈(330)의 알고리즘을 나타낸 도면이고, 도 6은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 가상 훈련 이벤트(F)에 대한 로봇(100) 구동을 나타낸 개념도 이며, 도 7은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 제어명령(331)에 의해 로봇(100)이 가상 훈련 이벤트(F)을 인지할 수 있는 모습의 개념도이고, 도 8은 본 발명의 일 실시예에 따른 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에서 훈련 평가 모듈(360)을 통해 재난 임무(E)의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.1 is a diagram illustrating a disaster scenario displayed to trainees in a
본 발명은 실제와 같은 재난 상황을 혼합 환경(MIXED-REALITY)으로 구현하여 실체 로봇(100)을 조종하는 훈련생이 가상의 재난 상황에서 훈련하기 위한 MR 환경에서의 재난 로봇(100) 훈련 시스템(300)에 관한 것으로, 시스템(300)의 구성으로는 혼합 환경 구현 모듈(310), 시나리오 모듈(320), 인터렉션 모듈(330), 로봇 구동 모듈(340) 및 관제 모듈(350)을 포함 할 수 있다.The present invention implements a disaster situation like the real one in a mixed environment (MIXED-REALITY) so that a trainee who controls the
시스템(300)은 로봇(100)에 저장되어 있을 수 있고 훈련생이 로봇(100)을 조종하는 컨트롤러(200)에 저장되어 있을 수 있다.The
먼저 본 발명의 일 실시예에 따른 로봇(100)은 몸체와 이동부, 그리고 카메라(120)를 가지고 있으며 몸체의 일부에는 가상 환경과 통신이 가능한 통신암(140)이 포함될 수 있다.First, the
또한 로봇(100)은 내부에 다양한 센서가 장착되어 있어서 로봇(100)의 정보를 생성할 수 있다.In addition, since the
로봇(100)에 구비되는 센서는, 위치 센서, 통신 센서, 속도(가속도 포함)센서, 포토 센서를 포함할 수 있다.The sensor provided in the
그리고 본 발명의 실제 환경인 훈련 공간에서 로봇(100)이 이동되는 것을 전제로 하고 있으며, 실제 공간상에는 천장과 벽에 마커(MARKER)가 형성되고 로봇(100)은 마커를 통해 위치 정보를 전송할 수 있고, 로봇(100)이 촬영하는 영상 또한 실시간으로 전송이 가능하다.And it is premised that the
상기 센서 데이터 및 영상 데이터는 실시간으로 시스템(300)에 전송되며, 훈련생은 훈련 공간에서 로봇(100)을 구동할 수 있는 컨트롤러(200)를 통해 로봇(100)을 구동 시킬 수 있다.The sensor data and image data are transmitted to the
컨트롤러(200)는 훈련 공간과 별도의 공간에서 훈련생이 원격으로 로봇(100)을 조종할 수 있도록 로봇(100)에게 조종명령(342)를 제공하게 된다. The
여기서 조종명령(342)는 로봇이 재난 임무를 수행하도록 훈련생으로부터 로봇의 조종하기 위한 명령을 말할 수 있다Here, the steering command 342 may refer to a command for controlling the robot from a trainee so that the robot performs a disaster mission.
컨트롤러(200)에는 조이스틱과 버튼이 구성되어 있으며, 상기 영상 데이터에 가상의 목표 객체(G1) 및 가상 훈련 이벤트(F)이 특정 위치에 생성되도록 혼합 환경으로 표시될 수 있다.The
또한 컨트롤러(200)에는 혼합 환경을 볼 수 있도록 디스플레이가 구성될 수 있다.Also, the
따라서 훈련생은 컨트롤러(200)에서 재난 환경과 같은 혼합 환경을 보면서 훈련 공간의 실체 로봇(100)을 구동하는 형태로 훈련을 할 수 있다.Therefore, the trainee can train in the form of driving the
한편 상기 영상 데이터를 통해 혼합 환경을 조성하는 것은 혼합 환경 구현 모듈(310)에서 수행할 수 있다. Meanwhile, creating a mixed environment through the image data may be performed by the mixed
그리고 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 연계되어 있으며, 훈련 공간의 구조를 파악하여 시작 위치(P1)와 목표 위치(P2) 사이에 재난 임무(E)과 시나리오 달성 목표에 해당되는 가상의 목표 객체(G1)가 배치된 목표 위치(P2)를 포함하는 시나리오를 생성할 수 있다.And the
그리고 로봇(100)에 장착된 통신암(140)을 통해 상기 가상의 목표 객체(G1)와 통신하여 화재(G1)를 진압할 수 있다.In addition, the fire G1 may be extinguished by communicating with the virtual target object G1 through the
인터렉션 모듈(330)은 가상 훈련 이벤트(F)뿐만 아니라 가상의 목표 객체(G1)의 크기 및 위치 정보를 생성할 수 있다.The
구체적으로 인터렉션 판단부(332)는 목표 위치(P2)에 배치된 가상의 목표 객체(G1)에 대한 정보를 가지고 로봇(100)이 가상의 목표 객체(G1)와 인접하였는지를 판단하고, 인터렉션 제어부(334)는 가상의 목표 객체(G1) 정보에 대응하여 통신암(140)에서 발생된 신호의 방향과 시간을 통해 가상의 목표 객체(G1)가 시나리오상에서 사라지게 할 수 있다.Specifically, the interaction determination unit 332 determines whether the
상기 시나리오는 혼합 환경으로 구현될 수 있다.The above scenario may be implemented as a mixed environment.
따라서 훈련생은 컨트롤러(200)에서 혼합 환경으로 구현된 영상을 보면서 시나리오를 진행하게 되는데, 이때 로봇(100)은 혼합 환경상에서 훈련생의 조종명령(342)를 수신하여 구동될 수 있다.Therefore, the trainee proceeds with the scenario while viewing the image implemented in the mixed environment in the
한편 인터렉션 모듈(330)은 혼합 환경 내에서 발생되는 재난 임무(E)을 확인하고 조종명령(342)에 의해 로봇(100)이 재난 임무(E)에 접촉되는 접촉 지점에 도달했는지 판단하며, 접촉 지점에서 로봇(100)을 제어하는 제어명령(331)를 생성한다.On the other hand, the
구체적으로 인터렉션 모듈(330)은 훈련생이 조종명령(342)를 통해 로봇(100)을 구동하다가 가상 훈련 이벤트(F)이 있는 접촉 지점에서 로봇(100)이 가상 훈련 이벤트(F)이 있는 것처럼 반응하도록 접촉 위치에서 조종명령(342)보다 먼저 로봇(100)의 구동을 제어하는 제어명령(331)를 발생시킬 수 있다.Specifically, the
이를 통해 훈련생은 로봇(100)이 이동되다가 가상 훈련 이벤트(F)인 벽에 충돌한 것과 같이 디스플레이에서 확인할 수 있다.Through this, the trainee can confirm on the display as if the
여기서 조종명령(342)와 제어명령(331)를 로봇(100)에게 제공하는 것은 로봇 구동 모듈(340)일 수 있다.Here, it may be the
로봇 구동 모듈(340)은 로봇(100)이 실체 훈련 이벤트(R)과 충돌된 것과 같이 가상 훈련 이벤트(F)과 접촉되는 접촉 지점에서 제어명령(331)를 로봇(100)에 제공할 수 있다.The
이 때 훈련생의 디스플레이에는 혼합 환경의 시나리오가 제공되어 있어서 훈련생은 마치 실제 벽에 부딪힌 걸로 보게 될 수 있다.At this time, the trainee's display is provided with a scenario of a mixed environment, so that the trainee can see it as if he had hit a real wall.
이렇게 조종명령(342)와 제어명령(331)를 선택해서 로봇(100)에게 제공하는 로봇 구동 모듈(340)과 연결되고 시나리오상에서 로봇(100)이 구동된 결과를 훈련생이 확인할 수 있도록 제공하는 관제 모듈(350)이 포함될 수 있다.In this way, the control command 342 and the
관제 모듈(350)은 로봇 구동 모듈(340)에서 로봇(100)으로 조종명령(342) 및 제어명령(331)를 제공하여 로봇(100)이 재난 임무(E)과 접촉되거나, 접촉되었다가 이탈된 상태에서 훈련생이 조종명령(342)를 로봇(100)에게 제공할 수 있는 상태를 제공할 수 있다.The
즉, 로봇(100)이 가상 훈련 이벤트(F)과 충돌된 것을 훈련생이 인지할 수 있도록 조종 타이밍을 제공하는 것이다.That is, the
다음 도면을 통해 본 발명의 일 실시예가 구현된 것을 자세하게 설명하도록 한다.An embodiment of the present invention will be described in detail with reference to the following drawings.
도 1은 화재(G1) 시나리오로 가상의 객체(G1, G2)가 화재(G1)로 설정되어 있다.1 shows a fire (G1) scenario in which virtual objects (G1, G2) are set as a fire (G1).
시나리오상에서 로봇(100)은 시작 위치(P1)에서 가상의 객체(G1, G2)가 형성된 목표 위치(P2)로 이동을 해서 화재(G1)를 진압해야 한다. 시작 위치(P1)와 목표 위치(P2) 사이에는 재난 임무(E)이 형성되어 있을 수 있다.In the scenario, the
재난 임무(E)은 벽에 해당하며 훈련 공간에 형성된 실체 훈련 이벤트(R)일 수도 있고, 훈련 공간에 없는 가상 훈련 이벤트(F)일 수도 있다.The disaster mission (E) corresponds to the wall and may be an actual training event (R) formed in the training space, or a virtual training event (F) that is not in the training space.
훈련생은 시나리오 임무를 달성하기 위해 재난 임무(E)을 피해서 목표 위치(P2)로 이동하고, 화재(G1)를 진압하는 훈련을 수행하게 된다.In order to accomplish the scenario mission, the trainee avoids the disaster mission (E), moves to the target location (P2), and performs training to extinguish the fire (G1).
화재(G1) 시나리오에서는 도 2에 도시된 바와 같이 화재(G1)를 진압하는 훈련뿐 아니라, 요구조자(G2)를 구출하는 시나리오로 제공도리 수 있다.In the fire (G1) scenario, as shown in FIG. 2 , as well as training to suppress the fire (G1), it can be provided as a scenario to rescue the person in need (G2).
이와 같이 시나리오는 화재(G1)와 요구조자(G2) 구출에 한정되는 것이 아니며, 시나리오 모듈(320)에서 재난 상황에 따라 화재(G1), 토네이도, 구조, 홍수 등을 포함하는 시나리오가 제공될 수 있고, 이에 따른 가상의 객체(G1, G2)는 시나리오 구축을 통해 다양하게 제공될 수 있다.As such, the scenario is not limited to the rescue of the fire (G1) and the rescuer (G2), and according to the disaster situation in the
본 실시예에서는 화재(G1) 시나리오를 선택하여 설명한다.In this embodiment, a fire (G1) scenario is selected and described.
도 2에서 시나리오 모듈(320)은 시나리오가 시작되는 시작 위치(P1) 및 목표 위치(P3)로 구분되며, 시작 위치(P1) 및 목표 위치(P3) 사이에 시나리오 임무에 해당되는 화재(G1) 또는 요구조자(G2)가 가상의 객체(G1, G2)로 형성된 목표 위치(P2)를 포함한다.In FIG. 2 , the
시나리오 모듈(320)은 훈련 공간에 대한 실제 정보를 가지고 시작 위치(P1), 목표 위치(P2) 및 목표 위치(P3) 그리고 재난 임무(E)이 배치를 조절할 수 있다.The
이 때 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 함께 혼합 환경에서의 시나리오를 훈련생에게 제공할 수 있다.In this case, the
이와 같은 구조를 훈련생에게 제공하여 훈련생이 혼합 환경에서 실제 재난 환경에 대응되는 훈련 효과를 가지기 위해서는 본 발명의 시스템(300) 구성에 의해 구현이 가능하다.In order to provide such a structure to the trainee so that the trainee can have a training effect corresponding to the actual disaster environment in a mixed environment, it can be implemented by the configuration of the
또한 본 발명에 따른 훈련생 평가에 있어서, 시나리오 모듈(320)은 시나리오상에서 실체 훈련 이벤트(R) 및 가상 훈련 이벤트(F)를 랜덤하게 배치할 수 있다.In addition, in the trainee evaluation according to the present invention, the
이는 훈련 평가 모듈(360)과 연동하여, 훈련의 레벨에 따라 재난 임무(E) 개수를 판단하고, 재난 임무(E)을 가상 또는 실체를 교대로 배치할 수도 있고, 실체 또는 가상 중 어느 하나만 선택하여 배치할 수도 있다.This, in conjunction with the training evaluation module 360, determines the number of disaster missions (E) according to the level of training, and may alternately place the disaster missions (E) in virtual or virtual, or select only one of the virtual or virtual can also be placed.
그리고 재난 임무(E)는 이벤트(미도시)를 포함할 수 있다.And the disaster mission (E) may include an event (not shown).
상기 이벤트는 가상 또는 실체로 구현이 가능하며, 시나리오상에 로봇이 구동되는 바닥에 기름이 누유된 지역, 돌풍, 비, 우박, 천둥, 자갈이 펼쳐진 지역을 포함할 수 있다.The event can be implemented in virtual or real form, and may include an area where oil leaks on the floor where the robot is driven, gusts of wind, rain, hail, thunder, and gravel spread in the scenario.
본 발명의 목적이 혼합 환경에서 가상으로 구현된 가상의 객체(G1, G2)를 훈련생이 실체로 체감하도록 하는 것이므로 자세한 것을 도 3 및 도 4를 통해 설명하도록 한다.Since an object of the present invention is to allow trainees to experience virtual objects G1 and G2 implemented virtually in a mixed environment as an entity, details will be described with reference to FIGS. 3 and 4 .
도 3에서 컨트롤러(200)로 로봇(100)을 구동하는 훈련생은 시스템(300)이 개입하여 로봇(100) 구동 통제와 혼합 환경 구현으로 아무것도 없는 훈련 공간에서 로봇(100)이 이동되지만 훈련생은 실제와 같이 체감할 수 있게 할 수 있다.In FIG. 3 , the trainee driving the
먼저 혼합 환경 구현 모듈(310)은 로봇(100)에서 촬영된 영상과 훈련 공간의 정보를 통해 영상에 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)를 혼합 환경을 구현하고, 로봇(100)이 이동되고 방향이 전환되는 영상에 대응하여 실시간으로 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)가 표시되게 한다.First, the mixed
여기서 혼합 환경 구현 모듈(310)은 시나리오 모듈(320)과 함께 가상 훈련 이벤트(F)과 가상의 객체(G1, G2)를 배치할 수 있다.Here, the mixed
그리고 인터렉션 모듈(330)은 시나리오상에서 재난 임무(E)의 위치를 판단하고 접촉지점에서 로봇(100)을 통제할 수 있는 제어명령(331)를 생성한다.In addition, the
구체적으로 인터렉션 모듈(330)은 재난 임무(E)인 훈련 공간에 있는 실체 훈련 이벤트(R)인지 혼합 환경 구현 모듈(310)로 생성된 가상 훈련 이벤트(F)인지 재난 임무(E)의 종류를 판단하고, 시나리오상에서 재난 임무(E)의 위치를 포함하는 재난 임무(E) 정보를 생성하는 인터렉션 판단부(332)를 포함할 수 있다.Specifically, the
또한 로봇(100)과 인접한 가상 훈련 이벤트(F)에 대한 상기 재난 임무(E) 정보를 로봇(100)에게 제공하여 로봇(100)이 재난 임무(E)과 근접할 경우 로봇(100)을 제어하는 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하는 인터렉션 제어부(334)를 포함할 수 있다.In addition, the disaster mission (E) information for the virtual training event (F) adjacent to the
인터렉션 판단부(332)는 재난 임무(E) 정보에 따라 시나리오상에 가상 훈련 이벤트(F)의 크기를 복수의 좌표 데이터로 생성하여 로봇(100)과 가상 훈련 이벤트(F)간의 거리를 측정할 수 있고, 인터렉션 제어부(334)는 로봇(100)과 가상 재난 임무(E)이 접촉되는 접촉 지점에서 제어명령(331)를 로봇 구동 모듈(340)에 제공하여 로봇 구동 모듈(340)이 로봇(100)에게 제어명령(331)를 제공할 수 있게 할 수 있다.The interaction determination unit 332 generates the size of the virtual training event (F) as a plurality of coordinate data on the scenario according to the disaster mission (E) information to measure the distance between the
제어명령(331)는 재난 임무(E) 정보에 따라 재난 임무(E)의 가상의 체적에 대한 좌표 데이터를 포함할 수 있다.The
계속해서 인터렉션 제어부(334)가 제어명령(331)를 로봇 구동 모듈(340)에 제공하기 위해서는 로봇(100)과 가상 훈련 이벤트(F)간에 기 설정된 임계값으로 판단하고, 로봇(100)이 접촉지점에 임박한 임계값에서 제어명령(331)를 제공하게 될 수 있다.Subsequently, in order for the interaction control unit 334 to provide the
이 때 훈련생은 계속해서 조종명령(342)를 송신하고 있지만 로봇 구동 모듈(340)은 접촉 지점에서 제어명령(331)를 우선적으로 로봇(100)에게 제공하게 된다.At this time, the trainee continues to transmit the control command 342 , but the
예를 들어 설명하도록 한다.Let me explain with an example.
훈련생의 조종 실수로 로봇(100)이 가상 훈련 이벤트(F)에 수회 접촉되는 상황이라고 가정해 보자.Assume that the
인터렉션 판단부(332)는 먼저 가상 훈련 이벤트(F)의 재난 임무(E) 정보를 생성하고, 인터렉션 제어부(334)는 로봇(100)과 재난 임무(E)에 근접하여 로봇(100)의 위치가 임계값이라고 판단되면 제어명령(331)를 로봇 구동 모듈(340)에 제공한다. 그리고 로봇 구동 모듈(340)은 조종명령(342)를 로봇(100)에 제공하여 로봇(100)이 구동되게 하다가 제어명령(331)가 수신되면, 로봇(100)이 접촉지점에 위치했을 때는 제어명령(331)를 로봇(100)에게 제공하고, 접촉지점에서 벗어나면 다시 조종명령(342)를 로봇(100)에게 제공한다.The interaction determination unit 332 first generates the disaster mission (E) information of the virtual training event (F), and the interaction control unit 334 is the
제어명령(331)는 로봇(100)으로 하여금 가상 훈련 이벤트(F)을 인지하게 하는 것이다. 따라서 제어명령(331)를 수신할 때는 조종명령(342)가 수신되지 않아 로봇(100)이 벽에 부딛친거와 같이 훈련생이 체감할 수 있다.The
한편 로봇(100)이 재난 임무(E)과 접촉할 때의 모습을 신호에 따른 흐름으로 도 4에 나타나 있다.Meanwhile, the state when the
시작 위치(P1)에서 로봇(100)이 출발하는 상황에서 먼저 훈련생이 로봇(100)을 조종하면 로봇 구동 모듈(340)이 조종명령(342)를 로봇(100)에게 제공하고, 로봇(100)의 영상은 시스템(300)으로 전달된다.When a trainee first controls the
시스템(300)에서 혼합 환경 구현 모듈(310)은 영상에 대응되어 혼합 환경을 디스플레이에 제공하고, 훈련생은 계속해서 로봇(100)을 조종하며 목표 위치(P2)로 이동한다.In the
로봇(100)이 이동중에 가상 훈련 이벤트(F)을 만나면 인터렉션 모듈(330)은 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하고, 로봇 구동 모듈(340)은 관제 모듈(350)을 통해 로봇(100)이 가상 훈련 이벤트(F)에 대응한 결과가 혼합 환경을 제공되도록 한다. 가상 훈련 이벤트(F)을 지나면 훈련생은 계속해서 로봇(100)을 조종하여 이동한다.When the
가상 훈련 이벤트(F)과 로봇(100)이 근접한 상황에서 인터렉션 모듈(330)은 도 5와 같이 동작한다.In a situation where the virtual training event F and the
조종명령(342)이 수신되어 조종명령(342)를 통해 로봇(100)이 구동(S01)되었다가 조종명령(342)가 인터렉션 판단부(332)가 재난 임무(E) 정보를 생성하고 조종명령(342)가 접촉 지점에 도달하는지 여부를 판단하고(S02), 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)(F)과 접촉했는지 판단한다(S03).When the steering command 342 is received, the
그리고 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)(F)과 접촉하지 않았으면 로봇(100)구동모듈(340)이 조종명령(342)를 로봇(100)에 제공하고, 접촉했으면 로봇(100)구동모듈(340)이 제어명령(331)(331)를 로봇(100)에게 제공(S04)하며, 관제 모듈(350)(350)은 디스플레이에 표시되게 한다(S05). And when the
제어명령(331)가 로봇(100)이 가상 훈련 이벤트(F)과 접촉될 수 있게 하는 모습은 도 6 내지 도 7에 나타내었다.A state in which the
훈련 공간에는 가상 훈련 이벤트(F)이 없기 때문에 사용자가 조종 실수로 가상 훈련 이벤트(F)을 통과할 수도 있다.Since there is no virtual training event (F) in the training space, the user may pass the virtual training event (F) due to a steering mistake.
하지만 제어명령(331)는 가상 훈련 이벤트(F)과 로봇(100)이 접촉이 가능하도록 로봇(100)의 구동력을 통제하여 가상 훈련 이벤트(F)을 통과하지 못하게 한다.However, the
인터렉션 판단부(332)에서 재난 임무(E) 정보를 좌표 데이터로 생성하기 때문에 가상 훈련 이벤트(F)의 크기와 형상에 대응하여 제어명령(331)가 로봇(100)의 구동을 통제하게 된다.Since the interaction determination unit 332 generates the disaster mission (E) information as coordinate data, the
본 발명의 목적은 가상 훈련 이벤트(F)도 로봇(100)이 인지함으로 훈련생의 훈련의 요소가 증가되게 하는 것이다.It is an object of the present invention to increase the training element of the trainee by recognizing the virtual training event F by the
훈련생이 시나리오상에서 재난 임무(E)을 피해 시나리오 임무를 수행했는지 평가는 훈련 평가 모듈(360)에서 수행하게 된다.Evaluation of whether the trainee has performed the scenario mission to avoid the disaster mission (E) in the scenario is performed in the training evaluation module 360 .
먼저 시나리오상에서 훈련의 요소는 재난 임무(E)과 시나리오 임무가 될 수 있다.First, the elements of training in a scenario can be a disaster mission (E) and a scenario mission.
따라서 훈련생은 재난 임무(E)을 극복하고 시나리오 임무를 완수하는 일련의 과정에서 훈련 평가 모듈(360)의 평가를 받게 된다.Accordingly, the trainee is evaluated by the training evaluation module 360 in a series of processes of overcoming the disaster mission E and completing the scenario mission.
평가는 1점에서 10점까지 1점 단위의 점수 평가, 또는 성공 또는 실패가 될 수 있다.The evaluation may be a score evaluation in units of 1 point on a scale of 1 to 10, or success or failure.
예를 들어, 로봇(100)이 조종명령(342)로 구동되었다가 제어명령(331)가 발생하게 되면 실점이 될 수 있다.For example, if the
그리고 재난 임무(E) 및 이벤트를 상황에서 벗어난 시간으로 타 훈련생과의 상대평가를 할 수도 있다.In addition, disaster missions (E) and events can be evaluated relative to other trainees as time out of the situation.
이를 위해 훈련 평가 모듈(360)은 평가자가 훈련생의 로봇(100)을 구동하는 화면을 함께 확인할 수 있는 별도의 디스플레이를 포함할 수 있다. To this end, the training evaluation module 360 may include a separate display through which the evaluator can check the screen for driving the trainee's
도 8에 도시된 바와 같이, 훈련 평가 모듈(360)에서 훈련 공간에 실체 재난 임무(E)이 배치되어 있으면 조종명령(342)에 따라 로봇(100)이 실체 재난 임무(E)에 접촉이 가능하여 훈련의 항목이 될 수 있으나 재난 임무(E)을 실제 상황과 유사하게 구현하는 것은 비용이 많이 발생하기 때문에 구현하기 어렵고 개수가 제한되기 때문에 훈련의 항목이 감소 될수 밖에 없다.As shown in FIG. 8 , if an actual disaster mission (E) is placed in the training space in the training evaluation module 360, the
하지만 시스템(300)의 개입으로 훈련생은 로봇(100)이 가상 훈련 이벤트(F)을 인식하게 되면 가상 훈련 이벤트(F)을 다양하게 구현이 가능하고 시나리오 상에 훈련의 항목도 다양하게 배치가 가능하다. 따라서 훈련항목이 많아지고 평가항목도 훈련항목에 맞게 평가할 수 있게 된다.However, with the intervention of the
훈련생의 훈련은 시나리오상에서 이루어지며, 시나리오 임무의 달성여부와, 재난 임무에 대처하는 능력을 평가할 수 있다.Training of trainees is carried out in a scenario, and it is possible to evaluate the achievement of the scenario mission and the ability to cope with the disaster mission.
구체적으로 시나리오상에서 훈련생은 실체 훈련 이벤트(R) 또는 가상 훈련 이벤트(F)를 구분하지 못하고 둘 다 재난 임무(E)로 인지하게 된다.Specifically, in the scenario, trainees cannot distinguish between an actual training event (R) or a virtual training event (F), and both are perceived as a disaster mission (E).
따라서 재난 임무(E)이 등장하게 되면 조종명령(342)로 로봇(100)을 구동하여 재난 임무(E)을 회피하는 할 수 있으며, 재난 임무(E)을 회피하지 못하여 재난 임무(E)과 접촉된다면 감점의 요소가 될 수 있다.Therefore, when the disaster mission (E) appears, the
또한 시나리오 임무가 화재인 경우, 통신암(140)을 작동하여 가상의 화재와 통신함으로 화재를 진압할 수 있다.Also, when the scenario task is a fire, the fire can be extinguished by operating the
이 때는 로봇(100)이 화재와의 거리, 통신암(140)이 동작될 때 작동시키는 시간 등이 훈련의 요소이며, 훈련 평가 모듈(360)에서 이러한 훈련생의 조종명령(342)를 통해 훈련생을 평가할 수 있다.At this time, the distance between the
계속해서 훈련 평가 모듈(360)은 인터렉션 모듈(330)에서 제어명령(331)가 발생되는 경우 훈련 감점 요소로 판단할 수 있다.Subsequently, the training evaluation module 360 may determine that the
이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, the preferred embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms without departing from the spirit or scope of the present invention in addition to the above-described embodiments is a matter of ordinary skill in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description, but may be modified within the scope of the appended claims and their equivalents.
100: 로봇
200: 컨트롤러
300: 시스템
310: 혼합 환경 구현 모듈
320: 시나리오 모듈
330: 인터렉션 모듈
332: 인터렉션 판단부
334: 인터렉션 제어부
340: 로봇 구동 모듈
350: 관제 모듈100: robot
200: controller
300: system
310: Mixed Environment Implementation Module
320: scenario module
330: interaction module
332: interaction judgment unit
334: interaction control
340: robot driving module
350: control module
Claims (8)
상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈;
상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈;
상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈;
상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈; 및
상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함하고,
상기 인터렉션 모듈은,
상기 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부; 및
상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부를 포함하고,
상기 인터렉션 제어부는 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하며,
상기 인터렉션 판단부는 상기 로봇과 상기 훈련 이벤트가 접촉되는 것을 기 설정된 임계값으로 판단하여, 상기 로봇이 상기 기 설정된 임계값에 도달하는 경우 상기 로봇 구동 모듈이 상기 훈련생이 로봇을 조종하는 명령보다 상기 인터렉션 제어부가 상기 로봇의 구동을 제한하는 명령을 우선적으로 상기 로봇에 전달하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
As a training system for training that trainees can respond to disaster missions by controlling robots in a disaster situation,
The trainee controls the robot to set an environmental factor that may occur during the disaster mission performance as a training event, and the trainee drives the robot to perform the disaster mission and to train in response to the training event Scenario module to build a scenario so that;
a mixed environment realization module that implements the disaster mission in virtual or real form in the scenario;
It is determined whether the training event is real or virtual in the scenario, and when the virtual training event occurs while the trainee is manipulating the robot to perform the disaster mission, the trainee performs the command before the command to control the robot an interaction module for allowing the robot to restrict the operation of the robot due to the virtual training event so that the trainee recognizes the virtual training event;
a robot driving module that, when the operation of the robot is restricted in the interaction module, prioritizes a command for restricting driving of the robot over a command for the trainee to control the robot and sends the command to the robot; and
A control module that provides the trainee with a result of driving the robot by the trainee's command while performing the disaster mission and a result of limiting the operation of the robot in the interaction module,
The interaction module is
In the scenario, it is determined whether the training event is an actual training event or a virtual training event. an interaction determination unit that determines whether or not they match; and
When the trainee receives the determination result from the interaction determination unit and fails to control the robot to respond to the virtual training event, an interaction control unit for providing a command to limit the operation of the robot to the robot driving module;
The interaction control unit limits the driving of the robot in the virtual training event so that the trainee recognizes the virtual training event,
The interaction determination unit determines that the robot and the training event come into contact with a preset threshold value, and when the robot reaches the preset threshold value, the robot driving module is more than a command for the trainee to control the robot, the interaction characterized in that the control unit preferentially transmits a command to limit the driving of the robot to the robot,
Disaster robot training system in MR environment.
상기 인터렉션 모듈은,
상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The interaction module,
When the interaction determining unit determines that the training event is the actual training event, the interaction control unit is not involved in driving the robot,
Disaster robot training system in MR environment.
상기 인터렉션 제어부는,
시나리오 모듈로부터 상기 가상 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성하는 것을 특징으로 하는
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The interaction control unit,
Extracting the virtual training event information from a scenario module to generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event
Disaster robot training system in MR environment.
상기 로봇은,
상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
5. The method of claim 4,
The robot is
Characterized in that it comprises a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event,
Disaster robot training system in MR environment.
상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고,
상기 로봇 행동부는,
상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
6. The method of claim 5,
The robot is provided movably with wheels,
The robot action unit,
It is mounted on the wheel of the robot, characterized in that it blocks the driving force to rotate the wheel by the control command,
Disaster robot training system in MR environment.
상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
According to claim 1,
The trainee further comprises a training evaluation module for evaluating the result of manipulating the robot while coping with the disaster mission and the training event by driving the robot,
Disaster robot training system in MR environment.
상기 훈련 평가 모듈은,
상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출하는 것을 특징으로 하는,
MR 환경에서의 재난 로봇 훈련 시스템.
8. The method of claim 7,
The training evaluation module,
In the scenario, the robot's driving information, the robot's position information, and the time information when the robot passed the scenario are compared with pre-stored scenario success data to derive a result,
Disaster robot training system in MR environment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200109133A KR102370575B1 (en) | 2020-08-28 | 2020-08-28 | Disaster robot training system in mr environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200109133A KR102370575B1 (en) | 2020-08-28 | 2020-08-28 | Disaster robot training system in mr environment |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102370575B1 true KR102370575B1 (en) | 2022-03-03 |
Family
ID=80818754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200109133A KR102370575B1 (en) | 2020-08-28 | 2020-08-28 | Disaster robot training system in mr environment |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102370575B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170029128A (en) * | 2015-09-07 | 2017-03-15 | 한국항공대학교산학협력단 | Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle |
KR20200069465A (en) * | 2018-12-07 | 2020-06-17 | 한국로봇융합연구원 | Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof |
-
2020
- 2020-08-28 KR KR1020200109133A patent/KR102370575B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170029128A (en) * | 2015-09-07 | 2017-03-15 | 한국항공대학교산학협력단 | Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle |
KR20200069465A (en) * | 2018-12-07 | 2020-06-17 | 한국로봇융합연구원 | Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8190295B1 (en) | Apparatus and method for modifying the operation of a robotic vehicle in a real environment, to emulate the operation of the robotic vehicle operating in a mixed reality environment | |
JP6154057B2 (en) | Integration of robotic systems with one or more mobile computing devices | |
US10671240B2 (en) | Systems, devices, articles, and methods for creating and using trained robots with augmented reality | |
AU2016382823B2 (en) | Turret simulation method and device | |
KR102244988B1 (en) | Swarm flight controlling system and method for a plurality of unmanned aerial vehicles for swarm flight | |
CN114728413A (en) | Method and system for controlling graphical user interface of remote robot | |
KR102370575B1 (en) | Disaster robot training system in mr environment | |
US10751605B2 (en) | Toys that respond to projections | |
KR102393627B1 (en) | Mr environment and robot interaction training system | |
Budiharto et al. | Android-based wireless controller for military robot using bluetooth technology | |
KR102185618B1 (en) | Application system for teenager programming education using drones | |
US11548155B2 (en) | Interaction training system of robot with MR environment | |
KR102441923B1 (en) | Trainee testing and evaluating apparatus for disaster response rovot in live-virtual-constructive environment | |
KR102441285B1 (en) | Trainee training and evaluating system for disaster response rovot in live-virtual-constructive environment | |
KR20200069465A (en) | Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof | |
Bhattarai et al. | A deep Q-Learning based Path Planning and Navigation System for Firefighting Environments | |
KR102200784B1 (en) | Drone flight test system | |
JP7000397B2 (en) | Virtual reality control system | |
TR2021014085A2 (en) | AUTONOMOUS VIRTUAL SIMULATOR ASSETS THAT CONTINUOUSLY LEARN THROUGH EXPERIENCE | |
EP4021601A1 (en) | Toy construction system for constructing and operating a remote controlled toy vehicle model | |
Wegner et al. | Balancing robotic teleoperation and autonomy for urban search and rescue environments | |
Sosa et al. | Imperfect robot control in a mixed reality game to teach hybrid human-robot team coordination | |
Freund et al. | Virtual reality for intelligent and interactive operating, training, and visualization systems | |
Anuradha et al. | An Autonomous and Intelligent flame sensing extinguishing robot | |
Milliken | Modeling human expertise for providing adaptive levels of robot shared autonomy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |