KR102393627B1 - Mr environment and robot interaction training system - Google Patents

Mr environment and robot interaction training system Download PDF

Info

Publication number
KR102393627B1
KR102393627B1 KR1020200109134A KR20200109134A KR102393627B1 KR 102393627 B1 KR102393627 B1 KR 102393627B1 KR 1020200109134 A KR1020200109134 A KR 1020200109134A KR 20200109134 A KR20200109134 A KR 20200109134A KR 102393627 B1 KR102393627 B1 KR 102393627B1
Authority
KR
South Korea
Prior art keywords
robot
interaction
training
virtual
trainee
Prior art date
Application number
KR1020200109134A
Other languages
Korean (ko)
Other versions
KR20220028312A (en
Inventor
오승섭
양견모
서갑호
곽동기
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020200109134A priority Critical patent/KR102393627B1/en
Publication of KR20220028312A publication Critical patent/KR20220028312A/en
Application granted granted Critical
Publication of KR102393627B1 publication Critical patent/KR102393627B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Toys (AREA)

Abstract

본 발명은 MR 환경과 로봇의 인터렉션 훈련 시스템에 관한 것으로, 카메라 및 센서를 포함하는 로봇이 훈련 공간에서 구동되며, 실제 환경과 같은 가상의 환경을 훈련생에게 제공하여 훈련생이 훈련하는 훈련 시스템에 관한 것이다.The present invention relates to a training system for interaction between an MR environment and a robot, wherein a robot including a camera and a sensor is driven in a training space, and a virtual environment such as a real environment is provided to the trainee to train the trainee .

Description

MR 환경과 로봇의 인터렉션 훈련 시스템{MR ENVIRONMENT AND ROBOT INTERACTION TRAINING SYSTEM}MR ENVIRONMENT AND ROBOT INTERACTION TRAINING SYSTEM

본 발명은 MR환경의 재난 시나리오를 구축하여 훈련생이 로봇을 구동하는 것으로서, 훈련생이 로봇을 조종하는 환경을 MR환경으로 구축하여 다양한 이벤트에 대처하여 훈련 목표를 달성하기 위한 MR 환경과 로봇의 인터렉션 훈련 시스템에 관한 것이다.The present invention establishes a disaster scenario of the MR environment and trains the robot to drive the robot. Interaction training between the MR environment and the robot to achieve the training goal by coping with various events by building the environment in which the trainee controls the robot as the MR environment It's about the system.

4차 산업혁명시대는 기술의 혁신을 추구하는 현대사회에 급격한 변화의 속도를 요구하고 있으며, 로봇과 인공지능은 현대사회에서 주목되는 분야 중 하나가 되어왔다.The era of the 4th industrial revolution demands the speed of rapid change in the modern society that pursues technological innovation, and robots and artificial intelligence have become one of the fields of attention in the modern society.

이러한 로봇은 사람의 하는 일들 중에 많은 부분을 대신하는 목적으로 개발되어 왔으며, 가까운 미래에는 재난 현장에서 인명을 구조하고 무너진 시설물을 복구하는 일들을 대신할 것으로 예상한다.These robots have been developed for the purpose of replacing many of the tasks of humans, and in the near future, it is expected that they will take over the tasks of rescuing people at disaster sites and restoring damaged facilities.

재난은 화재, 홍수, 산사태 등 시시각각 매우 중요한 대처와 상황 판단이 요구된다.Disasters, such as fire, flood, and landslide, require very important responses and situational judgment at every moment.

재난 상황에서는 지상 주행 로봇이나 드론(drone)과 같은 비행 로봇, 또는 필요에 따라 다양한 형태의 로봇들이 개발되어 구동되는데, 이러한 재난 대응 로봇을 조작하는 관제자는 한 대 또는 동시에 여러 대를 원격 통제한다.In a disaster situation, flying robots such as ground-running robots or drones, or various types of robots are developed and operated as needed.

재난 발생 시에는 관제자의 재난 대응 로봇에 대한 적절한 관제 능력과 재난 대처 능력이 요구된다.In the event of a disaster, the controller's ability to control and respond appropriately to the disaster response robot is required.

기존의 관제자의 재난 대처 능력을 훈련하고 평가하기 위한 평가 시스템은 주로 가상의 환경에서 관제자의 조작 능력을 훈련하고 평가하는 것에 국한되어 있다.The existing evaluation system for training and evaluating the disaster response capability of the controller is mainly limited to training and evaluating the operational capability of the controller in a virtual environment.

실제의 로봇을 조작하고 시의 적절한 명령을 내리면서 다양한 재난상황에 대처하는 능력을 훈련하거나 평가하는 시스템이 요구된다. There is a need for a system that trains or evaluates the ability to handle a variety of disaster situations while operating real robots and issuing timely commands.

이러한 재난상황에 대한 훈련과 평가에 대한 시스템은 실제 로봇을 조종하는 훈련생으로 하여금 가상의 환경을 실제와 동일하게 느끼도록 하는 것이 핵심요소가 되지만, 실제 환경의 로봇이 가상 환경의 재난 임무를 인지하도록 제어하는 시스템이 없어 가상 환경의 한계점이 되어오고 있다.The key element of this system for training and evaluation of disaster situations is to make the trainees who control the real robot feel the virtual environment the same as the real one, but it is necessary to make the robot in the real environment recognize the disaster mission in the virtual environment. Since there is no system to control it, it has become a limitation of the virtual environment.

예를 들어, LVC(Live-Virtual-Constructive)라는 실제 가상 모의 훈련체계에서는 전술에 대한 훈련과 가상의 적에 대한 인식이 주요점이라는 점에서 실제 조종 로봇과 가상의 매체가 접촉되는 환경이 만들어지지 않기 때문에 재난 환경과는 차이점이 있고, 이 밖에 가상 모의 훈련 시스템을 가지는 많은 훈련 시스템에서는 실제 로봇을 이용하지 않기 때문에 훈련생들이 실제 상황에서 이질감을 느끼게 된다는 문제점이 있다.For example, in the real virtual simulation training system called LVC (Live-Virtual-Constructive), since training in tactics and recognition of virtual enemies are the main points, an environment in which the real control robot and the virtual medium are in contact is not created. Therefore, there is a difference from the disaster environment, and in addition, many training systems having a virtual simulation training system do not use real robots, so there is a problem that trainees feel a sense of heterogeneity in the real situation.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, MR환경에서의 재난에 대응하도록 로봇을 통해 훈련생이 훈련하는 시스템을 제공하기 위한 목적을 가진다.The present invention is an invention devised to solve the problems of the prior art, and has an object to provide a system in which trainees train through a robot to respond to a disaster in an MR environment.

특히 본 발명은 실제 환경의 로봇이 가상 환경의 재난 임무를 인식하도록 훈련생이 느끼게 하도록 가상 훈련 이벤트와 이와 접촉된 로봇 및 가상 훈련 이벤트의 손상 정도를 시각적으로 확인할 수 있도록 하여 시나리오상 돌발 상황을 대처하여 훈련을 통해서 재난 상황에 바람직하게 로봇을 운용하는 훈련을 위한 시스템을 제공하는데 그 목적을 가진다.In particular, the present invention copes with unexpected situations in a scenario by visually confirming the degree of damage to the virtual training event and the robot in contact with it and the virtual training event so that the trainee feels that the robot in the real environment recognizes the disaster mission in the virtual environment. The purpose of training is to provide a system for training to properly operate a robot in a disaster situation.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위한 본 발명의 MR 환경과 로봇의 인터렉션 훈련 시스템은, 재난이 발생된 상황에서 훈련생이 로봇을 조종하여 재난 임무에 대응할 수 있는 훈련을 하기 위한 훈련 시스템으로서, 상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈, 상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈, 상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈, 상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈 및 상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함하고, 상기 인터렉션 모듈은 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한한 결과에 대한 상기 로봇의 변화 및 상기 가상 훈련 이벤트의 변화를 상기 관제모듈에 제공할 수 있다.The MR environment and robot interaction training system of the present invention for achieving the above object is a training system for training a trainee to respond to a disaster mission by manipulating a robot in a disaster situation, wherein the trainee By manipulating the robot, environmental factors that may occur during the disaster mission are set as a training event, and the trainee drives the robot to perform the disaster mission and training in response to the training event. A scenario module to build, a mixed environment realization module for realizing the disaster mission in virtual or real form in the scenario, determining whether the training event is real or virtual in the scenario, and the trainee using the robot to perform the disaster mission When the virtual training event occurs during operation, the robot restricts the operation of the robot due to the virtual training event before the trainee commands the robot to control the robot so that the trainee recognizes the virtual training event When the operation of the robot is restricted in the interaction module, the robot driving module and the robot are sent to the robot by giving priority to the command to limit the driving of the robot rather than the command by the trainee to control the robot and the robot is the disaster and a control module providing the trainee with a result driven by the trainee's command while performing a task and a result of limiting the operation of the robot by the interaction module, wherein the interaction module is configured to drive the robot in the virtual training event A change in the robot and a change in the virtual training event in response to a result of limiting may be provided to the control module.

그리고 상기 인터렉션 모듈은 상기 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부, 상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부 및 상기 인터렉션 제어부를 통해 상기 가상 훈련 이벤트에 의해 구동이 제한된 상기 로봇의 상태를 상기 훈련생의 감각을 자극하는 신호를 상기 관제모듈에 제공하여 상기 훈련생이 상기 로봇의 구동을 제한한 결과에 대한 상기 로봇의 변화 및 상기 가상 훈련 이벤트의 변화를 인지하게 하는 인터렉션 효과부를 포함할 수 있다.And the interaction module determines whether the training event is an actual training event or a virtual training event in the scenario, and when the virtual training event is the virtual training event, the result of the trainee commanding the robot to drive the robot corresponds to the virtual training event an interaction determination unit that determines whether the result of the command to Through the interaction control unit provided to the robot driving module and the interaction control unit, a signal stimulating the senses of the trainee is provided to the control module to indicate the state of the robot whose operation is restricted by the virtual training event to the control module so that the trainee is the robot. It may include an interaction effect unit for recognizing a change in the robot and a change in the virtual training event with respect to the result of limiting the driving.

또한 상기 인터렉션 모듈은 상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않을 수 있다.In addition, in the interaction module, when the interaction determining unit determines that the training event is the actual training event, the interaction control unit may not be involved in driving the robot.

그리고 상기 인터렉션 제어부는 시나리오 모듈로부터 상기 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성할 수 있다.In addition, the interaction control unit may extract the training event information from the scenario module and generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event.

또한 상기 인터렉션 효과부는 상기 훈련생이 상기 로봇을 조종한 명령을 분석하여 상기 로봇의 속도와 상기 로봇이 상기 가상 훈련 이벤트와 접촉 및 충돌된 횟수에 따라 상기 로봇이 변형된 상태 및 상기 가상 훈련 이벤트가 변형된 상태를 상기 혼합 환경으로 표현되도록 할 수 있다.In addition, the interaction effect unit analyzes the command that the trainee manipulated the robot, and the robot is deformed and the virtual training event is deformed according to the speed of the robot and the number of times the robot contacts and collides with the virtual training event. It is possible to express the obtained state as the mixed environment.

그리고 상기 로봇은 상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함할 수 있다.In addition, the robot may include a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event.

또한 상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고, 상기 로봇 행동부는 상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단할 수 있다.In addition, the robot is provided with wheels to be movable, and the robot action unit is mounted on the wheel of the robot to block the driving force to rotate the wheel by the control command.

그리고 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함할 수 있다.The trainee may further include a training evaluation module for evaluating a result of manipulating the robot while coping with the disaster mission and the training event by driving the robot.

또한 상기 훈련 평가 모듈은, 상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출할 수 있다.In addition, the training evaluation module may derive a result by comparing it with pre-stored scenario success data using the driving information of the robot, the position information of the robot, and the time information when the robot passed the scenario in the scenario. .

상기한 과제를 해결하기 위한 본 발명의 MR 환경과 로봇의 인터렉션 훈련 시스템은, 시스템이 가상 훈련 이벤트를 로봇의 통제로 훈련생이 인식하게 함으로 가상 훈련 이벤트를 통해서 훈련을 할 수 있는 항목을 만들 수 있어서 실체 훈련 이벤트를 준비하지 않아도 훈련을 극대화시킬 수 있다는 장점이 있다.The MR environment and robot interaction training system of the present invention for solving the above problems can create an item that can be trained through the virtual training event by allowing the trainee to recognize the virtual training event under the control of the robot. It has the advantage of maximizing training without preparing for an actual training event.

또한 본 발명은 가상 훈련 이벤트와 접촉되는 현상 및 로봇의 구동에 관한 시각적 효과를 나타내어 보다 실감나게 실제 환경과 같은 훈련 효과를 가질 수 있다는 장점이 있다.In addition, the present invention has an advantage that it can have a training effect like a real environment more realistically by showing a phenomenon in contact with a virtual training event and a visual effect related to the operation of the robot.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 실제 훈련 공간(A)의 로봇과 훈련생에게 디스플레이 되는 시나리오상의 로봇을 나타낸 도면;
도 2는 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 화재 진압 시나리오와 요구조자 구조 시나리오를 개념적으로 나타낸 도면;
도 3은 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면;
도 4는 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 가상 훈련 이벤트를 인식하도록 시스템, 훈련생, 로봇간의 신호흐름도를 나타낸 도면;
도 5는 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 가상 훈련 이벤트를 로봇이 인지하는 알고리즘을 나타낸 도면;
도 6은 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 가상 훈련 이벤트에 대한 로봇 구동을 나타낸 개념도;
도 7은 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 제어명령에 의해 로봇이 가상 훈련 이벤트를 인지할 수 있는 모습의 개념도;
도 8은 본 발명의 일 실시예에 따른 MR 환경과 로봇의 인터렉션 훈련 시스템에서 훈련평가모듈을 통해 재난 임무의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.
1 is a diagram illustrating a robot in an actual training space (A) and a robot in a scenario displayed to trainees in an MR environment and robot interaction training system according to an embodiment of the present invention;
2 is a diagram conceptually illustrating a fire suppression scenario and a rescuer rescue scenario in an MR environment and a robot interaction training system according to an embodiment of the present invention;
3 is a view showing the overall concept for building a mixed environment in the MR environment and the robot interaction training system according to an embodiment of the present invention;
4 is a diagram illustrating a signal flow diagram between a system, a trainee, and a robot to recognize a virtual training event in an MR environment and a robot interaction training system according to an embodiment of the present invention;
5 is a diagram illustrating an algorithm for a robot to recognize a virtual training event in an MR environment and a robot interaction training system according to an embodiment of the present invention;
6 is a conceptual diagram illustrating a robot driving for a virtual training event in an MR environment and a robot interaction training system according to an embodiment of the present invention;
7 is a conceptual diagram of a state in which a robot can recognize a virtual training event by a control command in an MR environment and a robot interaction training system according to an embodiment of the present invention;
8 is a view showing the training degree of trainees according to whether a disaster mission is virtual or real through a training evaluation module in an MR environment and robot interaction training system according to an embodiment of the present invention.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily practice the present invention.

실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present invention pertains and are not directly related to the present invention will be omitted. This is to more clearly convey the gist of the present invention without obscuring the gist of the present invention by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components are exaggerated, omitted, or schematically illustrated in the accompanying drawings. In addition, the size of each component does not fully reflect the actual size. In each figure, the same or corresponding elements are assigned the same reference numerals.

도면을 참조하여 본 발명에 대해 구체적으로 설명하도록 하겠다.The present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 실제 훈련 공간(A)의 로봇(100)과 훈련생에게 디스플레이 되는 시나리오상의 로봇(100)을 나타낸 도면이고, 도 2는 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 화재(G1) 진압 시나리오와 요구조자(G2) 구조 시나리오를 개념적으로 나타낸 도면이며, 도 3은 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 혼합환경을 구축하기 위한 전체적인 개념을 나타낸 도면이고, 도 4는 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 가상 훈련 이벤트(F)을 인식하도록 시스템(300), 훈련생, 로봇(100)간의 신호흐름도이며, 도 5는 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 가상 훈련 이벤트(F)을 로봇(100)이 인지하는 알고리즘을 나타낸 도면이고, 도 6은 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 가상 훈련 이벤트(F)에 대한 로봇(100) 구동을 나타낸 개념도 이며, 도 7은 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 제어명령(331)에 의해 로봇(100)이 가상 훈련 이벤트(F)을 인지할 수 있는 모습의 개념도이고, 도 8은 본 발명의 일 실시예에 따른 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에서 훈련평가모듈을 통해 재난 임무(E)의 가상 또는 실체여부에 따라 훈련생의 훈련정도를 나타낸 도면이다.1 shows a robot 100 in an actual training space A and a robot 100 in a scenario displayed to trainees in an interaction training system 300 of an MR environment and a robot 100 according to an embodiment of the present invention. 2 is a diagram conceptually showing a fire (G1) suppression scenario and a rescuer (G2) rescue scenario in the interaction training system 300 of the MR environment and the robot 100 according to an embodiment of the present invention, FIG. 3 is a view showing the overall concept for establishing a mixed environment in the interaction training system 300 of the MR environment and the robot 100 according to an embodiment of the present invention, and FIG. 4 is an MR environment according to an embodiment of the present invention. It is a signal flow diagram between the system 300, the trainee, and the robot 100 to recognize a virtual training event F in the interaction training system 300 of the environment and the robot 100, and FIG. 5 is a signal flow diagram according to an embodiment of the present invention The robot 100 is a diagram showing an algorithm for recognizing a virtual training event F in the interaction training system 300 of the MR environment and the robot 100, and FIG. 6 is an MR environment and the robot according to an embodiment of the present invention. It is a conceptual diagram showing the operation of the robot 100 for a virtual training event (F) in the interaction training system 300 of 100, and FIG. 7 is an interaction training between the MR environment and the robot 100 according to an embodiment of the present invention. It is a conceptual diagram of a state in which the robot 100 can recognize the virtual training event F by the control command 331 in the system 300, and FIG. 8 is an MR environment and the robot 100 according to an embodiment of the present invention. ) is a diagram showing the training degree of trainees according to whether the disaster mission (E) is virtual or real through the training evaluation module in the interaction training system 300 of FIG.

본 발명은 실제와 같은 재난 상황을 혼합 환경(MIXED-REALITY)으로 구현하여 실체 로봇(100)을 조종하는 훈련생이 가상의 재난 상황에서 훈련하기 위한 MR 환경과 로봇(100)의 인터렉션 훈련 시스템(300)에 관한 것으로, 시스템(300)의 구성으로는 혼합 환경 구현 모듈(310), 시나리오 모듈(320), 인터렉션 모듈(330), 로봇 구동 모듈(340) 및 관제 모듈(350)을 포함할 수 있다.The present invention implements a real-world disaster situation as a mixed environment (MIXED-REALITY), so that the trainee who controls the real robot 100 trains in a virtual disaster situation with the MR environment and the robot 100 interaction training system 300 ), and the configuration of the system 300 may include a mixed environment implementation module 310 , a scenario module 320 , an interaction module 330 , a robot driving module 340 , and a control module 350 . .

시스템(300)은 로봇(100)에 저장되어 있을 수 있고 훈련생이 로봇(100)을 조종하는 컨트롤러(200)에 저장되어 있을 수 있다.The system 300 may be stored in the robot 100 , and may be stored in the controller 200 in which the trainee controls the robot 100 .

먼저 본 발명의 일 실시예에 따른 로봇(100)은 몸체와 이동부, 그리고 카메라(120)를 가지고 있으며 몸체의 일부에는 가상 환경과 통신이 가능한 통신암(140)이 포함될 수 있다.First, the robot 100 according to an embodiment of the present invention has a body, a moving part, and a camera 120, and a part of the body may include a communication arm 140 capable of communicating with a virtual environment.

또한 로봇(100)은 내부에 다양한 센서가 장착되어 있어서 로봇(100)의 정보를 생성할 수 있다.In addition, since the robot 100 is equipped with various sensors therein, it is possible to generate information about the robot 100 .

로봇(100)에 구비되는 센서는, 위치 센서, 통신 센서, 속도(가속도 포함)센서, 포토 센서를 포함할 수 있다.The sensor provided in the robot 100 may include a position sensor, a communication sensor, a speed (including acceleration) sensor, and a photo sensor.

그리고 본 발명의 실제 환경인 훈련 공간(A)에서 로봇(100)이 이동되는 것을 전제로 하고 있으며, 실제 공간상에는 천장과 벽에 마커(MARKER)가 형성되고 로봇(100)은 마커를 통해 위치 정보를 전송할 수 있고, 로봇(100)이 촬영하는 영상 또한 실시간으로 전송이 가능하다.And it is premised that the robot 100 is moved in the training space A, which is an actual environment of the present invention, and in the real space, markers are formed on the ceiling and wall, and the robot 100 receives position information through the marker. can be transmitted, and the image captured by the robot 100 can also be transmitted in real time.

상기 센서 데이터 및 영상 데이터는 실시간으로 시스템(300)에 전송되며, 훈련생은 훈련 공간(A)에서 로봇(100)을 구동할 수 있는 컨트롤러(200)를 통해 로봇(100)을 구동 시킬 수 있다.The sensor data and image data are transmitted to the system 300 in real time, and the trainee can drive the robot 100 through the controller 200 that can drive the robot 100 in the training space (A).

컨트롤러(200)는 훈련 공간(A)과 별도의 공간에서 훈련생이 원격으로 로봇(100)을 조종할 수 있도록 로봇(100)에게 조종명령(342)를 제공하게 된다. The controller 200 provides a control command 342 to the robot 100 so that a trainee can remotely control the robot 100 in a space separate from the training space A.

컨트롤러(200)에는 조이스틱과 버튼이 구성되어 있으며, 상기 영상 데이터에 가상의 목표 객체(G1, G2) 및 가상 훈련 이벤트(F)이 특정 위치에 생성되도록 혼합 환경으로 표시될 수 있다.The controller 200 includes a joystick and a button, and may be displayed as a mixed environment so that virtual target objects G1 and G2 and a virtual training event F are generated at a specific location in the image data.

또한 컨트롤러(200)에는 혼합 환경을 볼 수 있도록 디스플레이가 구성될 수 있다.Also, the controller 200 may have a display configured to view the mixed environment.

따라서 훈련생은 컨트롤러(200)에서 재난 환경과 같은 혼합 환경을 보면서 훈련 공간(A)의 실체 로봇(100)을 구동하는 형태로 훈련을 할 수 있다.Therefore, the trainee can train in the form of driving the actual robot 100 in the training space A while watching a mixed environment such as a disaster environment in the controller 200 .

한편 상기 영상 데이터를 통해 혼합 환경을 조성하는 것은 혼합 환경 구현 모듈(310)에서 수행할 수 있다. Meanwhile, creating a mixed environment through the image data may be performed by the mixed environment realizing module 310 .

그리고 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 연계되어 있으며, 훈련 공간(A)의 구조를 파악하여 시작 위치(P1)와 종료 위치(P3) 사이에 재난 임무(E)과 시나리오 달성 목표에 해당되는 가상의 목표 객체(G1, G2)가 배치된 목표 위치를 포함하는 시나리오를 생성할 수 있다.And the scenario module 320 is linked with the mixed environment implementation module 310, and by identifying the structure of the training space (A), the disaster mission (E) and the scenario are achieved between the starting location (P1) and the ending location (P3). A scenario including a target location in which the virtual target objects G1 and G2 corresponding to the target are disposed may be generated.

그리고 로봇(100)에 장착된 통신암(140)을 통해 상기 가상의 목표 객체(G1, G2)와 통신하여 화재(G1)를 진압할 수 있다.In addition, the fire G1 may be extinguished by communicating with the virtual target objects G1 and G2 through the communication arm 140 mounted on the robot 100 .

인터렉션 모듈(330)은 가상 훈련 이벤트(F)뿐만 아니라 가상의 목표 객체(G1, G2)의 크기 및 위치 정보를 생성할 수 있다.The interaction module 330 may generate size and location information of the virtual target objects G1 and G2 as well as the virtual training event F.

구체적으로 인터렉션 판단부(332)는 목표 위치에 배치된 가상의 목표 객체(G1, G2)에 대한 정보를 가지고 로봇(100)이 가상의 목표 객체(G1, G2)와 인접하였는지를 판단하고, 인터렉션 제어부(334)는 가상의 목표 객체(G1, G2) 정보에 대응하여 통신암(140)에서 발생된 신호의 방향과 시간을 통해 가상의 목표 객체(G1, G2)가 시나리오상에서 사라지게 할 수 있다.Specifically, the interaction determining unit 332 determines whether the robot 100 is adjacent to the virtual target objects G1 and G2 with information on the virtual target objects G1 and G2 disposed at the target position, and the interaction control unit Reference numeral 334 indicates that the virtual target objects G1 and G2 disappear from the scenario through the direction and time of the signal generated from the communication arm 140 in response to the virtual target object G1 and G2 information.

상기 시나리오는 혼합 환경으로 구현될 수 있다.The above scenario may be implemented as a mixed environment.

따라서 훈련생은 컨트롤러(200)에서 혼합 환경으로 구현된 영상을 보면서 시나리오를 진행하게 되는데, 이때 로봇(100)은 혼합 환경상에서 훈련생의 조종명령(342)를 수신하여 구동될 수 있다.Therefore, the trainee proceeds with the scenario while viewing the image implemented in the mixed environment in the controller 200. In this case, the robot 100 may be driven by receiving the trainee's control command 342 in the mixed environment.

한편 인터렉션 모듈(330)은 혼합 환경 내에서 발생되는 재난 임무(E)을 확인하고 조종명령(342)에 의해 로봇(100)이 재난 임무(E)에 접촉되는 접촉 지점에 도달했는지 판단하며, 접촉 지점에서 로봇(100)을 제어하는 제어명령(331)를 생성한다.On the other hand, the interaction module 330 checks the disaster mission (E) occurring in the mixed environment, and determines whether the robot 100 has reached the contact point in contact with the disaster mission (E) by the control command 342, and the contact A control command 331 for controlling the robot 100 is generated at a point.

구체적으로 인터렉션 모듈(330)은 훈련생이 조종명령(342)를 통해 로봇(100)을 구동하다가 가상 훈련 이벤트(F)이 있는 접촉 지점에서 로봇(100)이 가상 훈련 이벤트(F)이 있는 것처럼 반응하도록 접촉 위치에서 조종명령(342)보다 먼저 로봇(100)의 구동을 제어하는 제어명령(331)를 발생시킬 수 있다.Specifically, the interaction module 330 reacts as if there is a virtual training event F at the point of contact where the trainee drives the robot 100 through the control command 342 and the virtual training event F exists. In order to do so, a control command 331 for controlling the driving of the robot 100 may be generated before the manipulation command 342 at the contact position.

이를 통해 훈련생은 로봇(100)이 이동되다가 가상 훈련 이벤트(F)인 벽에 충돌한 것과 같이 디스플레이에서 확인할 수 있다.Through this, the trainee can confirm on the display as if the robot 100 was moving and collided with the wall, which is the virtual training event (F).

여기서 조종명령(342)와 제어명령(331)를 로봇(100)에게 제공하는 것은 로봇 구동 모듈(340)일 수 있다.Here, it may be the robot driving module 340 that provides the control command 342 and the control command 331 to the robot 100 .

로봇 구동 모듈(340)은 로봇(100)이 실제 재난 임무(E)과 충돌된 것과 같이 가상 훈련 이벤트(F)과 접촉되는 접촉 지점에서 제어명령(331)를 로봇(100)에 제공할 수 있다.The robot driving module 340 may provide a control command 331 to the robot 100 at a point of contact where the robot 100 comes into contact with the virtual training event F, such as when the robot 100 collides with the real disaster mission E. .

이 때 훈련생의 디스플레이에는 혼합 환경의 시나리오가 제공되어 있어서 훈련생은 마치 실제 벽에 부딪힌 걸로 보게 될 수 있다.At this time, the trainee's display is provided with a scenario of a mixed environment, so that the trainee can see it as if he had hit a real wall.

이렇게 조종명령(342)와 제어명령(331)를 선택해서 로봇(100)에게 제공하는 로봇 구동 모듈(340)과 연결되고 시나리오상에서 로봇(100)이 구동된 결과를 훈련생이 확인할 수 있도록 제공하는 관제 모듈(350)이 포함될 수 있다.In this way, the control command 342 and the control command 331 are selected and connected to the robot driving module 340 provided to the robot 100, and the control provided so that the trainee can check the results of the operation of the robot 100 in the scenario A module 350 may be included.

관제 모듈(350)은 로봇 구동 모듈(340)에서 로봇(100)으로 조종명령(342) 및 제어명령(331)를 제공하여 로봇(100)이 재난 임무(E)과 접촉되거나, 접촉되었다가 이탈된 상태에서 훈련생이 조종명령(342)를 로봇(100)에게 제공할 수 있는 상태를 제공할 수 있다.The control module 350 provides a steering command 342 and a control command 331 from the robot driving module 340 to the robot 100 so that the robot 100 comes into contact with the disaster mission E, or comes into contact with the robot 100 and leaves. A state in which the trainee can provide the control command 342 to the robot 100 may be provided in the completed state.

즉, 로봇(100)이 가상 훈련 이벤트(F)과 충돌된 것을 훈련생이 인지할 수 있도록 조종 타이밍을 제공하는 것이다.That is, the robot 100 is to provide a steering timing so that the trainee can recognize that the collision with the virtual training event (F).

또한 본 발명의 일 실시예에 따라 인터렉션 In addition, according to an embodiment of the present invention, the interaction

다음 도면을 통해 본 발명의 일 실시예가 구현된 것을 자세하게 설명하도록 한다.An embodiment of the present invention will be described in detail with reference to the following drawings.

도 1은 화재(G1) 시나리오로 가상의 목표 객체(G1, G2)가 화재(G1)로 설정되어 있다.1 shows a fire G1 scenario in which virtual target objects G1 and G2 are set as a fire G1.

시나리오상에서 로봇(100)은 시작 위치(P1)에서 가상의 목표 객체(G1, G2)가 형성된 목표 위치로 이동을 해서 화재(G1)를 진압해야 한다. 시작 위치(P1)와 목표 위치 사이에는 재난 임무(E)이 형성되어 있을 수 있다.In the scenario, the robot 100 must move from the starting position P1 to the target position where the virtual target objects G1 and G2 are formed to suppress the fire G1. A disaster mission E may be formed between the starting position P1 and the target position.

재난 임무(E)은 벽에 해당하며 훈련 공간(A)에 형성된 실체 훈련 이벤트(E)일 수도 있고, 훈련 공간(A)에 없는 가상 훈련 이벤트(F)일 수도 있다.The disaster mission (E) corresponds to the wall and may be an actual training event (E) formed in the training space (A), or a virtual training event (F) that is not in the training space (A).

훈련생은 시나리오 임무를 달성하기 위해 재난 임무(E)을 피해서 목표 위치로 이동하고, 화재(G1)를 진압하는 훈련을 수행하게 된다.In order to achieve the scenario mission, the trainee avoids the disaster mission (E), moves to the target location, and performs training to extinguish the fire (G1).

화재(G1) 시나리오에서는 도 2에 도시된 바와 같이 화재(G1)를 진압하는 훈련뿐 아니라, 요구조자(G2)를 구출하는 시나리오로 제공도리 수 있다.In the fire (G1) scenario, as shown in FIG. 2 , as well as training to suppress the fire (G1), it can be provided as a scenario to rescue the person in need (G2).

이와 같이 시나리오는 화재(G1)와 요구조자(G2) 구출에 한정되는 것이 아니며, 시나리오 모듈(320)에서 재난 상황에 따라 화재(G1), 토네이도, 구조, 홍수 등을 포함하는 시나리오가 제공될 수 있고, 이에 따른 가상의 목표 객체(G1, G2)는 시나리오 구축을 통해 다양하게 제공될 수 있다.As such, the scenario is not limited to the rescue of the fire (G1) and the rescuer (G2), and according to the disaster situation in the scenario module 320, a scenario including a fire (G1), a tornado, a rescue, a flood, etc. may be provided. , and the corresponding virtual target objects G1 and G2 may be provided in various ways through scenario construction.

본 실시예에서는 화재(G1) 시나리오를 선택하여 설명한다.In this embodiment, a fire (G1) scenario is selected and described.

도 2에서 시나리오 모듈(320)은 시나리오가 시작되는 시작 위치(P1) 및 종료 위치(P3)로 구분되며, 시작 위치(P1) 및 종료 위치(P3) 사이에 시나리오 임무에 해당되는 화재(G1) 또는 요구조자(G2)가 가상의 목표 객체(G1, G2)로 형성된 목표 위치를 포함한다.In FIG. 2 , the scenario module 320 is divided into a starting location P1 and an ending location P3 where the scenario starts, and a fire G1 corresponding to the scenario mission between the starting location P1 and the ending location P3. Alternatively, the requestor G2 includes a target position formed by the virtual target objects G1 and G2.

시나리오 모듈(320)은 훈련 공간(A)에 대한 실제 정보를 가지고 시작 위치(P1), 목표 위치 및 종료 위치(P3) 그리고 재난 임무(E)이 배치를 조절할 수 있다.The scenario module 320 may adjust the arrangement of the start position P1, the target position and the end position P3, and the disaster mission E with actual information about the training space A.

이 때 시나리오 모듈(320)은 혼합 환경 구현 모듈(310)과 함께 혼합 환경에서의 시나리오를 훈련생에게 제공할 수 있다.In this case, the scenario module 320 may provide a scenario in the mixed environment to the trainee together with the mixed environment implementation module 310 .

이와 같은 구조를 훈련생에게 제공하여 훈련생이 혼합 환경에서 실제 재난 환경에 대응되는 훈련 효과를 가지기 위해서는 본 발명의 시스템(300) 구성에 의해 구현이 가능하다.In order to provide such a structure to the trainee so that the trainee can have a training effect corresponding to the actual disaster environment in a mixed environment, it can be implemented by the configuration of the system 300 of the present invention.

또한 본 발명에 따른 훈련생 평가에 있어서, 시나리오 모듈(320)은 시나리오상에서 실체 훈련 이벤트(R) 및 가상 훈련 이벤트(F)를 랜덤하게 배치할 수 있다.In addition, in the trainee evaluation according to the present invention, the scenario module 320 may randomly arrange an actual training event (R) and a virtual training event (F) on the scenario.

이는 훈련 평가 모듈(360)과 연동하여, 훈련의 레벨에 따라 재난 임무(E) 개수를 판단하고, 재난 임무(E)을 가상 또는 실체를 교대로 배치할 수도 있고, 실체 또는 가상 중 어느 하나만 선택하여 배치할 수도 있다.This, in conjunction with the training evaluation module 360, determines the number of disaster missions (E) according to the level of training, and may alternately place the disaster missions (E) in virtual or virtual, or select only one of the virtual or virtual can also be placed.

그리고 재난 임무(E)는 이벤트(미도시)를 포함할 수 있다.And the disaster mission (E) may include an event (not shown).

상기 이벤트는 가상 또는 실체로 구현이 가능하며, 시나리오상에 로봇이 구동되는 바닥에 기름이 누유된 지역, 돌풍, 비, 우박, 천둥, 자갈이 펼쳐진 지역을 포함할 수 있다.The event can be implemented in virtual or real form, and may include an area where oil leaks on the floor where the robot is driven, gusts of wind, rain, hail, thunder, and gravel spread in the scenario.

본 발명의 목적이 혼합 환경에서 가상으로 구현된 가상의 목표 객체(G1, G2)를 훈련생이 실체로 체감하도록 하는 것이므로 자세한 것을 도 3 및 도 4를 통해 설명하도록 한다.Since an object of the present invention is to allow a trainee to experience virtual target objects G1 and G2 implemented virtually in a mixed environment as an entity, details will be described with reference to FIGS. 3 and 4 .

도 3에서 컨트롤러(200)로 로봇(100)을 구동하는 훈련생은 시스템(300)이 개입하여 로봇(100) 구동 통제와 혼합 환경 구현으로 아무것도 없는 훈련 공간(A)에서 로봇(100)이 이동되지만 훈련생은 실제와 같이 체감할 수 있게 할 수 있다.In FIG. 3 , the trainee driving the robot 100 with the controller 200 intervenes in the system 300 to control the robot 100 drive and implement the mixed environment, and the robot 100 is moved in the training space A, but Trainees can experience it just like the real thing.

도시된 바와 같이 컨트롤러(200)는 디스플레이가 두개로 형성되어 있다.As shown, the controller 200 has two displays.

디스플레이는 혼합환경으로 로봇(100)이 시나리오상에 구동되는 것을 확인할 수 있는 제1디스플레이(B), 시나리오의 전체 단계에서 현재 로봇(100)의 단계를 나타내는 제2디스플레이를 포함할 수 있다.The display may include a first display (B) that can confirm that the robot 100 is driven in a scenario in a mixed environment, and a second display that shows the current stage of the robot 100 in all stages of the scenario.

제1디스플레이(B)에는 로봇(100)의 속도 및 좌표값, 손상정보를 나타내는 상태데이터가 표기 될 수 있다.The state data indicating the speed and coordinate values of the robot 100 and damage information may be displayed on the first display (B).

먼저 혼합 환경 구현 모듈(310)은 로봇(100)에서 촬영된 영상과 훈련 공간(A)의 정보를 통해 영상에 가상 훈련 이벤트(F)과 가상의 목표 객체(G1, G2)를 혼합 환경을 구현하고, 로봇(100)이 이동되고 방향이 전환되는 영상에 대응하여 실시간으로 가상 훈련 이벤트(F)과 가상의 목표 객체(G1, G2)가 표시되게 한다.First, the mixed environment implementation module 310 implements a mixed environment by creating a virtual training event (F) and virtual target objects (G1, G2) in the image through the image captured by the robot 100 and the information of the training space (A). and the virtual training event F and the virtual target objects G1 and G2 are displayed in real time in response to the image in which the robot 100 is moved and the direction is changed.

여기서 혼합 환경 구현 모듈(310)은 시나리오 모듈(320)과 함께 가상 훈련 이벤트(F)과 가상의 목표 객체(G1, G2)를 배치할 수 있다.Here, the mixed environment implementation module 310 may arrange the virtual training event F and the virtual target objects G1 and G2 together with the scenario module 320 .

그리고 인터렉션 모듈(330)은 시나리오상에서 재난 임무(E)의 위치를 판단하고 접촉지점에서 로봇(100)을 통제할 수 있는 제어명령(331)를 생성한다.In addition, the interaction module 330 determines the location of the disaster mission E in the scenario and generates a control command 331 capable of controlling the robot 100 at the contact point.

구체적으로 인터렉션 모듈(330)은 재난 임무(E)인 훈련 공간(A)에 있는 실체 훈련 이벤트(E)인지 혼합 환경 구현 모듈(310)로 생성된 가상 훈련 이벤트(F)인지 재난 임무(E)의 종류를 판단하고, 시나리오상에서 재난 임무(E)의 위치를 포함하는 재난 임무(E) 정보를 생성하는 인터렉션 판단부(332)를 포함할 수 있다.Specifically, the interaction module 330 is an actual training event (E) in a training space (A) that is a disaster mission (E) or a virtual training event (F) generated by the mixed environment implementation module 310 or a disaster mission (E) It may include an interaction determination unit 332 that determines the type of , and generates disaster mission (E) information including the location of the disaster mission (E) in the scenario.

또한 로봇(100)과 인접한 가상 훈련 이벤트(F)에 대한 상기 재난 임무(E) 정보를 로봇(100)에게 제공하여 로봇(100)이 재난 임무(E)과 근접할 경우 로봇(100)을 제어하는 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하는 인터렉션 제어부(334)를 포함할 수 있다.In addition, the disaster mission (E) information for the virtual training event (F) adjacent to the robot 100 is provided to the robot 100 to control the robot 100 when the robot 100 is close to the disaster mission (E). It may include an interaction control unit 334 that generates a control command 331 and provides it to the robot driving module 340 .

인터렉션 판단부(332)는 재난 임무(E) 정보에 따라 시나리오상에 가상 훈련 이벤트(F)의 크기를 복수의 좌표 데이터로 생성하여 로봇(100)과 가상 훈련 이벤트(F)간의 거리를 측정할 수 있고, 인터렉션 제어부(334)는 로봇(100)과 가상 재난 임무(E)이 접촉되는 접촉 지점에서 제어명령(331)를 로봇 구동 모듈(340)에 제공하여 로봇 구동 모듈(340)이 로봇(100)에게 제어명령(331)를 제공할 수 있게 할 수 있다.The interaction determination unit 332 generates the size of the virtual training event (F) as a plurality of coordinate data on the scenario according to the disaster mission (E) information to measure the distance between the robot 100 and the virtual training event (F). The interaction control unit 334 provides the control command 331 to the robot driving module 340 at the contact point where the robot 100 and the virtual disaster mission E come into contact, so that the robot driving module 340 is the robot ( 100) may be able to provide a control command 331 .

제어명령(331)는 재난 임무(E) 정보에 따라 재난 임무(E)의 가상의 체적에 대한 좌표 데이터를 포함할 수 있다.The control command 331 may include coordinate data for a virtual volume of the disaster mission E according to the disaster mission E information.

계속해서 인터렉션 제어부(334)가 제어명령(331)를 로봇 구동 모듈(340)에 제공하기 위해서는 로봇(100)과 가상 훈련 이벤트(F)간에 기 설정된 임계값으로 판단하고, 로봇(100)이 접촉지점에 임박한 임계값에서 제어명령(331)를 제공하게 될 수 있다.Subsequently, in order for the interaction control unit 334 to provide the control command 331 to the robot driving module 340, it is determined as a preset threshold value between the robot 100 and the virtual training event F, and the robot 100 is contacted. The control command 331 may be provided at a threshold imminent at a point.

이 때 훈련생은 계속해서 조종명령(342)를 송신하고 있지만 로봇 구동 모듈(340)은 접촉 지점에서 제어명령(331)를 우선적으로 로봇(100)에게 제공하게 된다.At this time, the trainee continues to transmit the control command 342 , but the robot driving module 340 preferentially provides the control command 331 to the robot 100 at the contact point.

또한 인터렉션 모듈(330)은 로봇(100)이 제어명령(331)를 수신하여 로봇(100)이 가상 훈련 이벤트(F)과 접촉된 것을 훈련생이 시각적으로 확인할 수 있는 효과를 관제 모듈(350)에 제공하는 인터렉션 효과부(336)를 포함할 수 있다.In addition, the interaction module 330, the robot 100 receives the control command 331, the robot 100 is in contact with the virtual training event (F) to the control module 350 the effect that the trainee can visually confirm that It may include an interaction effect unit 336 to provide.

인터렉션 효과부(336)는 로봇(100)이 제어명령(331)를 수신한 상태에서 순차적으로 조종명령(342)를 수신하는 경우 로봇(100)이 가상 훈련 이벤트(F)과 충돌한 시각적 효과를 관제 모듈(350)에 제공하고, 이때 조종명령(342)를 분석하여 로봇(100)의 속도와 로봇(100)이 가상 훈련 이벤트(F)과 접촉 또는 충돌된 횟수에 따라 가상 훈련 이벤트(F)이 변형되도록 혼합 환경 구현 모듈(310)과 연결되어 있다.The interaction effect unit 336 is a visual effect in which the robot 100 collides with the virtual training event F when the robot 100 sequentially receives the control command 342 while receiving the control command 331 . It is provided to the control module 350, and at this time, the control command 342 is analyzed to determine the speed of the robot 100 and the number of times the robot 100 has contacted or collided with the virtual training event (F). It is connected to the mixed environment implementation module 310 so as to be transformed.

예를 들어 설명하도록 한다.Let me explain with an example.

훈련생의 조종 실수로 로봇(100)이 가상 훈련 이벤트(F)에 수회 접촉되는 상황이라고 가정해 보자.Assume that the robot 100 is in contact with the virtual training event F several times due to the trainee's manipulation mistake.

인터렉션 판단부(332)는 먼저 가상 훈련 이벤트(F)의 재난 임무(E) 정보를 생성하고, 인터렉션 제어부(334)는 로봇(100)과 재난 임무(E)에 근접하여 로봇(100)의 위치가 임계값이라고 판단되면 제어명령(331)를 로봇 구동 모듈(340)에 제공한다. 그리고 로봇 구동 모듈(340)은 조종명령(342)를 로봇(100)에 제공하여 로봇(100)이 구동되게 하다가 제어명령(331)가 수신되면, 로봇(100)이 접촉지점에 위치했을 때는 제어명령(331)를 로봇(100)에게 제공하고, 접촉지점에서 벗어나면 다시 조종명령(342)를 로봇(100)에게 제공한다.The interaction determination unit 332 first generates the disaster mission (E) information of the virtual training event (F), and the interaction control unit 334 is the robot 100 and the location of the robot 100 in proximity to the disaster mission (E). When it is determined that is a threshold value, the control command 331 is provided to the robot driving module 340 . In addition, the robot driving module 340 provides a control command 342 to the robot 100 so that the robot 100 is driven, and when the control command 331 is received, control when the robot 100 is located at the contact point. A command 331 is provided to the robot 100 , and when it deviates from the contact point, a control command 342 is provided to the robot 100 again.

제어명령(331)는 로봇(100)으로 하여금 가상 훈련 이벤트(F)을 인지하게 하는 것이다. 따라서 제어명령(331)를 수신할 때는 조종명령(342)가 수신되지 않아 로봇(100)이 벽에 부딛친거와 같이 훈련생이 체감할 수 있다.The control command 331 causes the robot 100 to recognize the virtual training event F. Therefore, when the control command 331 is received, the control command 342 is not received, so that the trainee can feel it as if the robot 100 hit a wall.

이와 함께 인터렉션 효과부(336)가 로봇(100)이 가상의 벽에 부딛힌 것을 시각적으로 구현하는 것은 인터렉션 효과부(336)가 혼합 환경 구현 모듈(310)과 연결되어 있기 때문이다.The reason why the interaction effect unit 336 visually implements that the robot 100 collides with the virtual wall is because the interaction effect unit 336 is connected to the mixed environment implementation module 310 .

인터렉션 효과부(336)는 제어명령(331)를 통해 로봇(100)이 접촉 지점에서 가상 훈련 이벤트(F)과 충돌된 것을 시각적으로 표현하도록 상기 효과 이미지는 로봇(100)의 속도 및 충돌 횟수에 따라 재난 임무(E)이 손상되는 정도가 구분되는 효과 이미지를 관제 모듈(350)에 제공할 수 있다.The interaction effect unit 336 visually expresses that the robot 100 collides with the virtual training event F at the contact point through the control command 331. The effect image is the speed and number of collisions of the robot 100. Accordingly, an effect image in which the degree of damage to the disaster mission E is distinguished may be provided to the control module 350 .

상기 충돌에 따른 소리와 진동이 발생되어 훈련생이 리얼한 환경을 자각하게 할 수 있다.The sound and vibration according to the collision may be generated so that the trainee is aware of the real environment.

뿐만 아니라, 인터렉션 효과부(336)는 로봇(100)에 장착된 각종 센서를 통해 주행 정보를 수신하고, 로봇(100)이 구동되게 하는 조종명령(342)를 판단하여 로봇(100)의 주행 상태를 시각적으로 표현할 수 있다.In addition, the interaction effect unit 336 receives driving information through various sensors mounted on the robot 100 , and determines the control command 342 for driving the robot 100 to determine the driving state of the robot 100 . can be expressed visually.

인터렉션 효과부(336)는 로봇 구동 모듈(340)을 통해 조종명령(342)를 수신하고, 로봇(100)의 센서에서 주행정보를 추출하며, 로봇의 급가속, 급회전, 접촉지점에서의 반응을 실체와 같이 표현할 수 있다.The interaction effect unit 336 receives the manipulation command 342 through the robot driving module 340, extracts driving information from the sensor of the robot 100, and reacts the robot's rapid acceleration, rapid rotation, and contact point. It can be expressed as an entity.

예를 들어, 로봇(100)이 시나리오상에 기름이 있는 위치에 있다고 하면, 로봇(100)은 앞으로 조종명령(342)를 수신하여 앞으로 진행하지만, 기름이라는 가상의 객체를 통해 로봇(100)이 바퀴의 상대회전수가 많아지도록 표현할 수 있다.For example, if the robot 100 is in a position with oil in the scenario, the robot 100 receives the forward steering command 342 and proceeds forward, but the robot 100 moves forward through a virtual object called oil. It can be expressed to increase the relative rotation speed of the wheel.

이는 인터렉션 효과부(336)이 혼합 환경 구현 모듈(310)을 통해 가상 훈련 이벤트와 로봇의 관계를 파악하고 가상 훈련 이벤트(F) 및 환경적인 재난 임무(미도시)에서 예측 가능한 로봇의 반응을 데이터를 생성하여 로봇이 해당 위치에 있는 경우, 기 저장된 혼합환경을 구현하는 방식이 될 수 있다.This means that the interaction effect unit 336 understands the relationship between the virtual training event and the robot through the mixed environment implementation module 310 and predicts the robot's response in the virtual training event (F) and the environmental disaster mission (not shown). It can be a method of realizing a pre-stored mixed environment when the robot is in the corresponding position by creating

본 실시예에서 기름을 실시예로 설명하였지만, 바람 및 바닥의 환경적인 형태를 변형한 형태일 수 있으며, 가상 훈련 이벤트에 따라 혼합 환경 구현 모듈(310)이 로봇과 가상 훈련 이벤트의 형상을 변형하여 관제 모듈(350)에 제공한다는 점에서는 다양한 실시예로 반영될 수 있다.Although oil has been described as an embodiment in this embodiment, it may be in a form in which the environmental form of wind and the floor is modified, and the mixed environment implementation module 310 transforms the shape of the robot and the virtual training event according to the virtual training event. In terms of providing it to the control module 350, it may be reflected in various embodiments.

한편 로봇(100)이 재난 임무(E)과 접촉할 때의 모습을 신호에 따른 흐름으로 도 4에 나타나 있다.Meanwhile, the state when the robot 100 comes into contact with the disaster mission E is shown in FIG. 4 as a flow according to the signal.

시작 위치(P1)에서 로봇(100)이 출발하는 상황에서 먼저 훈련생이 로봇(100)을 조종하면 로봇 구동 모듈(340)이 조종명령(342)를 로봇(100)에게 제공하고, 로봇(100)의 영상은 시스템(300)으로 전달된다.When a trainee first controls the robot 100 in a situation where the robot 100 departs from the starting position P1, the robot driving module 340 provides a control command 342 to the robot 100, and the robot 100 The image of is transmitted to the system 300 .

시스템(300)에서 혼합 환경 구현 모듈(310)은 영상에 대응되어 혼합 환경을 디스플레이에 제공하고, 훈련생은 계속해서 로봇(100)을 조종하며 목표 위치로 이동한다.In the system 300 , the mixed environment implementation module 310 corresponds to the image and provides the mixed environment to the display, and the trainee continues to control the robot 100 and moves to a target position.

로봇(100)이 이동중에 가상 훈련 이벤트(F)을 만나면 인터렉션 판단부(332)는 재난 임무(E) 정보를 생성하여 인터렉션 제어부(334)에 제공하고, 인터렉션 제어부(334)는 제어명령(331)를 생성하여 로봇 구동 모듈(340)에 제공하고 인터렉션 효과부(336)에 접촉 지점에 로봇(100)이 접촉 또는 충돌하는 것을 알려줄 수 있다. 그리고 로봇 구동 모듈(340)은 관제 모듈(350)을 통해 로봇(100)이 가상 훈련 이벤트(F)에 대응한 결과가 혼합 환경을 제공되도록 한다. 가상 훈련 이벤트(F)을 지나면 훈련생은 계속해서 로봇(100)을 조종하여 이동한다.When the robot 100 encounters a virtual training event (F) while moving, the interaction determination unit 332 generates disaster mission (E) information and provides it to the interaction control unit 334, and the interaction control unit 334 provides a control command 331 ) can be generated and provided to the robot driving module 340 and inform the interaction effect unit 336 that the robot 100 contacts or collides with the contact point. And the robot driving module 340 allows the robot 100 to provide a mixed environment with the result corresponding to the virtual training event F through the control module 350 . After the virtual training event F, the trainee continues to move by controlling the robot 100 .

로봇 구동 모듈(340)은 훈련생의 조종명령(342) 및 인터렉션 제어부(334)의 제어명령(331)를 동시에 수신하며 접촉 지점의 임계값 이상까지 로봇(100)이 위치했을 때 제어명령(331)를 로봇(100)에게 제공하여 로봇(100)이 가상 훈련 이벤트(F)을 인지하는 것을 착각하게 만든다.The robot driving module 340 simultaneously receives the trainee's control command 342 and the control command 331 of the interaction control unit 334, and when the robot 100 is positioned above the threshold of the contact point, the control command 331 to the robot 100 to make the robot 100 mistake it for recognizing the virtual training event F.

이때 제어명령(331)는 조종명령(342)보다 우선시되어 제어명령(331)는 가상 훈련 이벤트(F)의 신호 만들어 내는 것이다.At this time, the control command 331 is given priority over the manipulation command 342 , and the control command 331 is to generate a signal of the virtual training event (F).

계속해서 조종명령(342)가 발생되어 로봇(100)을 구동시키면 제어명령(331)는 가상 훈련 이벤트(F) 정보를 통해 재난 임무(E)의 크기에 대응한 위치에 로봇(100)이 움직이는 것을 제어명령(331)로 차다나여 로봇(100)을 조종하는 훈련생에게는 실제 벽에 부딪친거 같은 느낌을 가지게 한다.If the control command 342 is continuously generated to drive the robot 100, the control command 331 moves the robot 100 to a position corresponding to the size of the disaster mission E through the virtual training event F information. It is driven by the control command 331 so that trainees who control the robot 100 have a feeling as if they hit an actual wall.

그리고 인터렉션 효과부(336)는 인터렉션 제어부(334)와 연결되어 있어서 제어명령(331)가 생성되면, 로봇(100)의 속도와 충돌 횟수를 판단해 가상 훈련 이벤트(F)이 파손되는 이미지를 관제 모듈(350)에 함께 제공하여 훈련생은 시각적으로 재난 임무(E)이 충돌에 반응하여 손상되는 것을 확인할 수 있게 된다.And the interaction effect unit 336 is connected to the interaction control unit 334, when the control command 331 is generated, it determines the speed and the number of collisions of the robot 100 to control the image in which the virtual training event (F) is damaged Provided together with module 350 , the trainee can visually confirm that the disaster mission E is damaged in response to a collision.

가상 훈련 이벤트(F)과 로봇(100)이 근접한 상황에서 인터렉션 모듈(330)은 도 5와 같이 동작한다.In a situation where the virtual training event F and the robot 100 are close to each other, the interaction module 330 operates as shown in FIG. 5 .

조종명령(342)이 수신되어 조종명령(342)를 통해 로봇(100)이 구동(S01)되었다가 조종명령(342)가 인터렉션 판단부(332)가 재난 임무(E) 정보를 생성하고 조종명령(342)가 접촉 지점에 도달하는지 여부를 판단하고(S02), 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)과 접촉했는지 판단한다(S03).When the steering command 342 is received, the robot 100 is driven (S01) through the steering command 342, and the steering command 342 generates the disaster mission (E) information by the interaction determination unit 332 and controls the command. It is determined whether 342 has reached the contact point ( S02 ), and it is determined whether the robot 100 has reached the contact point and made contact with the virtual training event F ( S03 ).

그리고 로봇(100)이 접촉 지점에 도달하여 가상 훈련 이벤트(F)과 접촉하지 않았으면 로봇 구동 모듈(340)이 조종명령(342)를 로봇(100)에 제공하고, 접촉했으면 로봇 구동 모듈(340)이 제어명령(331)를 로봇(100)에게 제공(S04)하며, 로봇이 제어명령(331)을 수신한 상태에서 조종명령(342)를 계속해서 수신하여 가상 훈련 이벤트(F) 또는 가상의 벽(F)에 부딪히는 효과를 훈련생에게 제공하고(S05), 관제 모듈(350)은 디스플레이에 표시되게 한다(S06). And if the robot 100 reaches the contact point and does not come into contact with the virtual training event F, the robot driving module 340 provides a control command 342 to the robot 100, and if it has contacted, the robot driving module 340 ) provides the control command 331 to the robot 100 (S04), and the robot continues to receive the control command 342 while receiving the control command 331 to receive a virtual training event (F) or a virtual training event (F). The effect of hitting the wall F is provided to the trainee (S05), and the control module 350 is displayed on the display (S06).

제어명령(331)가 로봇(100)이 가상 훈련 이벤트(F)과 접촉될 수 있게 하는 모습은 도 6 내지 도 7에 나타내었다.A state in which the control command 331 enables the robot 100 to come into contact with the virtual training event F is shown in FIGS. 6 to 7 .

훈련 공간(A)에는 가상 훈련 이벤트(F)이 없기 때문에 사용자가 조종 실수로 가상 훈련 이벤트(F)을 통과할 수도 있다.Since there is no virtual training event F in the training space A, the user may pass through the virtual training event F due to a steering mistake.

하지만 제어명령(331)는 가상 훈련 이벤트(F)과 로봇(100)이 접촉이 가능하도록 로봇(100)의 구동력을 통제하여 가상 훈련 이벤트(F)을 통과하지 못하게 한다.However, the control command 331 controls the driving force of the robot 100 so that the virtual training event F and the robot 100 can come into contact with each other to prevent the virtual training event F from passing.

인터렉션 판단부(332)에서 재난 임무(E) 정보를 좌표 데이터로 생성하기 때문에 가상 훈련 이벤트(F)의 크기와 형상에 대응하여 제어명령(331)가 로봇(100)의 구동을 통제하게 된다.Since the interaction determination unit 332 generates the disaster mission (E) information as coordinate data, the control command 331 controls the operation of the robot 100 in response to the size and shape of the virtual training event F.

본 발명의 목적은 가상 훈련 이벤트(F)도 로봇(100)이 인지함으로 훈련생의 훈련의 요소가 증가되게 하는 것이다.It is an object of the present invention to increase the training element of the trainee by recognizing the virtual training event F by the robot 100 as well.

훈련생이 시나리오상에서 재난 임무(E)을 피해 시나리오 임무를 수행했는지 평가는 훈련 평가 모듈(360)에서 수행하게 된다.Evaluating whether the trainee has performed the scenario mission to avoid the disaster mission (E) in the scenario is performed in the training evaluation module 360 .

먼저 시나리오상에서 훈련의 요소는 재난 임무(E)과 시나리오 임무가 될 수 있다.First, the elements of training in a scenario can be a disaster mission (E) and a scenario mission.

따라서 훈련생은 재난 임무(E)을 극복하고 시나리오 임무를 완수하는 일련의 과정에서 훈련 평가 모듈(360)의 평가를 받게 된다.Accordingly, the trainee is evaluated by the training evaluation module 360 in a series of processes of overcoming the disaster mission E and completing the scenario mission.

평가는 1점에서 10점까지 1점 단위의 점수 평가, 또는 성공 또는 실패가 될 수 있다.The evaluation may be a score evaluation in units of 1 point on a scale of 1 to 10, or success or failure.

예를 들어, 로봇(100)이 조종명령(342)로 구동되었다가 제어명령(331)가 발생하게 되면 실점이 될 수 있다.For example, if the robot 100 is driven by the control command 342 and then the control command 331 is generated, a loss may occur.

그리고 재난 임무(E) 및 이벤트를 상황에서 벗어난 시간으로 타 훈련생과의 상대평가를 할 수도 있다.In addition, disaster missions (E) and events can be evaluated relative to other trainees as time out of the situation.

이를 위해 훈련 평가 모듈(360)은 평가자가 훈련생의 로봇(100)을 구동하는 화면을 함께 확인할 수 있는 별도의 디스플레이를 포함할 수 있다. To this end, the training evaluation module 360 may include a separate display through which the evaluator can check the screen for driving the trainee's robot 100 together.

도 8에 도시된 바와 같이, 훈련 평가 모듈(360)에서 훈련 공간(A)에 실체 재난 임무(R)이 배치되어 있으면 조종명령(342)에 따라 로봇(100)이 실체 재난 임무(R)에 접촉이 가능하여 훈련의 항목이 될 수 있으나 재난 임무(E)을 실제 상황과 유사하게 구현하는 것은 비용이 많이 발생하기 때문에 구현하기 어렵고 개수가 제한되기 때문에 훈련의 항목이 감소 될수 밖에 없다.As shown in FIG. 8 , if an actual disaster mission R is placed in the training space A in the training evaluation module 360 , the robot 100 is placed on the actual disaster mission R according to the steering command 342 . Although contact is possible, it can be an item of training, but implementing the disaster mission (E) similar to the actual situation is difficult to implement because it incurs a lot of cost and the number of training items is inevitably reduced because the number is limited.

하지만 시스템(300)의 개입으로 훈련생은 로봇(100)이 가상 훈련 이벤트(F)을 인식하게 되면 가상 훈련 이벤트(F)을 다양하게 구현이 가능하고 시나리오 상에 훈련의 항목도 다양하게 배치가 가능하다. 따라서 훈련항목이 많아지고 평가항목도 훈련항목에 맞게 평가할 수 있게 된다.However, with the intervention of the system 300, when the robot 100 recognizes the virtual training event (F), the trainee can implement the virtual training event (F) in various ways, and various training items can be arranged on the scenario Do. Therefore, the number of training items increases, and the evaluation items can be evaluated according to the training items.

훈련생의 훈련은 시나리오상에서 이루어지며, 시나리오 임무의 달성여부와, 재난 임무에 대처하는 능력을 평가할 수 있다.Training of trainees is carried out in a scenario, and it is possible to evaluate the achievement of the scenario mission and the ability to cope with the disaster mission.

구체적으로 시나리오상에서 훈련생은 실체 훈련 이벤트(R) 또는 가상 훈련 이벤트(F)를 구분하지 못하고 둘 다 재난 임무(E)로 인지하게 된다.Specifically, in the scenario, trainees cannot distinguish between an actual training event (R) or a virtual training event (F), and both are perceived as a disaster mission (E).

따라서 재난 임무(E)이 등장하게 되면 조종명령(342)로 로봇(100)을 구동하여 재난 임무(E)을 회피하는 할 수 있으며, 재난 임무(E)을 회피하지 못하여 재난 임무(E)과 접촉된다면 감점의 요소가 될 수 있다.Therefore, when the disaster mission (E) appears, the robot 100 can be driven with the control command 342 to avoid the disaster mission (E), and the disaster mission (E) and the disaster mission (E) cannot be avoided. If it is touched, it may be a factor of deduction of points.

또한 시나리오 임무가 화재인 경우, 통신암(140)을 작동하여 가상의 화재와 통신함으로 화재를 진압할 수 있다.Also, when the scenario task is a fire, the fire can be extinguished by operating the communication arm 140 and communicating with the virtual fire.

이 때는 로봇(100)이 화재와의 거리, 통신암(140)이 동작될 때 작동시키는 시간 등이 훈련의 요소이며, 훈련 평가 모듈(360)에서 이러한 훈련생의 조종명령(342)를 통해 훈련생을 평가할 수 있다.At this time, the distance between the robot 100 and the fire, the time to operate the communication arm 140 when operating, etc. are elements of training, and the trainee is trained through the trainee's control command 342 in the training evaluation module 360. can be evaluated

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.As described above, preferred embodiments according to the present invention have been reviewed, and the fact that the present invention can be embodied in other specific forms without departing from the spirit or scope of the present invention in addition to the above-described embodiments is one of ordinary skill in the art. It is obvious to them. Therefore, the above-described embodiments are to be regarded as illustrative rather than restrictive, and accordingly, the present invention is not limited to the above description, but may be modified within the scope of the appended claims and their equivalents.

100: 로봇
200: 컨트롤러
300: 시스템
310: 혼합 환경 구현 모듈
320: 시나리오 모듈
330: 인터렉션 모듈
332: 인터렉션 판단부
334: 인터렉션 제어부
336: 인터렉션 효과부
340: 로봇 구동 모듈
350: 관제 모듈
100: robot
200: controller
300: system
310: Mixed Environment Implementation Module
320: scenario module
330: interaction module
332: interaction judgment unit
334: interaction control
336: interaction effect unit
340: robot driving module
350: control module

Claims (9)

재난이 발생된 상황에서 훈련생이 로봇을 조종하여 재난 임무에 대응할 수 있는 훈련을 하기 위한 훈련 시스템으로서,
상기 훈련생이 상기 로봇을 조종하여 상기 재난 임무 수행 중 발생될 수 있는 환경적인 요소를 훈련 이벤트로 설정하고, 상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무를 수행하고 상기 훈련 이벤트에 대응하는 훈련을 할 수 있도록 시나리오를 구축하는 시나리오 모듈;
상기 시나리오상에서 상기 재난 임무를 가상 또는 실체로 구현하는 혼합 환경 구현 모듈;
상기 시나리오상 상기 훈련 이벤트가 실체인지 가상인지 판단하고, 상기 훈련생이 상기 재난 임무를 수행하기 위해 상기 로봇을 조종하는 중 상기 가상 훈련 이벤트가 발생한 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 먼저 상기 로봇이 상기 가상 훈련 이벤트로 인해 상기 로봇의 구동이 제한되게 하여 상기 훈련생이 상기 가상 훈련 이벤트를 인지하게 하는 인터렉션 모듈;
상기 인터렉션 모듈에서 상기 로봇의 구동이 제한되는 경우, 상기 훈련생이 상기 로봇을 조종하는 명령보다 상기 로봇의 구동을 제한하는 명령을 우선시하여 상기 로봇에게 보내는 로봇 구동 모듈; 및
상기 로봇이 상기 재난 임무를 수행하면서 상기 훈련생의 명령으로 구동된 결과와 상기 인터렉션 모듈에서 상기 로봇의 구동을 제한한 결과를 상기 훈련생에게 제공하는 관제 모듈을 포함하고,
상기 인터렉션 모듈은 상기 가상 훈련 이벤트에서 상기 로봇의 구동을 제한한 결과에 대한 상기 로봇의 변화 및 상기 가상 훈련 이벤트의 변화를 상기 관제모듈에 제공하며,
상기 인터렉션 모듈은,
상기 시나리오상 상기 훈련 이벤트가 실체 훈련 이벤트인지 가상 훈련 이벤트인지 판단하여 상기 가상 훈련 이벤트일 경우, 상기 훈련생이 상기 로봇을 명령하여 구동한 결과가 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 명령한 결과와 일치하는지 판단하는 인터렉션 판단부;
상기 인터렉션 판단부에서 판단 결과를 제공 받아 상기 훈련생이 상기 로봇이 상기 가상 훈련 이벤트에 대응하도록 조종하지 못한 경우, 상기 로봇의 구동을 제한하는 명령을 상기 로봇 구동 모듈에 제공하는 인터렉션 제어부; 및
상기 인터렉션 제어부를 통해 상기 가상 훈련 이벤트에 의해 구동이 제한된 상기 로봇의 상태를 상기 훈련생의 감각을 자극하는 신호를 상기 관제모듈에 제공하여 상기 훈련생이 상기 로봇의 구동을 제한한 결과에 대한 상기 로봇의 변화 및 상기 가상 훈련 이벤트의 변화를 인지하게 하는 인터렉션 효과부를 포함하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
As a training system for training that trainees can respond to disaster missions by controlling robots in a disaster situation,
The trainee controls the robot to set an environmental factor that may occur during the disaster mission performance as a training event, and the trainee drives the robot to perform the disaster mission and to train in response to the training event Scenario module to build a scenario so that;
a mixed environment realization module for realizing the disaster mission in a virtual or real form in the scenario;
In the scenario, it is determined whether the training event is real or virtual, and when the virtual training event occurs while the trainee is manipulating the robot to perform the disaster mission, the trainee precedes the command to control the robot. an interaction module for causing the robot to restrict the operation of the robot due to the virtual training event so that the trainee recognizes the virtual training event;
a robot driving module that, when the operation of the robot is restricted in the interaction module, prioritizes a command for restricting driving of the robot over a command for the trainee to control the robot and sends the command to the robot; and
And a control module that provides the trainee with a result of driving the robot by a command of the trainee while performing the disaster mission and a result of limiting the operation of the robot in the interaction module,
The interaction module provides, to the control module, a change in the robot and a change in the virtual training event in response to a result of limiting the driving of the robot in the virtual training event,
The interaction module,
In the scenario, it is determined whether the training event is an actual training event or a virtual training event. an interaction determination unit that determines whether they match;
an interaction control unit receiving the determination result from the interaction determination unit and providing a command to limit the operation of the robot to the robot driving module when the trainee fails to control the robot to respond to the virtual training event; and
A signal stimulating the senses of the trainee is provided to the control module of the state of the robot whose operation is restricted by the virtual training event through the interaction control unit to respond to the result of the trainee limiting the operation of the robot. Characterized in that it comprises an interaction effect unit for recognizing a change and a change of the virtual training event,
MR environment and robot interaction training system.
삭제delete 제1항에 있어서,
상기 인터렉션 모듈은,
상기 인터렉션 판단부가 상기 훈련 이벤트를 상기 실체 훈련 이벤트로 판단한 경우, 상기 인터렉션 제어부가 상기 로봇의 구동에 관여하지 않는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
According to claim 1,
The interaction module,
When the interaction determining unit determines that the training event is the actual training event, the interaction control unit is not involved in driving the robot,
MR environment and robot interaction training system.
제1항에 있어서,
상기 인터렉션 제어부는,
시나리오 모듈로부터 상기 훈련 이벤트 정보를 추출하여 상기 가상 훈련 이벤트의 크기와 위치에 대응하여 상기 로봇의 구동을 제한하는 명령인 제어명령을 생성하는 것을 특징으로 하는
MR 환경과 로봇의 인터렉션 훈련 시스템.
According to claim 1,
The interaction control unit,
Extracting the training event information from the scenario module to generate a control command that is a command for limiting the operation of the robot in response to the size and location of the virtual training event
MR environment and robot interaction training system.
제1항에 있어서,
상기 인터렉션 효과부는,
상기 훈련생이 상기 로봇을 조종한 명령을 분석하여 상기 로봇의 속도와 상기 로봇이 상기 가상 훈련 이벤트와 접촉 및 충돌된 횟수에 따라 상기 로봇이 변형된 상태 및 상기 가상 훈련 이벤트가 변형된 상태를 상기 혼합 환경으로 표현되도록 하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
According to claim 1,
The interaction effect unit,
The trainee analyzes the command to control the robot, and mixes the deformed state of the robot and the deformed state of the virtual training event according to the speed of the robot and the number of times the robot has contacted and collided with the virtual training event characterized in that it is expressed in the environment,
MR environment and robot interaction training system.
제4항에 있어서,
상기 로봇은,
상기 가상 훈련 이벤트에 대응한 결과를 상기 훈련생이 인지할 수 있도록 상기 로봇의 물리적으로 상기 로봇 상태를 변경하는 로봇 행동부를 포함하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
5. The method of claim 4,
The robot is
Characterized in that it comprises a robot action unit that physically changes the robot state of the robot so that the trainee can recognize a result corresponding to the virtual training event,
MR environment and robot interaction training system.
제6항에 있어서,
상기 로봇은 바퀴가 결합되어 이동 가능하게 구비되고,
상기 로봇 행동부는,
상기 로봇의 바퀴에 장착되어 상기 제어명령에 의해 상기 바퀴가 회전되는 구동력을 차단하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
7. The method of claim 6,
The robot is provided with wheels to be movable,
The robot action unit,
It is mounted on the wheel of the robot, characterized in that it blocks the driving force to rotate the wheel by the control command,
MR environment and robot interaction training system.
제1항에 있어서,
상기 훈련생이 상기 로봇을 구동하여 상기 재난 임무 및 상기 훈련 이벤트를 대처하면서 상기 로봇을 조종한 결과를 평가하는 훈련 평가 모듈을 더 포함하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
According to claim 1,
The trainee further comprises a training evaluation module for evaluating the result of manipulating the robot while coping with the disaster mission and the training event by driving the robot,
MR environment and robot interaction training system.
제8항에 있어서,
상기 훈련 평가 모듈은,
상기 시나리상에서 상기 로봇의 주행 정보, 상기 로봇의 위치 정보, 상기 로봇이 상기 시나리오를 통과한 시간 정보를 이용하여 기 저장된 시나리오 성공 데이터와 비교하여 결과를 도출하는 것을 특징으로 하는,
MR 환경과 로봇의 인터렉션 훈련 시스템.
9. The method of claim 8,
The training evaluation module,
In the scenario, the robot's driving information, the robot's position information, and the time information when the robot passed the scenario are compared with pre-stored scenario success data to derive a result,
MR environment and robot interaction training system.
KR1020200109134A 2020-08-28 2020-08-28 Mr environment and robot interaction training system KR102393627B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200109134A KR102393627B1 (en) 2020-08-28 2020-08-28 Mr environment and robot interaction training system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200109134A KR102393627B1 (en) 2020-08-28 2020-08-28 Mr environment and robot interaction training system

Publications (2)

Publication Number Publication Date
KR20220028312A KR20220028312A (en) 2022-03-08
KR102393627B1 true KR102393627B1 (en) 2022-05-02

Family

ID=80812685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200109134A KR102393627B1 (en) 2020-08-28 2020-08-28 Mr environment and robot interaction training system

Country Status (1)

Country Link
KR (1) KR102393627B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101797208B1 (en) 2015-09-07 2017-11-13 한국항공대학교산학협력단 Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809479B1 (en) * 2006-07-27 2008-03-03 한국전자통신연구원 Face mounted display apparatus and method for mixed reality environment
KR101810937B1 (en) * 2016-04-14 2017-12-20 주식회사 세가온 System and method for respose training on virtual disaster based on scenario
KR102190743B1 (en) * 2018-08-17 2020-12-15 주식회사 트레셋 AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
KR20200069465A (en) * 2018-12-07 2020-06-17 한국로봇융합연구원 Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101797208B1 (en) 2015-09-07 2017-11-13 한국항공대학교산학협력단 Live, virtual and constructive operation system and method for experimentation and training of unmanned aircraft vehicle

Also Published As

Publication number Publication date
KR20220028312A (en) 2022-03-08

Similar Documents

Publication Publication Date Title
EP3577530B1 (en) Systems and methods for assisting a robotic apparatus
Winfield et al. Towards an ethical robot: internal models, consequences and ethical action selection
Kohlbrecher et al. Hector open source modules for autonomous mapping and navigation with rescue robots
JP6154057B2 (en) Integration of robotic systems with one or more mobile computing devices
KR102185016B1 (en) Virtual Reality Control System for chemical accident response training
US8190295B1 (en) Apparatus and method for modifying the operation of a robotic vehicle in a real environment, to emulate the operation of the robotic vehicle operating in a mixed reality environment
US9443436B2 (en) System for testing of autonomy in complex environments
US10817134B2 (en) Systems and methods for training robots using augmented reality and machine learning
KR20170090276A (en) Virtual Reality System for Fire Safety
CN114728413A (en) Method and system for controlling graphical user interface of remote robot
KR101615687B1 (en) Collision detection robot remote control system and method thereof
KR102244988B1 (en) Swarm flight controlling system and method for a plurality of unmanned aerial vehicles for swarm flight
JP6730363B2 (en) Operation training system
KR102393627B1 (en) Mr environment and robot interaction training system
US10751605B2 (en) Toys that respond to projections
KR102370575B1 (en) Disaster robot training system in mr environment
Larochelle et al. Multi-view operator control unit to improve situation awareness in usar missions
KR102185618B1 (en) Application system for teenager programming education using drones
US11548155B2 (en) Interaction training system of robot with MR environment
CN108268050A (en) Motion control device wears display equipment, unmanned plane and flight system
JP2001100628A (en) Flight training device
KR102441285B1 (en) Trainee training and evaluating system for disaster response rovot in live-virtual-constructive environment
KR20200069465A (en) Trainee control device for trainee test for disaster response rovot in live-virtual-constructive environment and test methods thereof
JP7000397B2 (en) Virtual reality control system
KR101418483B1 (en) Flight Simulator Device for Special Mission Training and Controlling Method for the Same

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant