KR102046351B1 - Wearable robot control system using augmented reality and method for controlling wearable robot using the same - Google Patents

Wearable robot control system using augmented reality and method for controlling wearable robot using the same Download PDF

Info

Publication number
KR102046351B1
KR102046351B1 KR1020180028537A KR20180028537A KR102046351B1 KR 102046351 B1 KR102046351 B1 KR 102046351B1 KR 1020180028537 A KR1020180028537 A KR 1020180028537A KR 20180028537 A KR20180028537 A KR 20180028537A KR 102046351 B1 KR102046351 B1 KR 102046351B1
Authority
KR
South Korea
Prior art keywords
user
information
wearable robot
intention
robot
Prior art date
Application number
KR1020180028537A
Other languages
Korean (ko)
Other versions
KR20190115483A (en
Inventor
서준호
김성민
Original Assignee
한국기계연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기계연구원 filed Critical 한국기계연구원
Priority to KR1020180028537A priority Critical patent/KR102046351B1/en
Publication of KR20190115483A publication Critical patent/KR20190115483A/en
Application granted granted Critical
Publication of KR102046351B1 publication Critical patent/KR102046351B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에서, 상기 착용형 로봇 제어시스템은 착용형 로봇 및 증강현실장치를 포함한다. 상기 착용형 로봇은 사용자에 직접 장착되어 동작을 수행한다. 상기 증강현실장치는 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여 사용자에게 알려주고, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 직접 제어한다. 상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득한다. In the wearable robot control system using augmented reality and the wearable robot control method using the same, the wearable robot control system includes a wearable robot and an augmented reality device. The wearable robot is mounted directly on a user to perform an operation. The augmented reality device obtains environmental information or object information of a specific environment, recognizes a specific environment from the obtained information, grasps the intention of the user and informs the user, and the wearable robot to match the user's intention in a specific environment Direct control. The augmented reality device is fixed to the user, and obtains the same information as the information of the specific environment obtained from the user's point of view.

Description

증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법{WEARABLE ROBOT CONTROL SYSTEM USING AUGMENTED REALITY AND METHOD FOR CONTROLLING WEARABLE ROBOT USING THE SAME}Wearable Robot Control System Using Augmented Reality and Wearable Robot Control Method {WEARABLE ROBOT CONTROL SYSTEM USING AUGMENTED REALITY AND METHOD FOR CONTROLLING WEARABLE ROBOT USING THE SAME}

본 발명은 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에 관한 것으로, 더욱 상세하게는 사용자에 직접 착용되는 착용형 로봇에 적용되어, 주변 환경 정보를 바탕으로 착용자의 동작의 의도를 파악하여 사용자에게 알려주고 착용형 로봇을 제어할 수 있는 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에 관한 것이다.The present invention relates to a wearable robot control system and a wearable robot control method using the same. More particularly, the present invention is applied to a wearable robot directly worn by a user, to grasp the intention of the wearer's operation based on the surrounding environment information. The present invention relates to a wearable robot control system using augmented reality that can notify a user and control a wearable robot, and a wearable robot control method using the same.

최근 증강현실을 이용한 기술들이 다양한 기술분야에 적용되고 있으며, 로봇의 제어 기술에도 적용되고 있다. 도 1은 종래기술에서의 증강현실을 이용한 로봇 제어기술을 개략적으로 나타낸 블록도이며, 대한민국 등록특허 제10-1108927호, 대한민국 공개특허 제10-2001-0076786호 등의 기술들의 핵심 구성을 나타낸 도면이라 할 수 있다. Recently, technologies using augmented reality have been applied to various technical fields, and are also applied to the control technology of robots. 1 is a block diagram schematically showing a robot control technology using augmented reality in the prior art, and shows the core configuration of technologies such as Republic of Korea Patent No. 10-1108927, Republic of Korea Patent Publication No. 10-2001-0076786 This can be called.

즉, 도 1에 도시된 바와 같이, 종래의 증강현실을 이용한 로봇 제어기술에서는, 로봇의 동작이 필요한 환경(20), 예를 들어 수술로봇이라면 환자의 수술 부위, 청소로봇이라면 청소 구역 등으로부터 환경 정보(10)를 획득하고, 이러한 환경정보를 바탕으로 증강현실(11) 기술을 적용하여, 사용자(12)에게 환경 정보에 결합된 증강현실 또는 가상현실을 제공하게 된다. That is, as shown in Figure 1, in the conventional robot control technology using augmented reality, the environment that requires the operation of the robot, for example, the surgical robot, the surgical site of the patient, if the cleaning robot environment from the cleaning area, etc. By acquiring the information 10 and applying the augmented reality 11 technology based on the environment information, the augmented reality or virtual reality coupled to the environment information is provided to the user 12.

그러면, 사용자(12)는 상기 증강현실을 바탕으로, 특정 환경(20)에 위치한 로봇(13)에게 필요한 동작의 수행을 위한 제어 신호를 제공하며, 이러한 제어 신호를 바탕으로 로봇(13)은 일련의 동작, 예를 들어, 수술 동작 또는 청소 동작 등의 동작을 수행하게 된다. Then, the user 12 provides a control signal for performing a necessary operation to the robot 13 located in a specific environment 20 based on the augmented reality, and based on this control signal, the robot 13 is a series of An operation, for example, to perform an operation such as a surgical operation or a cleaning operation.

즉, 종래의 증강현실 기술은 단순히 특정 환경(20)에 대한 정보를 제공하는 것에 불과하며, 사용자는 이렇게 제공되는 정보를 바탕으로 로봇의 동작을 위한 제어 신호를 별도로 생성하여 특정 환경에서 필요한 동작을 수행하는 것에 불과하였다. 이 경우, 상기 로봇은 환경 정보를 제공하는 특정 환경(20)에 위치하는 것으로 제한되는 한계가 있었다. That is, the conventional augmented reality technology is merely to provide information about a specific environment 20, the user generates a control signal for the operation of the robot separately based on the information provided to perform the operation required in a specific environment It was only to carry out. In this case, the robot is limited to being located in a specific environment 20 for providing environmental information.

나아가, 최근에는 착용형 로봇에 대한 기술이 발달하면서, 착용형 로봇이 사용자의 의도를 스스로 파악하여 필요한 구동을 수행하는 기술도 개발되고 있다. Furthermore, in recent years, as the technology for the wearable robot is developed, a technology for the wearable robot to grasp the intention of the user and perform the necessary driving is also developed.

한편, 상기 착용형 로봇에서, 사용자의 의도를 파악하는 기술로는, 로봇에 직접 의사를 전달하는 방법, EMG(electromyography) 센서를 이용하는 방법, 뇌파를 이용하는 방법 등이 적용되고 있는데, 로봇에 직접 의사를 전달하는 방법의 경우 사용자의 의도를 전달하기 위한 적절한 외력 등을 인가하는 것이 어려운 문제가 있고, EMG 센서를 이용하는 방법의 경우 근전도 신호에 포함되는 노이즈나 별도의 신호 처리가 필요한 문제가 있으며, 뇌파를 이용하는 방법의 경우 뇌파를 통한 세부 동작의 의도 파악이 불가능하며 사용자가 뇌파를 일정하게 유도하는 것이 용이하지 않은 문제가 있다. On the other hand, in the wearable robot, as a technique for determining the intention of the user, a method of directly informing a doctor, a method of using an electromyography (EMG) sensor, a method of using an brain wave, and the like are applied. In the case of transmitting a method, it is difficult to apply an appropriate external force for transmitting a user's intention, and in the case of using the EMG sensor, there is a problem in which noise included in an EMG signal or a separate signal processing is required. In the case of using the method, it is impossible to grasp the intention of the detailed operation through the EEG, and there is a problem that the user cannot easily induce EEG.

이에 따라, 착용형 로봇에서 사용자의 의도를 파악하는 새로운 방법에 대한 필요성이 요구되고 있는 상황이다. Accordingly, there is a need for a new method of detecting a user's intention in a wearable robot.

대한민국 등록특허 제10-1108927호Republic of Korea Patent No. 10-1108927 대한민국 공개특허 제10-2001-0076786호Republic of Korea Patent Publication No. 10-2001-0076786

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 환경 정보가 직접 사용자에게 착용된 착용형 로봇에 제공됨에 따라, 환경 정보를 바탕으로 사용자의 동작 의도를 보다 용이하게 파악하여 이를 사용자에게 피드백하고, 필요한 동작을 보다 즉각적이고 정확하게 구현할 수 있는 증강현실을 이용한 착용형 로봇 제어시스템에 관한 것이다. Accordingly, the technical problem of the present invention has been conceived in this respect, and the object of the present invention is to provide a wearable robot worn by the user directly with environmental information, so that the user can easily grasp the operation intention of the user based on the environmental information. The present invention relates to a wearable robot control system using augmented reality that can feed back to a user and implement a necessary motion more immediately and accurately.

또한, 본 발명의 다른 목적은 상기 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법에 관한 것이다. In addition, another object of the present invention relates to a wearable robot control method using the wearable robot control system.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 착용형 로봇 제어시스템은 착용형 로봇 및 증강현실장치를 포함한다. 상기 착용형 로봇은 사용자에 직접 장착되어 동작을 수행한다. 상기 증강현실장치는 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 직접 제어한다. 상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득한다. Wearable robot control system according to an embodiment for realizing the object of the present invention includes a wearable robot and augmented reality device. The wearable robot is mounted directly on a user to perform an operation. The augmented reality device obtains environmental information or object information of a specific environment, recognizes a specific environment from the obtained information, grasps the user's intention, and directly controls the wearable robot to meet the user's intention in a specific environment. . The augmented reality device is fixed to the user, and obtains the same information as the information of the specific environment obtained from the user's point of view.

일 실시예에서, 상기 증강현실장치는, 사용자의 안면에 착용되어, 사용자가 획득하는 시각 정보와 동일한 영상 정보를 획득할 수 있다. In an embodiment, the augmented reality device may be worn on a user's face to obtain image information identical to visual information acquired by the user.

일 실시예에서, 상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 물체 또는 장애물의 종류, 위치 또는 형상일 수 있다. In an embodiment, the object information obtained by the augmented reality device may be a type, a location, or a shape of an object or an obstacle located in a specific environment.

일 실시예에서, 상기 착용형 로봇은, 사용자의 손이나 팔에 착용되는 상지 착용형 로봇일 수 있다. In one embodiment, the wearable robot may be an upper limb worn robot worn on a user's hand or arm.

일 실시예에서, 상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 상기 착용형 로봇의 정보를 더 포함할 수 있다. In one embodiment, the object information obtained by the augmented reality device may further include information of the wearable robot located in a specific environment.

일 실시예에서, 상기 증강현실장치는, 상기 착용형 로봇이 사용자의 의도에 따라 상기 물체를 잡도록 제어할 수 있다. In one embodiment, the augmented reality device, the wearable robot may control to hold the object according to the user's intention.

일 실시예에서, 상기 착용형 로봇은, 사용자의 발이나 하체에 착용되는 하지 착용형 로봇일 수 있다. In one embodiment, the wearable robot may be a leg wearable robot worn on the user's foot or lower body.

일 실시예에서, 상기 증강현실장치는, 상기 착용형 로봇이 사용자의 의도에 따라 상기 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어할 수 있다. In one embodiment, the augmented reality device, the wearable robot may control to avoid the obstacle or walk in a walking mode suitable for a specific environment according to the user's intention.

일 실시예에서, 상기 증강현실장치는, 특정 환경의 환경 정보 또는 물체 정보를 획득하는 영상 획득부, 상기 획득된 정보로부터 환경 또는 물체를 인식하는 영상 인식부, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 의도 파악부, 상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 영상 표시부, 및 상기 사용자의 의도대로 상기 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 제어신호 생성부를 포함할 수 있다. In one embodiment, the augmented reality device, an image acquisition unit for obtaining environmental information or object information of a specific environment, an image recognition unit for recognizing an environment or an object from the obtained information, based on the recognized environment or object An intention grasping unit for grasping a user's intention, an image display unit for displaying the recognized environment or object, and an intention of the user to the outside, and a control for generating a control signal for operating the wearable robot according to the user's intention It may include a signal generator.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 착용형 로봇 제어방법은 사용자에 직접 장착되어 동작을 수행하는 착용형 로봇을 제어하는 것으로, 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 제어하기 위한 제어 신호를 생성하는 단계, 및 상기 생성된 제어 신호에 의해 상기 착용형 로봇이 구동되는 단계를 포함한다. Wearable robot control method according to an embodiment for realizing another object of the present invention to control a wearable robot that is mounted directly to the user to perform an operation, by obtaining the environmental information or object information of a specific environment Recognizing a specific environment from the obtained information and grasping the user's intention, generating a control signal for controlling the wearable robot to meet the user's intention in a specific environment, and by the generated control signal The wearable robot is driven.

일 실시예에서, 상기 획득되는 환경 정보 또는 물체 정보는, 사용자기 획득하는 시각 정보와 동일한 영상 정보일 수 있다. In an embodiment, the obtained environmental information or object information may be image information identical to visual information acquired by a user.

일 실시예에서, 상기 착용형 로봇이 상지 착용형 로봇인 경우, 상기 획득되는 물체 정보는, 특정 환경 내에 위치하는 상기 착용형 로봇의 정보를 포함할 수 있다. In one embodiment, when the wearable robot is an upper limb worn robot, the obtained object information may include information of the wearable robot located in a specific environment.

일 실시예에서, 상기 특정 환경의 정보로부터 제어 신호를 생성하는 단계는, 상기 특정 환경의 환경 정보 또는 물체 정보를 획득하는 단계, 상기 획득된 정보로부터 환경 또는 물체를 인식하는 단계, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 단계, 상기 인식된 환경 또는 물체, 및 사용자의 의도를 외부로 표시하는 단계, 및 상기 사용자의 의도대로 상기 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 단계를 포함할 수 있다. In an embodiment, the generating of the control signal from the information of the specific environment may include obtaining environment information or object information of the specific environment, recognizing an environment or an object from the obtained information, and the recognized environment. Or determining the intention of the user based on an object, displaying the recognized environment or object, and the intention of the user to the outside, and generating a control signal for operating the wearable robot according to the user's intention. It may include a step.

본 발명의 실시예들에 의하면, 종래의 사용자의 의도를 파악하는 착용형 로봇을 구동하는 방법에서의 오류나 문제를 해결하여, 증강현실장치에서 인식되는 정보를 바탕으로 사용자의 의도가 직접 파악되면 해당 의도에 부합하도록 착용형 로봇이 직접 제어됨에 따라, 영상 정보 등과 같은 보다 객관적인 자료를 바탕으로 사용자의 의도 파악이 가능하므로, 착용형 로봇의 구동의 정확성을 향상시키는 것은 물론 보다 즉각적인 동작의 구현이 가능하게 된다. According to embodiments of the present invention, by solving an error or a problem in a method of driving a wearable robot that detects the intention of the conventional user, if the intention of the user is directly detected based on the information recognized by the augmented reality device As the wearable robot is directly controlled to meet the intention, it is possible to grasp the user's intention based on more objective data such as image information, thereby improving the accuracy of driving the wearable robot and enabling more immediate operation. Done.

특히, 증강현실장치의 영상 획득부는 특정 환경의 환경 정보를 영상을 통해 획득하되, 착용형 로봇이 장착된 사용자와 동일한 시각에서 관측되는 정보와 동일한 정보를 획득하므로, 착용형 로봇에 대한 직접적인 제어를 수행함에 있어, 사용자의 물리적인 위치를 고려한 최적의 동작 제어를 수행할 수 있게 된다. In particular, the image acquisition unit of the augmented reality device obtains the environmental information of a specific environment through the image, but obtains the same information as the information observed at the same time as the user equipped with the wearable robot, direct control of the wearable robot In performing, it is possible to perform the optimal motion control considering the physical location of the user.

이 경우, 획득되는 정보는 환경 정보 또는 물체 정보로서, 해당 환경의 특성을 파악하여 착용형 로봇의 동작을 보다 정확하게 수행할 수 있는 정보를 포함한다. In this case, the obtained information is environmental information or object information, and includes information for more accurately performing the operation of the wearable robot by grasping the characteristics of the environment.

또한, 상기 환경 정보 또는 물체 정보로부터 파악되는 사용자의 의도를 외부로 표시하여 사용자가 피드백 받아 이를 인지함에 따라 사용자의 의도가 정확하게 반영되고 있는지를 확인할 수 있어, 착용형 로봇을 통해 구현하려는 동작을 보다 정확하게 구현할 수 있다. In addition, by displaying the user's intention grasped from the environment information or object information to the outside, the user can check whether the user's intention is accurately reflected as the user receives the feedback, and thus the operation to be implemented through the wearable robot It can be implemented correctly.

특히 착용형 로봇이 상지 착용형 로봇인 경우라면 대개의 경우 물체를 이동시키거나 잡는 동작을 수행하는 경우가 많으므로 이를 고려하여 해당 환경에 대한 정보를 획득함에 있어 착용형 로봇에 대한 정보를 동시에 획득하여, 획득된 정보 내에서 물체에 대한 이동이나 잡는 동작의 수행을 위해 수행하여야 하는 동작을 보다 정확하고 직관적으로 제어할 수 있다. In particular, when the wearable robot is an upper limb wearable robot, in most cases, the object is moved or grabbed. Therefore, the information about the wearable robot is simultaneously acquired in acquiring information on the environment in consideration of this. In this way, it is possible to more precisely and intuitively control the operation to be performed for the movement or grabbing of the object within the obtained information.

이와 달리, 착용형 로봇이 하지 착용형 로봇인 경우라면 지면 상태나 장애물을 고려하여 보행을 하는 경우가 많으므로, 증강현실장치에서 인식되는 정보로서 장애물 또는 지면 상태에 대한 정보를 중심으로 데이터를 획득하며 이를 바탕으로 적합한 보행 모드를 선택하거나 보행 방향을 선택하는 등의 제어를 직접 수행함에 따라, 필요한 착용형 로봇의 동작을 보다 정확하게 제어할 수 있다. On the other hand, if the wearable robot is a wearable robot for the lower limb, it is often walking in consideration of ground conditions or obstacles, and thus obtains data based on information on obstacles or ground conditions as information recognized by the AR device. Based on this, a control such as selecting an appropriate walking mode or selecting a walking direction can be directly performed to more precisely control the operation of the wearable robot.

이상과 같이, 착용형 로봇의 종류에 따라, 증강현실장치로부터 인식되는 정보를 달리함으로써, 해당 착용형 로봇이 주로 수행하는 동작을 보다 정확하고 직접적으로 수행할 수 있게 된다. As described above, according to the type of the wearable robot, by changing the information recognized from the augmented reality device, it is possible to perform the operations performed mainly by the wearable robot more accurately and directly.

도 1은 종래기술에서의 증강현실을 이용한 로봇 제어기술을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 의한 증강현실을 이용한 착용형 로봇 제어시스템을 도시한 블록도이다.
도 3은 도 2의 착용형 로봇 제어시스템을 구체적으로 도시한 블록도이다.
도 4는 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 상지 착용형 로봇이 적용된 예를 도시한 블록도이다.
도 5는 도 4의 상지 착용형 로봇이 적용된 착용형 로봇 제어시스템을 도시한 예시도이다.
도 6은 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 하지 착용형 로봇이 적용된 예를 도시한 블록도이다.
도 7은 도 2의 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법을 도시한 흐름도이다.
1 is a block diagram schematically showing a robot control technology using augmented reality in the prior art.
2 is a block diagram showing a wearable robot control system using augmented reality according to an embodiment of the present invention.
3 is a block diagram illustrating in detail the wearable robot control system of FIG. 2.
4 is a block diagram illustrating an example in which the upper limb wearable robot is applied as the wearable robot in the wearable robot control system of FIG. 2.
5 is an exemplary view illustrating a wearable robot control system to which an upper limb worn robot of FIG. 4 is applied.
6 is a block diagram illustrating an example in which a wearable robot is applied as a wearable robot in the wearable robot control system of FIG. 2.
7 is a flowchart illustrating a wearable robot control method using the wearable robot control system of FIG. 2.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. As the inventive concept allows for various changes and numerous modifications, the embodiments will be described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms are used only for the purpose of distinguishing one component from another. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, the terms "comprise" or "consist of" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention.

도 2는 본 발명의 일 실시예에 의한 증강현실을 이용한 착용형 로봇 제어시스템을 도시한 블록도이다. 도 3은 도 2의 착용형 로봇 제어시스템을 구체적으로 도시한 블록도이다. 2 is a block diagram showing a wearable robot control system using augmented reality according to an embodiment of the present invention. 3 is a block diagram illustrating in detail the wearable robot control system of FIG. 2.

도 2 및 도 3을 참조하면, 본 실시예에 의한 착용형 로봇 제어시스템(2)은 증강현실장치(100) 및 착용형 로봇(200)을 포함한다. 2 and 3, the wearable robot control system 2 according to the present embodiment includes an augmented reality device 100 and a wearable robot 200.

우선, 도 2에서, 특정 환경(20)이란, 착용형 로봇(200)이 동작을 수행하는 영역(area)으로 정의될 수 있으며, 3차원 공간으로 정의될 수 있다. 또한, 상기 특정 환경(20)은 고정된 영역일 수 있으며, 상기 착용형 로봇(200)의 동작에 따라 이동되는 영역일 수도 있다. First, in FIG. 2, the specific environment 20 may be defined as an area in which the wearable robot 200 performs an operation, and may be defined as a three-dimensional space. In addition, the specific environment 20 may be a fixed area or may be an area that is moved according to the operation of the wearable robot 200.

한편, 상기 특정 환경(20)에는 다양한 정보가 포함될 수 있으며, 예를 들어, 상기 특정 환경(20)으로 정의된 영역의 공간의 크기나 면적은 물론, 오르막인지 내리막인지, 계단이 있는지, 내부 공간인지 외부공간인지 등과 같이 착용형 로봇(200)이 동작될 수 있는 모든 환경적 특징을 포함할 수 있다. On the other hand, the specific environment 20 may include a variety of information, for example, the size or area of the space defined as the specific environment 20, as well as whether there is an uphill or downhill, there is a staircase, the interior space The wearable robot 200 may include all environmental features such as whether it is an external space or the like.

이에 따라, 이러한, 특정 환경(20)의 모든 환경적 특징을 이하에서는 환경 정보(10)로 정의하여 서술한다. Accordingly, all the environmental features of the specific environment 20 will be described below as the environment information 10.

나아가, 상기 특정 환경(20)에는 다양한 물체나 장애물이 위치할 수 있으며, 상기 물체나 장애물은 다양한 위치, 종류, 배열, 자세 등으로 위치할 수 있으며, 이하에서는 이러한 특정 환경(20)에 위치하는 물체나 장애물 등과 같은 것들을 물체 정보(15)로 정의하여 서술한다. Furthermore, various objects or obstacles may be located in the specific environment 20, and the objects or obstacles may be located in various positions, types, arrangements, postures, and the like. Things such as an object or an obstacle are defined and described as the object information 15.

본 실시예에서의 상기 착용형 로봇 제어시스템(2)에서는, 상기와 같이 정의되는 특정 환경(20)에서 정의되거나 제어되는 동작을 수행하는 착용형 로봇(200)에 대한 제어시스템에 관한 기술이지만, 본 실시예에서의 상기 착용형 로봇(200)은 이를 제어하는 증강현실장치(100)와 원격으로 이격되어 위치하지 않으며 동일한 사용자(30)에 구속된 상태에서 동작이 수행된다. In the wearable robot control system 2 in the present embodiment, the technology related to the control system for the wearable robot 200 performing an operation defined or controlled in the specific environment 20 defined as above, The wearable robot 200 in the present embodiment is not remotely spaced apart from the augmented reality device 100 that controls it, and the operation is performed in a state constrained by the same user 30.

즉, 종래 증강현실장치를 이용한 로봇제어의 경우, 도 1에 도시된 바와 같이, 로봇은 사용자나 제어 시스템이 위치하는 위치로부터 이격된 위치인 특정 환경(20)의 내부에 위치하는 것이 일반적이며, 상기 특정 환경(20)을 이탈하지 않으며 동작이 구현되는 것을 특징이다. That is, in the case of the conventional robot control using the augmented reality device, as shown in Figure 1, the robot is generally located inside the specific environment 20 which is a position away from the position where the user or the control system is located, Operation is implemented without departing from the specific environment 20.

반면, 본 실시예에서는, 상기 착용형 로봇(200)은 사용자(30)에게 직접 착용되는 로봇으로 사용자의 동작과 함께 동작하게 되며 이에 따라 상기 특정 환경(20)에만 반드시 위치하지 않을 수 있다. 나아가, 본 실시예에서 상기 착용형 로봇(200)의 동작을 직접 제어하는 상기 증강현실장치(100) 역시 사용자(30)에게 직접 장착되는 것으로, 상기 착용형 로봇(200)은 이를 제어하는 제어부인 증강현실장치(100)와 그 위치가 구속되게 된다. On the other hand, in the present embodiment, the wearable robot 200 is a robot that is directly worn by the user 30 and operates together with the user's motion, and thus may not necessarily be located only in the specific environment 20. Furthermore, in the present embodiment, the augmented reality device 100 that directly controls the operation of the wearable robot 200 is also directly mounted to the user 30, and the wearable robot 200 is a control unit for controlling the same. Augmented reality device 100 and its position will be constrained.

보다 구체적으로, 상기 증강현실장치(100)는 영상 획득부(110), 영상 인식부(120), 의도 파악부(130), 영상 표시부(140) 및 제어 신호 생성부(150)를 포함한다. More specifically, the augmented reality apparatus 100 includes an image acquisition unit 110, an image recognition unit 120, an intention grasping unit 130, an image display unit 140, and a control signal generator 150.

상기 영상 획득부(110)는 상기 특정 환경(20)의 환경 정보(10) 또는 물체 정보(15)를 획득하며, 후술하겠으나, 필요에 따라서는 상기 착용형 로봇(200)의 정보도 획득한다. The image acquisition unit 110 acquires environmental information 10 or object information 15 of the specific environment 20, which will be described later, but also obtains information of the wearable robot 200 as necessary.

상기 영상 획득부(110)는 예를 들어, 카메라 등과 같은 영상 촬영장비로서 상기 환경 정보(10) 또는 물체 정보(15)를 영상이나 이미지를 통해 획득하게 된다. The image acquisition unit 110 may acquire the environment information 10 or the object information 15 through an image or an image, for example, as an image photographing device such as a camera.

나아가, 본 실시예에서 상기 증강현실장치(100)는, 도 6에 도시된 바와 같이, 고글 등의 형태로 사용자의 안면에 고정될 수 있으며, 이에 따라 상기 영상 획득부(110)는 고글 등의 전면(前面)에 고정될 수 있다. Furthermore, in the present embodiment, the augmented reality device 100, as shown in Figure 6, may be fixed to the face of the user in the form of goggles, etc., so that the image acquisition unit 110 is It may be fixed to the front surface.

즉, 상기 영상 획득부(110)를 통해 획득되는 영상은 사용자의 눈의 위치와 동일한 위치에서 획득되는 영상인 것으로, 사용자가 시각을 통해 획득하는 시각 정보와 동일한 영상 정보일 수 있다. That is, the image acquired through the image acquisition unit 110 is an image acquired at the same position as the position of the eye of the user, and may be the same image information as the visual information acquired by the user through vision.

따라서, 상기 증강현실장치(100)를 통해 파악되는 상기 특정 환경(20)에 대한 정보는 사용자가 시각을 통해 파악하는 정보와 일치하게 되며, 이에 따라 상기 착용형 로봇(200)의 구동을 제어함에 있어 사용자를 중심으로 한 제어 신호를 생성할 수 있다. Therefore, the information about the specific environment 20 that is identified through the augmented reality device 100 is matched with the information that the user grasps through vision, thereby controlling the driving of the wearable robot 200. The user can generate a control signal centered on the user.

상기 영상 인식부(120)는 상기 영상 획득부(110)를 통해 획득된 정보로부터 상기 특정 환경(20)의 환경 또는 물체를 인식한다. The image recognition unit 120 recognizes an environment or an object of the specific environment 20 from the information obtained through the image acquisition unit 110.

이 경우, 상기 영상 인식부(120)는 1차원적으로 상기 영상 획득부(110)를 통해 획득되는 영상이나 이미지로부터, 상기 특정 환경(20)의 내용을 파악하는 것으로, 상기 특정 환경(20)은 앞서 설명한 바와 같이 환경 정보와 물체 정보를 포함하므로, 상기 영상 인식부(120)를 통해서는 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징들을 파악하게 된다. In this case, the image recognition unit 120 grasps the contents of the specific environment 20 from an image or an image acquired through the image acquisition unit 110 in one dimension, and the specific environment 20. Since it includes the environment information and the object information as described above, through the image recognition unit 120 to grasp the environmental characteristics of the specific environment 20 or the characteristics of the object.

예를 들어, 상기 특정 환경(20)의 공간이 내리막/오르막 공간인지 여부, 계단의 존재 여부, 실내/실외인지 여부 등의 환경적 특징과, 상기 특정 환경(20)에 위치하는 물체 또는 장애물의 종류, 위치, 형상, 배열 등의 물체의 특징을 파악하게 된다. For example, the environmental characteristics such as whether the space of the specific environment 20 is the downhill / uphill space, whether there is a staircase, indoor / outdoor, and the like of objects or obstacles located in the specific environment 20 The characteristics of the object such as the type, position, shape, and arrangement are identified.

나아가, 상기 영상 인식부(120)에서는 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징을 인식함에 있어, 증강현실 기술을 적용하여 증강현실에 기초한 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징을 생성할 수 있다. Furthermore, in recognizing the environmental feature of the specific environment 20 or the feature of the object, the image recognition unit 120 applies an augmented reality technology to the environmental feature of the specific environment 20 based on augmented reality or You can create features of an object.

이 경우, 증강현실 기술은 다양하게 접목될 수 있으며, 상기 특정 환경(20)에 겹쳐지는 3차원의 가상 이미지는, 상기 착용형 로봇(200)의 구동을 보조하거나 보다 정확하고 직관적인 구동을 유도하기 위한 이미지일 수 있으며, 상기 특정 환경(20)에 대한 보다 정확한 내용 파악을 위한 이미지일 수도 있고, 이와 달리, 다양한 목적으로 생성된 가상의 이미지일 수 있다. In this case, augmented reality technology can be applied in various ways, and the three-dimensional virtual image overlapping the specific environment 20 assists the driving of the wearable robot 200 or induces more accurate and intuitive driving. It may be an image for the purpose, may be an image for more accurate content grasp of the specific environment 20, or, alternatively, may be a virtual image generated for various purposes.

상기 의도 파악부(130)는 상기 영상 인식부(120)로부터 인식된 상기 특정 환경(20)에 대한 환경적 특징 또는 물체의 특징을 바탕으로 사용자의 의도를 파악한다. The intention determiner 130 detects the intention of the user based on an environmental feature or an object characteristic of the specific environment 20 recognized by the image recognizer 120.

이 경우, 상기 영상 인식부(120)로부터 인식된 특징은, 이미 설명한 바와 같이 증강현실이 접목되어 인식된 특징일 수 있으며, 따라서, 상기 의도 파악부(130)는 상기 특정 환경(20)의 실체적 특징과 필요한 가상의 이미지가 결합된 내용으로부터 사용자의 의도를 파악하게 된다. In this case, the feature recognized by the image recognizer 120 may be a feature recognized by incorporating augmented reality as described above. Thus, the intention grasping unit 130 may be an entity of the specific environment 20. The user's intention is identified from the combination of the features and the necessary virtual images.

이를 위해, 상기 의도 파악부(130)는 데이터 베이스와 판단부를 포함하여, 상기 데이터베이스에는 사용자의 상태, 사용자에 착용된 착용형 로봇(200)의 종류 및 동작 가능 정보, 착용형 로봇의 구동 히스토리 등의 정보가 기 저장되어야 하며, 상기 판단부에서는 상기 데이터베이스의 내용과 상기 영상 인식부(120)로부터 제공되는 인식된 특정 환경에 대한 정보를 바탕으로 사용자의 의도를 판단하게 된다. To this end, the intention grasping unit 130 includes a database and a determination unit, and the database includes a user's state, types and operable information of the wearable robot 200 worn by the user, a driving history of the wearable robot, and the like. The information of the user must be stored in advance, and the determination unit determines the intention of the user based on the contents of the database and the information about the recognized specific environment provided from the image recognition unit 120.

예를 들어, 사용자가 보행이 어려워 착용형 로봇으로 보행을 보조받는 상황이며, 사용자가 현재까지 도보로 이동해온 이력이 있으며, 목표로 하는 도착지에 대한 정보가 있는 경우라면, 상기 의도 파악부(130)는 상기 인식된 특정 환경에 대한 정보로부터 사용자가 상기 목표로 하는 도착지까지 도보로 이동할 것이라는 사용자의 의도를 판단할 수 있다. For example, when the user is difficult to walk and is assisted with a wearable robot, and the user has a history of walking to the present, and there is information on a target destination, the intention identifying unit 130 ) May determine the user's intention that the user will walk to the target destination from the information about the recognized specific environment.

이와 달리, 사용자가 손에 착용형 로봇을 착용한 상태이고, 사용자가 특정 물건을 이동시키기 위한 동작을 목적으로 한다면, 상기 의도 파악부(130)는 상기 인식된 특정 환경에 대한 정보로부터 사용자가 상기 특정 물건을 이동시킬 것이라는 사용자의 의도를 판단할 수 있다. On the contrary, if the user is wearing a wearable robot in his hand and the user aims to move a specific object, the intention grasping unit 130 may be configured to display the user from the information about the recognized specific environment. You can determine the user's intention to move a particular object.

상기 영상 표시부(140)는 상기 영상 인식부(120)에서 인식된 상기 특정 환경(20)의 환경 또는 물체에 대한 내용, 및 상기 의도 파악부(130)에서 파악되는 사용자의 의도를 외부로 표시한다. The image display unit 140 displays the contents of the environment or the object of the specific environment 20 recognized by the image recognition unit 120, and the intention of the user identified by the intention determining unit 130 to the outside. .

이 경우, 상기 표시되는 영상은 상기 영상 인식부(120)에서 상기 특정 환경(20)으로부터 인식된 내용과 상기 증강현실 기술이 접목되어 생성된 환경적 특징 또는 물체의 특징에 대한 내용을 포함하게 된다. In this case, the displayed image includes contents recognized by the image recognition unit 120 from the specific environment 20 and contents of an environmental feature or an object generated by combining the augmented reality technology. .

또한, 상기 의도 파악부(130)에서 파악되는 사용자의 의도를 표시 가능한 형태로 표시할 수도 있다. 예를 들어, 사용자의 의도가 도착지까지의 도보 이동이라고 판단된다면, 상기 도착지까지의 이동 경로를 사용자의 의도로써 표시할 수 있다. 이와 달리, 사용자의 의도가 특정 물건의 이동이라고 판단된다면, 상기 특정 물체의 이동 경로를 사용자의 의도로써 표시할 수도 있다. In addition, the intention of the user grasped by the intention grasping unit 130 may be displayed in a displayable form. For example, if it is determined that the user's intention is a walking movement to the destination, the movement path to the destination may be displayed as the user's intention. Alternatively, if it is determined that the user's intention is the movement of a particular object, the movement path of the specific object may be displayed as the user's intention.

또한, 상기 표시되는 영상은, 앞서 상기 증강현실장치가, 예를 들어 고글 등의 형태로 사용자의 안면에 고정된다면, 상기 고글의 유리창 등을 통해 사용자가 시각적으로 인식할 수 있는 영상일 수 있다. In addition, the displayed image may be an image that the user can visually recognize through the glass window of the goggles, if the augmented reality device is fixed to the face of the user, for example, in the form of goggles.

이와 달리, 별도의 디스플레이 창 등을 통해 영상이 표시될 수도 있다. Alternatively, the image may be displayed through a separate display window.

그리하여, 사용자는, 특히 사용자의 의도로 표시되는 내용을 바탕으로 스스로 의도한 바와 일치하는 지의 여부를 재차 확인할 수 있게 된다. Thus, the user can again check whether or not the user's intention is consistent with the intention based on the contents displayed by the user's intention.

상기 제어 신호 생성부(150)은 상기 파악된 사용자의 의도대로 상기 착용형 로봇(200)을 동작시키기 위한 제어 신호를 생성한다. The control signal generation unit 150 generates a control signal for operating the wearable robot 200 as determined by the user.

예를 들어, 착용형 로봇(200)으로 보행을 보조받는 상황에서, 상기 의도 파악부(130)에서 판단된 사용자의 의도가 목적지까지 도보로 이동하는 것이라면, 상기 제어 신호 생성부(150)는 상기 목적지까지의 생성된 최적 경로 상에 장애물이나 기타 회피가 필요한 영역이 있는지를 바탕으로 상기 착용형 로봇(200)을 이동시키기 위한 제어 신호를 생성한다.For example, in a situation in which the wearable robot 200 is assisted with walking, if the intention of the user determined by the intention grasping unit 130 is a walking to a destination, the control signal generator 150 may A control signal for moving the wearable robot 200 is generated based on whether there is an obstacle or other area that needs to be avoided on the generated optimal path to the destination.

이와 달리, 착용형 로봇(200)으로 물건 이동 동작을 보조받는 상황에서, 상기 의도 파악부(130)에서 판단된 사용자의 의도가 특정 물건을 이동시키는 것이라면, 상기 제어 신호 생성부(150)는 상기 특정 물건의 이동을 위해 상기 착용형 로봇(200)이 동작되어야 하는 동작을 구현시킬 수 있는 제어 신호를 생성하게 된다. On the contrary, in a situation where the movement of the object is assisted by the wearable robot 200, if the intention of the user determined by the intention grasping unit 130 is to move a specific object, the control signal generator 150 may be configured to move the specific object. The wearable robot 200 generates a control signal capable of implementing an operation in which the wearable robot 200 should be operated to move a specific object.

이상과 같이, 본 실시예에서는, 상기 제어 신호 생성부(150)은 상기 인식된 사용자의 의도대로 상기 착용형 로봇(200)을 직접 동작시킬 수 있는 제어 신호를 직접 생성하며, 이렇게 생성된 제어 신호는 상기 착용형 로봇(200)으로 직접 제공된다. As described above, in the present embodiment, the control signal generator 150 directly generates a control signal capable of directly operating the wearable robot 200 as the recognized user intends, and thus generates the control signal. Is directly provided to the wearable robot 200.

상기 착용형 로봇(200)은 사용자의 신체에 직접 착용되어 사용자의 신체적 활동을 보조하는 로봇으로, 예를 들어, 손이나 팔에 착용되는 의수, 다리나 발에 착용되는 의족, 외골격에 착용되는 상/하지 로봇 등의 다양한 착용형 로봇일 수 있다. The wearable robot 200 is a robot that is directly worn on the user's body to assist the user's physical activity, for example, a prosthesis worn on a hand or an arm, a prosthesis worn on a leg or a foot, an image worn on an exoskeletal / It may be a variety of wearable robots, such as a lower limb robot.

또한, 본 실시예에서의 상기 착용형 로봇(200)은 상기 증강현실장치(100)에 의해 직접 제어되는 것으로, 사용자에 직접 착용되어 사용자와 함께 동작하는 것으로, 상기 특정 환경(20)의 내부에서 필요한 동작을 수행할 수도 있으나, 이와 달리 상기 특정 환경(20)의 내부에 대한 정보를 바탕으로 상기 특정 환경(20)의 외부에서 필요한 동작을 수행할 수도 있음은 이미 설명한 바와 같다. In addition, the wearable robot 200 in the present embodiment is directly controlled by the augmented reality device 100, and worn directly on the user to operate together with the user, in the specific environment 20 Although necessary operations may be performed, alternatively, the necessary operations may be performed outside of the specific environment 20 based on information on the inside of the specific environment 20 as described above.

도 4는 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 상지 착용형 로봇이 적용된 예를 도시한 블록도이다. 4 is a block diagram illustrating an example in which the upper limb wearable robot is applied as the wearable robot in the wearable robot control system of FIG. 2.

도 4를 참조하면, 상기 착용형 로봇(200)의 일 예로, 사용자의 손이나 팔에 착용되는 상지 착용형 로봇(210)일 수 있다. Referring to FIG. 4, an example of the wearable robot 200 may be an upper limb worn robot 210 worn on a user's hand or arm.

상지 착용형 로봇(210)의 경우, 사용자의 손이나 팔에 착용되어, 주로 물체를 이동시키거나 물체를 쥐거나 하는 등, 사용자가 손이나 팔을 통해 수행하는 동작과 동일한 동작을 수행하게 된다.  In the case of the upper limb wearable robot 210, it is worn on the user's hand or arm, and mainly performs the same operation as the user performs through the hand or the arm, such as moving or grasping an object.

이에 따라, 상기 영상 획득부(110)에서 획득되는 영상에는, 도 4에 도시된 바와 같이, 상기 특정 환경(20)에서의 환경정보(10), 물체 정보(15) 외에, 상기 상지 착용형 로봇(210)에 대한 정보가 포함될 수 있다. Accordingly, the image obtained by the image acquisition unit 110, as shown in Figure 4, in addition to the environmental information 10, the object information 15 in the specific environment 20, the upper limbs wearable robot Information about 210 may be included.

그리하여, 상기 상지 착용형 로봇(210)을 통해 상기 특정 환경(20)에 위치하는 물체를 이동하거나 쥐는 경우, 상기 상지 착용형 로봇(210)의 특정 환경(20) 내에서의 위치 또는 자세 등에 대한 정보와 함께 상기 물체에 대한 정보를 동시에 획득할 수 있으며, 이를 바탕으로 사용자의 의도가 파악되고, 상기 제어 신호 생성부(150)에서는 사용자의 의도를 바탕으로 상기 상지 착용형 로봇(210)의 동작을 위한 제어 신호를 직접 생성할 수 있고, 상기 제어 신호를 바탕으로 상기 상지 착용형 로봇(210)은 물체를 이동하거나 쥐는 방법에 따른 필요한 동작을 수행하게 된다. Thus, when moving or grasping an object located in the specific environment 20 through the upper limb wearable robot 210, the position or posture in the specific environment 20 of the upper limb worn robot 210 may be changed. Information about the object can be obtained simultaneously with the information, and the intention of the user is grasped based on this, and the control signal generator 150 operates the upper limb worn robot 210 based on the intention of the user. A control signal can be generated directly, and based on the control signal, the upper limb worn robot 210 performs a necessary operation according to a method of moving or grasping an object.

이 경우, 상기 증강현실장치(100)에서 획득되는 정보는 일정 시간 간격을 바탕으로 반복적으로 갱신되며, 이에 따라 상기 제어 신호 생성부(150)에서는 상기 상지 착용형 로봇(210)의 이동 상황을 실시간으로 모니터링하면서 상기 상지 착용형 로봇(210)이 물체를 이동하거나 쥐기 위해 필요한 제어 신호를 실시간으로 제공하게 된다. In this case, the information obtained from the augmented reality device 100 is repeatedly updated based on a predetermined time interval, and accordingly, the control signal generator 150 real-times the movement state of the upper limb wearable robot 210. While monitoring the upper limbs wearable robot 210 to provide a control signal required to move or grip the object in real time.

도 5는 도 4의 상지 착용형 로봇이 적용된 착용형 로봇 제어시스템을 도시한 예시도이다. 5 is an exemplary view illustrating a wearable robot control system to which an upper limb worn robot of FIG. 4 is applied.

상기 상지 착용형 로봇(210)의 예로서, 도 5에 도시된 바와 같은 로봇 의수가 사용자의 손에 착용될 수 있으며, 사용자는 고글의 형태로 안면에 상기 증강현실장치(100)를 착용할 수 있다. As an example of the upper limb wearable robot 210, a robot prosthesis as shown in FIG. 5 may be worn on the user's hand, and the user may wear the augmented reality device 100 on the face in the form of goggles. have.

그리하여, 상기 증강현실장치(100)는 상기 특정 환경(20)의 내부에 대한 환경 정보(10), 물체 정보(15) 및 동작의 수행에 따라 상기 특정 환경(20)의 내부에 위치하게 되는 상기 상지 착용형 로봇(210)에 대한 정보를 획득하여 사용자의 의도를 파악하고, 상기 파악된 사용자의 의도를 바탕으로 상기 상지 착용형 로봇(210)에 대한 제어 신호를 생성하고, 이를 바탕으로 상기 상지 착용형 로봇(210)이 구동하게 된다. Thus, the augmented reality device 100 is located in the specific environment 20 according to the performance of the environment information 10, the object information 15 and the operation of the inside of the specific environment 20 Acquire information about the upper limb wearable robot 210 to determine the intention of the user, and generate a control signal for the upper limb wearable robot 210 based on the identified user's intention, based on the upper limb The wearable robot 210 is driven.

한편, 상기 상지 착용형 로봇(210)은 도 5를 통해 예시된 것 외에, 다양한 형태로 사용자(30)에게 착용될 수 있으며, 필요로하는 구동 역시 다양하게 변화될 수 있다. Meanwhile, the upper limb wearable robot 210 may be worn by the user 30 in various forms, in addition to the example illustrated in FIG. 5, and the driving required may also be variously changed.

도 6은 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 하지 착용형 로봇이 적용된 예를 도시한 블록도이다. 6 is a block diagram illustrating an example in which a wearable robot is applied as a wearable robot in the wearable robot control system of FIG. 2.

도 6을 참조하면, 상기 착용형 로봇(200)의 일 예로, 사용자의 발이나 하체에 착용되는 하지 착용형 로봇(220)일 수 있다. Referring to FIG. 6, an example of the wearable robot 200 may be a leg worn robot 220 worn on a user's foot or lower body.

하지 착용형 로봇(220)의 경우, 사용자의 발이나 하체에 착용되어, 주로 사용자를 보행시키거나 이동시키는 등, 사용자가 발이나 하체를 통해 수행하는 동작과 동일한 동작을 수행하게 된다.  In the case of the lower wearable robot 220, the robot is worn on the user's foot or lower body to perform the same operation as the user performs through the foot or lower body, such as mainly walking or moving the user.

다만, 일반적으로 보행이나 이동 등의 행위를 수행함에 있어서는 사용자(30)의 전면 또는 측면의 환경에 대한 정보로 충분할 수 있으며, 상기 하지 착용형 로봇(220)이 상기 특정 환경(20)의 내부에 위치할 필요는 없게 된다. However, in general, in performing an action such as walking or moving, information about the environment of the front or side of the user 30 may be sufficient, and the lower wearable robot 220 may be placed inside the specific environment 20. It does not have to be located.

이에 따라, 상기 영상 획득부(110)에서 획득되는 영상에는, 도 5에 도시된 바와 같이, 상기 특정 환경(20)에서의 환경정보(10) 및 물체 정보(15)로 충분할 수 있다. Accordingly, as illustrated in FIG. 5, the environment information 10 and the object information 15 in the specific environment 20 may be sufficient for the image acquired by the image acquisition unit 110.

물론, 상기 하지 착용형 로봇(220)을 통해 특정 물건을 이동시키는 등의 동작을 수행하여야 하며, 이에 따라 상기 영상 획득부(110)에서 획득되는 영상에 상기 하지 착용형 로봇(220)에 대한 정보도 포함되는 것이 보다 정확한 동작을 위해 필요하다면 상기 하지 착용형 로봇(220)에 대한 정보도 상기 증강현실장치(100)로 제공될 수 있다. Of course, an operation such as moving a specific object through the lower wearable robot 220 should be performed, and thus, the lower wearable robot 220 has information about the lower wearable robot 220 in the image acquired by the image acquirer 110. If it is also necessary to include more accurate operation information about the wearable robot 220 can also be provided to the augmented reality device 100.

그리하여, 상기 하지 착용형 로봇(220)을 통해 상기 특정 환경(20)에 위치하는 장애물을 피하면서 보행하거나 이동하는 경우, 상기 특정 환경(20) 내에서의 환경 정보(10) 및 장애물 등과 같은 물체의 위치 등에 관한 물체 정보(15)를 획득하여야 하며, 이를 바탕으로 사용자의 의도를 파악하고, 상기 제어 신호 생성부(150)에서는 상기 파악된 사용자의 의도를 바탕으로 상기 하지 착용형 로봇(220)의 동작을 위한 제어 신호를 직접 생성할 수 있고, 상기 제어 신호를 바탕으로 상기 하지 착용형 로봇(220)은 장애물을 회피하면서 보행이나 이동을 하는 등의 동작을 수행하게 된다. 또한, 장애물이 계단이나 경사로 등인 경우라면, 상기 장애물을 극복하며 보행이나 이동을 하기 위해, 상기 하지 착용형 로봇(220)은 구동부(미도시)의 강성을 변화시키며 제어되어야 하며, 이에 상기 제어 신호 생성부(150)에서는 상기 하지 착용형 로봇(220)의 동작을 위한 제어 신호와 함께 강성을 변화시키기 위한 제어신호도 동시에 생성할 수 있다.Thus, when walking or moving while avoiding an obstacle located in the specific environment 20 through the wearable robot 220, an object such as environmental information 10 and obstacles in the specific environment 20. The object information 15 about the position of the user, etc. should be obtained, and the intention of the user is determined based on this, and the control signal generator 150 determines the lower wearable robot 220 based on the identified user's intention. The control signal for the operation of can be generated directly, based on the control signal, the lower wearable robot 220 performs an operation such as walking or moving while avoiding obstacles. In addition, if the obstacle is a staircase or an incline or the like, in order to overcome the obstacle while walking or moving, the wearable robot 220 should be controlled while changing the stiffness of a driving unit (not shown). The generation unit 150 may simultaneously generate a control signal for changing the stiffness together with the control signal for the operation of the leg worn robot 220.

이 경우, 상기 증강현실장치(100)에서 획득되는 정보는 일정 시간 간격을 바탕으로 반복적으로 갱신되며, 이에 따라 상기 제어 신호 생성부(150)에서는 상기 하지 착용형 로봇(220)의 이동 상황에 대한 정보가 저장되는 데이터 베이스의 데이터를 바탕으로 상기 하지 착용형 로봇(220)의 이동 경로나 장애물 회피 경로 등을 수행하기 위해 필요한 제어 신호를 실시간으로 제공하게 된다. In this case, the information obtained by the augmented reality device 100 is repeatedly updated based on a predetermined time interval, and accordingly, the control signal generation unit 150 for the movement state of the lower wearable robot 220. Based on the data of the database in which the information is stored, a control signal necessary for performing the movement path or the obstacle avoidance path of the wearable robot 220 may be provided in real time.

이상과 같이, 본 실시예에서의 착용형 로봇 제어시스템(2)은 사용자(30)에게 착용되는 로봇의 형태에 따라 다양한 영상 데이터를 획득하며, 이를 통해 착용형 로봇의 구동에 최적의 제어 신호를 생성하여, 착용형 로봇을 구동할 수 있다. As described above, the wearable robot control system 2 according to the present exemplary embodiment obtains various image data according to the type of the robot worn by the user 30, and thereby obtains the optimal control signal for driving the wearable robot. Can be generated to drive the wearable robot.

도 7은 도 2의 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법을 도시한 흐름도이다. 7 is a flowchart illustrating a wearable robot control method using the wearable robot control system of FIG. 2.

도 7을 참조하면, 본 실시예에 의한 착용형 로봇 제어시스템(2)을 이용한 착용형 로봇 제어방법에서는, 우선, 상기 특정 환경(20)의 환경 정보(10) 또는 물체 정보(15)를 획득하여, 이를 바탕으로 증강현실을 위한 가상의 영상이나 이미지를 결합하여 상기 특정 환경(20)에서의 사용자의 의도에 부합하여 상기 착용형 로봇(200)을 제어하기 위한 제어 신호를 생성한다(단계 S10). Referring to FIG. 7, in the wearable robot control method using the wearable robot control system 2 according to the present embodiment, first, environment information 10 or object information 15 of the specific environment 20 is obtained. By combining the virtual image or the image for augmented reality based on this, a control signal for controlling the wearable robot 200 is generated in accordance with the user's intention in the specific environment 20 (step S10). ).

이후, 상기 생성된 제어 신호를 바탕으로 상기 착용형 로봇(200)은 구동되며(단계 S20), 이 경우, 상기 착용형 로봇(200)이 구동되는 환경은 상기 특정 환경(20)의 내부 또는 외부일 수 있음은 앞서 설명한 바와 같다. Thereafter, the wearable robot 200 is driven based on the generated control signal (step S20), and in this case, the environment in which the wearable robot 200 is driven is inside or outside the specific environment 20. It may be as described above.

보다 구체적으로, 상기 제어 신호의 생성 단계에서는, 우선, 상기 영상 획득부(110)에서 상기 특정 환경(20)에 대한 환경 정보(10) 또는 물체 정보(150)를 획득한다(단계 S11). More specifically, in the generation of the control signal, first, the image acquisition unit 110 obtains environment information 10 or object information 150 for the specific environment 20 (step S11).

이 경우, 상기 환경 정보(10) 및 상기 물체 정보(150)의 정의 및 예에 대하여는 앞서 설명한 바와 같으며, 상기 착용형 로봇(200)이 예를 들어 상지 착용형 로봇인 경우라면 상기 영상 획득부(110)에서 획득되는 정보에 상기 상지 착용형 로봇에 대한 정보도 포함되는 것이 실제 착용형 로봇의 정확하고 직관적인 동작을 위해 필요할 수 있다. In this case, definitions and examples of the environmental information 10 and the object information 150 are the same as described above, and if the wearable robot 200 is, for example, an upper limb worn robot, the image acquisition unit may be used. It may be necessary for accurate and intuitive operation of the actual wearable robot to include information on the upper limb wearable robot in the information obtained at 110.

이와 달리, 상기 착용형 로봇(200)이 예를 들어 하지 착용형 로봇인 경우라면 상기 영상 획득부(110)에서 획득되는 정보는 상기 환경 정보(10) 또는 물체 정보(150)로 충분할 수 있다. In contrast, when the wearable robot 200 is, for example, a leg wearable robot, the information obtained by the image acquisition unit 110 may be sufficient as the environmental information 10 or the object information 150.

이렇게 영상 정보가 획득되면, 상기 영상 인식부(120)에서는, 상기 획득된 저보를 바탕으로 환경 또는 물체를 인식한다(단계 S12). When the image information is acquired in this way, the image recognition unit 120 recognizes an environment or an object based on the obtained low information (step S12).

이 경우, 상기 영상 인식부(120)에서 환경 또는 물체를 인식하는 경우, 상기 영상 획득부(110)에서 획득된 영상 정보에, 증강현실 기술이 적용된 가상의 영상 또는 이미지가 중첩되어 인식될 수 있다. 이 경우, 중첩되는 가상의 영상 또는 이미지는 상기 착용형 로봇의 실제 구동이나 동작을 보다 정확하게 구현하기 위한 것으로, 인식된 환경이나 물체를 보다 정밀하게 구현하거나 환경이나 물체에 대한 세부 정보를 추가로 제공하거나, 가상의 경로나 이미지 등을 추가하여 추가 정보를 제공하는 등의 다양한 영상 또는 이미지일 수 있다. In this case, when the image recognition unit 120 recognizes an environment or an object, a virtual image or an image to which augmented reality technology is applied may be recognized by being superimposed on the image information obtained by the image acquisition unit 110. . In this case, the overlapping virtual image or image is to more accurately implement the actual driving or motion of the wearable robot, and more precisely implements the recognized environment or object, or provides detailed information about the environment or object. Or various images or images, such as providing additional information by adding a virtual path or an image.

또한, 상기 영상 인식부(120)에서는 예를 들어 상지 착용형 로봇인 경우라면 상기 환경 또는 물체에 대한 인식 정보에 상기 상지 착용형 로봇에 대한 인식 정보를 추가로 인식하며 상기 증강현실 기술을 적용할 수 있다. In addition, in the case of the upper limb wearable robot, the image recognition unit 120 recognizes the recognition information on the upper limb wearable robot in addition to the recognition information on the environment or an object and applies the augmented reality technology. Can be.

이 후, 상기 의도 파악부(130)에서는, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악한다(단계 S13). 이 경우, 상기 의도 파악부(130)에서의 구체적인 사용자 의도 파악의 예에 대하여는 앞서 설명한 바와 같다. Thereafter, the intention grasping unit 130 grasps the intention of the user based on the recognized environment or object (step S13). In this case, an example of the specific user intention grasping in the intention grasping unit 130 has been described above.

한편, 상기 영상 인식부(120)에서 인식된 환경 또는 물체, 나아가 상지 착용형 로봇인 경우라면 인식된 착용형 로봇에 대한 정보와 함께, 상기 의도 파악부(130)에서 파악된 사용자의 의도를 상기 영상 표시부(140)에서는 별도의 표시부나 고글 등의 글라스를 통해 사용자에게 내용을 표시한다(단계 S14). Meanwhile, in the case of an environment or an object recognized by the image recognition unit 120, and even an upper limb worn robot, the intention of the user identified by the intention determiner 130 together with the information about the recognized wearable robot may be recalled. The image display unit 140 displays the content to the user through a glass such as a separate display unit or goggles (step S14).

그리하여, 사용자는 스스로 의도한 바와 동일한 지의 여부에 대하여 상기 영상 표시부(140)를 통해 피드백 받아 이를 확인할 수 있다. Thus, the user may check whether the user receives feedback through the image display unit 140 as to whether the same as intended.

나아가, 상기 제어신호 생성부(150)에서는, 상기 사용자의 의도에 부합하는 상기 착용형 로봇(200)에 대한 제어 신호를 생성한다(단계 S15). Further, the control signal generation unit 150 generates a control signal for the wearable robot 200 corresponding to the intention of the user (step S15).

그리하여, 상기 제어신호 생성부(150)에서 생성되는 제어 신호는 직접 상기 착용형 로봇(200)으로 제공되며, 상기 착용형 로봇(200)은 상기 제어 신호를 바탕으로 구동되어 필요한 동작을 사용자의 일부로서 수행하게 된다. Thus, the control signal generated by the control signal generator 150 is directly provided to the wearable robot 200, the wearable robot 200 is driven based on the control signal to perform a necessary operation of the user To be performed as

상기와 같은 본 발명의 실시예들에 의하면, 종래의 사용자의 의도를 파악하는 착용형 로봇을 구동하는 방법에서의 오류나 문제를 해결하여, 증강현실장치에서 인식되는 정보를 바탕으로 사용자의 의도가 직접 파악되면 해당 의도에 부합하도록 착용형 로봇이 직접 제어됨에 따라, 영상 정보 등과 같은 보다 객관적인 자료를 바탕으로 사용자의 의도 파악이 가능하므로, 착용형 로봇의 구동의 정확성을 향상시키는 것은 물론 보다 즉각적인 동작의 구현이 가능하게 된다. According to the embodiments of the present invention as described above, by solving the error or problem in the conventional method of driving the wearable robot to grasp the user's intention, the user's intention is directly based on the information recognized by the augmented reality device If the wearable robot is directly controlled to meet the intention, it is possible to grasp the user's intention based on more objective data such as image information, thereby improving the driving accuracy of the wearable robot and of more immediate operation. Implementation is possible.

특히, 증강현실장치의 영상 획득부는 특정 환경의 환경 정보를 영상을 통해 획득하되, 착용형 로봇이 장착된 사용자와 동일한 시각에서 관측되는 정보와 동일한 정보를 획득하므로, 착용형 로봇에 대한 직접적인 제어를 수행함에 있어, 사용자의 물리적인 위치를 고려한 최적의 동작 제어를 수행할 수 있게 된다. In particular, the image acquisition unit of the augmented reality device obtains the environmental information of a specific environment through the image, but obtains the same information as the information observed at the same time as the user equipped with the wearable robot, direct control of the wearable robot In performing, it is possible to perform the optimal motion control considering the physical location of the user.

이 경우, 획득되는 정보는 환경 정보 또는 물체 정보로서, 해당 환경의 특성을 파악하여 착용형 로봇의 동작을 보다 정확하게 수행할 수 있는 정보를 포함한다. In this case, the obtained information is environmental information or object information, and includes information for more accurately performing the operation of the wearable robot by grasping the characteristics of the environment.

또한, 상기 환경 정보 또는 물체 정보로부터 파악되는 사용자의 의도를 외부로 표시하여 사용자가 피드백 받아 이를 인지함에 따라 사용자의 의도가 정확하게 반영되고 있는지를 확인할 수 있어, 착용형 로봇을 통해 구현하려는 동작을 보다 정확하게 구현할 수 있다. In addition, by displaying the user's intention grasped from the environment information or object information to the outside, the user can check whether the user's intention is accurately reflected as the user receives the feedback, and thus the operation to be implemented through the wearable robot It can be implemented correctly.

특히 착용형 로봇이 상지 착용형 로봇인 경우라면 대개의 경우 물체를 이동시키거나 잡는 동작을 수행하는 경우가 많으므로 이를 고려하여 해당 환경에 대한 정보를 획득함에 있어 착용형 로봇에 대한 정보를 동시에 획득하여, 획득된 정보 내에서 물체에 대한 이동이나 잡는 동작의 수행을 위해 수행하여야 하는 동작을 보다 정확하고 직관적으로 제어할 수 있다. In particular, when the wearable robot is an upper limb wearable robot, in most cases, the object is moved or grabbed. Therefore, the information about the wearable robot is simultaneously acquired in acquiring information on the environment in consideration of this. In this way, it is possible to more precisely and intuitively control the operation to be performed for the movement or grabbing of the object within the obtained information.

이와 달리, 착용형 로봇이 하지 착용형 로봇인 경우라면 지면 상태나 장애물을 고려하여 보행을 하는 경우가 많으므로, 증강현실장치에서 인식되는 정보로서 장애물 또는 지면 상태에 대한 정보를 중심으로 데이터를 획득하며 이를 바탕으로 적합한 보행 모드를 선택하거나 보행 방향을 선택하는 등의 제어를 직접 수행함에 따라, 필요한 착용형 로봇의 동작을 보다 정확하게 제어할 수 있다. On the other hand, if the wearable robot is a wearable robot for the lower limb, it is often walking in consideration of ground conditions or obstacles, and thus obtains data based on information on obstacles or ground conditions as information recognized by the AR device. Based on this, a control such as selecting an appropriate walking mode or selecting a walking direction can be directly performed to more precisely control the operation of the wearable robot.

이상과 같이, 착용형 로봇의 종류에 따라, 증강현실장치로부터 인식되는 정보를 달리함으로써, 해당 착용형 로봇이 주로 수행하는 동작을 보다 정확하고 직접적으로 수행할 수 있게 된다. As described above, according to the type of the wearable robot, by changing the information recognized from the augmented reality device, it is possible to perform the operations performed mainly by the wearable robot more accurately and directly.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the foregoing has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. It will be appreciated.

본 발명에 따른 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법은 착용형 로봇에 사용될 수 있는 산업상 이용 가능성을 갖는다. Wearable robot control system and wearable robot control method using the same according to the present invention has the industrial applicability that can be used in the wearable robot.

1: 종래 로봇 제어시스템 2 : 착용형 로봇 제어시스템
10 : 환경 정보 15 : 물체 정보
20 : 특정 환경 30 : 사용자
100 : 증강현실 장치 110 : 영상획득부
120 : 영상인식부 130 : 의도파악부
140 : 영상표시부 150 : 제어신호 생성부
200 : 착용형 로봇 210 : 상지 착용형 로봇
220 : 하지 착용형 로봇
1: conventional robot control system 2: wearable robot control system
10: environmental information 15: object information
20: Specific Environment 30: User
100: augmented reality device 110: image acquisition unit
120: image recognition unit 130: intention detection unit
140: image display unit 150: control signal generation unit
200: wearable robot 210: upper limb wearing robot
220: wearable robot

Claims (13)

사용자의 손이나 팔에 착용되어 동작되는 상지 착용형 로봇 또는 사용자의 발이나 하체에 착용되어 동작되는 하지 착용형 로봇; 및
특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 스스로 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 상지 또는 하지 착용형 로봇을 직접 제어하는 증강현실장치를 포함하며,
상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득하고,
상기 증강현실장치는, 상기 상지 착용형 로봇이, 사용자의 의도를 파악하여, 물체를 잡아 이동하도록 제어하거나,
상기 증강현실장치는, 상기 하지 착용형 로봇이, 사용자의 도보 이력 또는 도착지 정보를 바탕으로 사용자의 의도를 파악하여, 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어하는 것을 특징으로 하는 착용형 로봇 제어시스템.
An upper limb wearable robot operated by being worn on a user's hand or arm or a lower limb worn robot operated by being worn on a user's foot or lower body; And
Enhancement of acquiring environmental information or object information of a specific environment, recognizing a specific environment from the acquired information, and grasping the user's intention, and directly controlling the upper or lower limb worn robot to meet the user's intention in a specific environment. Including a real device,
The augmented reality device is fixed to the user, to obtain the same information as the information of a specific environment obtained from the user's point of view
The augmented reality device, the upper limb wearable robot, to grasp the user's intention, to control to move the object,
The augmented reality device is characterized in that the lower body wearable robot, to grasp the user's intention based on the user's walking history or destination information, to avoid obstacles or to walk in a walking mode suitable for a specific environment. Wearable Robot Control System.
제1항에 있어서, 상기 증강현실장치는,
사용자의 안면에 착용되어, 사용자가 획득하는 시각 정보와 동일한 영상 정보를 획득하는 것을 특징으로 하는 착용형 로봇 제어시스템.
According to claim 1, wherein the augmented reality device,
The wearable robot control system, which is worn on a user's face and obtains image information identical to visual information acquired by the user.
제1항에 있어서,
상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 물체 또는 장애물의 종류, 위치 또는 형상인 것을 특징으로 하는 착용형 로봇 제어시스템.
The method of claim 1,
The object information acquired by the augmented reality device, wearable robot control system, characterized in that the kind, location or shape of the object or obstacle located in a specific environment.
삭제delete 제3항에 있어서,
상기 상지 착용형 로봇의 경우, 상기 증강현실장치에서 획득되는 물체 정보는, 상기 특정 환경 내에 위치하는 상기 상지 착용형 로봇의 정보를 더 포함하는 것을 특징으로 하는 착용형 로봇 제어 시스템.
The method of claim 3,
In the case of the upper limb wearable robot, the object information obtained by the augmented reality device, the wearable robot control system, characterized in that further comprises information of the upper limb wearable robot located in the specific environment.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 증강현실장치는,
특정 환경의 환경 정보 또는 물체 정보를 획득하는 영상 획득부;
상기 획득된 정보로부터 환경 또는 물체를 인식하는 영상 인식부;
상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 의도 파악부;
상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 영상 표시부; 및
상기 사용자의 의도대로 상기 상지 또는 하지 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 제어신호 생성부를 포함하는 것을 특징으로 하는 착용형 로봇 제어시스템.
According to claim 1, wherein the augmented reality device,
An image acquisition unit obtaining environment information or object information of a specific environment;
An image recognition unit recognizing an environment or an object from the obtained information;
An intention grasping unit to grasp a user's intention based on the recognized environment or object;
An image display unit which displays the recognized environment or object and the intention of the user to the outside; And
Wearable robot control system comprising a control signal generating unit for generating a control signal for operating the upper or lower limb wearable robot as the user intended.
사용자의 손이나 팔에 착용되어 동작되는 상지 착용형 로봇 또는 사용자의 발이나 하체에 착용되어 동작되는 하지 착용형 로봇의 제어방법에서,
특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 스스로 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 상지 또는 하지 착용형 로봇을 제어하기 위한 제어 신호를 생성하는 단계; 및
상기 생성된 제어 신호에 의해 상기 상지 또는 하지 착용형 로봇이 구동되는 단계를 포함하고,
상기 제어 신호에 의해, 상기 상지 착용형 로봇이 사용자의 의도를 파악하여, 물체를 잡아 이동하도록 제어되거나, 상기 하지 착용형 로봇이 사용자의 도보 이력 또는 도착지 정보를 바탕으로 사용자의 의도를 파악하여, 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어되는 것을 특징으로 하는 착용형 로봇 제어방법.
In the control method of the upper limb wearable robot that is worn and operated on the user's hand or arm or the lower limb wearable robot that is worn and operated on the user's foot or lower body,
Control to acquire the environmental information or object information of a specific environment, recognize the specific environment from the obtained information and grasp the user's intention, and control the upper or lower limb worn robot to meet the user's intention in the specific environment. Generating a signal; And
And driving the upper or lower leg worn robot by the generated control signal,
By the control signal, the upper limb worn robot is controlled to grasp the user's intention, to grab and move the object, or the lower limb worn robot to grasp the user's intention based on the user's walking history or destination information, Wearable robot control method characterized in that it is controlled to avoid obstacles or to walk in a walking mode suitable for a specific environment.
삭제delete 제10항에 있어서,
상기 상지 착용형 로봇인 경우,
상기 획득되는 물체 정보는, 상기 특정 환경 내에 위치하는 상기 상지 착용형 로봇의 정보를 포함하는 것을 특징으로 하는 착용형 로봇 제어방법.
The method of claim 10,
In the case of the upper limb wearable robot,
The acquired object information, wearable robot control method characterized in that it comprises information of the upper limbs wearable robot located in the specific environment.
제10항에 있어서, 상기 특정 환경의 정보로부터 제어 신호를 생성하는 단계는,
상기 특정 환경의 환경 정보 또는 물체 정보를 획득하는 단계;
상기 획득된 정보로부터 환경 또는 물체를 인식하는 단계;
상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 단계
상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 단계; 및
상기 사용자의 의도대로 상기 상지 또는 하지 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 착용형 로봇 제어방법.
The method of claim 10, wherein the generating of the control signal from the information of the specific environment,
Obtaining environment information or object information of the specific environment;
Recognizing an environment or an object from the obtained information;
Determining a user's intention based on the recognized environment or object
Displaying the recognized environment or object and the intention of the user to the outside; And
Wearing robot control method comprising the step of generating a control signal for operating the upper or lower leg wearable robot as the user intended.
KR1020180028537A 2018-03-12 2018-03-12 Wearable robot control system using augmented reality and method for controlling wearable robot using the same KR102046351B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180028537A KR102046351B1 (en) 2018-03-12 2018-03-12 Wearable robot control system using augmented reality and method for controlling wearable robot using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180028537A KR102046351B1 (en) 2018-03-12 2018-03-12 Wearable robot control system using augmented reality and method for controlling wearable robot using the same

Publications (2)

Publication Number Publication Date
KR20190115483A KR20190115483A (en) 2019-10-14
KR102046351B1 true KR102046351B1 (en) 2019-12-02

Family

ID=68171432

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180028537A KR102046351B1 (en) 2018-03-12 2018-03-12 Wearable robot control system using augmented reality and method for controlling wearable robot using the same

Country Status (1)

Country Link
KR (1) KR102046351B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089998A (en) * 2020-12-22 2022-06-29 주식회사 에이스로보테크 Collaboration system of smart factory in argumented reality
KR20240024611A (en) * 2022-08-17 2024-02-26 삼성전자주식회사 Electronic apparatus of performing a safety function and control method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174692A (en) * 2002-11-29 2004-06-24 Mitsubishi Heavy Ind Ltd Man-machine robot and control method of man machine robot
JP2017524281A (en) * 2014-05-20 2017-08-24 ユニヴァーシティ オブ ワシントン Systems and methods for surgical visualization of mediated reality

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010076786A (en) 2000-01-28 2001-08-16 오길록 Remote-Controlled Robot System and Method using VR technology
KR101108927B1 (en) 2009-03-24 2012-02-09 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR20130067450A (en) * 2011-12-14 2013-06-24 한국전자통신연구원 Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service
US9599821B2 (en) * 2014-08-08 2017-03-21 Greg Van Curen Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174692A (en) * 2002-11-29 2004-06-24 Mitsubishi Heavy Ind Ltd Man-machine robot and control method of man machine robot
JP2017524281A (en) * 2014-05-20 2017-08-24 ユニヴァーシティ オブ ワシントン Systems and methods for surgical visualization of mediated reality

Also Published As

Publication number Publication date
KR20190115483A (en) 2019-10-14

Similar Documents

Publication Publication Date Title
US11596483B2 (en) Motion execution of a robotic system
US10660716B2 (en) Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system
US11872006B2 (en) Systems and methods for onscreen identification of instruments in a teleoperational medical system
US11589937B2 (en) Systems and methods for constraining a virtual reality surgical system
JP5982542B2 (en) Method and system for detecting the presence of a hand in a minimally invasive surgical system
JP6000387B2 (en) Master finger tracking system for use in minimally invasive surgical systems
JP5702798B2 (en) Method and apparatus for hand gesture control in a minimally invasive surgical system
EP2480157B1 (en) System for hand control of a teleoperated minimally invasive slave surgical instrument
CN107249497A (en) Operating room and operative site are perceived
US11559365B2 (en) Systems and methods for entering and exiting a teleoperational state
CN113194866A (en) Navigation assistance
KR102046351B1 (en) Wearable robot control system using augmented reality and method for controlling wearable robot using the same
US20210393331A1 (en) System and method for controlling a robotic surgical system based on identified structures
US20200205902A1 (en) Method and apparatus for trocar-based structured light applications
CN114845654A (en) Systems and methods for identifying and facilitating intended interaction with a target object in a surgical space
Veras et al. Design and implementation of visual-haptic assistive control system for virtual rehabilitation exercise and teleoperation manipulation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant