KR102046351B1 - Wearable robot control system using augmented reality and method for controlling wearable robot using the same - Google Patents
Wearable robot control system using augmented reality and method for controlling wearable robot using the same Download PDFInfo
- Publication number
- KR102046351B1 KR102046351B1 KR1020180028537A KR20180028537A KR102046351B1 KR 102046351 B1 KR102046351 B1 KR 102046351B1 KR 1020180028537 A KR1020180028537 A KR 1020180028537A KR 20180028537 A KR20180028537 A KR 20180028537A KR 102046351 B1 KR102046351 B1 KR 102046351B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- information
- wearable robot
- intention
- robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에서, 상기 착용형 로봇 제어시스템은 착용형 로봇 및 증강현실장치를 포함한다. 상기 착용형 로봇은 사용자에 직접 장착되어 동작을 수행한다. 상기 증강현실장치는 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여 사용자에게 알려주고, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 직접 제어한다. 상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득한다. In the wearable robot control system using augmented reality and the wearable robot control method using the same, the wearable robot control system includes a wearable robot and an augmented reality device. The wearable robot is mounted directly on a user to perform an operation. The augmented reality device obtains environmental information or object information of a specific environment, recognizes a specific environment from the obtained information, grasps the intention of the user and informs the user, and the wearable robot to match the user's intention in a specific environment Direct control. The augmented reality device is fixed to the user, and obtains the same information as the information of the specific environment obtained from the user's point of view.
Description
본 발명은 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에 관한 것으로, 더욱 상세하게는 사용자에 직접 착용되는 착용형 로봇에 적용되어, 주변 환경 정보를 바탕으로 착용자의 동작의 의도를 파악하여 사용자에게 알려주고 착용형 로봇을 제어할 수 있는 증강현실을 이용한 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법에 관한 것이다.The present invention relates to a wearable robot control system and a wearable robot control method using the same. More particularly, the present invention is applied to a wearable robot directly worn by a user, to grasp the intention of the wearer's operation based on the surrounding environment information. The present invention relates to a wearable robot control system using augmented reality that can notify a user and control a wearable robot, and a wearable robot control method using the same.
최근 증강현실을 이용한 기술들이 다양한 기술분야에 적용되고 있으며, 로봇의 제어 기술에도 적용되고 있다. 도 1은 종래기술에서의 증강현실을 이용한 로봇 제어기술을 개략적으로 나타낸 블록도이며, 대한민국 등록특허 제10-1108927호, 대한민국 공개특허 제10-2001-0076786호 등의 기술들의 핵심 구성을 나타낸 도면이라 할 수 있다. Recently, technologies using augmented reality have been applied to various technical fields, and are also applied to the control technology of robots. 1 is a block diagram schematically showing a robot control technology using augmented reality in the prior art, and shows the core configuration of technologies such as Republic of Korea Patent No. 10-1108927, Republic of Korea Patent Publication No. 10-2001-0076786 This can be called.
즉, 도 1에 도시된 바와 같이, 종래의 증강현실을 이용한 로봇 제어기술에서는, 로봇의 동작이 필요한 환경(20), 예를 들어 수술로봇이라면 환자의 수술 부위, 청소로봇이라면 청소 구역 등으로부터 환경 정보(10)를 획득하고, 이러한 환경정보를 바탕으로 증강현실(11) 기술을 적용하여, 사용자(12)에게 환경 정보에 결합된 증강현실 또는 가상현실을 제공하게 된다. That is, as shown in Figure 1, in the conventional robot control technology using augmented reality, the environment that requires the operation of the robot, for example, the surgical robot, the surgical site of the patient, if the cleaning robot environment from the cleaning area, etc. By acquiring the
그러면, 사용자(12)는 상기 증강현실을 바탕으로, 특정 환경(20)에 위치한 로봇(13)에게 필요한 동작의 수행을 위한 제어 신호를 제공하며, 이러한 제어 신호를 바탕으로 로봇(13)은 일련의 동작, 예를 들어, 수술 동작 또는 청소 동작 등의 동작을 수행하게 된다. Then, the
즉, 종래의 증강현실 기술은 단순히 특정 환경(20)에 대한 정보를 제공하는 것에 불과하며, 사용자는 이렇게 제공되는 정보를 바탕으로 로봇의 동작을 위한 제어 신호를 별도로 생성하여 특정 환경에서 필요한 동작을 수행하는 것에 불과하였다. 이 경우, 상기 로봇은 환경 정보를 제공하는 특정 환경(20)에 위치하는 것으로 제한되는 한계가 있었다. That is, the conventional augmented reality technology is merely to provide information about a
나아가, 최근에는 착용형 로봇에 대한 기술이 발달하면서, 착용형 로봇이 사용자의 의도를 스스로 파악하여 필요한 구동을 수행하는 기술도 개발되고 있다. Furthermore, in recent years, as the technology for the wearable robot is developed, a technology for the wearable robot to grasp the intention of the user and perform the necessary driving is also developed.
한편, 상기 착용형 로봇에서, 사용자의 의도를 파악하는 기술로는, 로봇에 직접 의사를 전달하는 방법, EMG(electromyography) 센서를 이용하는 방법, 뇌파를 이용하는 방법 등이 적용되고 있는데, 로봇에 직접 의사를 전달하는 방법의 경우 사용자의 의도를 전달하기 위한 적절한 외력 등을 인가하는 것이 어려운 문제가 있고, EMG 센서를 이용하는 방법의 경우 근전도 신호에 포함되는 노이즈나 별도의 신호 처리가 필요한 문제가 있으며, 뇌파를 이용하는 방법의 경우 뇌파를 통한 세부 동작의 의도 파악이 불가능하며 사용자가 뇌파를 일정하게 유도하는 것이 용이하지 않은 문제가 있다. On the other hand, in the wearable robot, as a technique for determining the intention of the user, a method of directly informing a doctor, a method of using an electromyography (EMG) sensor, a method of using an brain wave, and the like are applied. In the case of transmitting a method, it is difficult to apply an appropriate external force for transmitting a user's intention, and in the case of using the EMG sensor, there is a problem in which noise included in an EMG signal or a separate signal processing is required. In the case of using the method, it is impossible to grasp the intention of the detailed operation through the EEG, and there is a problem that the user cannot easily induce EEG.
이에 따라, 착용형 로봇에서 사용자의 의도를 파악하는 새로운 방법에 대한 필요성이 요구되고 있는 상황이다. Accordingly, there is a need for a new method of detecting a user's intention in a wearable robot.
이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 환경 정보가 직접 사용자에게 착용된 착용형 로봇에 제공됨에 따라, 환경 정보를 바탕으로 사용자의 동작 의도를 보다 용이하게 파악하여 이를 사용자에게 피드백하고, 필요한 동작을 보다 즉각적이고 정확하게 구현할 수 있는 증강현실을 이용한 착용형 로봇 제어시스템에 관한 것이다. Accordingly, the technical problem of the present invention has been conceived in this respect, and the object of the present invention is to provide a wearable robot worn by the user directly with environmental information, so that the user can easily grasp the operation intention of the user based on the environmental information. The present invention relates to a wearable robot control system using augmented reality that can feed back to a user and implement a necessary motion more immediately and accurately.
또한, 본 발명의 다른 목적은 상기 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법에 관한 것이다. In addition, another object of the present invention relates to a wearable robot control method using the wearable robot control system.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 착용형 로봇 제어시스템은 착용형 로봇 및 증강현실장치를 포함한다. 상기 착용형 로봇은 사용자에 직접 장착되어 동작을 수행한다. 상기 증강현실장치는 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 직접 제어한다. 상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득한다. Wearable robot control system according to an embodiment for realizing the object of the present invention includes a wearable robot and augmented reality device. The wearable robot is mounted directly on a user to perform an operation. The augmented reality device obtains environmental information or object information of a specific environment, recognizes a specific environment from the obtained information, grasps the user's intention, and directly controls the wearable robot to meet the user's intention in a specific environment. . The augmented reality device is fixed to the user, and obtains the same information as the information of the specific environment obtained from the user's point of view.
일 실시예에서, 상기 증강현실장치는, 사용자의 안면에 착용되어, 사용자가 획득하는 시각 정보와 동일한 영상 정보를 획득할 수 있다. In an embodiment, the augmented reality device may be worn on a user's face to obtain image information identical to visual information acquired by the user.
일 실시예에서, 상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 물체 또는 장애물의 종류, 위치 또는 형상일 수 있다. In an embodiment, the object information obtained by the augmented reality device may be a type, a location, or a shape of an object or an obstacle located in a specific environment.
일 실시예에서, 상기 착용형 로봇은, 사용자의 손이나 팔에 착용되는 상지 착용형 로봇일 수 있다. In one embodiment, the wearable robot may be an upper limb worn robot worn on a user's hand or arm.
일 실시예에서, 상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 상기 착용형 로봇의 정보를 더 포함할 수 있다. In one embodiment, the object information obtained by the augmented reality device may further include information of the wearable robot located in a specific environment.
일 실시예에서, 상기 증강현실장치는, 상기 착용형 로봇이 사용자의 의도에 따라 상기 물체를 잡도록 제어할 수 있다. In one embodiment, the augmented reality device, the wearable robot may control to hold the object according to the user's intention.
일 실시예에서, 상기 착용형 로봇은, 사용자의 발이나 하체에 착용되는 하지 착용형 로봇일 수 있다. In one embodiment, the wearable robot may be a leg wearable robot worn on the user's foot or lower body.
일 실시예에서, 상기 증강현실장치는, 상기 착용형 로봇이 사용자의 의도에 따라 상기 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어할 수 있다. In one embodiment, the augmented reality device, the wearable robot may control to avoid the obstacle or walk in a walking mode suitable for a specific environment according to the user's intention.
일 실시예에서, 상기 증강현실장치는, 특정 환경의 환경 정보 또는 물체 정보를 획득하는 영상 획득부, 상기 획득된 정보로부터 환경 또는 물체를 인식하는 영상 인식부, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 의도 파악부, 상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 영상 표시부, 및 상기 사용자의 의도대로 상기 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 제어신호 생성부를 포함할 수 있다. In one embodiment, the augmented reality device, an image acquisition unit for obtaining environmental information or object information of a specific environment, an image recognition unit for recognizing an environment or an object from the obtained information, based on the recognized environment or object An intention grasping unit for grasping a user's intention, an image display unit for displaying the recognized environment or object, and an intention of the user to the outside, and a control for generating a control signal for operating the wearable robot according to the user's intention It may include a signal generator.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 착용형 로봇 제어방법은 사용자에 직접 장착되어 동작을 수행하는 착용형 로봇을 제어하는 것으로, 특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 착용형 로봇을 제어하기 위한 제어 신호를 생성하는 단계, 및 상기 생성된 제어 신호에 의해 상기 착용형 로봇이 구동되는 단계를 포함한다. Wearable robot control method according to an embodiment for realizing another object of the present invention to control a wearable robot that is mounted directly to the user to perform an operation, by obtaining the environmental information or object information of a specific environment Recognizing a specific environment from the obtained information and grasping the user's intention, generating a control signal for controlling the wearable robot to meet the user's intention in a specific environment, and by the generated control signal The wearable robot is driven.
일 실시예에서, 상기 획득되는 환경 정보 또는 물체 정보는, 사용자기 획득하는 시각 정보와 동일한 영상 정보일 수 있다. In an embodiment, the obtained environmental information or object information may be image information identical to visual information acquired by a user.
일 실시예에서, 상기 착용형 로봇이 상지 착용형 로봇인 경우, 상기 획득되는 물체 정보는, 특정 환경 내에 위치하는 상기 착용형 로봇의 정보를 포함할 수 있다. In one embodiment, when the wearable robot is an upper limb worn robot, the obtained object information may include information of the wearable robot located in a specific environment.
일 실시예에서, 상기 특정 환경의 정보로부터 제어 신호를 생성하는 단계는, 상기 특정 환경의 환경 정보 또는 물체 정보를 획득하는 단계, 상기 획득된 정보로부터 환경 또는 물체를 인식하는 단계, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 단계, 상기 인식된 환경 또는 물체, 및 사용자의 의도를 외부로 표시하는 단계, 및 상기 사용자의 의도대로 상기 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 단계를 포함할 수 있다. In an embodiment, the generating of the control signal from the information of the specific environment may include obtaining environment information or object information of the specific environment, recognizing an environment or an object from the obtained information, and the recognized environment. Or determining the intention of the user based on an object, displaying the recognized environment or object, and the intention of the user to the outside, and generating a control signal for operating the wearable robot according to the user's intention. It may include a step.
본 발명의 실시예들에 의하면, 종래의 사용자의 의도를 파악하는 착용형 로봇을 구동하는 방법에서의 오류나 문제를 해결하여, 증강현실장치에서 인식되는 정보를 바탕으로 사용자의 의도가 직접 파악되면 해당 의도에 부합하도록 착용형 로봇이 직접 제어됨에 따라, 영상 정보 등과 같은 보다 객관적인 자료를 바탕으로 사용자의 의도 파악이 가능하므로, 착용형 로봇의 구동의 정확성을 향상시키는 것은 물론 보다 즉각적인 동작의 구현이 가능하게 된다. According to embodiments of the present invention, by solving an error or a problem in a method of driving a wearable robot that detects the intention of the conventional user, if the intention of the user is directly detected based on the information recognized by the augmented reality device As the wearable robot is directly controlled to meet the intention, it is possible to grasp the user's intention based on more objective data such as image information, thereby improving the accuracy of driving the wearable robot and enabling more immediate operation. Done.
특히, 증강현실장치의 영상 획득부는 특정 환경의 환경 정보를 영상을 통해 획득하되, 착용형 로봇이 장착된 사용자와 동일한 시각에서 관측되는 정보와 동일한 정보를 획득하므로, 착용형 로봇에 대한 직접적인 제어를 수행함에 있어, 사용자의 물리적인 위치를 고려한 최적의 동작 제어를 수행할 수 있게 된다. In particular, the image acquisition unit of the augmented reality device obtains the environmental information of a specific environment through the image, but obtains the same information as the information observed at the same time as the user equipped with the wearable robot, direct control of the wearable robot In performing, it is possible to perform the optimal motion control considering the physical location of the user.
이 경우, 획득되는 정보는 환경 정보 또는 물체 정보로서, 해당 환경의 특성을 파악하여 착용형 로봇의 동작을 보다 정확하게 수행할 수 있는 정보를 포함한다. In this case, the obtained information is environmental information or object information, and includes information for more accurately performing the operation of the wearable robot by grasping the characteristics of the environment.
또한, 상기 환경 정보 또는 물체 정보로부터 파악되는 사용자의 의도를 외부로 표시하여 사용자가 피드백 받아 이를 인지함에 따라 사용자의 의도가 정확하게 반영되고 있는지를 확인할 수 있어, 착용형 로봇을 통해 구현하려는 동작을 보다 정확하게 구현할 수 있다. In addition, by displaying the user's intention grasped from the environment information or object information to the outside, the user can check whether the user's intention is accurately reflected as the user receives the feedback, and thus the operation to be implemented through the wearable robot It can be implemented correctly.
특히 착용형 로봇이 상지 착용형 로봇인 경우라면 대개의 경우 물체를 이동시키거나 잡는 동작을 수행하는 경우가 많으므로 이를 고려하여 해당 환경에 대한 정보를 획득함에 있어 착용형 로봇에 대한 정보를 동시에 획득하여, 획득된 정보 내에서 물체에 대한 이동이나 잡는 동작의 수행을 위해 수행하여야 하는 동작을 보다 정확하고 직관적으로 제어할 수 있다. In particular, when the wearable robot is an upper limb wearable robot, in most cases, the object is moved or grabbed. Therefore, the information about the wearable robot is simultaneously acquired in acquiring information on the environment in consideration of this. In this way, it is possible to more precisely and intuitively control the operation to be performed for the movement or grabbing of the object within the obtained information.
이와 달리, 착용형 로봇이 하지 착용형 로봇인 경우라면 지면 상태나 장애물을 고려하여 보행을 하는 경우가 많으므로, 증강현실장치에서 인식되는 정보로서 장애물 또는 지면 상태에 대한 정보를 중심으로 데이터를 획득하며 이를 바탕으로 적합한 보행 모드를 선택하거나 보행 방향을 선택하는 등의 제어를 직접 수행함에 따라, 필요한 착용형 로봇의 동작을 보다 정확하게 제어할 수 있다. On the other hand, if the wearable robot is a wearable robot for the lower limb, it is often walking in consideration of ground conditions or obstacles, and thus obtains data based on information on obstacles or ground conditions as information recognized by the AR device. Based on this, a control such as selecting an appropriate walking mode or selecting a walking direction can be directly performed to more precisely control the operation of the wearable robot.
이상과 같이, 착용형 로봇의 종류에 따라, 증강현실장치로부터 인식되는 정보를 달리함으로써, 해당 착용형 로봇이 주로 수행하는 동작을 보다 정확하고 직접적으로 수행할 수 있게 된다. As described above, according to the type of the wearable robot, by changing the information recognized from the augmented reality device, it is possible to perform the operations performed mainly by the wearable robot more accurately and directly.
도 1은 종래기술에서의 증강현실을 이용한 로봇 제어기술을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 의한 증강현실을 이용한 착용형 로봇 제어시스템을 도시한 블록도이다.
도 3은 도 2의 착용형 로봇 제어시스템을 구체적으로 도시한 블록도이다.
도 4는 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 상지 착용형 로봇이 적용된 예를 도시한 블록도이다.
도 5는 도 4의 상지 착용형 로봇이 적용된 착용형 로봇 제어시스템을 도시한 예시도이다.
도 6은 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 하지 착용형 로봇이 적용된 예를 도시한 블록도이다.
도 7은 도 2의 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법을 도시한 흐름도이다. 1 is a block diagram schematically showing a robot control technology using augmented reality in the prior art.
2 is a block diagram showing a wearable robot control system using augmented reality according to an embodiment of the present invention.
3 is a block diagram illustrating in detail the wearable robot control system of FIG. 2.
4 is a block diagram illustrating an example in which the upper limb wearable robot is applied as the wearable robot in the wearable robot control system of FIG. 2.
5 is an exemplary view illustrating a wearable robot control system to which an upper limb worn robot of FIG. 4 is applied.
6 is a block diagram illustrating an example in which a wearable robot is applied as a wearable robot in the wearable robot control system of FIG. 2.
7 is a flowchart illustrating a wearable robot control method using the wearable robot control system of FIG. 2.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. As the inventive concept allows for various changes and numerous modifications, the embodiments will be described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.
상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms are used only for the purpose of distinguishing one component from another. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, the terms "comprise" or "consist of" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention.
도 2는 본 발명의 일 실시예에 의한 증강현실을 이용한 착용형 로봇 제어시스템을 도시한 블록도이다. 도 3은 도 2의 착용형 로봇 제어시스템을 구체적으로 도시한 블록도이다. 2 is a block diagram showing a wearable robot control system using augmented reality according to an embodiment of the present invention. 3 is a block diagram illustrating in detail the wearable robot control system of FIG. 2.
도 2 및 도 3을 참조하면, 본 실시예에 의한 착용형 로봇 제어시스템(2)은 증강현실장치(100) 및 착용형 로봇(200)을 포함한다. 2 and 3, the wearable
우선, 도 2에서, 특정 환경(20)이란, 착용형 로봇(200)이 동작을 수행하는 영역(area)으로 정의될 수 있으며, 3차원 공간으로 정의될 수 있다. 또한, 상기 특정 환경(20)은 고정된 영역일 수 있으며, 상기 착용형 로봇(200)의 동작에 따라 이동되는 영역일 수도 있다. First, in FIG. 2, the
한편, 상기 특정 환경(20)에는 다양한 정보가 포함될 수 있으며, 예를 들어, 상기 특정 환경(20)으로 정의된 영역의 공간의 크기나 면적은 물론, 오르막인지 내리막인지, 계단이 있는지, 내부 공간인지 외부공간인지 등과 같이 착용형 로봇(200)이 동작될 수 있는 모든 환경적 특징을 포함할 수 있다. On the other hand, the
이에 따라, 이러한, 특정 환경(20)의 모든 환경적 특징을 이하에서는 환경 정보(10)로 정의하여 서술한다. Accordingly, all the environmental features of the
나아가, 상기 특정 환경(20)에는 다양한 물체나 장애물이 위치할 수 있으며, 상기 물체나 장애물은 다양한 위치, 종류, 배열, 자세 등으로 위치할 수 있으며, 이하에서는 이러한 특정 환경(20)에 위치하는 물체나 장애물 등과 같은 것들을 물체 정보(15)로 정의하여 서술한다. Furthermore, various objects or obstacles may be located in the
본 실시예에서의 상기 착용형 로봇 제어시스템(2)에서는, 상기와 같이 정의되는 특정 환경(20)에서 정의되거나 제어되는 동작을 수행하는 착용형 로봇(200)에 대한 제어시스템에 관한 기술이지만, 본 실시예에서의 상기 착용형 로봇(200)은 이를 제어하는 증강현실장치(100)와 원격으로 이격되어 위치하지 않으며 동일한 사용자(30)에 구속된 상태에서 동작이 수행된다. In the wearable
즉, 종래 증강현실장치를 이용한 로봇제어의 경우, 도 1에 도시된 바와 같이, 로봇은 사용자나 제어 시스템이 위치하는 위치로부터 이격된 위치인 특정 환경(20)의 내부에 위치하는 것이 일반적이며, 상기 특정 환경(20)을 이탈하지 않으며 동작이 구현되는 것을 특징이다. That is, in the case of the conventional robot control using the augmented reality device, as shown in Figure 1, the robot is generally located inside the
반면, 본 실시예에서는, 상기 착용형 로봇(200)은 사용자(30)에게 직접 착용되는 로봇으로 사용자의 동작과 함께 동작하게 되며 이에 따라 상기 특정 환경(20)에만 반드시 위치하지 않을 수 있다. 나아가, 본 실시예에서 상기 착용형 로봇(200)의 동작을 직접 제어하는 상기 증강현실장치(100) 역시 사용자(30)에게 직접 장착되는 것으로, 상기 착용형 로봇(200)은 이를 제어하는 제어부인 증강현실장치(100)와 그 위치가 구속되게 된다. On the other hand, in the present embodiment, the
보다 구체적으로, 상기 증강현실장치(100)는 영상 획득부(110), 영상 인식부(120), 의도 파악부(130), 영상 표시부(140) 및 제어 신호 생성부(150)를 포함한다. More specifically, the
상기 영상 획득부(110)는 상기 특정 환경(20)의 환경 정보(10) 또는 물체 정보(15)를 획득하며, 후술하겠으나, 필요에 따라서는 상기 착용형 로봇(200)의 정보도 획득한다. The
상기 영상 획득부(110)는 예를 들어, 카메라 등과 같은 영상 촬영장비로서 상기 환경 정보(10) 또는 물체 정보(15)를 영상이나 이미지를 통해 획득하게 된다. The
나아가, 본 실시예에서 상기 증강현실장치(100)는, 도 6에 도시된 바와 같이, 고글 등의 형태로 사용자의 안면에 고정될 수 있으며, 이에 따라 상기 영상 획득부(110)는 고글 등의 전면(前面)에 고정될 수 있다. Furthermore, in the present embodiment, the
즉, 상기 영상 획득부(110)를 통해 획득되는 영상은 사용자의 눈의 위치와 동일한 위치에서 획득되는 영상인 것으로, 사용자가 시각을 통해 획득하는 시각 정보와 동일한 영상 정보일 수 있다. That is, the image acquired through the
따라서, 상기 증강현실장치(100)를 통해 파악되는 상기 특정 환경(20)에 대한 정보는 사용자가 시각을 통해 파악하는 정보와 일치하게 되며, 이에 따라 상기 착용형 로봇(200)의 구동을 제어함에 있어 사용자를 중심으로 한 제어 신호를 생성할 수 있다. Therefore, the information about the
상기 영상 인식부(120)는 상기 영상 획득부(110)를 통해 획득된 정보로부터 상기 특정 환경(20)의 환경 또는 물체를 인식한다. The
이 경우, 상기 영상 인식부(120)는 1차원적으로 상기 영상 획득부(110)를 통해 획득되는 영상이나 이미지로부터, 상기 특정 환경(20)의 내용을 파악하는 것으로, 상기 특정 환경(20)은 앞서 설명한 바와 같이 환경 정보와 물체 정보를 포함하므로, 상기 영상 인식부(120)를 통해서는 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징들을 파악하게 된다. In this case, the
예를 들어, 상기 특정 환경(20)의 공간이 내리막/오르막 공간인지 여부, 계단의 존재 여부, 실내/실외인지 여부 등의 환경적 특징과, 상기 특정 환경(20)에 위치하는 물체 또는 장애물의 종류, 위치, 형상, 배열 등의 물체의 특징을 파악하게 된다. For example, the environmental characteristics such as whether the space of the
나아가, 상기 영상 인식부(120)에서는 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징을 인식함에 있어, 증강현실 기술을 적용하여 증강현실에 기초한 상기 특정 환경(20)의 환경적 특징 또는 물체의 특징을 생성할 수 있다. Furthermore, in recognizing the environmental feature of the
이 경우, 증강현실 기술은 다양하게 접목될 수 있으며, 상기 특정 환경(20)에 겹쳐지는 3차원의 가상 이미지는, 상기 착용형 로봇(200)의 구동을 보조하거나 보다 정확하고 직관적인 구동을 유도하기 위한 이미지일 수 있으며, 상기 특정 환경(20)에 대한 보다 정확한 내용 파악을 위한 이미지일 수도 있고, 이와 달리, 다양한 목적으로 생성된 가상의 이미지일 수 있다. In this case, augmented reality technology can be applied in various ways, and the three-dimensional virtual image overlapping the
상기 의도 파악부(130)는 상기 영상 인식부(120)로부터 인식된 상기 특정 환경(20)에 대한 환경적 특징 또는 물체의 특징을 바탕으로 사용자의 의도를 파악한다. The
이 경우, 상기 영상 인식부(120)로부터 인식된 특징은, 이미 설명한 바와 같이 증강현실이 접목되어 인식된 특징일 수 있으며, 따라서, 상기 의도 파악부(130)는 상기 특정 환경(20)의 실체적 특징과 필요한 가상의 이미지가 결합된 내용으로부터 사용자의 의도를 파악하게 된다. In this case, the feature recognized by the
이를 위해, 상기 의도 파악부(130)는 데이터 베이스와 판단부를 포함하여, 상기 데이터베이스에는 사용자의 상태, 사용자에 착용된 착용형 로봇(200)의 종류 및 동작 가능 정보, 착용형 로봇의 구동 히스토리 등의 정보가 기 저장되어야 하며, 상기 판단부에서는 상기 데이터베이스의 내용과 상기 영상 인식부(120)로부터 제공되는 인식된 특정 환경에 대한 정보를 바탕으로 사용자의 의도를 판단하게 된다. To this end, the
예를 들어, 사용자가 보행이 어려워 착용형 로봇으로 보행을 보조받는 상황이며, 사용자가 현재까지 도보로 이동해온 이력이 있으며, 목표로 하는 도착지에 대한 정보가 있는 경우라면, 상기 의도 파악부(130)는 상기 인식된 특정 환경에 대한 정보로부터 사용자가 상기 목표로 하는 도착지까지 도보로 이동할 것이라는 사용자의 의도를 판단할 수 있다. For example, when the user is difficult to walk and is assisted with a wearable robot, and the user has a history of walking to the present, and there is information on a target destination, the intention identifying unit 130 ) May determine the user's intention that the user will walk to the target destination from the information about the recognized specific environment.
이와 달리, 사용자가 손에 착용형 로봇을 착용한 상태이고, 사용자가 특정 물건을 이동시키기 위한 동작을 목적으로 한다면, 상기 의도 파악부(130)는 상기 인식된 특정 환경에 대한 정보로부터 사용자가 상기 특정 물건을 이동시킬 것이라는 사용자의 의도를 판단할 수 있다. On the contrary, if the user is wearing a wearable robot in his hand and the user aims to move a specific object, the
상기 영상 표시부(140)는 상기 영상 인식부(120)에서 인식된 상기 특정 환경(20)의 환경 또는 물체에 대한 내용, 및 상기 의도 파악부(130)에서 파악되는 사용자의 의도를 외부로 표시한다. The
이 경우, 상기 표시되는 영상은 상기 영상 인식부(120)에서 상기 특정 환경(20)으로부터 인식된 내용과 상기 증강현실 기술이 접목되어 생성된 환경적 특징 또는 물체의 특징에 대한 내용을 포함하게 된다. In this case, the displayed image includes contents recognized by the
또한, 상기 의도 파악부(130)에서 파악되는 사용자의 의도를 표시 가능한 형태로 표시할 수도 있다. 예를 들어, 사용자의 의도가 도착지까지의 도보 이동이라고 판단된다면, 상기 도착지까지의 이동 경로를 사용자의 의도로써 표시할 수 있다. 이와 달리, 사용자의 의도가 특정 물건의 이동이라고 판단된다면, 상기 특정 물체의 이동 경로를 사용자의 의도로써 표시할 수도 있다. In addition, the intention of the user grasped by the
또한, 상기 표시되는 영상은, 앞서 상기 증강현실장치가, 예를 들어 고글 등의 형태로 사용자의 안면에 고정된다면, 상기 고글의 유리창 등을 통해 사용자가 시각적으로 인식할 수 있는 영상일 수 있다. In addition, the displayed image may be an image that the user can visually recognize through the glass window of the goggles, if the augmented reality device is fixed to the face of the user, for example, in the form of goggles.
이와 달리, 별도의 디스플레이 창 등을 통해 영상이 표시될 수도 있다. Alternatively, the image may be displayed through a separate display window.
그리하여, 사용자는, 특히 사용자의 의도로 표시되는 내용을 바탕으로 스스로 의도한 바와 일치하는 지의 여부를 재차 확인할 수 있게 된다. Thus, the user can again check whether or not the user's intention is consistent with the intention based on the contents displayed by the user's intention.
상기 제어 신호 생성부(150)은 상기 파악된 사용자의 의도대로 상기 착용형 로봇(200)을 동작시키기 위한 제어 신호를 생성한다. The control
예를 들어, 착용형 로봇(200)으로 보행을 보조받는 상황에서, 상기 의도 파악부(130)에서 판단된 사용자의 의도가 목적지까지 도보로 이동하는 것이라면, 상기 제어 신호 생성부(150)는 상기 목적지까지의 생성된 최적 경로 상에 장애물이나 기타 회피가 필요한 영역이 있는지를 바탕으로 상기 착용형 로봇(200)을 이동시키기 위한 제어 신호를 생성한다.For example, in a situation in which the
이와 달리, 착용형 로봇(200)으로 물건 이동 동작을 보조받는 상황에서, 상기 의도 파악부(130)에서 판단된 사용자의 의도가 특정 물건을 이동시키는 것이라면, 상기 제어 신호 생성부(150)는 상기 특정 물건의 이동을 위해 상기 착용형 로봇(200)이 동작되어야 하는 동작을 구현시킬 수 있는 제어 신호를 생성하게 된다. On the contrary, in a situation where the movement of the object is assisted by the
이상과 같이, 본 실시예에서는, 상기 제어 신호 생성부(150)은 상기 인식된 사용자의 의도대로 상기 착용형 로봇(200)을 직접 동작시킬 수 있는 제어 신호를 직접 생성하며, 이렇게 생성된 제어 신호는 상기 착용형 로봇(200)으로 직접 제공된다. As described above, in the present embodiment, the
상기 착용형 로봇(200)은 사용자의 신체에 직접 착용되어 사용자의 신체적 활동을 보조하는 로봇으로, 예를 들어, 손이나 팔에 착용되는 의수, 다리나 발에 착용되는 의족, 외골격에 착용되는 상/하지 로봇 등의 다양한 착용형 로봇일 수 있다. The
또한, 본 실시예에서의 상기 착용형 로봇(200)은 상기 증강현실장치(100)에 의해 직접 제어되는 것으로, 사용자에 직접 착용되어 사용자와 함께 동작하는 것으로, 상기 특정 환경(20)의 내부에서 필요한 동작을 수행할 수도 있으나, 이와 달리 상기 특정 환경(20)의 내부에 대한 정보를 바탕으로 상기 특정 환경(20)의 외부에서 필요한 동작을 수행할 수도 있음은 이미 설명한 바와 같다. In addition, the
도 4는 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 상지 착용형 로봇이 적용된 예를 도시한 블록도이다. 4 is a block diagram illustrating an example in which the upper limb wearable robot is applied as the wearable robot in the wearable robot control system of FIG. 2.
도 4를 참조하면, 상기 착용형 로봇(200)의 일 예로, 사용자의 손이나 팔에 착용되는 상지 착용형 로봇(210)일 수 있다. Referring to FIG. 4, an example of the
상지 착용형 로봇(210)의 경우, 사용자의 손이나 팔에 착용되어, 주로 물체를 이동시키거나 물체를 쥐거나 하는 등, 사용자가 손이나 팔을 통해 수행하는 동작과 동일한 동작을 수행하게 된다. In the case of the upper limb
이에 따라, 상기 영상 획득부(110)에서 획득되는 영상에는, 도 4에 도시된 바와 같이, 상기 특정 환경(20)에서의 환경정보(10), 물체 정보(15) 외에, 상기 상지 착용형 로봇(210)에 대한 정보가 포함될 수 있다. Accordingly, the image obtained by the
그리하여, 상기 상지 착용형 로봇(210)을 통해 상기 특정 환경(20)에 위치하는 물체를 이동하거나 쥐는 경우, 상기 상지 착용형 로봇(210)의 특정 환경(20) 내에서의 위치 또는 자세 등에 대한 정보와 함께 상기 물체에 대한 정보를 동시에 획득할 수 있으며, 이를 바탕으로 사용자의 의도가 파악되고, 상기 제어 신호 생성부(150)에서는 사용자의 의도를 바탕으로 상기 상지 착용형 로봇(210)의 동작을 위한 제어 신호를 직접 생성할 수 있고, 상기 제어 신호를 바탕으로 상기 상지 착용형 로봇(210)은 물체를 이동하거나 쥐는 방법에 따른 필요한 동작을 수행하게 된다. Thus, when moving or grasping an object located in the
이 경우, 상기 증강현실장치(100)에서 획득되는 정보는 일정 시간 간격을 바탕으로 반복적으로 갱신되며, 이에 따라 상기 제어 신호 생성부(150)에서는 상기 상지 착용형 로봇(210)의 이동 상황을 실시간으로 모니터링하면서 상기 상지 착용형 로봇(210)이 물체를 이동하거나 쥐기 위해 필요한 제어 신호를 실시간으로 제공하게 된다. In this case, the information obtained from the
도 5는 도 4의 상지 착용형 로봇이 적용된 착용형 로봇 제어시스템을 도시한 예시도이다. 5 is an exemplary view illustrating a wearable robot control system to which an upper limb worn robot of FIG. 4 is applied.
상기 상지 착용형 로봇(210)의 예로서, 도 5에 도시된 바와 같은 로봇 의수가 사용자의 손에 착용될 수 있으며, 사용자는 고글의 형태로 안면에 상기 증강현실장치(100)를 착용할 수 있다. As an example of the upper limb
그리하여, 상기 증강현실장치(100)는 상기 특정 환경(20)의 내부에 대한 환경 정보(10), 물체 정보(15) 및 동작의 수행에 따라 상기 특정 환경(20)의 내부에 위치하게 되는 상기 상지 착용형 로봇(210)에 대한 정보를 획득하여 사용자의 의도를 파악하고, 상기 파악된 사용자의 의도를 바탕으로 상기 상지 착용형 로봇(210)에 대한 제어 신호를 생성하고, 이를 바탕으로 상기 상지 착용형 로봇(210)이 구동하게 된다. Thus, the
한편, 상기 상지 착용형 로봇(210)은 도 5를 통해 예시된 것 외에, 다양한 형태로 사용자(30)에게 착용될 수 있으며, 필요로하는 구동 역시 다양하게 변화될 수 있다. Meanwhile, the upper limb
도 6은 도 2의 착용형 로봇 제어시스템에서, 착용형 로봇으로 하지 착용형 로봇이 적용된 예를 도시한 블록도이다. 6 is a block diagram illustrating an example in which a wearable robot is applied as a wearable robot in the wearable robot control system of FIG. 2.
도 6을 참조하면, 상기 착용형 로봇(200)의 일 예로, 사용자의 발이나 하체에 착용되는 하지 착용형 로봇(220)일 수 있다. Referring to FIG. 6, an example of the
하지 착용형 로봇(220)의 경우, 사용자의 발이나 하체에 착용되어, 주로 사용자를 보행시키거나 이동시키는 등, 사용자가 발이나 하체를 통해 수행하는 동작과 동일한 동작을 수행하게 된다. In the case of the lower
다만, 일반적으로 보행이나 이동 등의 행위를 수행함에 있어서는 사용자(30)의 전면 또는 측면의 환경에 대한 정보로 충분할 수 있으며, 상기 하지 착용형 로봇(220)이 상기 특정 환경(20)의 내부에 위치할 필요는 없게 된다. However, in general, in performing an action such as walking or moving, information about the environment of the front or side of the
이에 따라, 상기 영상 획득부(110)에서 획득되는 영상에는, 도 5에 도시된 바와 같이, 상기 특정 환경(20)에서의 환경정보(10) 및 물체 정보(15)로 충분할 수 있다. Accordingly, as illustrated in FIG. 5, the
물론, 상기 하지 착용형 로봇(220)을 통해 특정 물건을 이동시키는 등의 동작을 수행하여야 하며, 이에 따라 상기 영상 획득부(110)에서 획득되는 영상에 상기 하지 착용형 로봇(220)에 대한 정보도 포함되는 것이 보다 정확한 동작을 위해 필요하다면 상기 하지 착용형 로봇(220)에 대한 정보도 상기 증강현실장치(100)로 제공될 수 있다. Of course, an operation such as moving a specific object through the lower
그리하여, 상기 하지 착용형 로봇(220)을 통해 상기 특정 환경(20)에 위치하는 장애물을 피하면서 보행하거나 이동하는 경우, 상기 특정 환경(20) 내에서의 환경 정보(10) 및 장애물 등과 같은 물체의 위치 등에 관한 물체 정보(15)를 획득하여야 하며, 이를 바탕으로 사용자의 의도를 파악하고, 상기 제어 신호 생성부(150)에서는 상기 파악된 사용자의 의도를 바탕으로 상기 하지 착용형 로봇(220)의 동작을 위한 제어 신호를 직접 생성할 수 있고, 상기 제어 신호를 바탕으로 상기 하지 착용형 로봇(220)은 장애물을 회피하면서 보행이나 이동을 하는 등의 동작을 수행하게 된다. 또한, 장애물이 계단이나 경사로 등인 경우라면, 상기 장애물을 극복하며 보행이나 이동을 하기 위해, 상기 하지 착용형 로봇(220)은 구동부(미도시)의 강성을 변화시키며 제어되어야 하며, 이에 상기 제어 신호 생성부(150)에서는 상기 하지 착용형 로봇(220)의 동작을 위한 제어 신호와 함께 강성을 변화시키기 위한 제어신호도 동시에 생성할 수 있다.Thus, when walking or moving while avoiding an obstacle located in the
이 경우, 상기 증강현실장치(100)에서 획득되는 정보는 일정 시간 간격을 바탕으로 반복적으로 갱신되며, 이에 따라 상기 제어 신호 생성부(150)에서는 상기 하지 착용형 로봇(220)의 이동 상황에 대한 정보가 저장되는 데이터 베이스의 데이터를 바탕으로 상기 하지 착용형 로봇(220)의 이동 경로나 장애물 회피 경로 등을 수행하기 위해 필요한 제어 신호를 실시간으로 제공하게 된다. In this case, the information obtained by the
이상과 같이, 본 실시예에서의 착용형 로봇 제어시스템(2)은 사용자(30)에게 착용되는 로봇의 형태에 따라 다양한 영상 데이터를 획득하며, 이를 통해 착용형 로봇의 구동에 최적의 제어 신호를 생성하여, 착용형 로봇을 구동할 수 있다. As described above, the wearable
도 7은 도 2의 착용형 로봇 제어시스템을 이용한 착용형 로봇 제어방법을 도시한 흐름도이다. 7 is a flowchart illustrating a wearable robot control method using the wearable robot control system of FIG. 2.
도 7을 참조하면, 본 실시예에 의한 착용형 로봇 제어시스템(2)을 이용한 착용형 로봇 제어방법에서는, 우선, 상기 특정 환경(20)의 환경 정보(10) 또는 물체 정보(15)를 획득하여, 이를 바탕으로 증강현실을 위한 가상의 영상이나 이미지를 결합하여 상기 특정 환경(20)에서의 사용자의 의도에 부합하여 상기 착용형 로봇(200)을 제어하기 위한 제어 신호를 생성한다(단계 S10). Referring to FIG. 7, in the wearable robot control method using the wearable
이후, 상기 생성된 제어 신호를 바탕으로 상기 착용형 로봇(200)은 구동되며(단계 S20), 이 경우, 상기 착용형 로봇(200)이 구동되는 환경은 상기 특정 환경(20)의 내부 또는 외부일 수 있음은 앞서 설명한 바와 같다. Thereafter, the
보다 구체적으로, 상기 제어 신호의 생성 단계에서는, 우선, 상기 영상 획득부(110)에서 상기 특정 환경(20)에 대한 환경 정보(10) 또는 물체 정보(150)를 획득한다(단계 S11). More specifically, in the generation of the control signal, first, the
이 경우, 상기 환경 정보(10) 및 상기 물체 정보(150)의 정의 및 예에 대하여는 앞서 설명한 바와 같으며, 상기 착용형 로봇(200)이 예를 들어 상지 착용형 로봇인 경우라면 상기 영상 획득부(110)에서 획득되는 정보에 상기 상지 착용형 로봇에 대한 정보도 포함되는 것이 실제 착용형 로봇의 정확하고 직관적인 동작을 위해 필요할 수 있다. In this case, definitions and examples of the
이와 달리, 상기 착용형 로봇(200)이 예를 들어 하지 착용형 로봇인 경우라면 상기 영상 획득부(110)에서 획득되는 정보는 상기 환경 정보(10) 또는 물체 정보(150)로 충분할 수 있다. In contrast, when the
이렇게 영상 정보가 획득되면, 상기 영상 인식부(120)에서는, 상기 획득된 저보를 바탕으로 환경 또는 물체를 인식한다(단계 S12). When the image information is acquired in this way, the
이 경우, 상기 영상 인식부(120)에서 환경 또는 물체를 인식하는 경우, 상기 영상 획득부(110)에서 획득된 영상 정보에, 증강현실 기술이 적용된 가상의 영상 또는 이미지가 중첩되어 인식될 수 있다. 이 경우, 중첩되는 가상의 영상 또는 이미지는 상기 착용형 로봇의 실제 구동이나 동작을 보다 정확하게 구현하기 위한 것으로, 인식된 환경이나 물체를 보다 정밀하게 구현하거나 환경이나 물체에 대한 세부 정보를 추가로 제공하거나, 가상의 경로나 이미지 등을 추가하여 추가 정보를 제공하는 등의 다양한 영상 또는 이미지일 수 있다. In this case, when the
또한, 상기 영상 인식부(120)에서는 예를 들어 상지 착용형 로봇인 경우라면 상기 환경 또는 물체에 대한 인식 정보에 상기 상지 착용형 로봇에 대한 인식 정보를 추가로 인식하며 상기 증강현실 기술을 적용할 수 있다. In addition, in the case of the upper limb wearable robot, the
이 후, 상기 의도 파악부(130)에서는, 상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악한다(단계 S13). 이 경우, 상기 의도 파악부(130)에서의 구체적인 사용자 의도 파악의 예에 대하여는 앞서 설명한 바와 같다. Thereafter, the
한편, 상기 영상 인식부(120)에서 인식된 환경 또는 물체, 나아가 상지 착용형 로봇인 경우라면 인식된 착용형 로봇에 대한 정보와 함께, 상기 의도 파악부(130)에서 파악된 사용자의 의도를 상기 영상 표시부(140)에서는 별도의 표시부나 고글 등의 글라스를 통해 사용자에게 내용을 표시한다(단계 S14). Meanwhile, in the case of an environment or an object recognized by the
그리하여, 사용자는 스스로 의도한 바와 동일한 지의 여부에 대하여 상기 영상 표시부(140)를 통해 피드백 받아 이를 확인할 수 있다. Thus, the user may check whether the user receives feedback through the
나아가, 상기 제어신호 생성부(150)에서는, 상기 사용자의 의도에 부합하는 상기 착용형 로봇(200)에 대한 제어 신호를 생성한다(단계 S15). Further, the control
그리하여, 상기 제어신호 생성부(150)에서 생성되는 제어 신호는 직접 상기 착용형 로봇(200)으로 제공되며, 상기 착용형 로봇(200)은 상기 제어 신호를 바탕으로 구동되어 필요한 동작을 사용자의 일부로서 수행하게 된다. Thus, the control signal generated by the
상기와 같은 본 발명의 실시예들에 의하면, 종래의 사용자의 의도를 파악하는 착용형 로봇을 구동하는 방법에서의 오류나 문제를 해결하여, 증강현실장치에서 인식되는 정보를 바탕으로 사용자의 의도가 직접 파악되면 해당 의도에 부합하도록 착용형 로봇이 직접 제어됨에 따라, 영상 정보 등과 같은 보다 객관적인 자료를 바탕으로 사용자의 의도 파악이 가능하므로, 착용형 로봇의 구동의 정확성을 향상시키는 것은 물론 보다 즉각적인 동작의 구현이 가능하게 된다. According to the embodiments of the present invention as described above, by solving the error or problem in the conventional method of driving the wearable robot to grasp the user's intention, the user's intention is directly based on the information recognized by the augmented reality device If the wearable robot is directly controlled to meet the intention, it is possible to grasp the user's intention based on more objective data such as image information, thereby improving the driving accuracy of the wearable robot and of more immediate operation. Implementation is possible.
특히, 증강현실장치의 영상 획득부는 특정 환경의 환경 정보를 영상을 통해 획득하되, 착용형 로봇이 장착된 사용자와 동일한 시각에서 관측되는 정보와 동일한 정보를 획득하므로, 착용형 로봇에 대한 직접적인 제어를 수행함에 있어, 사용자의 물리적인 위치를 고려한 최적의 동작 제어를 수행할 수 있게 된다. In particular, the image acquisition unit of the augmented reality device obtains the environmental information of a specific environment through the image, but obtains the same information as the information observed at the same time as the user equipped with the wearable robot, direct control of the wearable robot In performing, it is possible to perform the optimal motion control considering the physical location of the user.
이 경우, 획득되는 정보는 환경 정보 또는 물체 정보로서, 해당 환경의 특성을 파악하여 착용형 로봇의 동작을 보다 정확하게 수행할 수 있는 정보를 포함한다. In this case, the obtained information is environmental information or object information, and includes information for more accurately performing the operation of the wearable robot by grasping the characteristics of the environment.
또한, 상기 환경 정보 또는 물체 정보로부터 파악되는 사용자의 의도를 외부로 표시하여 사용자가 피드백 받아 이를 인지함에 따라 사용자의 의도가 정확하게 반영되고 있는지를 확인할 수 있어, 착용형 로봇을 통해 구현하려는 동작을 보다 정확하게 구현할 수 있다. In addition, by displaying the user's intention grasped from the environment information or object information to the outside, the user can check whether the user's intention is accurately reflected as the user receives the feedback, and thus the operation to be implemented through the wearable robot It can be implemented correctly.
특히 착용형 로봇이 상지 착용형 로봇인 경우라면 대개의 경우 물체를 이동시키거나 잡는 동작을 수행하는 경우가 많으므로 이를 고려하여 해당 환경에 대한 정보를 획득함에 있어 착용형 로봇에 대한 정보를 동시에 획득하여, 획득된 정보 내에서 물체에 대한 이동이나 잡는 동작의 수행을 위해 수행하여야 하는 동작을 보다 정확하고 직관적으로 제어할 수 있다. In particular, when the wearable robot is an upper limb wearable robot, in most cases, the object is moved or grabbed. Therefore, the information about the wearable robot is simultaneously acquired in acquiring information on the environment in consideration of this. In this way, it is possible to more precisely and intuitively control the operation to be performed for the movement or grabbing of the object within the obtained information.
이와 달리, 착용형 로봇이 하지 착용형 로봇인 경우라면 지면 상태나 장애물을 고려하여 보행을 하는 경우가 많으므로, 증강현실장치에서 인식되는 정보로서 장애물 또는 지면 상태에 대한 정보를 중심으로 데이터를 획득하며 이를 바탕으로 적합한 보행 모드를 선택하거나 보행 방향을 선택하는 등의 제어를 직접 수행함에 따라, 필요한 착용형 로봇의 동작을 보다 정확하게 제어할 수 있다. On the other hand, if the wearable robot is a wearable robot for the lower limb, it is often walking in consideration of ground conditions or obstacles, and thus obtains data based on information on obstacles or ground conditions as information recognized by the AR device. Based on this, a control such as selecting an appropriate walking mode or selecting a walking direction can be directly performed to more precisely control the operation of the wearable robot.
이상과 같이, 착용형 로봇의 종류에 따라, 증강현실장치로부터 인식되는 정보를 달리함으로써, 해당 착용형 로봇이 주로 수행하는 동작을 보다 정확하고 직접적으로 수행할 수 있게 된다. As described above, according to the type of the wearable robot, by changing the information recognized from the augmented reality device, it is possible to perform the operations performed mainly by the wearable robot more accurately and directly.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the foregoing has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. It will be appreciated.
본 발명에 따른 착용형 로봇 제어시스템 및 이를 이용한 착용형 로봇 제어방법은 착용형 로봇에 사용될 수 있는 산업상 이용 가능성을 갖는다. Wearable robot control system and wearable robot control method using the same according to the present invention has the industrial applicability that can be used in the wearable robot.
1: 종래 로봇 제어시스템 2 : 착용형 로봇 제어시스템
10 : 환경 정보 15 : 물체 정보
20 : 특정 환경 30 : 사용자
100 : 증강현실 장치 110 : 영상획득부
120 : 영상인식부 130 : 의도파악부
140 : 영상표시부 150 : 제어신호 생성부
200 : 착용형 로봇 210 : 상지 착용형 로봇
220 : 하지 착용형 로봇1: conventional robot control system 2: wearable robot control system
10: environmental information 15: object information
20: Specific Environment 30: User
100: augmented reality device 110: image acquisition unit
120: image recognition unit 130: intention detection unit
140: image display unit 150: control signal generation unit
200: wearable robot 210: upper limb wearing robot
220: wearable robot
Claims (13)
특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 스스로 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 상지 또는 하지 착용형 로봇을 직접 제어하는 증강현실장치를 포함하며,
상기 증강현실장치는 사용자에 고정되어, 사용자의 관점에서 획득되는 특정 환경의 정보와 동일한 정보를 획득하고,
상기 증강현실장치는, 상기 상지 착용형 로봇이, 사용자의 의도를 파악하여, 물체를 잡아 이동하도록 제어하거나,
상기 증강현실장치는, 상기 하지 착용형 로봇이, 사용자의 도보 이력 또는 도착지 정보를 바탕으로 사용자의 의도를 파악하여, 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어하는 것을 특징으로 하는 착용형 로봇 제어시스템.An upper limb wearable robot operated by being worn on a user's hand or arm or a lower limb worn robot operated by being worn on a user's foot or lower body; And
Enhancement of acquiring environmental information or object information of a specific environment, recognizing a specific environment from the acquired information, and grasping the user's intention, and directly controlling the upper or lower limb worn robot to meet the user's intention in a specific environment. Including a real device,
The augmented reality device is fixed to the user, to obtain the same information as the information of a specific environment obtained from the user's point of view
The augmented reality device, the upper limb wearable robot, to grasp the user's intention, to control to move the object,
The augmented reality device is characterized in that the lower body wearable robot, to grasp the user's intention based on the user's walking history or destination information, to avoid obstacles or to walk in a walking mode suitable for a specific environment. Wearable Robot Control System.
사용자의 안면에 착용되어, 사용자가 획득하는 시각 정보와 동일한 영상 정보를 획득하는 것을 특징으로 하는 착용형 로봇 제어시스템. According to claim 1, wherein the augmented reality device,
The wearable robot control system, which is worn on a user's face and obtains image information identical to visual information acquired by the user.
상기 증강현실장치에서 획득되는 물체 정보는, 특정 환경 내에 위치하는 물체 또는 장애물의 종류, 위치 또는 형상인 것을 특징으로 하는 착용형 로봇 제어시스템. The method of claim 1,
The object information acquired by the augmented reality device, wearable robot control system, characterized in that the kind, location or shape of the object or obstacle located in a specific environment.
상기 상지 착용형 로봇의 경우, 상기 증강현실장치에서 획득되는 물체 정보는, 상기 특정 환경 내에 위치하는 상기 상지 착용형 로봇의 정보를 더 포함하는 것을 특징으로 하는 착용형 로봇 제어 시스템. The method of claim 3,
In the case of the upper limb wearable robot, the object information obtained by the augmented reality device, the wearable robot control system, characterized in that further comprises information of the upper limb wearable robot located in the specific environment.
특정 환경의 환경 정보 또는 물체 정보를 획득하는 영상 획득부;
상기 획득된 정보로부터 환경 또는 물체를 인식하는 영상 인식부;
상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 의도 파악부;
상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 영상 표시부; 및
상기 사용자의 의도대로 상기 상지 또는 하지 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 제어신호 생성부를 포함하는 것을 특징으로 하는 착용형 로봇 제어시스템. According to claim 1, wherein the augmented reality device,
An image acquisition unit obtaining environment information or object information of a specific environment;
An image recognition unit recognizing an environment or an object from the obtained information;
An intention grasping unit to grasp a user's intention based on the recognized environment or object;
An image display unit which displays the recognized environment or object and the intention of the user to the outside; And
Wearable robot control system comprising a control signal generating unit for generating a control signal for operating the upper or lower limb wearable robot as the user intended.
특정 환경의 환경 정보 또는 물체 정보를 획득하여, 획득된 정보로부터 특정 환경을 인식하고 사용자의 의도를 스스로 파악하여, 특정 환경에서 사용자의 의도에 부합하도록 상기 상지 또는 하지 착용형 로봇을 제어하기 위한 제어 신호를 생성하는 단계; 및
상기 생성된 제어 신호에 의해 상기 상지 또는 하지 착용형 로봇이 구동되는 단계를 포함하고,
상기 제어 신호에 의해, 상기 상지 착용형 로봇이 사용자의 의도를 파악하여, 물체를 잡아 이동하도록 제어되거나, 상기 하지 착용형 로봇이 사용자의 도보 이력 또는 도착지 정보를 바탕으로 사용자의 의도를 파악하여, 장애물을 회피하거나, 특정 환경에 적합한 보행 모드로 보행하도록 제어되는 것을 특징으로 하는 착용형 로봇 제어방법. In the control method of the upper limb wearable robot that is worn and operated on the user's hand or arm or the lower limb wearable robot that is worn and operated on the user's foot or lower body,
Control to acquire the environmental information or object information of a specific environment, recognize the specific environment from the obtained information and grasp the user's intention, and control the upper or lower limb worn robot to meet the user's intention in the specific environment. Generating a signal; And
And driving the upper or lower leg worn robot by the generated control signal,
By the control signal, the upper limb worn robot is controlled to grasp the user's intention, to grab and move the object, or the lower limb worn robot to grasp the user's intention based on the user's walking history or destination information, Wearable robot control method characterized in that it is controlled to avoid obstacles or to walk in a walking mode suitable for a specific environment.
상기 상지 착용형 로봇인 경우,
상기 획득되는 물체 정보는, 상기 특정 환경 내에 위치하는 상기 상지 착용형 로봇의 정보를 포함하는 것을 특징으로 하는 착용형 로봇 제어방법. The method of claim 10,
In the case of the upper limb wearable robot,
The acquired object information, wearable robot control method characterized in that it comprises information of the upper limbs wearable robot located in the specific environment.
상기 특정 환경의 환경 정보 또는 물체 정보를 획득하는 단계;
상기 획득된 정보로부터 환경 또는 물체를 인식하는 단계;
상기 인식된 환경 또는 물체를 바탕으로 사용자의 의도를 파악하는 단계
상기 인식된 환경 또는 물체, 및 상기 사용자의 의도를 외부로 표시하는 단계; 및
상기 사용자의 의도대로 상기 상지 또는 하지 착용형 로봇을 동작시키기 위한 제어 신호를 생성하는 단계를 포함하는 것을 특징으로 하는 착용형 로봇 제어방법.The method of claim 10, wherein the generating of the control signal from the information of the specific environment,
Obtaining environment information or object information of the specific environment;
Recognizing an environment or an object from the obtained information;
Determining a user's intention based on the recognized environment or object
Displaying the recognized environment or object and the intention of the user to the outside; And
Wearing robot control method comprising the step of generating a control signal for operating the upper or lower leg wearable robot as the user intended.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180028537A KR102046351B1 (en) | 2018-03-12 | 2018-03-12 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180028537A KR102046351B1 (en) | 2018-03-12 | 2018-03-12 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190115483A KR20190115483A (en) | 2019-10-14 |
KR102046351B1 true KR102046351B1 (en) | 2019-12-02 |
Family
ID=68171432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180028537A KR102046351B1 (en) | 2018-03-12 | 2018-03-12 | Wearable robot control system using augmented reality and method for controlling wearable robot using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102046351B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220089998A (en) * | 2020-12-22 | 2022-06-29 | 주식회사 에이스로보테크 | Collaboration system of smart factory in argumented reality |
KR20240024611A (en) * | 2022-08-17 | 2024-02-26 | 삼성전자주식회사 | Electronic apparatus of performing a safety function and control method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004174692A (en) * | 2002-11-29 | 2004-06-24 | Mitsubishi Heavy Ind Ltd | Man-machine robot and control method of man machine robot |
JP2017524281A (en) * | 2014-05-20 | 2017-08-24 | ユニヴァーシティ オブ ワシントン | Systems and methods for surgical visualization of mediated reality |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010076786A (en) | 2000-01-28 | 2001-08-16 | 오길록 | Remote-Controlled Robot System and Method using VR technology |
KR101108927B1 (en) | 2009-03-24 | 2012-02-09 | 주식회사 이턴 | Surgical robot system using augmented reality and control method thereof |
KR20130067450A (en) * | 2011-12-14 | 2013-06-24 | 한국전자통신연구원 | Field applied safety helmet apparatus for ar-based of maintenance and method for providing its application service |
US9599821B2 (en) * | 2014-08-08 | 2017-03-21 | Greg Van Curen | Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space |
-
2018
- 2018-03-12 KR KR1020180028537A patent/KR102046351B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004174692A (en) * | 2002-11-29 | 2004-06-24 | Mitsubishi Heavy Ind Ltd | Man-machine robot and control method of man machine robot |
JP2017524281A (en) * | 2014-05-20 | 2017-08-24 | ユニヴァーシティ オブ ワシントン | Systems and methods for surgical visualization of mediated reality |
Also Published As
Publication number | Publication date |
---|---|
KR20190115483A (en) | 2019-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11596483B2 (en) | Motion execution of a robotic system | |
US10660716B2 (en) | Systems and methods for rendering onscreen identification of instruments in a teleoperational medical system | |
US11872006B2 (en) | Systems and methods for onscreen identification of instruments in a teleoperational medical system | |
US11589937B2 (en) | Systems and methods for constraining a virtual reality surgical system | |
JP5982542B2 (en) | Method and system for detecting the presence of a hand in a minimally invasive surgical system | |
JP6000387B2 (en) | Master finger tracking system for use in minimally invasive surgical systems | |
JP5702798B2 (en) | Method and apparatus for hand gesture control in a minimally invasive surgical system | |
EP2480157B1 (en) | System for hand control of a teleoperated minimally invasive slave surgical instrument | |
CN107249497A (en) | Operating room and operative site are perceived | |
US11559365B2 (en) | Systems and methods for entering and exiting a teleoperational state | |
CN113194866A (en) | Navigation assistance | |
KR102046351B1 (en) | Wearable robot control system using augmented reality and method for controlling wearable robot using the same | |
US20210393331A1 (en) | System and method for controlling a robotic surgical system based on identified structures | |
US20200205902A1 (en) | Method and apparatus for trocar-based structured light applications | |
CN114845654A (en) | Systems and methods for identifying and facilitating intended interaction with a target object in a surgical space | |
Veras et al. | Design and implementation of visual-haptic assistive control system for virtual rehabilitation exercise and teleoperation manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |