KR20220060344A - Apparatus for determining intention of user using wearable robot of upper limb - Google Patents
Apparatus for determining intention of user using wearable robot of upper limb Download PDFInfo
- Publication number
- KR20220060344A KR20220060344A KR1020200146241A KR20200146241A KR20220060344A KR 20220060344 A KR20220060344 A KR 20220060344A KR 1020200146241 A KR1020200146241 A KR 1020200146241A KR 20200146241 A KR20200146241 A KR 20200146241A KR 20220060344 A KR20220060344 A KR 20220060344A
- Authority
- KR
- South Korea
- Prior art keywords
- sensing unit
- user
- wrist
- hand
- intention
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Abstract
Description
본 발명은 상지 웨어러블 로봇의 의도파악장치에 관한 것으로서, 보다 상세하게는 상지 웨어러블 로봇의 사용자의 의도를 파악하는 상지 웨어러블 로봇의 의도파악장치에 관한 것이다.The present invention relates to a device for detecting an intention of an upper extremity wearable robot, and more particularly, to an intention detecting device for an upper extremity wearable robot for detecting a user's intention of the wearable robot.
다양한 분야에서 로봇이 이용됨에 따라 종전에 인간이 수행하던 작업을 로봇이 대신 수행하는 일이 늘어나고 있다. 비교적 단순하고 쉬운 작업을 로봇으로 대체하여 반복적으로 작업을 수행하거나 인간이 직접 투입되기 어려운 환경에서의 작업을 수행하기 위하여 다양한 형태의 로봇이 사용되고 있다.As robots are used in various fields, robots are increasingly performing tasks previously performed by humans. Various types of robots are being used to repeatedly perform tasks by replacing relatively simple and easy tasks with robots, or to perform tasks in environments where it is difficult for humans to directly input them.
이러한 예로서 생산자동화 공정이나 험지 탐사 등 인간이 본래 수행하였던 일을 로봇이 수행하기 위하여 인간의 형태를 모사한 로봇이 산업 현장에서 사용되고 있다. 그에 따라 인간의 형태에 유사한 로봇의 움직임을 사용자가 직관적인 조작으로 조종 가능 하도록 하기 위한 다양한 방법이 시도되고 있다.As an example of this, a robot that mimics a human form is used in industrial sites in order for the robot to perform tasks originally performed by humans, such as production automation processes or rough terrain exploration. Accordingly, various methods have been tried to enable the user to control the movement of the robot similar to the human form through intuitive manipulation.
또한, 일상 생활이 불가능한 신체능력을 가진 장애인, 환자 또는 노약자를 위한 착용형 로봇 또는 체력이나 신체능력을 강화하기 위한 산업용 또는 군사용 착용형 로봇의 개발이 진행되고 있다.In addition, the development of wearable robots for the disabled, patients or the elderly with physical abilities that are impossible for daily living, or wearable robots for industrial or military use to enhance physical strength or physical ability is in progress.
장애인, 환자 또는 노약자를 위한 착용형 로봇의 경우에는 신체 능력, 요구되는 보조력의 크기 또는 역할에 따라 완전마비 장애인용 착용형 로봇과 노약자 또는 부분마비 환자 또는 장애인용 착용형 로봇으로 분류될 수 있다.In the case of wearable robots for the disabled, patients, or the elderly, they can be classified into a wearable robot for the paralyzed person and a wearable robot for the elderly or partially paralyzed or disabled according to the size or role of the physical ability and required assistive force. .
종래의 착용형 로봇은 국방용, 산업용, 복지용으로 나뉘며 사용자의 의도를 파악하는 방법에 대해서 많이 연구되고 있다(HRI: Human-Robot Interaction) 특히 산업용 로봇들의 경우 대부분 하지(하체)를 타겟으로 되어 있으며, 토크센서, EMG(Electromyography, 근전도)센서, 비전센서, EEG(Electroencephalography, 뇌전도/뇌파), 기구적 구조, AI 등을 통해 사용자의 의도를 파악하게 된다.Conventional wearable robots are divided into defense, industrial, and welfare, and a lot of research is being done on how to understand the user's intentions (HRI: Human-Robot Interaction). In addition, the user's intention is identified through torque sensor, EMG (Electromyography) sensor, vision sensor, EEG (Electroencephalography, EEG), mechanical structure, AI, etc.
토크 센서의 경우에 사용자가 어디로 힘을 가하는지 파악하는데 사용되며, 미리 힘의 방향을 파악하여 보조한다. EMG 센서는 근육의 활동량을 전기신호로 측정한다. 사람이 로봇에 힘을 가하기 전에 해당 근육 부위에 전기신호가 발생하기 때문에 실제 동작이 발생하기 전동작 의도를 파악할 수 있으며 근육이 약하거나 없는 경우에도 의도 파악이 가능하다.In the case of the torque sensor, it is used to determine where the user applies the force, and assists by identifying the direction of the force in advance. The EMG sensor measures the amount of muscle activity as an electrical signal. Because an electrical signal is generated in the relevant muscle area before a human applies force to the robot, the intention of the movement can be identified before the actual movement occurs, and even when the muscle is weak or absent.
이러한 센서들의 데이터를 이용하여 학습시키고 학습된 데이터를 이용하여 사용자의 의도를 파악하게 되나, 각도값의 경우 사용자가 같은 움직임을 하여도 저장된 훈련 데이터와 실시간으로 입력되는 데이터로부터 얻어지는 각도값이 다를 수 있는데, 이는 드리프트와 같은 센서 에러의 누적이 원인이다. It learns using the data of these sensors and uses the learned data to understand the user's intention. However, in the case of the angle value, the angle value obtained from the stored training data and the real-time input data may be different even if the user makes the same movement. However, this is due to the accumulation of sensor errors such as drift.
예를 들면, 가속도 미터와 자이로 센서를 포함하는 관성측정장치(IMU, Inertial Measurement Unit)를 사용하여 상황 인지(contextawareness)를 하기 위한 훈련 데이터(training data)를 기록할 때, 훈련 데이터로부터 얻은 롤(roll), 피치(pitch), 요(yaw)와 같은 각도의 절대값들이 사용자들이 장치를 사용하기 시작할 때의 초기각들과 일치하지 않을 수 있는 문제가 있었다. For example, when recording training data for contextawareness using an inertial measurement unit (IMU) that includes an accelerometer and a gyro sensor, the roll ( There is a problem in that absolute values of angles such as roll, pitch, and yaw may not match the initial angles when users start using the device.
특히, 토크 센서의 경우 신체에 직접 부착하기 힘들며 기계 구조가 필요하게 되면 로봇 무게도 증가하기 때문에 로봇의 효율을 유지하기 위해서는 부피가 큰 전신용 로봇이 필요하게 되는 문제가 있었다.In particular, in the case of a torque sensor, it is difficult to attach directly to the body, and if a mechanical structure is required, the weight of the robot increases.
EMG 센서의 경우 측정된 근전도 신호에 잡음이 많고 의도 파악을 위해 별도의 처리 과정이 요구되고 피부에 직접 부착해야하기 때문에 땀이 나거나 활동이 많은 경우에 착용이 제한적이게 되며 계속 사용하기 위해선 부착 위치를 계속해서 바꿔줘야 한다는 문제도 있었다. In the case of the EMG sensor, the measured EMG signal has a lot of noise, a separate processing process is required to determine the intention, and it has to be directly attached to the skin. There was also the problem of constantly changing it.
또한, 센서의 부착위치를 바꿔줄 경우 센서 초기화 작업이 필요하며 근육 피로도에 따라 측정 신호의 크기가 저하되는 문제도 있었고, 센서가 많이 부착될수록 가격문제와 더불어 착용자의 거부감(이질감)이 높아지며 피도로 또한 증가하게 되는 문제도 있었다.In addition, when changing the attachment position of the sensor, sensor initialization work is required, and there is a problem that the magnitude of the measurement signal is lowered according to muscle fatigue. There was also the problem of increasing.
본 발명은 상기와 같은 종래의 문제점을 해소하기 위해 안출한 것으로서, 시각 감지부와 손목 감지부와 손 감지부의 감지결과를 통합해서 제어부에서 제어함으로써, 센서의 종류를 바꾸고 새로운 알고리즘을 적용하여, 상지 착용형 슈트에 사용되며 필요한 센서 개수와 구매 비용이 줄어들고 착용자의 거부감을 줄여 줄 수 있는 상지 웨어러블 로봇의 의도파악장치를 제공하는 것을 그 목적으로 한다. The present invention has been devised to solve the conventional problems as described above, and by integrating the detection results of the visual sensing unit, the wrist sensing unit, and the hand sensing unit and controlling the control unit, the type of sensor is changed and a new algorithm is applied, Its purpose is to provide a device for detecting the intention of the upper extremity wearable robot, which is used in a wearable suit and can reduce the number of required sensors and purchase cost, and reduce the wearer's rejection.
또한, 본 발명은 손가락 감지부를 더 구비함으로써, 손가락에 장착되어 손가락의 쥠상태와 폄상태의 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공할 수 있는 상지 웨어러블 로봇의 의도파악장치를 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention further includes a finger detection unit, so that it is mounted on a finger and can provide information on movement and driving of the upper extremity wearable robot based on changes in the gripping state and the extended state of the finger. Another purpose is to provide
또한, 본 발명은 종래에 사용하던 토크센서, EMG(Electromyography)센서, EEG(Electroencephalography)센서의 단점을 해결하면서 준수한 성능을 내기 위해 가속도 센서, 스트래치(stretch)센서, 비전센서(Eye-tracking)를 이용하여 힘에만 의존하지 않고 시선과 자세를 이용하여 착용자의 의도를 파악할 수 있는 상지 웨어러블 로봇의 의도파악장치를 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention solves the disadvantages of the conventionally used torque sensor, EMG (Electromyography) sensor, and EEG (Electroencephalography) sensor, and provides an acceleration sensor, a stretch sensor, and a vision sensor (Eye-tracking) to provide satisfactory performance. Another object of the present invention is to provide an intention detection device for upper extremity wearable robots that can grasp the wearer's intentions using gaze and posture without relying solely on force.
또한, 본 발명은 중량물 운반자들을 위한 착용형 슈트에 적용될 기법이며 안경형, 손목밴드형, 장갑 등 현장에서 많이 사용되는 도구와 융합되어 사용할 수 있는 장점이 있어서 거부감을 줄일 수 있는 상지 웨어러블 로봇의 의도파악장치를 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention is a technique to be applied to a wearable suit for heavy load carriers, and has the advantage of being fused with tools widely used in the field, such as glasses type, wristband type, and gloves, so that the intention of the upper extremity wearable robot can be reduced It is another object to provide a device.
또한, 본 발명은 센서 고정을 위한 별도의 기구 프레임이 없어도 되며 사용하는 센서들은 무선 제품이 많기 때문에 선꼬임 등 불편한 문제가 발생하지 않으며 구매 비용이 줄어 현장에 많이 보급 될 수 있는 상지 웨어러블 로봇의 의도파악장치를 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention does not require a separate instrument frame for fixing the sensor, and since the sensors used are many wireless products, inconvenient problems such as wire kinking do not occur, and the purchase cost is reduced. It is another purpose to provide a grasping device.
상기와 같은 목적을 달성하기 위한 본 발명은, 상지 웨어러블 로봇의 사용자의 의도를 파악하는 상지 웨어러블 로봇의 의도파악장치로서, 사용자의 안구부위에 설치되어, 사용자의 시각을 감지하는 시각 감지부(10); 사용자의 손목부위에 설치되어, 손목의 움직임을 감지하는 손목 감지부(20); 사용자의 손부위에 설치되어, 손의 움직임을 감지하는 손 감지부(30); 및 상기 시각 감지부(10)와 상기 손목 감지부(20)와 상기 손 감지부(30)에 접속되며, 각각의 감지결과를 통합해서 사용자의 의도를 파악한 결과에 의거해서 상지 웨어러블 로봇을 제어하는 제어부(40);를 포함하는 것을 특징으로 한다.The present invention for achieving the above object is an upper extremity wearable robot intention detecting device for detecting the user's intention of the upper extremity wearable robot, which is installed in the user's eye area, and a visual sensing unit (10) for detecting the user's time. ); It is installed on the user's wrist,
또한, 본 발명은 사용자의 손가락부위에 설치되어, 손가락의 움직임을 감지하는 손가락 감지부(50);를 더 포함하는 것을 특징으로 한다. 본 발명의 상기 손가락 감지부(50)는, 손가락의 움직임을 감지하여 손가락의 파지상태를 출력하는 것을 특징으로 한다.In addition, the present invention is installed on the user's finger portion, the
본 발명의 상기 시각 감지부(10)는, 사용자의 시각을 감지하여 물체 및 장소와의 거리와 초점좌표를 출력하는 것을 특징으로 한다. 본 발명의 상기 손목 감지부(20)는, 손목의 움직임를 감지하여 손목의 각도를 출력하는 것을 특징으로 한다.The
본 발명의 손 감지부(30)는, 손의 움직임을 감지하여 손의 굽힘정도를 출력하는 것을 특징으로 한다. 본 발명의 상기 제어부(40)는, 물체를 인식하고, 잡기를 준비하고, 물체를 잡기하고, 이동을 준비하고, 재치장소를 확인하고, 물체를 놓기의 순서로 제어를 진행하는 것을 특징으로 한다.The
이상에서 살펴본 바와 같이, 본 발명은 시각 감지부와 손목 감지부와 손 감지부의 감지결과를 통합해서 제어부에서 제어함으로써, 센서의 종류를 바꾸고 새로운 알고리즘을 적용하여, 상지 착용형 슈트에 사용되며 필요한 센서 개수와 구매 비용이 줄어들고 착용자의 거부감을 줄여 줄 수 있는 효과를 제공한다.As described above, the present invention integrates the detection results of the visual sensing unit, the wrist sensing unit, and the hand sensing unit to control the sensor, changing the type of sensor, and applying a new algorithm, a sensor required and used in the upper arm wearable suit. The number and purchase cost are reduced, and the effect of reducing the wearer's objection is provided.
또한, 손가락 감지부를 더 구비함으로써, 손가락에 장착되어 손가락의 쥠상태와 폄상태의 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공할 수 있는 효과를 제공한다.In addition, by further providing a finger sensing unit, it is mounted on a finger and provides an effect of providing information on the movement and driving of the upper extremity wearable robot based on changes in the gripping state and the extension state of the finger.
또한, 종래에 사용하던 토크센서, EMG(Electromyography)센서, EEG(Electroencephalography)센서의 단점을 해결하면서 준수한 성능을 내기 위해 가속도 센서, 스트래치(stretch)센서, 비전센서(Eye-tracking)를 이용하여 힘에만 의존하지 않고 시선과 자세를 이용하여 착용자의 의도를 파악할 수 있는 효과를 제공한다.In addition, in order to provide satisfactory performance while solving the disadvantages of the conventionally used torque sensor, EMG (Electromyography) sensor, and EEG (Electroencephalography) sensor, an acceleration sensor, a stretch sensor, and a vision sensor (Eye-tracking) are used. It provides the effect of grasping the intention of the wearer using gaze and posture rather than relying solely on force.
또한, 중량물 운반자들을 위한 착용형 슈트에 적용될 기법이며 안경형, 손목밴드형, 장갑 등 현장에서 많이 사용되는 도구와 융합되어 사용할 수 있는 장점이 있어서 거부감을 줄일 수 있는 효과를 제공한다.In addition, it is a technique to be applied to a wearable suit for heavy cargo carriers, and has the advantage of being fused with tools commonly used in the field, such as glasses type, wristband type, and gloves, and thus provides the effect of reducing rejection.
또한, 센서 고정을 위한 별도의 기구 프레임이 없어도 되며 사용하는 센서들은 무선 제품이 많기 때문에 선꼬임 등 불편한 문제가 발생하지 않으며 구매 비용이 줄어 현장에 많이 보급 될 수 있는 효과를 제공한다.In addition, there is no need for a separate mechanism frame for fixing the sensor, and since there are many wireless sensors used, inconvenient problems such as wire kinking do not occur, and the purchase cost is reduced, providing the effect of being widely distributed in the field.
도 1은 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치를 나타내는 구성도.
도 2는 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치를 나타내는 블럭도.
도 3은 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치의 동작상태를 나타내는 흐름도.1 is a block diagram showing an intention detecting device of an upper extremity wearable robot according to an embodiment of the present invention.
2 is a block diagram illustrating an intention detection device of an upper extremity wearable robot according to an embodiment of the present invention.
3 is a flowchart illustrating an operation state of an intention detecting device of an upper extremity wearable robot according to an embodiment of the present invention.
이하, 첨부도면을 참조하여 본 발명의 바람직한 일 실시예를 더욱 상세히 설명한다. Hereinafter, a preferred embodiment of the present invention will be described in more detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치를 나타내는 구성도이고, 도 2는 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치를 나타내는 블럭도이고, 도 3은 본 발명의 일 실시예에 의한 상지 웨어러블 로봇의 의도파악장치의 동작상태를 나타내는 흐름도이다..1 is a block diagram showing an intention detecting device of an upper extremity wearable robot according to an embodiment of the present invention, FIG. 2 is a block diagram showing an intention detecting device of an upper extremity wearable robot according to an embodiment of the present invention; is a flow chart showing the operation state of the intention detection device of the upper extremity wearable robot according to an embodiment of the present invention.
도 1 내지 도 2에 나타낸 바와 같이, 본 실시예에 의한 상지 웨어러블 로봇의 의도파악장치는, 시각 감지부(10), 손목 감지부(20), 손 감지부(30), 제어부(40), 손가락 감지부(50)를 포함하여 이루어져, 상지 웨어러블 로봇의 사용자의 의도를 파악하는 상지 웨어러블 로봇의 의도파악장치이다.As shown in FIGS. 1 to 2 , the device for detecting the intention of the upper extremity wearable robot according to the present embodiment includes a
시각 감지부(10)는, 사용자의 안구부위에 설치되어 사용자의 시각을 감지하는 감지수단으로서, 물체의 이미지와 초점의 좌표를 감지하여 인식하는 아이트래커(eye tracker) 등과 같은 비전센서로 이루어져 있다.The
이러한 시각 감지부(10)는, 사용자의 시각을 따라 물체를 감지하여 물체와의 거리와, 장소와의 거리와, 초점확인좌표를 출력하게 되므로, 감지된 물체와의 거리에 의거해서 초점을 확인할 수 있게 된다.Since the
손목 감지부(20)는, 사용자의 손목부위에 설치되어 손목의 움직임을 감지하는 감지수단으로서, 손목의 회전동작을 감지하도록 IMU(Inertial Measurement Unit) 등과 같은 각속도 센서로 이루어져 있다.The
이러한 손목 감지부(20)는, 손목의 움직임를 감지하여 손목의 각도를 출력하게 되므로, 손목의 각도 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공하게 된다.Since the
손 감지부(30)는, 사용자의 손부위에 설치되어 손의 움직임을 감지하는 감지수단으로서, 손의 굽힘정도를 감지하도록 손의 인장 및 압축을 감지하도록 스트레치 센서(stretch sensor) 등과 같은 장갑센서로 이루어져 있다.The
이러한 손 감지부(30)는, 손의 움직임을 감지하여 손의 굽힘정도를 출력하게 되므로, 손에 장착되어 손의 굽힘정도의 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공하게 된다.Since the
제어부(40)는, 시각 감지부(10)와 손목 감지부(20)와 손 감지부(30)에 각각 접속되며, 각각의 감지결과를 통합해서 사용자의 의도를 파악한 결과에 의거해서 상지 웨어러블 로봇을 제어하는 제어수단으로서, 시각 감지부(10)와 손목 감지부(20)와 손 감지부(30)에 유선통신기능이나 무선통신기능을 이용하여 각각 접촉되어 감지정보를 전달하게 된다.The
이러한 제어부(40)는, 물체를 인식하고, 잡기를 준비하고, 물체를 잡기하고, 이동을 준비하고, 재치장소를 확인하고, 물체를 놓기의 순서로 제어를 진행하게 된다.The
또한, 제어부(40)는, 도 3에 나타낸 바와 같이, 물체인식단계(S10), 잡기준비단계(S20), 물체잡기단계(S30), 이동준비단계(S40), 재치장소 인식단계(S50), 물체놓기단계(S60)의 순서로 제어단계를 실행하게 되는 것도 가능함은 물론이다.In addition, the
물체인식단계(S10)는, 비전센서에 의해 물체의 이미지와 초점의 좌표를 감지하고 사용자의 시각을 따라 물체를 감지하여 물체와의 거리와, 초점확인을 출력하게 되어 제어부(40)에서 물체를 인식하도록 정보를 제공하게 된다In the object recognition step (S10), the image and focus coordinates of the object are sensed by the vision sensor, the object is detected according to the user's point of view, and the distance to the object and the focus confirmation are outputted, so that the
잡기준비단계(S20)는, 각속도 센서에 의해 손목의 각도를 감지하여, 손목의 각도를 출력하게 되므로, 손목의 각도 변화에 의거해서 제어부(40)에 물체 잡기를 준비하도록 손목 각도의 정보를 제공하게 된다.In the grab preparation step (S20), the angle of the wrist is sensed by the angular velocity sensor and the angle of the wrist is output, so the information of the wrist angle is provided to the
물체잡기단계(S30)는, 장갑센서에 의해 손의 굽힘정도를 감지하여, 손의 굽힘정도의 변화에 의거해서 제어부(40)에서 물체를 잡기 위한 손의 정보를 제공하게 된다.In the object grabbing step (S30), the degree of bending of the hand is sensed by the glove sensor, and the
이동준비단계(S40), 물체인식단계(S10)와 잡기준비단계(S20)와 물체잡기단계(S30)에서 제어부(40)에 제공된 각종 정보에 의거해서 상지 웨어러블 로봇의 모터 등과 같은 구동수단에 이동 및 구동에 대한 정보를 제공하게 된다.In the movement preparation step (S40), object recognition step (S10), grab preparation step (S20), and object grab step (S30), based on various information provided to the
재치장소 인식단계(S50), 비전센서에 의해 재치장소의 이미지와 초점의 좌표를 감지하고 사용자의 시각을 따라 재치장소를 감지하여 재치장소와의 거리와, 초점확인을 출력하게 되어 제어부(40)에서 재치장소를 인식하도록 정보를 제공하게 된다In the step of recognizing the place of placement (S50), the image of the place of placement and the coordinates of the focus are sensed by the vision sensor, and the location of the place is detected according to the user's point of view, and the distance to the place and the focus are outputted, so that the
물체놓기단계(S60)는, 재치장소 인식단계(S50)에서 제어부(40)에 제공된 각종 정보에 의거해서 상지 웨어러블 로봇의 모터 등과 같은 구동수단에 이동정지 및 구동정지에 대한 정보를 제공하게 된다.In the object placing step (S60), based on the various information provided to the
손가락 감지부(50)는, 사용자의 손가락부위에 설치되어 손가락의 움직임을 감지하는 감지수단으로서, 사용자의 손가락의 쥠상태와 폄상태를 감지하도록 스트레치 센서(stretch sensor) 등과 같은 장갑센서로 이루어져 있다.The
이러한 손가락 감지부(50)는, 손가락의 움직임을 감지하여 손가락의 파지상태를 출력하게 되므로, 손가락에 장착되어 손가락의 쥠상태와 폄상태의 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공하게 된다.Since the
따라서, 본 발명의 상지 웨어러블 로봇의 의도파악장치는, 종래기술의 문제점을 해결하기 위하여 센서의 종류를 바꾸고 새로운 알고리즘을 적용하여, 상지 착용형 슈트에 사용되며 필요한 센서 개수와 구매 비용이 줄어들고 착용자의 거부감을 줄여 주게 된다.Accordingly, the device for detecting the intention of the upper extremity wearable robot of the present invention is used in the upper extremity wearable suit by changing the type of sensor and applying a new algorithm to solve the problems of the prior art, and reduces the number of required sensors and purchase cost, and reduces the wearer's will reduce rejection.
또한, 본 발명은 종래에 사용하던 토크센서, EMG(Electromyography)센서, EEG(Electroencephalography)센서의 단점을 해결하면서 준수한 성능을 내기 위해 가속도 센서, 스트래치(stretch)센서, 비전센서(Eye-tracking)를 이용하여 힘에만 의존하지 않고 시선과 자세를 이용하여 착용자의 의도를 파악할 수 있게 된다.In addition, the present invention solves the disadvantages of the conventionally used torque sensor, EMG (Electromyography) sensor, and EEG (Electroencephalography) sensor, and provides an acceleration sensor, a stretch sensor, and a vision sensor (Eye-tracking) to provide satisfactory performance. It is possible to grasp the intention of the wearer using gaze and posture rather than relying solely on force.
따라서, 중량물 운반자들을 위한 착용형 슈트에 적용될 기법이며 안경형, 손목밴드형, 장갑 등 현장에서 많이 사용되는 도구와 융합되어 사용할 수 있는 장점이 있어서 거부감이 줄어 들게 된다.Therefore, it is a technique to be applied to a wearable suit for heavy cargo carriers, and has the advantage of being fused with tools widely used in the field, such as glasses type, wristband type, and gloves, so that rejection is reduced.
또한, 센서 고정을 위한 별도의 기구 프레임이 없어도 되며 사용하는 센서들은 무선 제품이 많기 때문에 선꼬임 등 불편한 문제가 발생하지 않으며 구매 비용이 줄어 현장에 많이 보급 될 수 있다.In addition, there is no need for a separate mechanism frame for fixing the sensor, and since there are many wireless sensors used, inconvenient problems such as wire kinking do not occur, and the purchase cost is reduced, so it can be widely distributed in the field.
이상 설명한 바와 같이, 본 발명에 따르면 시각 감지부와 손목 감지부와 손 감지부의 감지결과를 통합해서 제어부에서 제어함으로써, 센서의 종류를 바꾸고 새로운 알고리즘을 적용하여, 상지 착용형 슈트에 사용되며 필요한 센서 개수와 구매 비용이 줄어들고 착용자의 거부감을 줄여 줄 수 있는 효과를 제공한다.As described above, according to the present invention, by integrating the detection results of the visual sensing unit, the wrist sensing unit, and the hand sensing unit, the control unit controls the sensor type, and a new algorithm is applied to change the sensor type and apply a new algorithm to the sensor used in the upper extremity wearable suit. It provides the effect of reducing the number and purchase cost and reducing the wearer's objection.
또한, 손가락 감지부를 더 구비함으로써, 손가락에 장착되어 손가락의 쥠상태와 폄상태의 변화에 의거해서 상지 웨어러블 로봇의 이동 및 구동에 대한 정보를 제공할 수 있는 효과를 제공한다.In addition, by further providing a finger sensing unit, it is mounted on a finger and provides an effect of providing information on the movement and driving of the upper extremity wearable robot based on changes in the gripping state and the extension state of the finger.
또한, 종래에 사용하던 토크센서, EMG(Electromyography)센서, EEG(Electroencephalography)센서의 단점을 해결하면서 준수한 성능을 내기 위해 가속도 센서, 스트래치(stretch)센서, 비전센서(Eye-tracking)를 이용하여 힘에만 의존하지 않고 시선과 자세를 이용하여 착용자의 의도를 파악할 수 있는 효과를 제공한다.In addition, in order to solve the shortcomings of the conventionally used torque sensor, EMG (Electromyography) sensor, and EEG (Electroencephalography) sensor and achieve satisfactory performance, an acceleration sensor, a stretch sensor, and a vision sensor (Eye-tracking) are used to solve the problem. It provides the effect of grasping the intention of the wearer using gaze and posture rather than relying solely on force.
또한, 중량물 운반자들을 위한 착용형 슈트에 적용될 기법이며 안경형, 손목밴드형, 장갑 등 현장에서 많이 사용되는 도구와 융합되어 사용할 수 있는 장점이 있어서 거부감을 줄일 수 있는 효과를 제공한다.In addition, it is a technique to be applied to a wearable suit for heavy cargo carriers, and has the advantage of being fused with tools commonly used in the field, such as glasses type, wristband type, and gloves, and thus provides the effect of reducing rejection.
또한, 센서 고정을 위한 별도의 기구 프레임이 없어도 되며 사용하는 센서들은 무선 제품이 많기 때문에 선꼬임 등 불편한 문제가 발생하지 않으며 구매 비용이 줄어 현장에 많이 보급 될 수 있는 효과를 제공한다.In addition, there is no need for a separate mechanism frame for fixing the sensor, and since there are many wireless sensors used, inconvenient problems such as wire kinking do not occur, and the purchase cost is reduced, providing the effect of being widely distributed in the field.
이상 설명한 본 발명은 그 기술적 사상 또는 주요한 특징으로부터 벗어남이 없이 다른 여러 가지 형태로 실시될 수 있다. 따라서 상기 실시예는 모든 점에서 단순한 예시에 지나지 않으며 한정적으로 해석되어서는 안 된다. The present invention described above can be embodied in various other forms without departing from the technical spirit or main characteristics thereof. Accordingly, the above embodiments are merely examples in all respects and should not be construed as limiting.
10: 시각 감지부
20: 손목 감지부
30: 손 감지부
40: 제어부
50: 손가락 감지부10: visual sensing unit 20: wrist sensing unit
30: hand sensing unit 40: control unit
50: finger detection unit
Claims (7)
사용자의 안구부위에 설치되어, 사용자의 시각을 감지하는 시각 감지부(10);
사용자의 손목부위에 설치되어, 손목의 움직임을 감지하는 손목 감지부(20);
사용자의 손부위에 설치되어, 손의 움직임을 감지하는 손 감지부(30); 및
상기 시각 감지부(10)와 상기 손목 감지부(20)와 상기 손 감지부(30)에 접속되며, 각각의 감지결과를 통합해서 사용자의 의도를 파악한 결과에 의거해서 상지 웨어러블 로봇을 제어하는 제어부(40);를 포함하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.As an intention grasping device of the upper extremity wearable robot that grasps the intention of the user of the upper extremity wearable robot,
a visual sensing unit 10 installed on the user's eye area to detect the user's visual angle;
It is installed on the user's wrist, wrist sensing unit 20 for detecting the movement of the wrist;
The hand sensor 30 is installed on the user's hand, detecting the movement of the hand; and
A control unit connected to the visual sensing unit 10, the wrist sensing unit 20, and the hand sensing unit 30, and controlling the upper extremity wearable robot based on the result of acknowledging the user's intention by integrating the respective sensing results (40); intention detection device of the upper extremity wearable robot, characterized in that it comprises.
사용자의 손가락부위에 설치되어, 손가락의 움직임을 감지하는 손가락 감지부(50);를 더 포함하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.The method of claim 1,
Installed on the user's finger, the finger detection unit 50 for detecting the movement of the finger; the upper extremity wearable robot intention detection device, characterized in that it further comprises.
상기 손가락 감지부(50)는, 손가락의 움직임을 감지하여 손가락의 파지상태를 출력하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.3. The method of claim 2,
The finger detection unit 50 senses the movement of the finger and outputs the gripping state of the finger.
상기 시각 감지부(10)는, 사용자의 시각을 감지하여 물체 및 장소와의 거리와 초점좌표를 출력하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.The method of claim 1,
The vision sensing unit 10 detects the user's vision and outputs a distance to an object and a place and focus coordinates.
상기 손목 감지부(20)는, 손목의 움직임를 감지하여 손목의 각도를 출력하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.The method of claim 1,
The wrist sensing unit 20 detects the movement of the wrist and outputs the angle of the wrist.
상기 손 감지부(30)는, 손의 움직임을 감지하여 손의 굽힘정도를 출력하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.The method of claim 1,
The hand sensing unit 30 detects the movement of the hand and outputs the degree of bending of the hand.
상기 제어부(40)는, 물체를 인식하고, 잡기를 준비하고, 물체를 잡기하고, 이동을 준비하고, 재치장소를 확인하고, 물체를 놓기의 순서로 제어를 진행하는 것을 특징으로 하는 상지 웨어러블 로봇의 의도파악장치.The method of claim 1,
The control unit 40 recognizes an object, prepares for grabbing, grabs an object, prepares to move, confirms a place to be placed, and controls the upper extremity wearable robot in the order of placing the object. intention detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146241A KR20220060344A (en) | 2020-11-04 | 2020-11-04 | Apparatus for determining intention of user using wearable robot of upper limb |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200146241A KR20220060344A (en) | 2020-11-04 | 2020-11-04 | Apparatus for determining intention of user using wearable robot of upper limb |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220060344A true KR20220060344A (en) | 2022-05-11 |
Family
ID=81607033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200146241A KR20220060344A (en) | 2020-11-04 | 2020-11-04 | Apparatus for determining intention of user using wearable robot of upper limb |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220060344A (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170129109A (en) | 2015-03-20 | 2017-11-24 | 인텔 코포레이션 | Wearable device with stretch sensor |
KR20190019180A (en) | 2016-06-20 | 2019-02-26 | 매직 립, 인코포레이티드 | Augmented reality display system for evaluation and correction of neurological conditions including visual processing and perceptual states |
KR20190131740A (en) | 2018-05-17 | 2019-11-27 | 주식회사 스탠딩에그 | Method and apparatus for initializing a sensor by resetting the angle of a wearable device |
-
2020
- 2020-11-04 KR KR1020200146241A patent/KR20220060344A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170129109A (en) | 2015-03-20 | 2017-11-24 | 인텔 코포레이션 | Wearable device with stretch sensor |
KR20190019180A (en) | 2016-06-20 | 2019-02-26 | 매직 립, 인코포레이티드 | Augmented reality display system for evaluation and correction of neurological conditions including visual processing and perceptual states |
KR20190131740A (en) | 2018-05-17 | 2019-11-27 | 주식회사 스탠딩에그 | Method and apparatus for initializing a sensor by resetting the angle of a wearable device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wilson et al. | Formulation of a new gradient descent MARG orientation algorithm: Case study on robot teleoperation | |
US9278453B2 (en) | Biosleeve human-machine interface | |
Vogel et al. | EMG-based teleoperation and manipulation with the DLR LWR-III | |
WO2019119724A1 (en) | Force sense information and posture information based limb motion intention understanding and upper limb rehabilitation training robot control method | |
Prattichizzo et al. | Human augmentation by wearable supernumerary robotic limbs: review and perspectives | |
Jackowski et al. | A novel head gesture based interface for hands-free control of a robot | |
CN110678157B (en) | Electromechanical robot manipulator device | |
WO2015106278A2 (en) | Wearable robot assisting manual tasks | |
JP2012011531A (en) | Robot apparatus and gripping method for use in robot apparatus | |
Fishel et al. | Tactile telerobots for dull, dirty, dangerous, and inaccessible tasks | |
US8483879B2 (en) | Human-robot interactive system having a human stiffness estimation control algorithm | |
Haseeb et al. | Head gesture-based control for assistive robots | |
Fujiwara et al. | Development of a glove-based optical fiber sensor for applications in human-robot interaction | |
Garcia et al. | EEG control of an industrial robot manipulator | |
Rusydi et al. | Combination of flex sensor and electromyography for hybrid control robot | |
Boru et al. | Novel technique for control of industrial robots with wearable and contactless technologies | |
Kiguchi et al. | Perception-assist with an active stereo camera for an upper-limb power-assist exoskeleton | |
JPH09109069A (en) | Powered intelligent method and unit | |
Otten et al. | A novel concept for wearable, modular and soft support systems used in industrial environments | |
Höppner et al. | The Grasp Perturbator: Calibrating human grasp stiffness during a graded force task | |
KR20220060344A (en) | Apparatus for determining intention of user using wearable robot of upper limb | |
Ali et al. | Development of smart glove system for therapy treatment | |
Dario et al. | A human-like robotic manipulation system implementing human models of sensory-motor coordination | |
CN114129392B (en) | Self-adaptive redundant driving exoskeleton rehabilitation robot capable of regulating and controlling fingertip force at tail end | |
Kiguchi et al. | A study of a 4DOF upper-limb power-assist intelligent exoskeleton with visual information for perception-assist |