KR20180086547A - Wearable device for gesture recognition and control and gesture recognition control method using the same - Google Patents

Wearable device for gesture recognition and control and gesture recognition control method using the same Download PDF

Info

Publication number
KR20180086547A
KR20180086547A KR1020170010103A KR20170010103A KR20180086547A KR 20180086547 A KR20180086547 A KR 20180086547A KR 1020170010103 A KR1020170010103 A KR 1020170010103A KR 20170010103 A KR20170010103 A KR 20170010103A KR 20180086547 A KR20180086547 A KR 20180086547A
Authority
KR
South Korea
Prior art keywords
signal
emg
motion
control
user
Prior art date
Application number
KR1020170010103A
Other languages
Korean (ko)
Other versions
KR101963694B1 (en
Inventor
김범준
이분진
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020170010103A priority Critical patent/KR101963694B1/en
Priority to PCT/KR2017/001568 priority patent/WO2018135692A1/en
Publication of KR20180086547A publication Critical patent/KR20180086547A/en
Application granted granted Critical
Publication of KR101963694B1 publication Critical patent/KR101963694B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • A61B5/0488
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • G06K9/00892
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

The present invention relates to a wearable device to recognize and control a motion, capable of correctly recognizing the motion, and a motion recognition control method using the same. In particular, the wearable device to recognize and control a motion comprises: an electromyogram (EMG) sensor module measuring an EMG signal in accordance with muscle movement of a user and converting the EMG signal into a digital signal to output the digital signal; an inertial motion unit (IMU) sensor module measuring and converting a motion signal of the user into a digital signal to output the digital signal; a control module to receive the EMG signal of the EMG sensor module and the motion signal of the IMU sensor module, and to perform filtering for removing a motion artifact included in the EMG signal based on the motion signal; and a computer device unit receiving the EMG signal, from which the motion artifact is removed, and the motion signal from the control module through wireless short-range communication to recognize a motion of the EMG signal through feature extraction, feature classification, and data selection mapping, and performing control corresponding to the motion.

Description

동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법{WEARABLE DEVICE FOR GESTURE RECOGNITION AND CONTROL AND GESTURE RECOGNITION CONTROL METHOD USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a wearable device for recognizing and controlling a motion, and a motion recognition control method using the wearable device.

본 발명은 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 관한 것으로서, 보다 구체적으로는 팔 밴드에 위치하는 단일 채널 EMG 센서와 팔뚝에 위치하는 IMU 센서를 사용하여 EMG 기반의 제어 인터페이스를 착용(wearable)형으로 구현하는 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 관한 것이다.The present invention relates to a wearable device for motion recognition and control and a motion recognition control method using the same. More particularly, the present invention relates to a wearable device for motion recognition and control using an EMG-based control interface The present invention relates to a wearable device for recognizing and controlling movement and a motion recognition control method using the wearable device.

전자 기술의 발달에 힘입어 기계와 사용자 간의 인터랙션(interaction) 방법은 더욱 다양해지고 있다. 특히, 최근에는 인간-컴퓨터 상호작용(Human Computer Interaction, HCI) 기술에 대한 관심도가 높아짐에 따라 사용자의인지적, 감성적, 그리고 생활 경험을 증진시킬 수 있는 인터랙션에 대한 다양한 연구가 진행되고 있다. 이러한 HCI는 음성, 비전, 제스처, 혹은 그 외에도 다른 혁신적인 입출력 채널을 이용하는 사용자 친화적인 인터페이스 개발을 위해 많은 노력이 이루어지고 있다. 이 연구 분야에 있어서 가장 난이도가 높은 접근 방법 중 하나는 인간의 신경 체계의 전기적인 특성을 이용하여 인간의 신경 신호와 컴퓨터를 연결하는 것이다. 이와 같은 신경과 컴퓨터 간의 연결을 위해 다양한 생체의학적인 신호들이 사용되어 질 수 있는데, 대부분은 특별한 신체조직, 장기 또는 신경 체계와 같은 세포 조직으로부터 얻을 수 있게 된다.
Due to the development of electronic technology, the interaction between the machine and the user has become more diverse. In particular, as the interest in human-computer interaction (HCI) technology has increased recently, various researches are being conducted on interaction that can enhance user's intellectual, emotional, and life experience. These HCIs are making great efforts to develop user-friendly interfaces that use voice, vision, gestures, or other innovative input / output channels. One of the most difficult approaches in this area of research is to connect the human neural signals to the computer using the electrical properties of the human nervous system. A variety of biomedical signals can be used to connect these neurons to computers, most of which can be obtained from cell tissues, such as specific body tissues, organs or nervous systems.

생체신호는 인체에서 발생되는 전기적 또는 자기적 신호를 의미하며, 대표적으로 근전도(EMG), 심전도(ECG), 뇌전도(EDG), 안전도(EOG), 피부 전도도(GSR) 등의 신호를 포함한다. 이러한 생체신호는 종래 의료분야에서 치료 또는 재활의 목적으로 주로 활용되어 왔으나, 최근에는 인간-컴퓨터 인터페이스(HCI) 분야에서 사용자의 동작 의도를 추론하여 컴퓨터, 기계, 로봇 등의 동작을 제어하는 용도로 그 활용범위가 넓어지고 있다. 이러한 생체신호를 이용하여 컴퓨터, 기계, 로봇 등을 제어하기 위해서는 생체신호를 정확하게 검출하는 기술은 물론이고, 검출된 생체신호로부터 사용자의 동작의도를 정확하게 추론하는 기술이 매우 중요하다.
The biological signal refers to an electrical or magnetic signal generated in the human body and typically includes signals such as EMG, ECG, EDG, EOG, and GSR . Such bio-signals have been mainly used for medical treatment or rehabilitation purposes in the medical field. In recent years, however, they have been used for inferring the intention of the user in the human-computer interface (HCI) field and controlling the operation of a computer, a machine, And its application range is widening. In order to control a computer, a machine, a robot, or the like using such a bio-signal, it is very important to accurately not only detect a bio-signal accurately but also accurately infer the user's operation intention from the detected bio-signal.

사용자의 동작의도를 추론하는 가장 간단한 방법은, 생체신호 검출장치가 생체신호의 특정인자값이 설정된 임계값을 초과하면 사용자가 동작을 개시한 것으로 판단하고, 해당 동작에 대응하는 제어동작을 수행하게 된다. 그러나 생체신호(EMG 신호)는 장치 고유의 잡음, 전자기적인 복사, 동작 잡음, 그리고 다른 조직과의 상호 작용 등에 의해서 유발되는 복잡한 형태의 잡음들을 포함하게 된다. 이와 같이 EMG와 같은 생체신호에 포함된 노이즈는 주변 환경이나 사용자의 신체상태, 센서와 신체의 접촉상태에 따라 지속적으로 변하기 때문에 정확한 임계값을 설정하기가 어려운 문제가 있었으며, 이러한 문제 해결을 위해서는 사용자의 동작여부를 정확하게 판단할 수 있는 방안이 요구된다. 대한민국 공개특허공보 제10-2016-0133306호와, 대한민국 등록특허공보 제10-1000869호가 선행기술 문헌으로 개시되고 있다.The simplest method of inferring the user's operation intention is to determine that the user has started the operation when the specific factor value of the biological signal exceeds the preset threshold value and perform the control operation corresponding to the operation . However, bio-signals (EMG signals) contain complex types of noise caused by device-specific noise, electromagnetic radiation, motion noise, and interaction with other tissues. Thus, there is a problem that it is difficult to set the accurate threshold value because the noise included in the bio-signals such as EMG continuously changes according to the surrounding environment, the physical condition of the user, and the contact state of the sensor and the body. It is necessary to provide a method for accurately determining whether or not the operation of the vehicle is performed. Korean Patent Laid-Open Publication No. 10-2016-0133306 and Korean Patent Registration No. 10-1000869 are disclosed in the prior art documents.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 하는, 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법을 제공하는 것을 그 목적으로 한다.
The present invention has been proposed in order to solve the above-mentioned problems of the previously proposed methods, and has an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, a control module for performing pre- And a computer device unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby recognizing and controlling the motion of the robot, removing the noise included in the EMG signal used for motion recognition, And an operation recognition control method using the wearable apparatus.

또한, 본 발명은, EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 하는, 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법을 제공하는 것을 또 다른 목적으로 한다.Also, according to the present invention, an EMG sensor module, an IMU sensor module, and a control module are integrated into a single case, a single-channel EMG sensor is positioned on an arm band of a user, and an IMU sensor is positioned on an arm, Based control interface is wearable and can be easily used for attaching and detaching. In addition, it is possible to recognize motion and control that accurately recognize a subtle gesture without movement in a manner that an EMG signal and an IMU signal are used in combination And an operation recognition control method using the wearable apparatus.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 동작 인식 및 제어를 위한 웨어러블 장치는,According to an aspect of the present invention, there is provided a wearable device for recognizing and controlling operation,

동작 인식 및 제어를 위한 웨어러블 장치로서,1. A wearable device for motion recognition and control,

사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 출력하는 EMG(electromyogram) 센서 모듈;An EMG (electromyogram) sensor module for measuring an EMG signal according to a user's muscle movement, converting the measured EMG signal to digital, and outputting the EMG signal;

사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 출력하는 IMU(Inertial Motion Unit) 센서 모듈;An IMU (Inertial Motion Unit) sensor module that measures a user's motion signal, converts the measured motion signal into a digital signal, and outputs the digital signal;

상기 EMG 센서 모듈의 근전도 신호와 상기 IMU 센서 모듈의 움직임 신호를 입력받고, 상기 움직임 신호에 기초하여 상기 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 제어(MCU) 모듈; 및A control (MCU) module that receives an EMG signal of the EMG sensor module and a motion signal of the IMU sensor module and performs filtering to remove dynamic artifacts included in the EMG signal based on the motion signal; And

상기 제어 모듈로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 컴퓨터 장치부를 포함하는 것을 그 구성상의 특징으로 한다.
And receives the EMG signal and the motion signal from which the dynamic noise has been removed from the control module through wireless short distance communication and recognizes the operation of the EMG signal through the feature extraction, classification, and data selection mapping process and performs control corresponding thereto And a computer device unit.

바람직하게는, 상기 EMG 센서 모듈은,Preferably, the EMG sensor module includes:

사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다.
And a single channel EMG sensor positioned in the user's arm band.

바람직하게는, 상기 EMG 센서 모듈은,Preferably, the EMG sensor module includes:

사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다.
Raw EMG signal measured according to the user's muscle movement is attached to the user's arm and then the rectified signal is amplified and the filtered electromyogram signal is converted into a digital signal using an A / . ≪ / RTI >

더욱 바람직하게는, 상기 EMG 센서 모듈은,More preferably, the EMG sensor module includes:

정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
A differential amplifier can be used as an amplifier for amplifying the rectified signal.

바람직하게는, 상기 IMU 센서 모듈은,Preferably, the IMU sensor module further comprises:

사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다.
The IMU sensor is located at the forearm of the user and measures the degree of user's motion. The IMU sensor may be an accelerometer, a gyroscope, or a magnetometer.

더욱 바람직하게는, 상기 움직임 신호는,More preferably, the motion signal includes:

상기 EMG 센서 모듈에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용될 수 있다.
And may be used as a reference noise signal for correcting dynamic artifacts included in an EMG signal measured by the EMG sensor module.

바람직하게는, 상기 제어 모듈은,Advantageously, the control module comprises:

상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부로 전송하기 위한 블루투스 모듈을 더 포함할 수 있다.
And a Bluetooth module for transmitting an electromyogram signal and a motion signal, which have undergone a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal, to the computer unit.

더욱 바람직하게는, 상기 제어 모듈은,More preferably, the control module includes:

상기 컴퓨터 장치부와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
And a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer unit.

바람직하게는,Preferably,

상기 EMG 센서 모듈과, IMU 센서 모듈, 및 제어(MCU) 모듈은 원통형 케이스에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성될 수 있다.
The EMG sensor module, the IMU sensor module, and the control (MCU) module may be constructed in a wearable type which is accommodated in a cylindrical case and fastened to a user's forearm.

더욱 바람직하게는, 상기 원통형 케이스는,More preferably, the cylindrical case includes:

3D 프린터로 제작될 수 있다.
And can be manufactured as a 3D printer.

더욱 바람직하게는, 상기 원통형 케이스는,More preferably, the cylindrical case includes:

사용자의 팔뚝에 탈부착이 가능한 체결부재를 더 포함하여 구성할 수 있다.
And a fastening member capable of being detachably attached to the forearm of the user.

더욱 바람직하게는, 상기 컴퓨터 장치부는,More preferably, the computer device unit comprises:

상기 제어 모듈로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행할 수 있다.
(EMU) signal received through the Bluetooth communication from the control module to classify the gesture according to the motion of the user and classify the gesture taken by the user using the motion (IMU) signal Data selection and mapping can be performed with reference to a preset data sheet.

더욱 더 바람직하게는, 상기 컴퓨터 장치부는,Still more preferably, the computer device unit further comprises:

상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다.
Judges and recognizes the gesture of the electromyogram signal based on the data classified through the feature extraction of the gesture and the result obtained through the data selection and mapping processing with reference to the preset data sheet, Can be executed on the control application.

더더욱 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,

상기 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 할 수 있다.
By combining the EMG signal and the motion (IMG) signal, it is possible to detect isometric muscle activity that does not appear to be an actual motion, classify subtle gestures that do not follow the motion, .

더더욱 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,

상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용할 수 있다.
As a feature extraction of the gesture according to the user's muscle movement using the EMG signal, wavelet transform of time-frequency analysis can be applied.

더더욱 더 바람직하게는, 상기 제스처 분류는,Even more preferably, the gesture classification comprises:

hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어질 수 있다.
hand close gestures, hand open gestures, and hand extention gestures.

더더욱 더 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,

상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.
The classification of the feature extraction of the gesture according to the user's muscle movement using the EMG signal can be classified using the K-nearest neighbor (KNN) algorithm.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법은,According to another aspect of the present invention, there is provided a method of controlling an operation recognition using a wearable device,

EMG 센서 모듈과 IMU 센서 모듈과 제어(MCU) 모듈 및 컴퓨터 장치부를 구비하는 웨어러블 장치를 이용한 동작 인식 제어 방법으로서,An operation recognition control method using a wearable device having an EMG sensor module, an IMU sensor module, a control (MCU) module, and a computer unit,

(1) 상기 제어 모듈이 상기 EMG 센서 모듈로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는 단계;(1) receiving the EMG signal converted into a digital signal by measuring the movement of the user's forearm through the EMG sensor module from the control module;

(2) 상기 제어 모듈이 상기 IMU 센서 모듈로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는 단계;(2) receiving the motion (IMU) signal of which the degree of motion of the user is measured from the IMU sensor module and converted into a digital signal by the control module;

(3) 상기 제어 모듈이 상기 움직임 신호에 기초하여 상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부로 전송하는 단계; 및(3) The control module performs a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal based on the motion signal, and outputs the preprocessed EMG signal and the motion signal To the computer unit; And

(4) 상기 컴퓨터 장치부가 상기 단계 (3)을 통해 상기 제어 모듈로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(4) The computer device receives the dynamic noise-free electromyogram signal and the motion signal through the wireless local area communication from the control module through the step (3), and performs the feature extraction, classification, and data selection mapping processing And recognizing an operation of the electromyogram signal and performing control corresponding thereto.

바람직하게는, 상기 단계 (4)에서는,Preferably, in the step (4)

상기 컴퓨터 장치부가, 상기 제어 모듈로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다.
The computer device extracts and classifies gesture characteristics according to the movement of the user's muscles using an EMG signal received through the Bluetooth communication from the control module, A data selection and mapping process is performed with reference to a preset data sheet to distinguish the gestures and the result obtained through data selection and mapping process with reference to the data classified through the feature extraction of the gesture and the preset data sheet And recognizes the gesture of the electromyogram signal and recognizes the gesture of the electromyogram signal, and executes an operation process corresponding to the determined gesture on the control application.

더욱 바람직하게는, 상기 컴퓨터 장치부는,More preferably, the computer device unit comprises:

상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.A wavelet transform of time-frequency analysis is applied to extract a gesture according to a user's muscle movement using the electromyogram (EMG) signal, and a feature extraction of a gesture according to a user's muscle movement using the EMG signal And can be classified using the K-nearest neighbor (KNN) algorithm.

본 발명에서 제안하고 있는 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 따르면, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 할 수 있다.
According to the wearable device for motion recognition and control proposed in the present invention and the motion recognition control method using the same, an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, A control module, and a computer unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby making it possible to recognize the motion and remove the noise included in the EMG signal used for the control to enable more accurate motion recognition .

또한, 본 발명에 따르면, EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 할 수 있다.In addition, according to the present invention, the EMG sensor module, the IMU sensor module, and the control module are integrated into a single case, a single-channel EMG sensor is positioned on the arm band of the user, and an IMU sensor is positioned on the forearm, The EMG-based control interface is wearable and can be conveniently used for attaching and detaching. In addition, the EMG signal and the IMU signal can be used in combination to accurately recognize subtle gestures without motion.

도 1은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 구성을 기능블록으로 도시한 도면.
도 2는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 시스템 구조도를 도시한 도면.
도 3은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치에서 동작 인식되는 핸드 제스처의 모습을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 동작 상태를 도시한 도면.
도 5는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 다른 동작 상태를 도시한 도면.
도 6은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 또다른 동작 상태를 도시한 도면.
도 7은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 트레이닝 데이터를 도시한 도면.
도 8은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 제스처별 인식 스코어를 그래프로 도시한 도면.
도 9는 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법의 동작 흐름을 도시한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a functional block diagram illustrating a configuration of a wearable device for recognizing and controlling operations according to an embodiment of the present invention; FIG.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a wearable device for recognizing and controlling operation of a wearable device.
3 is a view showing a hand gesture recognized as an operation in a wearable device for recognizing and controlling a motion according to an embodiment of the present invention;
4 is a view showing an operation state of an arm in a wearing state of a wearable device for recognizing and controlling operation according to an embodiment of the present invention;
FIG. 5 is a view showing another operation state of the wearable wearable device for recognition and control of operation according to an embodiment of the present invention; FIG.
6 is a view showing another operation state of the wearable wearable wearable device for recognizing and controlling operation according to an embodiment of the present invention.
FIG. 7 illustrates training data of a wearable device for recognition and control of movement according to an embodiment of the present invention; FIG.
FIG. 8 is a graphical representation of gesture recognition scores of a wearable device for recognizing and controlling actions according to an embodiment of the present invention; FIG.
9 is a flowchart illustrating an operation of the wearable apparatus according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order that those skilled in the art can easily carry out the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In the drawings, like reference numerals are used throughout the drawings.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.

도 1은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 구성을 기능블록으로 도시한 도면이고, 도 2는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 시스템 구조도를 도시한 도면이며, 도 3은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치에서 동작 인식되는 핸드 제스처의 모습을 도시한 도면이고, 도 4 내지 도 6은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 다양한 동작 상태를 도시한 도면이다. 도 1 및 도 2에 각각 도시된 바와 같이, 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치(100)는, EMG 센서 모듈(110), IMU 센서 모듈(120), 제어(MCU) 모듈(130), 및 컴퓨터 장치부(140)를 포함하여 구성될 수 있다.
FIG. 1 is a functional block diagram illustrating a configuration of a wearable device for recognizing and controlling operations according to an exemplary embodiment of the present invention. FIG. 2 is a block diagram of a wearable device for recognizing and controlling operations according to an exemplary embodiment of the present invention. FIG. 3 is a view showing a hand gesture recognized as an operation in a wearable device for recognizing and controlling a movement according to an embodiment of the present invention, and FIGS. 4 to 6 are views FIG. 8 is a view showing various operating states of an arm in a wearing state of a wearable device for recognizing and controlling operations according to an embodiment. 1 and 2, the wearable apparatus 100 for recognizing and controlling operations according to an embodiment of the present invention includes an EMG sensor module 110, an IMU sensor module 120, a control unit (MCU) ) Module 130, and a computer device unit 140. [0034]

EMG 센서 모듈(110)은, 사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 제어 모듈(130)로 출력하는 구성이다. 이러한 EMG(electromyogram) 센서 모듈(110)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다. 여기서, EMG 센서 모듈(110)은 사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다. 이때, EMG 센서 모듈(110)은 정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
The EMG sensor module 110 measures an electromyogram (EMG) signal according to the movement of the user's muscles, converts the measured electromyogram signal into a digital signal, and outputs the digital signal to the control module 130. The EMG (electromyogram) sensor module 110 may include a single-channel EMG sensor positioned in an arm band of a user, as shown in FIGS. Here, the EMG sensor module 110 is attached to a user's arm and rectifies a measured Raw EMG signal according to a movement of the user's muscle, amplifies the rectified signal, and then outputs the filtered EMG signal It can be converted into a digital signal by using an A / D converter. At this time, the EMG sensor module 110 can use a differential amplifier as an amplifier for amplifying the rectified signal.

IMU 센서 모듈(120)은, 사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 제어 모듈(130)로 출력하는 구성이다. 이러한 IMU(Inertial Motion Unit) 센서 모듈(120)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다. 여기서, 움직임 신호는 EMG 센서 모듈(110)에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용될 수 있다.
The IMU sensor module 120 measures a user's motion signal, converts the measured motion signal into a digital signal, and outputs the digital signal to the control module 130. As shown in FIGS. 4 to 6, the IMU sensor module 120 is an IMU sensor for measuring the degree of user's movement, which is located at the forearm of a user and includes an accelerometer, a gyroscope ), And a magnetometer, as shown in FIG. Here, the motion signal may be used as a reference noise signal for correcting the dynamic artifact included in the EMG signal measured by the EMG sensor module 110.

제어(MCU) 모듈(130)은, EMG 센서 모듈(110)의 근전도 신호와 IMU 센서 모듈(120)의 움직임 신호를 입력받고, 움직임 신호에 기초하여 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 프로세싱 모듈의 구성이다. 이러한 제어 모듈(130)은 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하여 구성할 수 있다. 여기서, 제어 모듈(130)은 도 2에 도시된 바와 같이, 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
The control (MCU) module 130 receives the EMG signal of the EMG sensor module 110 and the motion signal of the IMU sensor module 120, and receives a dynamic artifact included in the EMG signal based on the motion signal Gt; processing module < / RTI > The control module 130 includes a Bluetooth module (not shown) for transmitting an EMG signal and a motion signal, which are subjected to a preprocessing process for eliminating unnecessary noise including dynamic noise included in an EMG signal, (131). 2, the control module 130 is implemented as a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer unit 140 .

또한, EMG 센서 모듈(110)과, IMU 센서 모듈(120), 및 제어(MCU) 모듈(130)은 도 4 내지 도 6에 도시된 바와 같이, 원통형 케이스(101)에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성될 수 있다. 이러한 원통형 케이스(101)는 3D 프린터로 제작될 수 있으며, 사용자의 팔뚝에 탈부착이 가능한 체결부재(102)를 더 포함하여 구성할 수 있다.
4 to 6, the EMG sensor module 110, the IMU sensor module 120, and the control (MCU) module 130 are accommodated in a cylindrical case 101, And can be configured to be wearable. The cylindrical case 101 may be made of a 3D printer and may further include a fastening member 102 that can be detachably attached to a user's forearm.

컴퓨터 장치부(140)는, 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 구성이다. 이러한 컴퓨터 장치부(140)는 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행할 수 있다.
The computer unit 140 receives the EMG signal and the motion signal from which the dynamic noise has been removed from the control module 130 through wireless short distance communication and performs the operation of the EMG signal through the feature extraction, And performs control corresponding thereto. The computer unit 140 extracts and classifies the gesture characteristics according to the user's muscle movement using the EMG signal received through the Bluetooth communication from the control module 130 and uses the motion (IMU) signal And perform data selection and mapping with reference to a preset data sheet to distinguish gestures taken by the user.

또한, 컴퓨터 장치부(140)는 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다. 이러한 컴퓨터 장치부(140)는 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 하게 된다.
The computer device unit 140 determines and recognizes the gesture of the EMG signal on the basis of the data classified through the feature extraction of the gesture and the result obtained through the data selection and mapping performing process referring to the preset data sheet, An operation process corresponding to the judged and recognized gesture can be executed on the control application. This computer unit 140 combines an EMG signal and a motion (IMG) signal to detect isometric muscle activity that does not appear to be an actual motion, classifies subtle gestures that have no motion, The control can be performed in a state in which no disturbance occurs.

또한, 컴퓨터 장치부(140)는 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용할 수 있다. 이때, 제스처 분류는 도 3에 도시된 바와 같이, hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어질 수 있다. 이러한 웨이블릿 변환(WT)은 EMG 신호와 같은 비 정상적인 신호를 분석하는데 용이한 시간-주파수 분석 방법으로, 웨이블릿 변환을 사용함으로써 얻을 수 있는 장점은 특징 벡터(feature vector)의 차원 설정이 용이하고, 여러 차원의 특징 벡터를 사용한 경우와 거의 동일한 결과를 도출할 수 있게 된다. 즉, 웨이블릿 변환은 푸리에(fourier) 분석으로부터 개발되어 짧은 시간 구간에 대해 적용되며, 윈도우의 크기는 실시간 주파수 분석을 통해서 수정될 수 있다. 결과적으로 높은 주파수를 가지는 신호에 대한 분석도 낮은 주파수 대역에서의 분석과 동일한 결과를 도출할 수 있게 된다. 사용자가 취한 제스처를 구분하기 위해서는 각 매칭된 패턴으로부터 명확한 특징이 취해져야 하므로, 여러 개의 특징들이 추출될 수 있는데, 이들 가운데 일반적인 통계적인 특징들인 최대값, 최소값, 제곱평균(Root Mean Square) 등을 포함할 수 있다.
In addition, the computer device 140 may extract wavelet transform of time-frequency analysis as feature extraction of a gesture according to a user's muscle movement using an EMG signal. At this time, as shown in FIG. 3, the gesture classification may be classified into three classes: a hand close gesture, a hand open gesture, and a hand extention gesture. The wavelet transform (WT) is an easy time-frequency analysis method for analyzing an abnormal signal such as an EMG signal. An advantage obtained by using the wavelet transform is that it is easy to set the dimension of the feature vector, It is possible to obtain almost the same result as in the case of using the feature vector of the dimension. That is, the wavelet transform is developed from a fourier analysis and applied for a short time interval, and the size of the window can be modified through real time frequency analysis. As a result, the analysis of a signal having a high frequency can yield the same result as the analysis in a low frequency band. In order to distinguish the gestures taken by the user, a clear feature must be taken from each matched pattern, so that several features can be extracted. Among them, general statistical features such as maximum value, minimum value, root mean square .

또한, 컴퓨터 장치부(140)는 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다. 즉, SVM(Support Vector Machine) 분류 알고리즘은 Kerenel을 사용하여 선형 또는 비선형의 방법으로 사용될 수 있지만, 정확한 결과를 위해서는 많은 데이터 학습이 필요한 단점이 있다. 본 발명에서는 KNN 알고리즘을 이용하여 KNN에 의한 결과를 SVM에 의한 결과와 비교한 바, KNN이 SVM보다는 더 좋은 결과가 도출됨을 실험을 통해 알 수 있었다. 그 이유는 KNN은 자체가 비선형이기 때문에 선형적으로 또는 비선형적으로 분포하는 데이터를 쉽게 감지할 수 있고, 좋은 결과를 얻기 위해서 필요로 하는 데이터 포인트도 더 적게 된다.
In addition, the computer device unit 140 may classify the feature extraction using the K-nearest neighbor (KNN) algorithm as a classification of the gesture feature extraction according to the user's muscle movement using the EMG signal. In other words, SVM (Support Vector Machine) classification algorithm can be used as a linear or nonlinear method using Kerenel, but there is a disadvantage that many data learning is required for accurate results. In the present invention, the result of KNN is compared with the result of SVM using KNN algorithm, and it is found through experiments that KNN is better than SVM. Because KNN itself is nonlinear, it can easily detect linearly or nonlinearly distributed data and requires fewer data points to get good results.

도 7은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 트레이닝 데이터를 도시한 도면이고, 도 8은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 제스처별 인식 스코어를 그래프로 도시한 도면이다. 도 7은 훈련 데이터로서, 전처리 및 특징 추출 이후의 핸드 Close 제스처, 핸드 Open 제스처, 핸드 Extension 제스처의 손이 0, 1, 및 2에 해당하는 각 제스처 그룹을 표로 나타내고 있다. 데이터를 학습한 후(MAX, MIN, MAV, RMS, STD)의 어떤 기능이 가장 좋은 결과를 얻을 수 있는지 선택한다. 도 8은 제스처 인식의 정확성을 확인하기 위해 모델의 점수를 확인하고, 점수가 있는 분산을 나타내고 있다.
FIG. 7 is a view showing training data of a wearable device for recognizing and controlling a movement according to an embodiment of the present invention, and FIG. 8 is a graph showing the training data of the wearable device for gesture recognition and control according to an embodiment of the present invention And a recognition score in a graph. FIG. 7 is a table showing each gesture group corresponding to hands 0, 1, and 2 of a hand close gesture, a hand open gesture, and a hand extension gesture after preprocessing and feature extraction as training data. After learning the data (MAX, MIN, MAV, RMS, STD), select which function will produce the best results. FIG. 8 shows the scores of the model to confirm the accuracy of the gesture recognition, and the variance with the scores.

도 9는 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법의 동작 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법은, 제어 모듈(130)이 근전도(EMG) 신호를 입력받는 단계(S110), 제어 모듈(130)이 움직임(IMU) 신호를 입력받는 단계(S120), 제어 제어 모듈(130)이 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하는 단계(S130), 및 컴퓨터 장치부(140)가 동적 잡음이 제거된 근전도 신호와 움직임 신호를 이용하여 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계(S140)를 포함하여 구현될 수 있다.
9 is a flowchart illustrating an operation recognition control method using a wearable device according to an embodiment of the present invention. 9, an operation recognition control method using a wearable device according to an embodiment of the present invention includes a step S110 of receiving an EMG signal from a control module 130, A step S130 of receiving the motion (IMU) signal (S120), transmitting the electromyogram signal and the motion signal, which have been subjected to the preprocessing process, to the computer unit 140 by the control and control module 130, (S140) of recognizing the operation of the EMG signal through the feature extraction, classification, and data selection mapping processing using the EMG signal and the motion signal from which the dynamic noise is removed, and performing control corresponding thereto .

본 발명의 동작 인식 제어 방법에 사용되는 웨어러블 장치(100)는, 도 1 내지 도 6에 각각 도시된 바와 같이, 손의 제스처를 인식하기 위한 EMG 센서 모듈(110)과 IMU 센서 모듈(120)과 제어(MCU) 모듈(130) 및 컴퓨터 장치부(140)를 구비한다. 이하에서는 앞서 설명한 웨어러블 장치(100)를 이용한 동작 인식 제어 방법에 대해 상세히 설명하기로 한다.
1 to 6, the wearable device 100 used in the motion recognition control method of the present invention includes an EMG sensor module 110, an IMU sensor module 120, (MCU) module 130 and a computer device unit 140. [ Hereinafter, the operation recognition control method using the wearable device 100 described above will be described in detail.

단계 S110에서는, 제어 모듈(130)이 EMG 센서 모듈(110)로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는다. 여기서, EMG(electromyogram) 센서 모듈(110)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다. 여기서, EMG 센서 모듈(110)은 사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다. 이때, EMG 센서 모듈(110)은 정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
In step S110, the control module 130 receives EMG signals, which are measured from the EMG sensor module 110 through movement of the muscles of the user's forearm and converted into digital signals. Here, the EMG (Electromyogram) sensor module 110 may include a single-channel EMG sensor positioned in an arm band of a user, as shown in FIGS. Here, the EMG sensor module 110 is attached to a user's arm and rectifies a measured Raw EMG signal according to a movement of the user's muscle, amplifies the rectified signal, and then outputs the filtered EMG signal It can be converted into a digital signal by using an A / D converter. At this time, the EMG sensor module 110 can use a differential amplifier as an amplifier for amplifying the rectified signal.

단계 S120에서는, 제어 모듈(130)이 IMU 센서 모듈(120)로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는다. 여기서, IMU(Inertial Motion Unit) 센서 모듈(120)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다.
In step S120, the control module 130 receives the motion (IMU) signal, which is measured by the user's motion level from the IMU sensor module 120 and converted into a digital signal. As shown in FIGS. 4 to 6, the IMU sensor module 120 is an IMU sensor for measuring the degree of user's movement, which is located at the forearm of the user, and includes an accelerometer, a gyroscope A gyroscope, and a magnetometer.

단계 S130에서는, 제어 모듈(130)이 움직임 신호에 기초하여 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송한다. 여기서, 제어 모듈(130)은 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하여 구성할 수 있다. 이때, 제어 모듈(130)은 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
In step S130, the control module 130 performs a preprocessing process for removing unnecessary noise including the dynamic noise included in the EMG signal based on the motion signal, and outputs the preprocessed EMG signal and motion And transmits the signal to the computer device unit 140. Here, the control module 130 may further include a Bluetooth module 131 for transmitting an EMG signal and a motion signal, which have undergone a preprocessing process, to the computer device unit 140. At this time, the control module 130 may be implemented as a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer unit 140.

단계 S140에서는, 컴퓨터 장치부(140)가 단계 S130을 통해 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행한다. 이러한 단계 S140에서는 컴퓨터 장치부(140)가, 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하게 된다.
In step S140, the computer device 140 receives the electromyogram signal and the motion signal from which the dynamic noise has been removed from the control module 130 through the wireless local area communication through step S130, and performs a feature extraction, classification, And recognizes the operation of the electromyogram signal and performs control corresponding thereto. In this step S140, the computer device 140 extracts and classifies the gesture characteristics according to the user's muscle movement using the EMG signal received through the Bluetooth communication from the control module 130, ) Signal to perform data selection and mapping with reference to a preset data sheet in order to distinguish gestures taken by the user, and performs data selection and mapping processing with reference to the data classified by the feature extraction of the gesture and the preset data sheet The gesture of the electromyogram signal is judged and recognized based on the result obtained through the gesture detection process, and the gesture corresponding to the recognized gesture is judged and executed on the control application.

또한, 컴퓨터 장치부(140)는 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.
In addition, the computer device 140 extracts gestures according to a user's muscle movement using an EMG signal. The computer device 140 applies wavelet transform of time-frequency analysis, As a classification of gesture feature extraction based on motion, it can be classified using K-nearest neighbor (KNN) algorithm.

상술한 바와 같이, 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법은, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 할 수 있으며, 또한 EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 할 수 있게 된다.
As described above, the wearable device and the motion recognition control method for motion recognition and control according to an embodiment of the present invention include an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, And a computer unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby making it possible to eliminate the noise included in the EMG signal used for motion recognition and control, In addition, the EMG sensor module, the IMU sensor module and the control module are integrated into a single case, and a single-channel EMG sensor is positioned on the user's arm band and an IMU sensor is positioned on the forearm , The EMG-based control interface is wearable and can be conveniently used for attaching and detaching, A call and how the IMU signals are combined using a subtle gesture no motion is possible to ensure that they accurately recognized.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention may be embodied in many other specific forms without departing from the spirit or essential characteristics and scope of the invention.

100: 본 발명의 일실시예에 따른 웨어러블 장치
101: 원통형 케이스
102: 체결부재
110: EMG 센서 모듈
120: IMU 센서 모듈
130: 제어(MCU) 모듈
131: 블루투스 모듈
140: 컴퓨터 장치부
S110: 제어 모듈이 근전도(EMG) 신호를 입력받는 단계
S120: 제어 모듈이 움직임(IMU) 신호를 입력받는 단계
S130; 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부로 전송하는 단계
S140: 컴퓨터 장치부가 동적 잡음이 제거된 근전도 신호와 움직임 신호를 이용하여 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계
100: a wearable device according to an embodiment of the present invention
101: Cylindrical case
102: fastening member
110: EMG sensor module
120: IMU sensor module
130: Control (MCU) module
131: Bluetooth module
140:
S110: The control module receives the EMG signal
S120: the control module receives the motion (IMU) signal
S130; A step of transmitting the electromyogram signal and the motion signal subjected to the preprocessing process to the computer device unit
S140: recognizing the operation of the EMG signal through the feature extraction, classification, and data selection mapping processing using the EMG signal and the motion signal from which the computer device has removed the dynamic noise, and performing the corresponding control

Claims (20)

동작 인식 및 제어를 위한 웨어러블 장치(100)로서,
사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 출력하는 EMG(electromyogram) 센서 모듈(110);
사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 출력하는 IMU(Inertial Motion Unit) 센서 모듈(120);
상기 EMG 센서 모듈(110)의 근전도 신호와 상기 IMU 센서 모듈(120)의 움직임 신호를 입력받고, 상기 움직임 신호에 기초하여 상기 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 제어(MCU) 모듈(130); 및
상기 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 컴퓨터 장치부(140)를 포함하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
A wearable device (100) for motion recognition and control,
An EMG (electromyogram) sensor module 110 for measuring an EMG signal according to a user's muscle movement, converting the measured EMG signal to digital, and outputting the digital EMG signal;
An IMU (Inertial Motion Unit) sensor module 120 for measuring a user's motion signal, converting the measured motion signal into a digital signal, and outputting the digital signal;
Receives EMG signal of the EMG sensor module 110 and a motion signal of the IMU sensor module 120 and performs filtering to remove dynamic artifacts included in the EMG signal based on the motion signal A control (MCU) module 130; And
The control unit 130 receives the EMG signal and the motion signal from which the dynamic noise has been removed through the WLAN and recognizes the EMG signal by the feature extraction, classification, and data selection mapping process, And a computer device (140) for performing the operation of the wearable device.
제1항에 있어서, 상기 EMG 센서 모듈(110)은,
사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the EMG sensor module (110)
And a single-channel EMG sensor positioned in an arm band of the wearer's body.
제1항에 있어서, 상기 EMG 센서 모듈(110)은,
사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the EMG sensor module (110)
Raw EMG signal measured according to the user's muscle movement is attached to the user's arm and then the rectified signal is amplified and the filtered electromyogram signal is converted into a digital signal using an A / To the wearable apparatus for operation recognition and control.
제3항에 있어서, 상기 EMG 센서 모듈(110)은,
정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 3, wherein the EMG sensor module (110)
Characterized in that a differential amplifier is used as an amplifier for amplifying the rectified signal.
제1항에 있어서, 상기 IMU 센서 모듈(120)은,
사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The system of claim 1, wherein the IMU sensor module (120)
An IMU sensor for measuring the degree of user's movement, which is positioned at the forearm of a user and is constituted by an accelerometer, a gyroscope, and a magnetometer. Wearable device.
제5항에 있어서, 상기 움직임 신호는,
상기 EMG 센서 모듈(110)에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
6. The method of claim 5,
Is used as a reference noise signal for correcting dynamic artifact included in an EMG signal measured by the EMG sensor module (110).
제1항에 있어서, 상기 제어 모듈(130)은,
상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the control module (130)
A Bluetooth module 131 for transmitting an electromyogram signal and a motion signal to the computer unit 140, which has undergone a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal, Wherein the wearable device is a wearable device for operation recognition and control.
제7항에 있어서, 상기 제어 모듈(130)은,
상기 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
8. The apparatus of claim 7, wherein the control module (130)
And a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer device unit 140. The wearable device of claim 1,
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 EMG 센서 모듈(110)과, IMU 센서 모듈(120), 및 제어(MCU) 모듈(130)은 원통형 케이스(101)에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
9. The method according to any one of claims 1 to 8,
The EMG sensor module 110, the IMU sensor module 120, and the MCU module 130 are housed in a cylindrical case 101 and are wearable to be fastened to a user's forearm Characterized in that the wearable device for motion recognition and control.
제9항에 있어서, 상기 원통형 케이스(101)는,
3D 프린터로 제작되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the cylindrical case (101)
A wearable device for operation recognition and control, characterized in that the device is made of a 3D printer.
제9항에 있어서, 상기 원통형 케이스(101)는,
사용자의 팔뚝에 탈부착이 가능한 체결부재(102)를 더 포함하여 구성하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the cylindrical case (101)
The wearable device for operation recognition and control according to claim 1, further comprising a fastening member (102) capable of being detachably attached to the forearm of the user.
제9항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the computer device (140)
Extracts and classifies gesture characteristics according to a user's muscle movement using an EMG signal input through the Bluetooth communication from the control module 130 and outputs the gesture taken by the user using the motion (IMU) Wherein the data selection and mapping are performed with reference to a data sheet set in advance for identification.
제12항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
13. The apparatus according to claim 12, wherein the computer device (140)
Judges and recognizes the gesture of the electromyogram signal based on the data classified through the feature extraction of the gesture and the result obtained through the data selection and mapping processing with reference to the preset data sheet, Wherein the control unit executes the operation process for performing the operation on the control application.
제13항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
14. The apparatus according to claim 13, wherein the computer device (140)
By combining the EMG signal and the motion (IMG) signal, it is possible to detect isometric muscle activity that does not appear to be an actual motion, classify subtle gestures that do not follow the motion, The wearable device being capable of recognizing and controlling the operation of the wearable device.
제13항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
14. The apparatus according to claim 13, wherein the computer device (140)
And a wavelet transform of time-frequency analysis is applied as a feature extraction of a gesture according to a user's muscle movement using the electromyogram (EMG) signal.
제15항에 있어서, 상기 제스처 분류는,
hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어지는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
16. The method of claim 15,
a hand open gesture, a hand open gesture, a hand open gesture, and a hand extention gesture.
제15항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
16. The apparatus according to claim 15, wherein the computer device (140)
Wherein the classifying process is performed using a K-nearest neighbor (KNN) algorithm as a classification of gesture feature extraction according to a user's muscle movement using the EMG signal.
EMG 센서 모듈(110)과 IMU 센서 모듈(120)과 제어(MCU) 모듈(130) 및 컴퓨터 장치부(140)를 구비하는 웨어러블 장치(100)를 이용한 동작 인식 제어 방법으로서,
(1) 상기 제어 모듈(130)이 상기 EMG 센서 모듈(110)로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는 단계;
(2) 상기 제어 모듈(130)이 상기 IMU 센서 모듈(120)로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는 단계;
(3) 상기 제어 모듈(130)이 상기 움직임 신호에 기초하여 상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부(140)로 전송하는 단계; 및
(4) 상기 컴퓨터 장치부(140)가 상기 단계 (3)을 통해 상기 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계를 포함하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.
1. An operation recognition control method using a wearable device (100) including an EMG sensor module (110), an IMU sensor module (120), a control (MCU) module (130), and a computer device part
(1) receiving the EMG signal, which is measured by the control module 130 from the EMG sensor module 110 through movement of the muscles of the forearm and converted into a digital signal;
(2) receiving the motion (IMU) signal in which the degree of motion of the user is measured by the control module 130 from the IMU sensor module 120 and converted into a digital signal;
(3) The control module 130 performs a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal based on the motion signal, and outputs the preprocessed EMG signal And a motion signal to the computer device unit 140; And
(4) The computer device 140 receives the dynamic noise-free electromyogram signal and the motion signal from the control module 130 through the wireless local area communication in step (3), and performs feature extraction, classification, Recognizing an operation of the electromyogram signal through a mapping process of data selection, and performing a control corresponding to the operation of the electromyogram signal.
제18항에 있어서, 상기 단계 (4)에서는,
상기 컴퓨터 장치부(140)가, 상기 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.
19. The method of claim 18, wherein in step (4)
The computer unit 140 extracts and classifies gesture characteristics according to a user's muscle movement using an EMG signal received through the Bluetooth communication from the control module 130, And performs data selection and mapping with reference to a preset data sheet in order to identify a gesture taken by the user using the signal and performs data selection and mapping processing with reference to data classified by the feature extraction of the gesture and a preset data sheet Judges and recognizes the gesture of the electromyogram signal on the basis of the result obtained through the operation of the wearable device, and executes an operation process corresponding to the judged and recognized gesture on the control application.
제19항에 있어서, 상기 컴퓨터 장치부(140)는,
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.
The computer system according to claim 19, wherein the computer device (140)
A wavelet transform of time-frequency analysis is applied to extract a gesture according to a user's muscle movement using the electromyogram (EMG) signal, and a feature extraction of a gesture according to a user's muscle movement using the EMG signal Wherein the classification process is performed using a K-nearest neighbor (KNN) algorithm as a classification of the wearable device.
KR1020170010103A 2017-01-22 2017-01-22 Wearable device for gesture recognition and control and gesture recognition control method using the same KR101963694B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170010103A KR101963694B1 (en) 2017-01-22 2017-01-22 Wearable device for gesture recognition and control and gesture recognition control method using the same
PCT/KR2017/001568 WO2018135692A1 (en) 2017-01-22 2017-02-13 Wearable device for motion recognition and control, and method for motion recognition control using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170010103A KR101963694B1 (en) 2017-01-22 2017-01-22 Wearable device for gesture recognition and control and gesture recognition control method using the same

Publications (2)

Publication Number Publication Date
KR20180086547A true KR20180086547A (en) 2018-08-01
KR101963694B1 KR101963694B1 (en) 2019-03-29

Family

ID=62908520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170010103A KR101963694B1 (en) 2017-01-22 2017-01-22 Wearable device for gesture recognition and control and gesture recognition control method using the same

Country Status (2)

Country Link
KR (1) KR101963694B1 (en)
WO (1) WO2018135692A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210111098A (en) 2020-03-02 2021-09-10 국방과학연구소 System and Method for modeling human body which can estimate occupant motion
CN113534960A (en) * 2021-07-29 2021-10-22 中国科学技术大学 Upper arm prosthesis control method and system based on IMU and surface electromyographic signals
WO2022114294A1 (en) * 2020-11-27 2022-06-02 (주) 로임시스템 Biosignal dual processing apparatus
CN114683292A (en) * 2022-06-01 2022-07-01 深圳市心流科技有限公司 Sampling frequency control method of electromyographic equipment, intelligent bionic hand and storage medium
WO2023106662A1 (en) * 2021-12-09 2023-06-15 삼성전자 주식회사 Gesture recognition method using wearable device, and device therefor
US11960655B2 (en) 2021-12-09 2024-04-16 Samsung Electronics Co., Ltd. Method of recognizing gesture by using wearable device and the wearable device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3136112C (en) * 2019-04-05 2024-01-02 Baylor College Of Medicine Method and system for detection and analysis of thoracic outlet syndrome (tos)
CN111046731B (en) * 2019-11-11 2023-07-25 中国科学院计算技术研究所 Transfer learning method and recognition method for gesture recognition based on surface electromyographic signals
KR102258168B1 (en) * 2019-11-14 2021-05-28 주식회사 마이뉴런 Paralysis patient motion analysis monitoring system and method
CN111700718B (en) * 2020-07-13 2023-06-27 京东科技信息技术有限公司 Method and device for recognizing holding gesture, artificial limb and readable storage medium
CN114265498B (en) * 2021-12-16 2023-10-27 中国电子科技集团公司第二十八研究所 Method for combining multi-mode gesture recognition and visual feedback mechanism
CN113970968B (en) * 2021-12-22 2022-05-17 深圳市心流科技有限公司 Intelligent bionic hand action pre-judging method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150057770A1 (en) * 2013-08-23 2015-02-26 Thaimic Labs Inc. Systems, articles, and methods for human-electronics interfaces
KR20150112741A (en) * 2014-03-27 2015-10-07 전자부품연구원 Wearable device and information input method using the same
KR20150123254A (en) * 2013-02-22 2015-11-03 탈믹 랩스 인크 Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170656B2 (en) * 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
KR102131358B1 (en) * 2013-06-17 2020-07-07 삼성전자주식회사 User interface device and method of operation of user interface device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150123254A (en) * 2013-02-22 2015-11-03 탈믹 랩스 인크 Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control
US20150057770A1 (en) * 2013-08-23 2015-02-26 Thaimic Labs Inc. Systems, articles, and methods for human-electronics interfaces
KR20150112741A (en) * 2014-03-27 2015-10-07 전자부품연구원 Wearable device and information input method using the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210111098A (en) 2020-03-02 2021-09-10 국방과학연구소 System and Method for modeling human body which can estimate occupant motion
WO2022114294A1 (en) * 2020-11-27 2022-06-02 (주) 로임시스템 Biosignal dual processing apparatus
CN113534960A (en) * 2021-07-29 2021-10-22 中国科学技术大学 Upper arm prosthesis control method and system based on IMU and surface electromyographic signals
CN113534960B (en) * 2021-07-29 2024-05-28 中国科学技术大学 Upper arm artificial limb control method and system based on IMU and surface electromyographic signals
WO2023106662A1 (en) * 2021-12-09 2023-06-15 삼성전자 주식회사 Gesture recognition method using wearable device, and device therefor
US11960655B2 (en) 2021-12-09 2024-04-16 Samsung Electronics Co., Ltd. Method of recognizing gesture by using wearable device and the wearable device
CN114683292A (en) * 2022-06-01 2022-07-01 深圳市心流科技有限公司 Sampling frequency control method of electromyographic equipment, intelligent bionic hand and storage medium

Also Published As

Publication number Publication date
KR101963694B1 (en) 2019-03-29
WO2018135692A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
KR101963694B1 (en) Wearable device for gesture recognition and control and gesture recognition control method using the same
US10154818B2 (en) Biometric authentication method and apparatus
Bulling et al. Wearable EOG goggles: Seamless sensing and context-awareness in everyday environments
US9770179B2 (en) System, method and device for detecting heart rate
KR101314570B1 (en) Brain-Machine Interface(BMI) Devices and Methods For Precise Control
US10890972B2 (en) Prefrontal-based cognitive brain-machine interfacing apparatus and method thereof
KR101551169B1 (en) Method and apparatus for providing service security using biological signal
CN109993068B (en) Non-contact human emotion recognition method based on heart rate and facial features
Ramkumar et al. A review-classification of electrooculogram based human computer interfaces
US20220047198A1 (en) Attention detection method and system
KR101400141B1 (en) half-field SSVEP based BCI System and motion method Thereof
KR20190098806A (en) A smart hand device for gesture recognition and control method thereof
Gorur et al. Glossokinetic potential based tongue–machine interface for 1-D extraction
Heger et al. Online workload recognition from EEG data during cognitive tests and human-machine interaction
Lv et al. Design and implementation of an eye gesture perception system based on electrooculography
KR101527273B1 (en) Method and Apparatus for Brainwave Detection Device Attached onto Frontal Lobe and Concentration Analysis Method based on Brainwave
KR101630398B1 (en) Method and apparatus for providing service security using subliminal stimulus
KR102276991B1 (en) Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface
KR100612046B1 (en) Method and appratus for recognizing positive/negative intention using fine change of gamma wave of brain wave
Görür et al. Tongue-operated biosignal over EEG and processing with decision tree and kNN
KR101208719B1 (en) System for processing biological signal and portable instrumnet for processing biological signal
Rupanagudi et al. A simplified approach to assist motor neuron disease patients to communicate through video oculography
WO2016149830A1 (en) System, method and device for detecting heart rate
CN110033772B (en) Non-acoustic voice information detection device based on PPG signal
KR100327117B1 (en) Apparatus and method for making a judgement on positive and negative intention by using the EEG

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant