KR20180086547A - Wearable device for gesture recognition and control and gesture recognition control method using the same - Google Patents
Wearable device for gesture recognition and control and gesture recognition control method using the same Download PDFInfo
- Publication number
- KR20180086547A KR20180086547A KR1020170010103A KR20170010103A KR20180086547A KR 20180086547 A KR20180086547 A KR 20180086547A KR 1020170010103 A KR1020170010103 A KR 1020170010103A KR 20170010103 A KR20170010103 A KR 20170010103A KR 20180086547 A KR20180086547 A KR 20180086547A
- Authority
- KR
- South Korea
- Prior art keywords
- signal
- emg
- motion
- control
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- A61B5/0488—
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6824—Arm or wrist
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G06K9/00892—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- Physiology (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Dermatology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Power Engineering (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
Description
본 발명은 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 관한 것으로서, 보다 구체적으로는 팔 밴드에 위치하는 단일 채널 EMG 센서와 팔뚝에 위치하는 IMU 센서를 사용하여 EMG 기반의 제어 인터페이스를 착용(wearable)형으로 구현하는 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 관한 것이다.The present invention relates to a wearable device for motion recognition and control and a motion recognition control method using the same. More particularly, the present invention relates to a wearable device for motion recognition and control using an EMG-based control interface The present invention relates to a wearable device for recognizing and controlling movement and a motion recognition control method using the wearable device.
전자 기술의 발달에 힘입어 기계와 사용자 간의 인터랙션(interaction) 방법은 더욱 다양해지고 있다. 특히, 최근에는 인간-컴퓨터 상호작용(Human Computer Interaction, HCI) 기술에 대한 관심도가 높아짐에 따라 사용자의인지적, 감성적, 그리고 생활 경험을 증진시킬 수 있는 인터랙션에 대한 다양한 연구가 진행되고 있다. 이러한 HCI는 음성, 비전, 제스처, 혹은 그 외에도 다른 혁신적인 입출력 채널을 이용하는 사용자 친화적인 인터페이스 개발을 위해 많은 노력이 이루어지고 있다. 이 연구 분야에 있어서 가장 난이도가 높은 접근 방법 중 하나는 인간의 신경 체계의 전기적인 특성을 이용하여 인간의 신경 신호와 컴퓨터를 연결하는 것이다. 이와 같은 신경과 컴퓨터 간의 연결을 위해 다양한 생체의학적인 신호들이 사용되어 질 수 있는데, 대부분은 특별한 신체조직, 장기 또는 신경 체계와 같은 세포 조직으로부터 얻을 수 있게 된다.
Due to the development of electronic technology, the interaction between the machine and the user has become more diverse. In particular, as the interest in human-computer interaction (HCI) technology has increased recently, various researches are being conducted on interaction that can enhance user's intellectual, emotional, and life experience. These HCIs are making great efforts to develop user-friendly interfaces that use voice, vision, gestures, or other innovative input / output channels. One of the most difficult approaches in this area of research is to connect the human neural signals to the computer using the electrical properties of the human nervous system. A variety of biomedical signals can be used to connect these neurons to computers, most of which can be obtained from cell tissues, such as specific body tissues, organs or nervous systems.
생체신호는 인체에서 발생되는 전기적 또는 자기적 신호를 의미하며, 대표적으로 근전도(EMG), 심전도(ECG), 뇌전도(EDG), 안전도(EOG), 피부 전도도(GSR) 등의 신호를 포함한다. 이러한 생체신호는 종래 의료분야에서 치료 또는 재활의 목적으로 주로 활용되어 왔으나, 최근에는 인간-컴퓨터 인터페이스(HCI) 분야에서 사용자의 동작 의도를 추론하여 컴퓨터, 기계, 로봇 등의 동작을 제어하는 용도로 그 활용범위가 넓어지고 있다. 이러한 생체신호를 이용하여 컴퓨터, 기계, 로봇 등을 제어하기 위해서는 생체신호를 정확하게 검출하는 기술은 물론이고, 검출된 생체신호로부터 사용자의 동작의도를 정확하게 추론하는 기술이 매우 중요하다.
The biological signal refers to an electrical or magnetic signal generated in the human body and typically includes signals such as EMG, ECG, EDG, EOG, and GSR . Such bio-signals have been mainly used for medical treatment or rehabilitation purposes in the medical field. In recent years, however, they have been used for inferring the intention of the user in the human-computer interface (HCI) field and controlling the operation of a computer, a machine, And its application range is widening. In order to control a computer, a machine, a robot, or the like using such a bio-signal, it is very important to accurately not only detect a bio-signal accurately but also accurately infer the user's operation intention from the detected bio-signal.
사용자의 동작의도를 추론하는 가장 간단한 방법은, 생체신호 검출장치가 생체신호의 특정인자값이 설정된 임계값을 초과하면 사용자가 동작을 개시한 것으로 판단하고, 해당 동작에 대응하는 제어동작을 수행하게 된다. 그러나 생체신호(EMG 신호)는 장치 고유의 잡음, 전자기적인 복사, 동작 잡음, 그리고 다른 조직과의 상호 작용 등에 의해서 유발되는 복잡한 형태의 잡음들을 포함하게 된다. 이와 같이 EMG와 같은 생체신호에 포함된 노이즈는 주변 환경이나 사용자의 신체상태, 센서와 신체의 접촉상태에 따라 지속적으로 변하기 때문에 정확한 임계값을 설정하기가 어려운 문제가 있었으며, 이러한 문제 해결을 위해서는 사용자의 동작여부를 정확하게 판단할 수 있는 방안이 요구된다. 대한민국 공개특허공보 제10-2016-0133306호와, 대한민국 등록특허공보 제10-1000869호가 선행기술 문헌으로 개시되고 있다.The simplest method of inferring the user's operation intention is to determine that the user has started the operation when the specific factor value of the biological signal exceeds the preset threshold value and perform the control operation corresponding to the operation . However, bio-signals (EMG signals) contain complex types of noise caused by device-specific noise, electromagnetic radiation, motion noise, and interaction with other tissues. Thus, there is a problem that it is difficult to set the accurate threshold value because the noise included in the bio-signals such as EMG continuously changes according to the surrounding environment, the physical condition of the user, and the contact state of the sensor and the body. It is necessary to provide a method for accurately determining whether or not the operation of the vehicle is performed. Korean Patent Laid-Open Publication No. 10-2016-0133306 and Korean Patent Registration No. 10-1000869 are disclosed in the prior art documents.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 하는, 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법을 제공하는 것을 그 목적으로 한다.
The present invention has been proposed in order to solve the above-mentioned problems of the previously proposed methods, and has an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, a control module for performing pre- And a computer device unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby recognizing and controlling the motion of the robot, removing the noise included in the EMG signal used for motion recognition, And an operation recognition control method using the wearable apparatus.
또한, 본 발명은, EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 하는, 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법을 제공하는 것을 또 다른 목적으로 한다.Also, according to the present invention, an EMG sensor module, an IMU sensor module, and a control module are integrated into a single case, a single-channel EMG sensor is positioned on an arm band of a user, and an IMU sensor is positioned on an arm, Based control interface is wearable and can be easily used for attaching and detaching. In addition, it is possible to recognize motion and control that accurately recognize a subtle gesture without movement in a manner that an EMG signal and an IMU signal are used in combination And an operation recognition control method using the wearable apparatus.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 동작 인식 및 제어를 위한 웨어러블 장치는,According to an aspect of the present invention, there is provided a wearable device for recognizing and controlling operation,
동작 인식 및 제어를 위한 웨어러블 장치로서,1. A wearable device for motion recognition and control,
사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 출력하는 EMG(electromyogram) 센서 모듈;An EMG (electromyogram) sensor module for measuring an EMG signal according to a user's muscle movement, converting the measured EMG signal to digital, and outputting the EMG signal;
사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 출력하는 IMU(Inertial Motion Unit) 센서 모듈;An IMU (Inertial Motion Unit) sensor module that measures a user's motion signal, converts the measured motion signal into a digital signal, and outputs the digital signal;
상기 EMG 센서 모듈의 근전도 신호와 상기 IMU 센서 모듈의 움직임 신호를 입력받고, 상기 움직임 신호에 기초하여 상기 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 제어(MCU) 모듈; 및A control (MCU) module that receives an EMG signal of the EMG sensor module and a motion signal of the IMU sensor module and performs filtering to remove dynamic artifacts included in the EMG signal based on the motion signal; And
상기 제어 모듈로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 컴퓨터 장치부를 포함하는 것을 그 구성상의 특징으로 한다.
And receives the EMG signal and the motion signal from which the dynamic noise has been removed from the control module through wireless short distance communication and recognizes the operation of the EMG signal through the feature extraction, classification, and data selection mapping process and performs control corresponding thereto And a computer device unit.
바람직하게는, 상기 EMG 센서 모듈은,Preferably, the EMG sensor module includes:
사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다.
And a single channel EMG sensor positioned in the user's arm band.
바람직하게는, 상기 EMG 센서 모듈은,Preferably, the EMG sensor module includes:
사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다.
Raw EMG signal measured according to the user's muscle movement is attached to the user's arm and then the rectified signal is amplified and the filtered electromyogram signal is converted into a digital signal using an A / . ≪ / RTI >
더욱 바람직하게는, 상기 EMG 센서 모듈은,More preferably, the EMG sensor module includes:
정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
A differential amplifier can be used as an amplifier for amplifying the rectified signal.
바람직하게는, 상기 IMU 센서 모듈은,Preferably, the IMU sensor module further comprises:
사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다.
The IMU sensor is located at the forearm of the user and measures the degree of user's motion. The IMU sensor may be an accelerometer, a gyroscope, or a magnetometer.
더욱 바람직하게는, 상기 움직임 신호는,More preferably, the motion signal includes:
상기 EMG 센서 모듈에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용될 수 있다.
And may be used as a reference noise signal for correcting dynamic artifacts included in an EMG signal measured by the EMG sensor module.
바람직하게는, 상기 제어 모듈은,Advantageously, the control module comprises:
상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부로 전송하기 위한 블루투스 모듈을 더 포함할 수 있다.
And a Bluetooth module for transmitting an electromyogram signal and a motion signal, which have undergone a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal, to the computer unit.
더욱 바람직하게는, 상기 제어 모듈은,More preferably, the control module includes:
상기 컴퓨터 장치부와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
And a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer unit.
바람직하게는,Preferably,
상기 EMG 센서 모듈과, IMU 센서 모듈, 및 제어(MCU) 모듈은 원통형 케이스에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성될 수 있다.
The EMG sensor module, the IMU sensor module, and the control (MCU) module may be constructed in a wearable type which is accommodated in a cylindrical case and fastened to a user's forearm.
더욱 바람직하게는, 상기 원통형 케이스는,More preferably, the cylindrical case includes:
3D 프린터로 제작될 수 있다.
And can be manufactured as a 3D printer.
더욱 바람직하게는, 상기 원통형 케이스는,More preferably, the cylindrical case includes:
사용자의 팔뚝에 탈부착이 가능한 체결부재를 더 포함하여 구성할 수 있다.
And a fastening member capable of being detachably attached to the forearm of the user.
더욱 바람직하게는, 상기 컴퓨터 장치부는,More preferably, the computer device unit comprises:
상기 제어 모듈로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행할 수 있다.
(EMU) signal received through the Bluetooth communication from the control module to classify the gesture according to the motion of the user and classify the gesture taken by the user using the motion (IMU) signal Data selection and mapping can be performed with reference to a preset data sheet.
더욱 더 바람직하게는, 상기 컴퓨터 장치부는,Still more preferably, the computer device unit further comprises:
상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다.
Judges and recognizes the gesture of the electromyogram signal based on the data classified through the feature extraction of the gesture and the result obtained through the data selection and mapping processing with reference to the preset data sheet, Can be executed on the control application.
더더욱 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,
상기 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 할 수 있다.
By combining the EMG signal and the motion (IMG) signal, it is possible to detect isometric muscle activity that does not appear to be an actual motion, classify subtle gestures that do not follow the motion, .
더더욱 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용할 수 있다.
As a feature extraction of the gesture according to the user's muscle movement using the EMG signal, wavelet transform of time-frequency analysis can be applied.
더더욱 더 바람직하게는, 상기 제스처 분류는,Even more preferably, the gesture classification comprises:
hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어질 수 있다.
hand close gestures, hand open gestures, and hand extention gestures.
더더욱 더 바람직하게는, 상기 컴퓨터 장치부는,Even more preferably,
상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.
The classification of the feature extraction of the gesture according to the user's muscle movement using the EMG signal can be classified using the K-nearest neighbor (KNN) algorithm.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법은,According to another aspect of the present invention, there is provided a method of controlling an operation recognition using a wearable device,
EMG 센서 모듈과 IMU 센서 모듈과 제어(MCU) 모듈 및 컴퓨터 장치부를 구비하는 웨어러블 장치를 이용한 동작 인식 제어 방법으로서,An operation recognition control method using a wearable device having an EMG sensor module, an IMU sensor module, a control (MCU) module, and a computer unit,
(1) 상기 제어 모듈이 상기 EMG 센서 모듈로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는 단계;(1) receiving the EMG signal converted into a digital signal by measuring the movement of the user's forearm through the EMG sensor module from the control module;
(2) 상기 제어 모듈이 상기 IMU 센서 모듈로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는 단계;(2) receiving the motion (IMU) signal of which the degree of motion of the user is measured from the IMU sensor module and converted into a digital signal by the control module;
(3) 상기 제어 모듈이 상기 움직임 신호에 기초하여 상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부로 전송하는 단계; 및(3) The control module performs a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal based on the motion signal, and outputs the preprocessed EMG signal and the motion signal To the computer unit; And
(4) 상기 컴퓨터 장치부가 상기 단계 (3)을 통해 상기 제어 모듈로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(4) The computer device receives the dynamic noise-free electromyogram signal and the motion signal through the wireless local area communication from the control module through the step (3), and performs the feature extraction, classification, and data selection mapping processing And recognizing an operation of the electromyogram signal and performing control corresponding thereto.
바람직하게는, 상기 단계 (4)에서는,Preferably, in the step (4)
상기 컴퓨터 장치부가, 상기 제어 모듈로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다.
The computer device extracts and classifies gesture characteristics according to the movement of the user's muscles using an EMG signal received through the Bluetooth communication from the control module, A data selection and mapping process is performed with reference to a preset data sheet to distinguish the gestures and the result obtained through data selection and mapping process with reference to the data classified through the feature extraction of the gesture and the preset data sheet And recognizes the gesture of the electromyogram signal and recognizes the gesture of the electromyogram signal, and executes an operation process corresponding to the determined gesture on the control application.
더욱 바람직하게는, 상기 컴퓨터 장치부는,More preferably, the computer device unit comprises:
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.A wavelet transform of time-frequency analysis is applied to extract a gesture according to a user's muscle movement using the electromyogram (EMG) signal, and a feature extraction of a gesture according to a user's muscle movement using the EMG signal And can be classified using the K-nearest neighbor (KNN) algorithm.
본 발명에서 제안하고 있는 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법에 따르면, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 할 수 있다.
According to the wearable device for motion recognition and control proposed in the present invention and the motion recognition control method using the same, an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, A control module, and a computer unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby making it possible to recognize the motion and remove the noise included in the EMG signal used for the control to enable more accurate motion recognition .
또한, 본 발명에 따르면, EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 할 수 있다.In addition, according to the present invention, the EMG sensor module, the IMU sensor module, and the control module are integrated into a single case, a single-channel EMG sensor is positioned on the arm band of the user, and an IMU sensor is positioned on the forearm, The EMG-based control interface is wearable and can be conveniently used for attaching and detaching. In addition, the EMG signal and the IMU signal can be used in combination to accurately recognize subtle gestures without motion.
도 1은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 구성을 기능블록으로 도시한 도면.
도 2는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 시스템 구조도를 도시한 도면.
도 3은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치에서 동작 인식되는 핸드 제스처의 모습을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 동작 상태를 도시한 도면.
도 5는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 다른 동작 상태를 도시한 도면.
도 6은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 또다른 동작 상태를 도시한 도면.
도 7은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 트레이닝 데이터를 도시한 도면.
도 8은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 제스처별 인식 스코어를 그래프로 도시한 도면.
도 9는 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법의 동작 흐름을 도시한 도면.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a functional block diagram illustrating a configuration of a wearable device for recognizing and controlling operations according to an embodiment of the present invention; FIG.
BACKGROUND OF THE
3 is a view showing a hand gesture recognized as an operation in a wearable device for recognizing and controlling a motion according to an embodiment of the present invention;
4 is a view showing an operation state of an arm in a wearing state of a wearable device for recognizing and controlling operation according to an embodiment of the present invention;
FIG. 5 is a view showing another operation state of the wearable wearable device for recognition and control of operation according to an embodiment of the present invention; FIG.
6 is a view showing another operation state of the wearable wearable wearable device for recognizing and controlling operation according to an embodiment of the present invention.
FIG. 7 illustrates training data of a wearable device for recognition and control of movement according to an embodiment of the present invention; FIG.
FIG. 8 is a graphical representation of gesture recognition scores of a wearable device for recognizing and controlling actions according to an embodiment of the present invention; FIG.
9 is a flowchart illustrating an operation of the wearable apparatus according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order that those skilled in the art can easily carry out the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In the drawings, like reference numerals are used throughout the drawings.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.
도 1은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 구성을 기능블록으로 도시한 도면이고, 도 2는 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 시스템 구조도를 도시한 도면이며, 도 3은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치에서 동작 인식되는 핸드 제스처의 모습을 도시한 도면이고, 도 4 내지 도 6은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 착용 상태에서의 팔의 다양한 동작 상태를 도시한 도면이다. 도 1 및 도 2에 각각 도시된 바와 같이, 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치(100)는, EMG 센서 모듈(110), IMU 센서 모듈(120), 제어(MCU) 모듈(130), 및 컴퓨터 장치부(140)를 포함하여 구성될 수 있다.
FIG. 1 is a functional block diagram illustrating a configuration of a wearable device for recognizing and controlling operations according to an exemplary embodiment of the present invention. FIG. 2 is a block diagram of a wearable device for recognizing and controlling operations according to an exemplary embodiment of the present invention. FIG. 3 is a view showing a hand gesture recognized as an operation in a wearable device for recognizing and controlling a movement according to an embodiment of the present invention, and FIGS. 4 to 6 are views FIG. 8 is a view showing various operating states of an arm in a wearing state of a wearable device for recognizing and controlling operations according to an embodiment. 1 and 2, the
EMG 센서 모듈(110)은, 사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 제어 모듈(130)로 출력하는 구성이다. 이러한 EMG(electromyogram) 센서 모듈(110)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다. 여기서, EMG 센서 모듈(110)은 사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다. 이때, EMG 센서 모듈(110)은 정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
The
IMU 센서 모듈(120)은, 사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 제어 모듈(130)로 출력하는 구성이다. 이러한 IMU(Inertial Motion Unit) 센서 모듈(120)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다. 여기서, 움직임 신호는 EMG 센서 모듈(110)에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용될 수 있다.
The
제어(MCU) 모듈(130)은, EMG 센서 모듈(110)의 근전도 신호와 IMU 센서 모듈(120)의 움직임 신호를 입력받고, 움직임 신호에 기초하여 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 프로세싱 모듈의 구성이다. 이러한 제어 모듈(130)은 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하여 구성할 수 있다. 여기서, 제어 모듈(130)은 도 2에 도시된 바와 같이, 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
The control (MCU)
또한, EMG 센서 모듈(110)과, IMU 센서 모듈(120), 및 제어(MCU) 모듈(130)은 도 4 내지 도 6에 도시된 바와 같이, 원통형 케이스(101)에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성될 수 있다. 이러한 원통형 케이스(101)는 3D 프린터로 제작될 수 있으며, 사용자의 팔뚝에 탈부착이 가능한 체결부재(102)를 더 포함하여 구성할 수 있다.
4 to 6, the
컴퓨터 장치부(140)는, 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 구성이다. 이러한 컴퓨터 장치부(140)는 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행할 수 있다.
The
또한, 컴퓨터 장치부(140)는 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행할 수 있다. 이러한 컴퓨터 장치부(140)는 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 하게 된다.
The
또한, 컴퓨터 장치부(140)는 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용할 수 있다. 이때, 제스처 분류는 도 3에 도시된 바와 같이, hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어질 수 있다. 이러한 웨이블릿 변환(WT)은 EMG 신호와 같은 비 정상적인 신호를 분석하는데 용이한 시간-주파수 분석 방법으로, 웨이블릿 변환을 사용함으로써 얻을 수 있는 장점은 특징 벡터(feature vector)의 차원 설정이 용이하고, 여러 차원의 특징 벡터를 사용한 경우와 거의 동일한 결과를 도출할 수 있게 된다. 즉, 웨이블릿 변환은 푸리에(fourier) 분석으로부터 개발되어 짧은 시간 구간에 대해 적용되며, 윈도우의 크기는 실시간 주파수 분석을 통해서 수정될 수 있다. 결과적으로 높은 주파수를 가지는 신호에 대한 분석도 낮은 주파수 대역에서의 분석과 동일한 결과를 도출할 수 있게 된다. 사용자가 취한 제스처를 구분하기 위해서는 각 매칭된 패턴으로부터 명확한 특징이 취해져야 하므로, 여러 개의 특징들이 추출될 수 있는데, 이들 가운데 일반적인 통계적인 특징들인 최대값, 최소값, 제곱평균(Root Mean Square) 등을 포함할 수 있다.
In addition, the
또한, 컴퓨터 장치부(140)는 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다. 즉, SVM(Support Vector Machine) 분류 알고리즘은 Kerenel을 사용하여 선형 또는 비선형의 방법으로 사용될 수 있지만, 정확한 결과를 위해서는 많은 데이터 학습이 필요한 단점이 있다. 본 발명에서는 KNN 알고리즘을 이용하여 KNN에 의한 결과를 SVM에 의한 결과와 비교한 바, KNN이 SVM보다는 더 좋은 결과가 도출됨을 실험을 통해 알 수 있었다. 그 이유는 KNN은 자체가 비선형이기 때문에 선형적으로 또는 비선형적으로 분포하는 데이터를 쉽게 감지할 수 있고, 좋은 결과를 얻기 위해서 필요로 하는 데이터 포인트도 더 적게 된다.
In addition, the
도 7은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 트레이닝 데이터를 도시한 도면이고, 도 8은 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치의 제스처별 인식 스코어를 그래프로 도시한 도면이다. 도 7은 훈련 데이터로서, 전처리 및 특징 추출 이후의 핸드 Close 제스처, 핸드 Open 제스처, 핸드 Extension 제스처의 손이 0, 1, 및 2에 해당하는 각 제스처 그룹을 표로 나타내고 있다. 데이터를 학습한 후(MAX, MIN, MAV, RMS, STD)의 어떤 기능이 가장 좋은 결과를 얻을 수 있는지 선택한다. 도 8은 제스처 인식의 정확성을 확인하기 위해 모델의 점수를 확인하고, 점수가 있는 분산을 나타내고 있다.
FIG. 7 is a view showing training data of a wearable device for recognizing and controlling a movement according to an embodiment of the present invention, and FIG. 8 is a graph showing the training data of the wearable device for gesture recognition and control according to an embodiment of the present invention And a recognition score in a graph. FIG. 7 is a table showing each gesture group corresponding to
도 9는 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법의 동작 흐름을 도시한 도면이다. 도 9에 도시된 바와 같이, 본 발명의 일실시예에 따른 웨어러블 장치를 이용한 동작 인식 제어 방법은, 제어 모듈(130)이 근전도(EMG) 신호를 입력받는 단계(S110), 제어 모듈(130)이 움직임(IMU) 신호를 입력받는 단계(S120), 제어 제어 모듈(130)이 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하는 단계(S130), 및 컴퓨터 장치부(140)가 동적 잡음이 제거된 근전도 신호와 움직임 신호를 이용하여 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계(S140)를 포함하여 구현될 수 있다.
9 is a flowchart illustrating an operation recognition control method using a wearable device according to an embodiment of the present invention. 9, an operation recognition control method using a wearable device according to an embodiment of the present invention includes a step S110 of receiving an EMG signal from a
본 발명의 동작 인식 제어 방법에 사용되는 웨어러블 장치(100)는, 도 1 내지 도 6에 각각 도시된 바와 같이, 손의 제스처를 인식하기 위한 EMG 센서 모듈(110)과 IMU 센서 모듈(120)과 제어(MCU) 모듈(130) 및 컴퓨터 장치부(140)를 구비한다. 이하에서는 앞서 설명한 웨어러블 장치(100)를 이용한 동작 인식 제어 방법에 대해 상세히 설명하기로 한다.
1 to 6, the
단계 S110에서는, 제어 모듈(130)이 EMG 센서 모듈(110)로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는다. 여기서, EMG(electromyogram) 센서 모듈(110)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성할 수 있다. 여기서, EMG 센서 모듈(110)은 사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리할 수 있다. 이때, EMG 센서 모듈(110)은 정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용할 수 있다.
In step S110, the
단계 S120에서는, 제어 모듈(130)이 IMU 센서 모듈(120)로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는다. 여기서, IMU(Inertial Motion Unit) 센서 모듈(120)은 도 4 내지 도 6에 도시된 바와 같이, 사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성될 수 있다.
In step S120, the
단계 S130에서는, 제어 모듈(130)이 움직임 신호에 기초하여 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송한다. 여기서, 제어 모듈(130)은 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하여 구성할 수 있다. 이때, 제어 모듈(130)은 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현될 수 있다.
In step S130, the
단계 S140에서는, 컴퓨터 장치부(140)가 단계 S130을 통해 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행한다. 이러한 단계 S140에서는 컴퓨터 장치부(140)가, 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하게 된다.
In step S140, the
또한, 컴퓨터 장치부(140)는 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리할 수 있다.
In addition, the
상술한 바와 같이, 본 발명의 일실시예에 따른 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법은, 근전도 신호를 측정하는 EMG 센서 모듈과, 움직임 신호를 측정하는 IMU 센서 모듈, 잡음 제거의 전처리를 수행하는 제어 모듈, 및 EMG 신호에 기초한 제스처의 동작을 인식하고 제어하는 컴퓨터 장치부를 포함하여 구성함으로써, 동작 인식 및 제어를 사용되는 EMG 신호에 포함된 노이즈를 제거하여 보다 정확한 동작 인식이 가능하도록 할 수 있으며, 또한 EMG 센서 모듈과 IMU 센서 모듈 및 제어 모듈을 하나의 케이스에 통합하여 구성하고, 사용자의 팔 밴드에 단일 채널 EMG 센서가 위치되고, 팔뚝에 IMU 센서가 위치하도록 구성함으로써, EMG 기반의 제어 인터페이스를 착용(wearable)형으로 탈부착의 편리한 사용이 가능함은 물론, EMG 신호와 IMU 신호가 결합되어 사용되는 방식으로 움직임이 없는 미묘한 제스처를 정확하게 인식할 수 있도록 할 수 있게 된다.
As described above, the wearable device and the motion recognition control method for motion recognition and control according to an embodiment of the present invention include an EMG sensor module for measuring an EMG signal, an IMU sensor module for measuring a motion signal, And a computer unit for recognizing and controlling the operation of the gesture based on the EMG signal, thereby making it possible to eliminate the noise included in the EMG signal used for motion recognition and control, In addition, the EMG sensor module, the IMU sensor module and the control module are integrated into a single case, and a single-channel EMG sensor is positioned on the user's arm band and an IMU sensor is positioned on the forearm , The EMG-based control interface is wearable and can be conveniently used for attaching and detaching, A call and how the IMU signals are combined using a subtle gesture no motion is possible to ensure that they accurately recognized.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention may be embodied in many other specific forms without departing from the spirit or essential characteristics and scope of the invention.
100: 본 발명의 일실시예에 따른 웨어러블 장치
101: 원통형 케이스
102: 체결부재
110: EMG 센서 모듈
120: IMU 센서 모듈
130: 제어(MCU) 모듈
131: 블루투스 모듈
140: 컴퓨터 장치부
S110: 제어 모듈이 근전도(EMG) 신호를 입력받는 단계
S120: 제어 모듈이 움직임(IMU) 신호를 입력받는 단계
S130; 전처리 과정이 수행된 근전도 신호와 움직임 신호를 컴퓨터 장치부로 전송하는 단계
S140: 컴퓨터 장치부가 동적 잡음이 제거된 근전도 신호와 움직임 신호를 이용하여 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계100: a wearable device according to an embodiment of the present invention
101: Cylindrical case
102: fastening member
110: EMG sensor module
120: IMU sensor module
130: Control (MCU) module
131: Bluetooth module
140:
S110: The control module receives the EMG signal
S120: the control module receives the motion (IMU) signal
S130; A step of transmitting the electromyogram signal and the motion signal subjected to the preprocessing process to the computer device unit
S140: recognizing the operation of the EMG signal through the feature extraction, classification, and data selection mapping processing using the EMG signal and the motion signal from which the computer device has removed the dynamic noise, and performing the corresponding control
Claims (20)
사용자의 근육 움직임에 따른 근전도(EMG) 신호를 측정하고, 측정된 근전도 신호를 디지털로 변환하여 출력하는 EMG(electromyogram) 센서 모듈(110);
사용자의 움직임 신호를 측정하고, 측정된 움직임 신호를 디지털 신호로 변환하여 출력하는 IMU(Inertial Motion Unit) 센서 모듈(120);
상기 EMG 센서 모듈(110)의 근전도 신호와 상기 IMU 센서 모듈(120)의 움직임 신호를 입력받고, 상기 움직임 신호에 기초하여 상기 근전도 신호에 포함된 동적 잡음(motion artifact)을 제거하는 필터링을 수행하는 제어(MCU) 모듈(130); 및
상기 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받아 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 컴퓨터 장치부(140)를 포함하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
A wearable device (100) for motion recognition and control,
An EMG (electromyogram) sensor module 110 for measuring an EMG signal according to a user's muscle movement, converting the measured EMG signal to digital, and outputting the digital EMG signal;
An IMU (Inertial Motion Unit) sensor module 120 for measuring a user's motion signal, converting the measured motion signal into a digital signal, and outputting the digital signal;
Receives EMG signal of the EMG sensor module 110 and a motion signal of the IMU sensor module 120 and performs filtering to remove dynamic artifacts included in the EMG signal based on the motion signal A control (MCU) module 130; And
The control unit 130 receives the EMG signal and the motion signal from which the dynamic noise has been removed through the WLAN and recognizes the EMG signal by the feature extraction, classification, and data selection mapping process, And a computer device (140) for performing the operation of the wearable device.
사용자의 팔 밴드(arm band)에 위치하는 단일 채널 EMG 센서를 포함하여 구성하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the EMG sensor module (110)
And a single-channel EMG sensor positioned in an arm band of the wearer's body.
사용자의 팔에 부착되어 사용자의 근육 움직임에 따라 측정된 근전도 원시 신호(Raw EMG signal)를 정류(Rectified)하고, 이어 정류된 신호를 증폭하여 필터링된 근전도 신호를 A/D변환기를 이용하여 디지털 신호로 변환 처리하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the EMG sensor module (110)
Raw EMG signal measured according to the user's muscle movement is attached to the user's arm and then the rectified signal is amplified and the filtered electromyogram signal is converted into a digital signal using an A / To the wearable apparatus for operation recognition and control.
정류된 신호의 증폭을 위한 증폭기로 차등 증폭기를 사용하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 3, wherein the EMG sensor module (110)
Characterized in that a differential amplifier is used as an amplifier for amplifying the rectified signal.
사용자의 팔뚝에 위치되어 사용자 움직임 정도를 측정하기 위한 IMU 센서로서, 가속도계(accelerometer), 자이로스코프(Gyroscope), 및 자력계(Magnetometer) 중 어느 하나의 센서로 구성되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The system of claim 1, wherein the IMU sensor module (120)
An IMU sensor for measuring the degree of user's movement, which is positioned at the forearm of a user and is constituted by an accelerometer, a gyroscope, and a magnetometer. Wearable device.
상기 EMG 센서 모듈(110)에서 측정되는 근전도(EMG) 신호에 포함되는 동적 잡음(motion artifact)을 보정하기 위한 기준 잡음 신호로 사용되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
6. The method of claim 5,
Is used as a reference noise signal for correcting dynamic artifact included in an EMG signal measured by the EMG sensor module (110).
상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부(140)로 전송하기 위한 블루투스 모듈(131)을 더 포함하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
The apparatus of claim 1, wherein the control module (130)
A Bluetooth module 131 for transmitting an electromyogram signal and a motion signal to the computer unit 140, which has undergone a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal, Wherein the wearable device is a wearable device for operation recognition and control.
상기 컴퓨터 장치부(140)와 전 전력 통신을 위한 저 전력 블루투스 4.0과 통합된 릴리패드(Lily Pad) 심블리(Simblee) BLE 보드로 구현되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
8. The apparatus of claim 7, wherein the control module (130)
And a Lily Pad Simblee BLE board integrated with the low power Bluetooth 4.0 for full power communication with the computer device unit 140. The wearable device of claim 1,
상기 EMG 센서 모듈(110)과, IMU 센서 모듈(120), 및 제어(MCU) 모듈(130)은 원통형 케이스(101)에 수용 설치되어 사용자의 팔뚝에 체결되는 착용(wearable)형으로 구성되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
9. The method according to any one of claims 1 to 8,
The EMG sensor module 110, the IMU sensor module 120, and the MCU module 130 are housed in a cylindrical case 101 and are wearable to be fastened to a user's forearm Characterized in that the wearable device for motion recognition and control.
3D 프린터로 제작되는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the cylindrical case (101)
A wearable device for operation recognition and control, characterized in that the device is made of a 3D printer.
사용자의 팔뚝에 탈부착이 가능한 체결부재(102)를 더 포함하여 구성하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the cylindrical case (101)
The wearable device for operation recognition and control according to claim 1, further comprising a fastening member (102) capable of being detachably attached to the forearm of the user.
상기 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
10. The apparatus according to claim 9, wherein the computer device (140)
Extracts and classifies gesture characteristics according to a user's muscle movement using an EMG signal input through the Bluetooth communication from the control module 130 and outputs the gesture taken by the user using the motion (IMU) Wherein the data selection and mapping are performed with reference to a data sheet set in advance for identification.
상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하고, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
13. The apparatus according to claim 12, wherein the computer device (140)
Judges and recognizes the gesture of the electromyogram signal based on the data classified through the feature extraction of the gesture and the result obtained through the data selection and mapping processing with reference to the preset data sheet, Wherein the control unit executes the operation process for performing the operation on the control application.
상기 근전도(EMG) 신호와 움직임(IMG) 신호를 결합하여 실제 움직임으로 나타나지 않는 등척성(isometric) 근육 활동을 감지하고, 이에 따른 움직임이 없는 미묘한 제스처를 분류하고 주변 환경에 방해가 되지 않는 상태로 제어가 가능하도록 하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
14. The apparatus according to claim 13, wherein the computer device (140)
By combining the EMG signal and the motion (IMG) signal, it is possible to detect isometric muscle activity that does not appear to be an actual motion, classify subtle gestures that do not follow the motion, The wearable device being capable of recognizing and controlling the operation of the wearable device.
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
14. The apparatus according to claim 13, wherein the computer device (140)
And a wavelet transform of time-frequency analysis is applied as a feature extraction of a gesture according to a user's muscle movement using the electromyogram (EMG) signal.
hand close 제스처, hand open 제스처, 및 hand extention 제스처의 3가지 클래스로 이루어지는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
16. The method of claim 15,
a hand open gesture, a hand open gesture, a hand open gesture, and a hand extention gesture.
상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리하는 것을 특징으로 하는, 동작 인식 및 제어를 위한 웨어러블 장치.
16. The apparatus according to claim 15, wherein the computer device (140)
Wherein the classifying process is performed using a K-nearest neighbor (KNN) algorithm as a classification of gesture feature extraction according to a user's muscle movement using the EMG signal.
(1) 상기 제어 모듈(130)이 상기 EMG 센서 모듈(110)로부터 사용자의 팔뚝의 근육 움직임을 통하여 측정되어 디지털 신호로 변환된 근전도(EMG) 신호를 입력받는 단계;
(2) 상기 제어 모듈(130)이 상기 IMU 센서 모듈(120)로부터 사용자의 움직임 정도가 측정되어 디지털 신호로 변환된 움직임(IMU) 신호를 입력받는 단계;
(3) 상기 제어 모듈(130)이 상기 움직임 신호에 기초하여 상기 근전도(EMG) 신호에 포함된 동적 잡음을 포함한 불필요한 잡음을 제거하는 전처리(preprocessing) 과정을 수행하고, 전처리 과정이 수행된 근전도 신호와 움직임 신호를 상기 컴퓨터 장치부(140)로 전송하는 단계; 및
(4) 상기 컴퓨터 장치부(140)가 상기 단계 (3)을 통해 상기 제어 모듈(130)로부터 동적 잡음이 제거된 근전도 신호와 움직임 신호를 무선근거리 통신을 통해 전송받고, 특징 추출, 분류, 및 데이터 선택의 맵핑 처리를 통해 상기 근전도 신호의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계를 포함하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.
1. An operation recognition control method using a wearable device (100) including an EMG sensor module (110), an IMU sensor module (120), a control (MCU) module (130), and a computer device part
(1) receiving the EMG signal, which is measured by the control module 130 from the EMG sensor module 110 through movement of the muscles of the forearm and converted into a digital signal;
(2) receiving the motion (IMU) signal in which the degree of motion of the user is measured by the control module 130 from the IMU sensor module 120 and converted into a digital signal;
(3) The control module 130 performs a preprocessing process for removing unnecessary noise including dynamic noise included in the EMG signal based on the motion signal, and outputs the preprocessed EMG signal And a motion signal to the computer device unit 140; And
(4) The computer device 140 receives the dynamic noise-free electromyogram signal and the motion signal from the control module 130 through the wireless local area communication in step (3), and performs feature extraction, classification, Recognizing an operation of the electromyogram signal through a mapping process of data selection, and performing a control corresponding to the operation of the electromyogram signal.
상기 컴퓨터 장치부(140)가, 상기 제어 모듈(130)로부터 블루투스 통신을 통해 입력받은 근전도(EMG) 신호를 이용하여 사용자의 근육 움직임에 따른 제스처의 특징을 추출하여 분류하고, 상기 움직임(IMU) 신호를 이용하여 사용자가 취한 제스처를 구분하기 위해 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑을 수행하고, 상기 제스처의 특징 추출을 통해 분류한 데이터와, 미리 설정된 데이터시트를 참조한 데이터 선택 및 맵핑 수행 처리를 통해 회득한 결과를 기초로 근전도 신호의 제스처를 판단하여 인식하며, 상기 판단하여 인식된 제스처에 해당하는 동작 처리를 제어 어플리케이션 상에서 실행하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.
19. The method of claim 18, wherein in step (4)
The computer unit 140 extracts and classifies gesture characteristics according to a user's muscle movement using an EMG signal received through the Bluetooth communication from the control module 130, And performs data selection and mapping with reference to a preset data sheet in order to identify a gesture taken by the user using the signal and performs data selection and mapping processing with reference to data classified by the feature extraction of the gesture and a preset data sheet Judges and recognizes the gesture of the electromyogram signal on the basis of the result obtained through the operation of the wearable device, and executes an operation process corresponding to the judged and recognized gesture on the control application.
상기 근전도(EMG) 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출로서, 시간-주파수 분석의 웨이블릿 변환(Wavelet Transformation)을 적용하고, 상기 근전도 신호를 이용한 사용자의 근육 움직임에 따른 제스처의 특징 추출의 분류로서, K-nearest Neighbor(KNN) 알고리즘을 이용하여 분류 처리하는 것을 특징으로 하는, 웨어러블 장치를 이용한 동작 인식 제어 방법.The computer system according to claim 19, wherein the computer device (140)
A wavelet transform of time-frequency analysis is applied to extract a gesture according to a user's muscle movement using the electromyogram (EMG) signal, and a feature extraction of a gesture according to a user's muscle movement using the EMG signal Wherein the classification process is performed using a K-nearest neighbor (KNN) algorithm as a classification of the wearable device.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010103A KR101963694B1 (en) | 2017-01-22 | 2017-01-22 | Wearable device for gesture recognition and control and gesture recognition control method using the same |
PCT/KR2017/001568 WO2018135692A1 (en) | 2017-01-22 | 2017-02-13 | Wearable device for motion recognition and control, and method for motion recognition control using same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010103A KR101963694B1 (en) | 2017-01-22 | 2017-01-22 | Wearable device for gesture recognition and control and gesture recognition control method using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180086547A true KR20180086547A (en) | 2018-08-01 |
KR101963694B1 KR101963694B1 (en) | 2019-03-29 |
Family
ID=62908520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170010103A KR101963694B1 (en) | 2017-01-22 | 2017-01-22 | Wearable device for gesture recognition and control and gesture recognition control method using the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101963694B1 (en) |
WO (1) | WO2018135692A1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210111098A (en) | 2020-03-02 | 2021-09-10 | 국방과학연구소 | System and Method for modeling human body which can estimate occupant motion |
CN113534960A (en) * | 2021-07-29 | 2021-10-22 | 中国科学技术大学 | Upper arm prosthesis control method and system based on IMU and surface electromyographic signals |
WO2022114294A1 (en) * | 2020-11-27 | 2022-06-02 | (주) 로임시스템 | Biosignal dual processing apparatus |
CN114683292A (en) * | 2022-06-01 | 2022-07-01 | 深圳市心流科技有限公司 | Sampling frequency control method of electromyographic equipment, intelligent bionic hand and storage medium |
WO2023106662A1 (en) * | 2021-12-09 | 2023-06-15 | 삼성전자 주식회사 | Gesture recognition method using wearable device, and device therefor |
US11960655B2 (en) | 2021-12-09 | 2024-04-16 | Samsung Electronics Co., Ltd. | Method of recognizing gesture by using wearable device and the wearable device |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3136112C (en) * | 2019-04-05 | 2024-01-02 | Baylor College Of Medicine | Method and system for detection and analysis of thoracic outlet syndrome (tos) |
CN111046731B (en) * | 2019-11-11 | 2023-07-25 | 中国科学院计算技术研究所 | Transfer learning method and recognition method for gesture recognition based on surface electromyographic signals |
KR102258168B1 (en) * | 2019-11-14 | 2021-05-28 | 주식회사 마이뉴런 | Paralysis patient motion analysis monitoring system and method |
CN111700718B (en) * | 2020-07-13 | 2023-06-27 | 京东科技信息技术有限公司 | Method and device for recognizing holding gesture, artificial limb and readable storage medium |
CN114265498B (en) * | 2021-12-16 | 2023-10-27 | 中国电子科技集团公司第二十八研究所 | Method for combining multi-mode gesture recognition and visual feedback mechanism |
CN113970968B (en) * | 2021-12-22 | 2022-05-17 | 深圳市心流科技有限公司 | Intelligent bionic hand action pre-judging method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150057770A1 (en) * | 2013-08-23 | 2015-02-26 | Thaimic Labs Inc. | Systems, articles, and methods for human-electronics interfaces |
KR20150112741A (en) * | 2014-03-27 | 2015-10-07 | 전자부품연구원 | Wearable device and information input method using the same |
KR20150123254A (en) * | 2013-02-22 | 2015-11-03 | 탈믹 랩스 인크 | Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8170656B2 (en) * | 2008-06-26 | 2012-05-01 | Microsoft Corporation | Wearable electromyography-based controllers for human-computer interface |
KR102131358B1 (en) * | 2013-06-17 | 2020-07-07 | 삼성전자주식회사 | User interface device and method of operation of user interface device |
-
2017
- 2017-01-22 KR KR1020170010103A patent/KR101963694B1/en active IP Right Grant
- 2017-02-13 WO PCT/KR2017/001568 patent/WO2018135692A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150123254A (en) * | 2013-02-22 | 2015-11-03 | 탈믹 랩스 인크 | Methods and devices that combine muscle activity sensor signals and inertial sensor signals for gesture-based control |
US20150057770A1 (en) * | 2013-08-23 | 2015-02-26 | Thaimic Labs Inc. | Systems, articles, and methods for human-electronics interfaces |
KR20150112741A (en) * | 2014-03-27 | 2015-10-07 | 전자부품연구원 | Wearable device and information input method using the same |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210111098A (en) | 2020-03-02 | 2021-09-10 | 국방과학연구소 | System and Method for modeling human body which can estimate occupant motion |
WO2022114294A1 (en) * | 2020-11-27 | 2022-06-02 | (주) 로임시스템 | Biosignal dual processing apparatus |
CN113534960A (en) * | 2021-07-29 | 2021-10-22 | 中国科学技术大学 | Upper arm prosthesis control method and system based on IMU and surface electromyographic signals |
CN113534960B (en) * | 2021-07-29 | 2024-05-28 | 中国科学技术大学 | Upper arm artificial limb control method and system based on IMU and surface electromyographic signals |
WO2023106662A1 (en) * | 2021-12-09 | 2023-06-15 | 삼성전자 주식회사 | Gesture recognition method using wearable device, and device therefor |
US11960655B2 (en) | 2021-12-09 | 2024-04-16 | Samsung Electronics Co., Ltd. | Method of recognizing gesture by using wearable device and the wearable device |
CN114683292A (en) * | 2022-06-01 | 2022-07-01 | 深圳市心流科技有限公司 | Sampling frequency control method of electromyographic equipment, intelligent bionic hand and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR101963694B1 (en) | 2019-03-29 |
WO2018135692A1 (en) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101963694B1 (en) | Wearable device for gesture recognition and control and gesture recognition control method using the same | |
US10154818B2 (en) | Biometric authentication method and apparatus | |
Bulling et al. | Wearable EOG goggles: Seamless sensing and context-awareness in everyday environments | |
US9770179B2 (en) | System, method and device for detecting heart rate | |
KR101314570B1 (en) | Brain-Machine Interface(BMI) Devices and Methods For Precise Control | |
US10890972B2 (en) | Prefrontal-based cognitive brain-machine interfacing apparatus and method thereof | |
KR101551169B1 (en) | Method and apparatus for providing service security using biological signal | |
CN109993068B (en) | Non-contact human emotion recognition method based on heart rate and facial features | |
Ramkumar et al. | A review-classification of electrooculogram based human computer interfaces | |
US20220047198A1 (en) | Attention detection method and system | |
KR101400141B1 (en) | half-field SSVEP based BCI System and motion method Thereof | |
KR20190098806A (en) | A smart hand device for gesture recognition and control method thereof | |
Gorur et al. | Glossokinetic potential based tongue–machine interface for 1-D extraction | |
Heger et al. | Online workload recognition from EEG data during cognitive tests and human-machine interaction | |
Lv et al. | Design and implementation of an eye gesture perception system based on electrooculography | |
KR101527273B1 (en) | Method and Apparatus for Brainwave Detection Device Attached onto Frontal Lobe and Concentration Analysis Method based on Brainwave | |
KR101630398B1 (en) | Method and apparatus for providing service security using subliminal stimulus | |
KR102276991B1 (en) | Apparatus and method for controlling wearable robot by detecting motion intention of users based on brain machine interface | |
KR100612046B1 (en) | Method and appratus for recognizing positive/negative intention using fine change of gamma wave of brain wave | |
Görür et al. | Tongue-operated biosignal over EEG and processing with decision tree and kNN | |
KR101208719B1 (en) | System for processing biological signal and portable instrumnet for processing biological signal | |
Rupanagudi et al. | A simplified approach to assist motor neuron disease patients to communicate through video oculography | |
WO2016149830A1 (en) | System, method and device for detecting heart rate | |
CN110033772B (en) | Non-acoustic voice information detection device based on PPG signal | |
KR100327117B1 (en) | Apparatus and method for making a judgement on positive and negative intention by using the EEG |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |